选择你喜欢的标签
我们会为你匹配适合你的网址导航

    确认 跳过

    跳过将删除所有初始化信息

    您的位置:0XUCN > 资讯 > 智能
    新闻分类

    Story Flicks基于AI大模型的故事短视频生成工具。

    智能 PRO 作者:乐播传媒 2025-02-23 16:49

    Story Flicks是一款开源的基于ai大模型打造的故事短视频生成工具。它把先进的语言模型和图像生成技术融合起来,依据用户输入的故事主题,能够迅速生成包含AI生成图像、故事内容以及音频的视频。它主要提供一键生成高清短视频的服务,很适合那些想要快速制作视觉内容的创作者、教育者以及市场推广人员。

    功能特征:

    智能生成:用户仅输入故事主题或者关键字,系统就能自动生成对应的短视频,并且短时间内能给出多种创意成果。

    多语言支持:Story Flicks能够支持多种语言,用户能按照自身需求挑选合适的语言来生成内容,这提升了使用时的便利性与灵活性。

    图像与音频结合:Story Flicks除了能生成文本内容和故事情节,还能给视频添加由AI生成的图像以及背景音效,整体上增强了视频的观赏性。

    多模态生成:Story Flicks通过大语言模型(LLM)进行智能解析,能够综合构建叙事框架,同步融合视觉、听觉和文本元素。也就是说它不但能生成文本故事,还能自动创造出与故事相匹配的AI图像、动态语音旁白和智能字幕。

    AI图像生成:Story Flicks运用图像生成技术,给故事里的场景和角色营造出生动的视觉效果,让生成的视频内容在视觉上有很强的吸引力。

    一体化音频制作:其中包含动态语音旁白,这就意味着用户不需要额外去录制或者寻找音频素材,系统会自动根据故事内容生成语音。

    智能字幕:能够自动编排字幕,这既便于听障用户理解视频内容,也提高了视频的可访问性。

    技术栈:后端运用Python和FastAPI,前端采用React、Ant Design和Vite,以此确保系统高效稳定运行,为用户提供良好的开发体验。

    应用场景:

    创意内容制作:适合短视频博主、自媒体网络红人还有营销人员,通过快速制作丰富的视觉故事来提升效率。

    教育与培训:在教育行业中大有用处,能够为学员提供直观的学习素材,例如教育性的短视频内容。

    娱乐与广告:娱乐行业的从业者以及广告制作人员可以借助它迅速创作宣传视频。

    个人用途:普通个人用户也能够轻松制作纪念视频、进行故事分享等。

    Story Flicks的使用方法:

    1. 下载本项目:

    git clone https://github.com/alecm20/story-flicks.git

    2. 设置模型信息

    # 先切换到项目的 backend 目录下cd backendcp .env.example .envtext_provider="openai"    # 文本生成模型的提供商,目前支持 openai和 aliyun、deepseek、ollama、siliconflow,阿里云文档:https://www.aliyun.com/product/bailianimage_provider="aliyun"   # 图片生成模型的提供商,目前支持 openai和 aliyun、siliconflowopenai_base_url="https://api.openai.com/v1" # openai 的 baseUrlaliyun_base_url="https://dashscope.aliyuncs.com/compatible-mode/v1" # 阿里云的 baseUrldeepseek_base_url="https://api.deepseek.com/v1" # deepseek 的 baseUrlollama_base_url="http://localhost:11434/v1" # ollama 的 baseUrlsiliconflow_base_url="https://api.siliconflow.cn/v1" # siliconflow 的 baseUrlopenai_api_key= # openai 的 api key,可以只填一个aliyun_api_key= # 阿里云百炼的 api key,可以只填一个deepseek_api_key= # deepseek 的 api key,目前该 api_key 只支持文本生成ollama_api_key= # 如果需要使用的话,请填写ollama,目前该 api_key 只支持文本生成,并且不能用参数量太小的模型,推荐qwen2.5:14b 或者更大的模型。siliconflow_api_key= # siliconflow 的文本模型目前只支持兼容 OpenAI 格式的大模型,如:Qwen/Qwen2.5-7B-Instruct。图像模型只测试了:black-forest-labs/FLUX.1-devtext_llm_model=gpt-4o # 如果 text_provider 设置为 openai,这里只能填 OpenAI 的模型,如:gpt-4o。如果设置了 aliyun,可以填阿里云的大模型,如:qwen-plus 或者 qwen-max。ollama 的模型不能使用体积太小的模型,否则无法输出正确的 json,可以使用如:qwen2.5:14b 或更大的模型。image_llm_model=flux-dev # 如果 image_provider 设置为 openai,这里只能填 OpenAI 的模型,如:dall-e-3。如果设置了 aliyun,可以填阿里云的大模型,阿里云推荐使用:flux-dev,目前可以免费试用,具体参考:https://help.aliyun.com/zh/model-studio/getting-started/models#a1a9f05a675m4。

    3. 通过docker启动项目

    在项目根目录下,执行:

    docker-compose up --build

    4. 开始使用

    输入故事主题:在生成工具的界面,选择文本生成模型提供商、图片生成模型提供商、文本模型、图片生成模型、视频使用的语言、声音、故事主题以及故事段落。

    视频生成:点击生成按钮后,系统会基于AI技术展开处理,几秒钟内就能够生成最终的视频。

    0XU.CN

    [超站]友情链接:

    四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
    关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/

    图库
    公众号 关注网络尖刀微信公众号
    随时掌握互联网精彩
    赞助链接