2025年3月9日,美国加利福尼亚州——开源模型正让文生视频技术变得越来越有趣。AI 开发者 Ostris(@ostrisai)近日在 X 平台上分享了他使用自家照片训练的 Wan2.1LoRA 模型成果,仅凭约20张照片和一块家用 RTX4090显卡,便实现了令人惊叹的视频生成效果。这一成果不仅展示了开源技术的潜力,也引发了 X 社区对视频 LoRA 训练工具的热烈讨论。
Ostris 的惊艳实验
Ostris 在3月7日的 X 帖子中首次展示了 Wan2.114B LoRA 的训练成果。他写道:“Wan2.114B LoRA 训练在24GB 上成功运行!在4090上以480p 分辨率平均每步1.7秒。”他还分享了一段初步视频,证明了这一模型在家用硬件上的可行性。随后在3月9日,他进一步发布了一段“低成本概念验证短音乐视频”,搭配自己创作的歌词和@SunoMusic生成的音乐,视频中的数字人形象正是基于他自己的照片训练而成。
Ostris 表示,他仅使用了约20张个人照片,通过其开发的视频 LoRA 训练工具完成了这一过程。他在帖子中感叹:“没想到效果这么好!我玩得很开心。”这一实验不仅验证了 Wan2.1LoRA 的强大性能,也展示了普通用户利用开源工具实现高质量文生视频的可能性。
训练工具开源共享Ostris 开发的视频 LoRA 训练工具成为此次发布的一大亮点。用户@sundyme在3月9日发帖称:“视频 LoRA 训练来了,让你成为 AI 视频的主角!”并分享了 Ostris 的工具链接。这一工具支持 Wan2.1模型,允许用户通过少量照片训练个性化视频模型,显著降低了技术门槛。
X 用户对这一工具表现出浓厚兴趣。@sundyme表示:“由@ostrisai开发的 LoRA 训练工具,支持 Wan2.1,效果惊艳。”社区反馈显示,该工具在 RTX4090等消费级显卡上的高效运行,让更多创作者能够在家尝试 AI 视频生成。
社区反响与技术意义
X 上的反响显示,Ostris 的成果激起了广泛热情。一名用户评论:“用20张照片就能训练出这么逼真的数字人,太不可思议了!”另一位用户则称赞开源模型的潜力:“文生视频越来越有趣了,开源让普通人也能玩转 AI。”
业内人士认为,Ostris 的实验凸显了开源模型在视频生成领域的突破。Wan2.1LoRA 结合少样本训练技术,不仅降低了硬件需求,还提升了个性化创作的可及性。与传统需要庞大数据集和高性能服务器的模型相比,这一方法为独立开发者和小型团队开辟了新路径。
项目地址:https://github.com/ostris/ai-toolkit