Wan 2.2 即将上线:阿里开源视频生成 AI 挑战 Sora 新起点

AI ToolBox
AI ToolBox
2025年7月25日

Wan2.2: 技术升级,性能再突破

阿里巴巴云近日宣布,其新一代视频生成AI模型------Wan2.2即将正式亮相。作为Wan2.1的升级版本,Wan2.2在性能、效率与功能层面均有显著提升,继续践行阿里AI开源战略,进一步巩固其在全球AI视频生成领域的领先地位。

图片

此前,Wan2.1于2025年2月开源后广受好评,在VBench基准测试中以84.7%的得分超越OpenAI的Sora(84.28%)。其核心技术包括时空变分自编码器(VAE) 与*扩散变换器(DiT)*架构。Wan2.2预计将在此基础上实现更深层次优化,显著提升视频生成速度与质量,尤其在高分辨率和长视频生成方面表现更佳。

据悉,Wan2.2将新增以下核心功能:

  • 文本到视频(T2V):支持更高分辨率(如1080p与4K),生成更长视频内容,同时缩短生成时间。
  • 图像到视频(I2V):提升动态场景的连贯性与真实感,增强复杂动作与场景转换的表现力。
  • 视频到音频(V2A):强化从视频内容中生成匹配音频的能力,提升多模态创作的沉浸感。
  • 多语言与风格扩展:支持更多语言输入,新增如赛博朋克、写实动画等多种艺术风格模板。
  • 硬件优化:进一步降低硬件要求,预计T2V-1.3B模型可在6GB显存设备上流畅运行,扩大用户群体。

在数据层面,Wan2.2预计在Wan2.1(15亿视频、100亿图像)的基础上扩充训练数据,并优化筛选机制,以提升生成内容的多样性与真实度。

Wan2.2将继续采用Apache2.0许可证,通过Alibaba Cloud ModelScopeHugging Face平台,向全球用户免费提供代码与模型权重,支持学术研究与商业应用。此前Wan2.1已推出T2V-1.3B、T2V-14B、I2V-14B-720P和I2V-14B-480P四种变体,Wan2.2预计将推出更多模型变体,适配不同硬件与使用场景。

开发者社区对Wan2.2的开源前景充满期待,普遍认为其将进一步挑战OpenAI Sora等封闭模型的主导地位,推动AI视频生成技术的普及化与民主化。阿里云此举不仅降低了技术门槛,也为全球开发者提供了更广阔的创新空间。