![Wondershare](https://cdn.pro.shakingcloud.com/picture/2024/08/21/RmnhjLl44WzZZ50asVus7.png)
全球顶尖的文生短视频大模型Sora的高质量全中文版技术报告,深度解读,还可下载SoraAI生成的高清原版视频
Sora作为世界级模拟器的文本到视频的生成模型
(OpenAI)我们探索视频数据生成模型的大规模训练。具体来说,我们在可变持续时间、分辨率和宽高比的视频和图像上联合训练以文本为条件的扩散模型。我们利用了一种转换器架构,该架构对视频和图像的潜在代码的时空补丁进行操作。我们最大的模型 Sora 能够生成一分钟的高保真视频。我们的试验结果表明,扩展视频生成模型是构建物理世界通用模拟器(GPT4+物理引擎)的一条很有前途的途径。
本技术报告重点关注(1)我们将所有类型的视觉数据转化为统一表示的方法,从而能够大规模训练生成模型,以及对 Sora 的能力和局限性进行定性评估。本报告不包含模型和实施细节。
许多先前的工作已经研究了使用各种方法对视频数据进行生成建模,包括循环网络、对抗网络,自回归转换器,扩散模型等这些作品通常关注一小类视觉数据、较短的视频或固定大小的视频。但Sora 是视觉数据的通用模型,它可以生成不同时长、长宽比和分辨率的视频和图像,目前最多可达一分钟的高清视频。
将视觉数据转化为碎片
我们从大型语言模型中获得灵感,这些模型通过互联网大规模数据的训练来获得通用能力。参考文献 13、14 LLM 范式的成功部分归功于令牌的使用,这些令牌优雅地统一了文本代码、数学和各种自然语言的不同模式。在这项工作中,我们考虑视觉数据的生成模型如何继承这些优点。LLM 有文本标记,而 Sora 有视觉碎片。目前,碎片已被证明是视觉数据模型的有效表示。参考文献 15 ,16 ,17、18中我们发现碎片是一种高度可扩展且有效的表示形式,可用于在不同类型的视频和图像上训练生成模型。
![](https://cdn.pro.shakingcloud.com/wyypro/picture/2024/02/21/o1go07h3ww00000000.jpg!crop.dbl.60)
在较高的层次上,我们首先将视频压缩到较低维的隐性空间,将视频转换为碎片,(参考19)然后将描述分解为时空碎片。
视频压缩网络
我们训练一个降低视觉数据维度的网络。参考文献 20 该网络将原始视频作为输入并输出在时间和空间上压缩的隐性表示。Sora 在这个压缩的潜在空间中接受训练并随后生成视频。我们还训练了相应的解码器模型,将生成的隐性映射回像素空间。
时间和空间上的隐性碎片
给定一个压缩的输入视频,我们提取一系列时间和空间碎片,充当转化器令牌。该方案也适用于图像,因为图像只是具有单帧的视频。我们基于碎片的变现形式使 Sora 能够对不同分辨率、持续时间和长宽比的视频和图像进行训练。在推理时,我们可以通过在适当大小的网格中排列随机初始化的碎片块来控制生成视频的大小。
用于视频生成的缩放转化器
Sora是一个扩散模型 参考文献21、22、23、24、25; 给定输入杂乱碎片(以及文本提示等调节信息),它被训练来预测原始的“干净”碎片。重要的是,Sora 是一个扩散变压器。参考文献26 Transformer 在各个领域都表现出了卓越的扩展特性,包括语言建模、13、14计算机视觉,15 ,16 ,17、18和图像生成。27、28 ,29
![](https://cdn.pro.shakingcloud.com/wyypro/picture/2024/02/22/syh6oyvhdbk0000000.jpg!crop.dbl.60)
在这项工作中,我们发现扩散转化器也可以有效地缩放为视频模型。下面,我们展示了训练过程中具有固定种子和输入的视频样本的比较。随着训练计算的增加,样本质量显着提高。
可变的持续时间、分辨率、宽高比
过去的图像和视频生成方法通常会将视频调整大小、裁剪或修剪为标准尺寸,例如,分辨率为 256x256 的 4 秒视频。我们发现,对原始大小的数据进行训练有几个好处。
采样灵活性
Sora 可以采样分辨率为 1920x1080p 视频、垂直 1080x1920 视频以及介于两者之间的所有视频。这使得 Sora 可以直接以其原生宽高比为不同设备创建内容。它还使我们能够在以全分辨率生成之前快速以较低尺寸制作原型内容 - 所有这些都使用相同的模型。
改进的框架和构图
我们根据经验发现,以原始长宽比对视频进行训练可以改善构图和取景。我们将 Sora 与将所有训练视频裁剪为正方形的模型版本进行比较,这是训练生成模型时的常见做法。在方形作物(右)上训练的模型有时会生成仅部分可见主体的视频。相比之下,Sora(左)的视频的取景效果有所改善。
语言理解
训练文本到视频生成系统需要大量带有相应文本字幕的视频。我们应用了 DALL·E 3 中引入的重制字幕技术 (参考文献30) 到视频。我们首先训练一个高度描述性的字幕生成器模型,然后使用它为训练集中的所有视频生成文本字幕。我们发现,对高度描述性视频字幕进行训练可以提高文本保真度以及视频的整体质量。
与 DALL·E 3 类似,我们还利用 GPT 将简短的用户提示转换为较长的详细字幕,然后发送到视频模型。这使得 Sora 能够生成准确遵循用户提示的高质量视频。
如下面的108个不同肤色、不同场景的视频:
一个穿着绿色裙子和太阳帽的玩具机器人在南非约翰内斯堡美丽的日落时分愉快地散步。
一个穿着绿色裙子和太阳帽的玩具机器人在印度孟买美丽的日落时分愉快地散步。
一个穿着绿色裙子和太阳帽的玩具机器人在印度孟买冬天的风暴中愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的玩具机器人在南极洲美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的玩具机器人在南非约翰内斯堡美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的玩具机器人在印度孟买美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的玩具机器人在印度孟买冬天的风暴中愉快地散步。
一个穿着紫色工装裤和牛仔靴的玩具机器人在南极洲举行的一场多彩节日中愉快地散步。
一个穿着紫色工装裤和牛仔靴的玩具机器人在南非约翰内斯堡美丽的日落时分愉快地散步。
一个穿着紫色工装裤和牛仔靴的玩具机器人在南非约翰内斯堡冬天的风暴中愉快地散步。
一个穿着紫色工装裤和牛仔靴的玩具机器人在印度孟买冬天的风暴中愉快地散步。
一个穿着绿色裙子和太阳帽的女人在南极洲美丽的日落时分愉快地散步。
一个穿着绿色裙子和太阳帽的女人在南极洲举行的一场多彩节日中愉快地散步。
一个穿着绿色裙子和太阳帽的女人在南非约翰内斯堡美丽的日落时分愉快地散步。
一个穿着绿色裙子和太阳帽的女人在南非约翰内斯堡举行的一场多彩节日中愉快地散步。
一个穿着绿色裙子和太阳帽的女人在印度孟买举行的一场多彩节日中愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的女人在南极洲美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的女人在南非约翰内斯堡美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的女人在南非约翰内斯堡举行的一场多彩节日中愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的女人在南非约翰内斯堡冬天的风暴中愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的女人在印度孟买美丽的日落时分愉快地散步。
一个穿着紫色工装裤和牛仔靴的女人在南极洲举行的一场多彩节日中愉快地散步。
一个穿着紫色工装裤和牛仔靴的女人在南非约翰内斯堡举行的一场多彩节日中愉快地散步。
一个穿着紫色工装裤和牛仔靴的女人在南非约翰内斯堡冬天的风暴中愉快地散步。
一个穿着紫色工装裤和牛仔靴的女人在印度孟买美丽的日落时分愉快地散步。
一个可爱的袋鼠穿着绿色裙子和太阳帽在南极洲举行的一场多彩节日中愉快地散步。
一个可爱的袋鼠穿着绿色裙子和太阳帽在南非约翰内斯堡美丽的日落时分愉快地散步。
一个可爱的袋鼠穿着绿色裙子和太阳帽在南非约翰内斯堡举行的一场多彩节日中愉快地散步。
一个可爱的袋鼠穿着绿色裙子和太阳帽在印度孟买美丽的日落时分愉快地散步。
一个可爱的袋鼠穿着绿色裙子和太阳帽在印度孟买冬天的风暴中愉快地散步。
一个可爱的袋鼠穿着蓝色牛仔裤和白色T恤在南极洲美丽的日落时分愉快地散步。
一个可爱的袋鼠穿着蓝色牛仔裤和白色T恤在南极洲冬天的风暴中愉快地散步。
一个可爱的袋鼠穿着蓝色牛仔裤和白色T恤在南非约翰内斯堡美丽的日落时分愉快地散步。
一个可爱的袋鼠穿着蓝色牛仔裤和白色T恤在印度孟买冬天的风暴中愉快地散步。
一个穿着紫色工装裤和牛仔靴的可爱的袋鼠在印度孟买冬天的风暴中愉快地散步。
一个穿着绿色裙子和太阳帽的老人在南极洲美丽的日落时分愉快地散步。
一个穿着绿色裙子和太阳帽的老人在印度孟买美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的老人在南极洲美丽的日落时分愉快地散步。
一个穿着蓝色牛仔裤和白色T恤的老人在南非约翰内斯堡美丽的日落时分。
一个穿着蓝色牛仔裤和白色T恤的老人,在南非约翰内斯堡的冬季风暴中愉快地散步。
通过图像和视频进行提示
上面和我们的首页中的所有结果都显示的是文本生成视频的示例。但 Sora 也可以通过其他输入进行提示,例如预先存在的图像或视频。此功能使 Sora 能够执行各种图像和视频编辑任务 - 创建完美的循环视频、动画静态图像、以及向前或向后扩展视频等。
DALL·E 图像动画
Sora 能够生成提供图像和提示作为输入的视频。下面我们展示基于DALL·E 2生成的示例视频(参考文献31)和DALL·E 330图片。
扩展生成的视频
Sora 还能够在时间上向前或向后扩展视频。下面是四个视频,它们都是从生成的视频片段开始向后延伸的。因此,这四个视频的开头都不同,但所有四个视频的结局都是相同的。
我们可以使用此方法向前和向后扩展视频以产生无缝的无限循环。
视频到视频编辑
扩散模型启用了多种根据文本提示编辑图像和视频的方法。下面我们应用其中一种方法,SDEdit,32到索拉。这项技术使 Sora 能够零镜头地改变输入视频的风格和环境。
连接视频
我们还可以使用 Sora 在两个输入视频之间逐渐进行插值,从而在具有完全不同主题和场景构成的视频之间创建无缝过渡。在下面的示例中,中心(2)的视频插值在左侧(1)和右侧(3)的相应视频之间。
图像生成能力
![](https://cdn.pro.shakingcloud.com/wyypro/picture/2024/02/22/7l9hp296rqs00000000.jpg!crop.dbl.60)
Sora 还能够生成图像。我们通过在时间范围为一帧的空间网格中排列高斯噪声块来实现这一点。该模型可以生成各种尺寸的图像,分辨率高达 2048x2048。
新兴的模拟功能
我们发现,视频模型在大规模训练时表现出许多有趣的新兴功能。这些功能使 Sora 能够模拟现实世界中人、动物和环境的某些方面。这些属性的出现对 3D、物体等没有任何明确的归纳偏差——它们纯粹是尺度现象。
3D 一致性。Sora 可以生成带有动态摄像机运动的视频。随着摄像机的移动和旋转,人和场景元素在三维空间中一致移动。
远程相干性和物体持久性。
视频生成系统面临的一个重大挑战是在采样长视频时保持时间一致性。我们发现 Sora 通常(尽管并非总是)能够有效地对短期和长期依赖关系进行建模。例如,我们的模型可以保留人、动物和物体,即使它们被遮挡或离开框架。同样,它可以在单个样本中生成同一角色的多个镜头,并在整个视频中保持其外观。
与世界互动。
索拉有时可以用简单的方式模拟影响世界状况的动作。例如,画家可以在画布上留下新的笔触,并随着时间的推移而持续存在,或者一个人可以吃汉堡并留下咬痕。
模拟数字世界。
Sora 还能够模拟人工过程——一个例子是视频游戏。Sora 可以同时通过基本策略控制《我的世界》中的玩家,同时以高保真度渲染世界及其动态。这些能力可以通过用提及“我的世界”的标题提示 Sora 来零射击。
这些功能表明,视频模型的持续扩展是开发物理和数字世界以及生活在其中的物体、动物和人的高性能模拟器的一条有前途的道路。
讨论
Sora 目前作为模拟器表现出许多局限性。例如,它不能准确地模拟许多基本相互作用的物理过程,例如玻璃破碎。其他交互(例如吃食物)并不总是会产生对象状态的正确变化。我们在登陆页面中列举了模型的其他常见故障模式,例如长时间样本中出现的不连贯性或对象的自发出现。
我们相信,Sora 今天所拥有的能力表明,视频模型的持续扩展是开发物理和数字世界以及生活在其中的物体、动物和人的强大模拟器的一条有前途的道路。
该中文技术报告由轻抖云小编吐血整理,转载请注明出处!谢谢。
参考文献
- Srivastava, Nitish, Elman Mansimov, and Ruslan Salakhudinov. "Unsupervised learning of video representations using lstms." International conference on machine learning. PMLR, 2015.↩︎
- Chiappa, Silvia, et al. "Recurrent environment simulators." arXiv preprint arXiv:1704.02254 (2017).↩︎
- Ha, David, and Jürgen Schmidhuber. "World models." arXiv preprint arXiv:1803.10122 (2018).↩︎
- Vondrick, Carl, Hamed Pirsiavash, and Antonio Torralba. "Generating videos with scene dynamics." Advances in neural information processing systems 29 (2016).↩︎
- Tulyakov, Sergey, et al. "Mocogan: Decomposing motion and content for video generation." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.↩︎
- Clark, Aidan, Jeff Donahue, and Karen Simonyan. "Adversarial video generation on complex datasets." arXiv preprint arXiv:1907.06571 (2019).↩︎
- Brooks, Tim, et al. "Generating long videos of dynamic scenes." Advances in Neural Information Processing Systems 35 (2022): 31769-31781.↩︎
- Yan, Wilson, et al. "Videogpt: Video generation using vq-vae and transformers." arXiv preprint arXiv:2104.10157 (2021).↩︎
- Wu, Chenfei, et al. "Nüwa: Visual synthesis pre-training for neural visual world creation." European conference on computer vision. Cham: Springer Nature Switzerland, 2022.↩︎
- Ho, Jonathan, et al. "Imagen video: High definition video generation with diffusion models." arXiv preprint arXiv:2210.02303 (2022).↩︎
- Blattmann, Andreas, et al. "Align your latents: High-resolution video synthesis with latent diffusion models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023.↩︎
- Gupta, Agrim, et al. "Photorealistic video generation with diffusion models." arXiv preprint arXiv:2312.06662 (2023).↩︎
- Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems 30 (2017).↩︎↩︎
- Brown, Tom, et al. "Language models are few-shot learners." Advances in neural information processing systems 33 (2020): 1877-1901.↩︎↩︎
- Dosovitskiy, Alexey, et al. "An image is worth 16x16 words: Transformers for image recognition at scale." arXiv preprint arXiv:2010.11929 (2020).↩︎↩︎
- Arnab, Anurag, et al. "Vivit: A video vision transformer." Proceedings of the IEEE/CVF international conference on computer vision. 2021.↩︎↩︎
- He, Kaiming, et al. "Masked autoencoders are scalable vision learners." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022.↩︎↩︎
- Dehghani, Mostafa, et al. "Patch n'Pack: NaViT, a Vision Transformer for any Aspect Ratio and Resolution." arXiv preprint arXiv:2307.06304 (2023).↩︎↩︎
- Rombach, Robin, et al. "High-resolution image synthesis with latent diffusion models." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022.↩︎
- Kingma, Diederik P., and Max Welling. "Auto-encoding variational bayes." arXiv preprint arXiv:1312.6114 (2013).↩︎
- Sohl-Dickstein, Jascha, et al. "Deep unsupervised learning using nonequilibrium thermodynamics." International conference on machine learning. PMLR, 2015.↩︎
- Ho, Jonathan, Ajay Jain, and Pieter Abbeel. "Denoising diffusion probabilistic models." Advances in neural information processing systems 33 (2020): 6840-6851.↩︎
- Nichol, Alexander Quinn, and Prafulla Dhariwal. "Improved denoising diffusion probabilistic models." International Conference on Machine Learning. PMLR, 2021.↩︎
- Dhariwal, Prafulla, and Alexander Quinn Nichol. "Diffusion Models Beat GANs on Image Synthesis." Advances in Neural Information Processing Systems. 2021.↩︎
- Karras, Tero, et al. "Elucidating the design space of diffusion-based generative models." Advances in Neural Information Processing Systems 35 (2022): 26565-26577.↩︎
- Peebles, William, and Saining Xie. "Scalable diffusion models with transformers." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023.↩︎
- Chen, Mark, et al. "Generative pretraining from pixels." International conference on machine learning. PMLR, 2020.↩︎
- Ramesh, Aditya, et al. "Zero-shot text-to-image generation." International Conference on Machine Learning. PMLR, 2021.↩︎
- Yu, Jiahui, et al. "Scaling autoregressive models for content-rich text-to-image generation." arXiv preprint arXiv:2206.10789 2.3 (2022): 5.↩︎
- Betker, James, et al. "Improving image generation with better captions." Computer Science. https://cdn.openai.com/papers/dall-e-3. pdf 2.3 (2023): 8↩︎↩︎
- Ramesh, Aditya, et al. "Hierarchical text-conditional image generation with clip latents." arXiv preprint arXiv:2204.06125 1.2 (2022): 3.↩︎
- Meng, Chenlin, et al. "Sdedit: Guided image synthesis and editing with stochastic differential equations." arXiv preprint arXiv:2108.01073 (2021).↩︎
本文系作者 @ 金胜哲原创发布在 轻抖云。未经许可,禁止转载。