杀疯了丨揭秘:炸翻整个AI圈的Sora模型,究竟是怎么被OpenAI炼成的? 昨天,OpenAI 风

杀疯了丨揭秘:炸翻整个AI圈的Sora模型,究竟是怎么被OpenAI炼成的?
昨天,OpenAI 风轻云淡地丢出一个新模型,结果,炸翻了整个 AI 圈!
Sora 的出现,让文生视频领域从以秒为单位的突破,变成了以分钟为单位。
这是一个跨越式,足以将之前行业所有公司掀下牌桌的改变。
将 Sora 的出现,称之为文生视频领域的“iPhone时刻”,似乎也毫不为过。
AI 博主@歸藏 将同一个 Prompt 丢给 Sora、Runway、Pika 和 SVD 四大文生视频模型,结果,Sora 以碾压的方式获得胜利。
继 ChatGPT 之后,OpenAI 再一次将《链接》中这句经典的台词活生生地甩给整个 AI 世界。
就连一向和 OpenAI 不对付的马斯克也甘心承认 Sora 的强大,并盛赞“在未来的几年里,人类借助 AI 的力量,将创造出卓越的作品。”
官宣 Sora 模型几个小时后,OpenAI 的技术报告也随之公开:在报告中,Sora 模型被称为“里程碑式”的突破。Sora 是怎样炼成的?

众所周知:OpenAI 曾在 LLM(大语言模型)上取得巨大的成功,那这种模式能不能应用到文生视频领域呢?答案是可以。

受 LLM 成功实践经验的启发,OpenAI 引入视觉块嵌入代码(patches),这是一种高度可扩展且有效的视觉数据表现形式,能够极大地提升生成模型处理多样化视频和图像数据的能力。

与“Patch”对应的是我们熟悉的“Token”。在大语言模型中,Token 之所以会如此成功,得益于 Transformer 架构,它与 Token 互为补充、相得益彰。

同样,Sora 作为一个视频生成扩散模型,区别于主流视频生成扩散模型采用了 Transformer 架构。( 主流视频生成扩散模型较多采用 U-Net 架构 )

在技术路线上,OpenAI 直接颠覆之前所谓的”主流路线“。从 Prompt 输入到视频输出,主要有4个核心步骤:
√ 第一步:压缩,OpenAI 将视频数据压缩到一个低纬潜在空间;
√ 第二步:分解,再将其分解为时空嵌入,从而将视频转化为一系列编码块;
√ 第三步:生成,Sora 在压缩后的潜在空间中进行训练,并生成视频;
√ 第四步:解码,借助”解码模型器“,将这些潜在表征还原为像素级的视频图像。
借助 patchs 的独特性能,Sora 能够适应不同分辨率、持续时间及宽高比的视频和图像。
在生成新视频内容时,可以通过将这些随机初始化的 patchs 按照需要的大小排列成网格,来控制最终视频的大小和形式。
大家可以把它理解成”拼图游戏“,并且随着训练计算量的提升,Sora 可以用来选择的素材就越多,生成视频质量就越高!传统文生视频模型,往往会将视频、图像统一调整到一个标准尺寸,比如4秒钟、分辨率256x256的视频。
然而,OpenAI研究者发现,直接在数据的原始尺寸上进行训练有更多优势:
√ 生成的视频能更好的自定义时长;
√ 生成的视频能够更好的自定义视频尺寸;
√ 视频会有更好的取景和构图;

除了引入 Transformer 架构,OpenAI 还将在 DALL·E 3 中的重新标注技术应用到视频上。借助 GPT,OpenAI 将用户的简短提示转换成更长的详细说明,然后发送给视频模型,从而使得 Sora 能够生成高质量的视频。
除了可以从文字转化而来,Sora 还能接受图片或已有视频的输入。
这项功能让 Sora 能够完成各种图片和视频编辑任务,比如制作无缝循环视频、给静态图片添加动画效果、延长视频的播放时间等。
比如:形成“SORA”字样的云朵。从整体来看,你会发现 Sora 模型的成功并非偶然,它并不是 OpenAI 无中生有、凭空捏造的超级模型。

而是借助过去的成功经验,最终训练而成。杀疯了丨揭秘:炸翻整个AI圈的Sora模型,究竟是怎么被OpenAI炼成的?
昨天,OpenAI 风杀疯了丨揭秘:炸翻整个AI圈的Sora模型,究竟是怎么被OpenAI炼成的?
昨天,OpenAI 风杀疯了丨揭秘:炸翻整个AI圈的Sora模型,究竟是怎么被OpenAI炼成的?
昨天,OpenAI 风

给TA打赏
共{{data.count}}人
人已打赏
Ai破局

这一个星期不光是sora发布, ​还有一件事情也非常值得注意, ​英伟达发布了一个30多g的, 可供

2024-4-9 23:04:45

Ai破局

美团 app 更新到最新版,搜索「AI 写真馆」,目前免费使用! 出图效果还比妙鸭相机好!

2024-4-9 23:04:48

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索