新闻动态
NEWS CENTER
NEWS CENTER
2024-02-24
2024年2月16日清晨(美国时刻2月15日)OpenAI推出视频生成模型:Sora,一款文生视频(text-to-video)的模型。
Sora是通过学习视频内容,来了解实际国际的动态改动,并用计算机视觉技能模仿这些改动,从而发明出新的视觉内容。
咱们来直观地感受一下什么是Sora?
这是一段提示词(Prompt):
A Chinese Lunar New Year celebration video with Chinese Dragon
翻译成中文:
与我国龙庆祝我国新年。
文生视频。现在文字有了,咱们来看视频作用。
能够发现无论是舞龙的细节表现,还是人群跟着舞龙队伍的真实感,作用是如此的传神。
当然Sora的才能还远不止如此,除了支撑文字生成视频外,还支撑文字+图片、文字+视频、视频+视频的方法创造新的视频内容。
Sora生成的视频内容,契合实际国际的物理规则。
这说明Sora学习的不仅仅是视频中的画面,还在学习视频中元素之间的联系,学习实际国际中的物理规则。
比如:一个人咬一口汉堡后,能够在汉堡上能够留下咬痕。
对于视频创造者而言,能够基于不同创造渠道视频尺寸要求来生成视频内容。
Sora支撑在两个视频之间进行过渡处理,从而实现视频之间的无缝过渡。
Sora能够基于文本提示,从而改动原视频的风格化和视频中的元素。
Sora能够在原视频的前后延伸和拓宽视频。
案例中三个视频,它们都是从生成的视频片段开始向前进行了视频的延伸。
因此,这三个视频的开头都不同,但结局都是相同的。
Sora能够生成带有动态摄像机运动的视频。随着摄像机的移动和旋转,人和场景元素在三维空间中共同移动。