扔进去一段文字,分分钟生成“大片”级别的视频内容?近日,美国开放人工智能研究中心(OpenAI)在推出ChatGPT一年多后再度扔出一枚重磅炸弹——发布首个视频生成模型Sora,随即引发关注。
在短视频流行的今天,“文生视频”AI模型Sora的惊艳之处在哪儿?又将带来哪些影响?
AI生成视频效果“炸裂”
几只巨大的毛茸茸的猛犸象踏着白雪皑皑的草地走近、一个毛茸茸的小怪物跪在融化的红蜡烛旁边、女子在街头漫步……Sora生成的多条短视频“大片”在全网刷屏,场景逼真丝滑、细节丰富。OpenAI称,这些几乎可以乱真的视频均由Sora直接生成,未经修改。
根据OpenAI的官方简介,Sora可以制作长达60秒的视频,视频包括高清晰度的场景、复杂的镜头动作,并可支持多个角色的创作。Sora使用Transformer架构,可根据文本指令创建现实且富有想象力的场景,生成多种风格、不同画幅、最长为一分钟的高清视频。换句话说,给Sora一些提示语,它就能生产出一条高质量短视频。
Sora还能够根据静态图像生成视频,扩展现有视频或填充缺失的帧。
OpenAI说,Sora能深刻地理解语言,不仅理解用户文本提示,还理解所述事物在物理世界中的存在方式。“我们正在教授人工智能理解和模拟运动中的物理世界,目标是训练模型帮助人们解决需要与现实世界交互的问题。”
扔一部小说出一部大片?
除了生成的画面更接近现实物理世界,OpenAI介绍,Sora可以实现视频中的主题始终保持一致,即使暂时离开视野也不会发生变化,并可以一次性生成多机位视频。
基于这样的技术,已有网友设想,用多个1分钟视频连接起来生产一部微短剧甚至电影,同时保证其主题不变。“扔一部小说出一部大片”将成为现实。
国盛证券2月17日发布的研报显示,Sora相比此前其他文生视频模型,已经跨越到实用生产力工具,1分钟长度有望大规模应用在短视频领域,扩展视频的能力也有望制作长视频。
360创始人、董事长周鸿祎近日公开对此表示,这意味着AGI(人工通用智能)实现将从10年缩短到1年。
当然,目前Sora也并非毫无弱点。OpenAI称,它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系的具体实例。例如,一个人咬了一口饼干,但之后饼干可能没有咬痕。此外,该模型还可能混淆提示的空间细节,例如混淆左右,并且可能难以精确描述随着时间推移发生的事件,例如遵循特定的相机轨迹。
不过,随着算力增强、模型改进,人们可能会在短期内获得更加完善、先进的视频生成功能。
一夜“干翻”影视拍摄和剪辑?
OpenAI此次推出Sora更像是预览版,公众尚难以深入全面了解该模型的优缺点。Sora目前暂未对外开放使用,OpenAI不仅未公布训练Sora模型的数据等基础细节,也没确定何时面向公众发布。
但另一方面,担忧的声音也在网络占有一席之地。分分钟生成媲美“大片”的视觉质量,视频拍摄者和剪辑人员是否已显得“多余”?以后演员会不会消失?是不是可以喜欢谁就让谁来当主演?
好莱坞去年遭遇63年来首次编剧和演员全行业罢工,因为该行业的部分工作机会可能被人工智能取代。Sora横空出世让这一威胁变得更迫近和真切。
一些分析人士认为,Sora再次凸显人工智能技术进步对现实生活和传统行业的深远影响。人工智能在视频生成领域的巨大发展前景为塑造影视产业新业态打开大门的同时,恐将颠覆现存影视产业。
中国影协科幻电影工作委员会执行秘书长马贺亮在接受媒体采访时也表示,短期内与概念设计、视频预览相关的岗位会在一定程度上受到Sora的影响,但它所能呈现的效果其实还达不到院线电影的级别,而且电影在创作上有主观立场、视角和表达,观看时有情感交流和情感投射,远不是简单生成一段视频就能代替,因此AI作为技术辅助手段的确已经在改变电影制作方式与流程,能优化提升电影创作,但要说它能“颠覆整个电影行业”,还为时过早。
如何应对AI可能带来的风险?
此外,也有声音认为,这一新技术可能会带来一系列风险乃至社会问题。
DCCI互联网研究院院长刘兴亮指出,AI内容制作,让现实与虚拟的界线变得模糊。内容真实性、版权、隐私、数据、安全等问题纷至沓来。社会需要一套完善的政策、法律和伦理规范来应对,确保技术发展不脱轨,保护每个人的利益。
对此,OpenAI称,在将Sora应用于OpenAI的产品之前,将采取几个重要的安全措施。相关领域专家将对模型进行对抗性测试。公司还在开发一些工具来帮助检测误导性内容,例如检测分类器,它可以分辨出视频是由Sora生成的。
OpenAI还称,将与世界各地的政策制定者、教育工作者和艺术家接触,以了解他们的担忧,并确定这项新技术的积极应用案例。尽管进行了广泛的研究和测试,但公司无法预测所有人使用公司技术的有益方式,也无法预测所有人滥用技术的方式。
值得注意的是,OpenAI去年就曾发布公告,宣布启动全球招募“红队”网络成员,旨在引入外部力量,提前挖掘出AI系统存在的缺陷和风险。
而在此之前,已有相关领域专家呼吁,国际社会应共同推进人工智能监管,以确保其安全性。
2023年11月,包括中国、美国、英国和欧盟在内的28个国家和地区,在首届人工智能安全峰会上签署《布莱奇利宣言》,同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未被完全了解的人工智能风险和能力加深理解。
(中新 新华社)
网友闲话
@李广勇:还是蛮期待的!
@选我:什么?视频制作?OK,我要退休了。
@长铗人:我不认为能替代人物本身的表演。
@nana:Sora生成的视频,感觉看了头很晕。
@旺仔:把科幻电影的饭碗抢了。
@猛猛:人工智能时代,很多人都将失业,不只是明星。
@张毅:AI再发展,输入端还是要靠语言,以后可能又变成了书写者的时代了。
@莽昆仑:以后造假更容易了。
@薯条弟弟:版权保护的问题,尤为关注。
@wendy8384:技术只是锦上添花,剧情和创意才是王道!
@飘逸:科幻电影的故事正一步一步变成现实,走进生活!科技改变生活!科技引领未来!同时,高端科技又是一把“双刃剑”,要扬长避短,趋利避害,特别是人工智能的应用要充分遵守法理伦理规则,在法治轨道上行稳致远!