Sora是什么
近日,OpenAI的一款新产品又火出圈了。当地时间周四(2月15日),OpenAI发布了首个文生视频模型Sora。
该工具可以通过使用文本迅速制作出一段长达60秒的视频,视频中可以呈现多个角色、特定动作、以及复杂场景。
OpenAI的官网上现已更新了48个视频案例,可以说是效果逼真,能展现艳丽的色彩,呈现准确的细节,连人物角色都表情丰富。
2月17日,负责Sora项目的研究科学家又分享了Sora的一项新功能——可以一次性就同样场景生成多个视角的多段视频。
Sora的应用范围非常广泛,从教育教学、产品演示到内容营销等,都可以通过Sora来实现高质量的视频内容创作。
Sora如何使用,详细教程
首先登录你的OpenAI账户,找到Sora的使用界面。在指定区域输入文本提示词,可以是一个故事概述、场景描述或是具体的动作指令。
需要注意的是,Sora是OpenAI刚官宣不久的模型,目前并没有向所有的用户开放,只是邀请特定的用户群体体验,这主要包括被称作“红队成员”的专家,这些专家有能力评估风险、识别潜在的问题,如错误信息、偏见和仇恨言论。
同时,Sora也对一些视觉艺术家、设计师和电影制作者开放,以便收集他们的反馈,进一步优化平台,让它更加符合创意行业专业人士的需求。
这部分用户能够提前体验模型,并且在当前阶段,他们可以免费使用Sora。
按照以往OpenAI新功能的开放速度,相信应该会很快就全员开放的。
Sora的弱点
Sora目前还存在一些弱点,OpenAI直接指出,它可能难以准确模拟复杂场景的物理原理,因为无法理解因果关系。
比如“五只灰狼幼崽在一条偏僻的碎石路上互相嬉戏、追逐”,狼的数量会变化,一些凭空出现或消失。
该模型有会可能混淆提示的空间细节,例如混淆左右,可能难以精确描述随着时间推移发生的事件。
Sora是否安全
就像面对任何新兴的人工智能技术一样,人们对于Sora能产生什么样的内容持有一定的担心。为了应对这些担忧,OpenAI正致力于寻找解决方案。
除了与能够识别风险和潜在问题的“红队成员”合作之外,OpenAI还在开发新的工具,以帮助识别误导性内容。其中一个工具是“检测分类器”,能够辨别出哪些视频是由Sora制作的。
对于文本内容,OpenAI有一个文本分类器工具,它会审查用户的输入提示,并拒绝那些违反使用政策的内容,比如含有极端暴力、色情、仇恨信息、名人形象或侵犯他人知识产权的请求。
OpenAI还计划与世界各地的政策制定者、教育者和艺术家合作,这样他们不仅能听到这些群体的担忧,还能发现这项新技术的积极应用方式。
结语
OpenAI的Sora开启了视频创作的新纪元,无论是专业人士还是爱好者,都可以轻松创作出高质量的视频内容。
尽管仍有一些限制,但随着技术的不断进步,相信这些问题将会逐渐被解决。立即尝试Sora,开启您的AI视频创作之旅吧!