Google Veo 3.1发布!AI影音同步、最长148秒 1功能创作者最爱

撰文: 机器之心
出版:更新:

正如前几天网上泄露与传闻所预料的那样,深夜,Google发布了最新的AI视频生成模型Veo 3.1。

Veo 3.1带来了更丰富的音频、叙事控制,以及更逼真的质感还原。在Veo 3的基础上,Veo 3.1进一步提升了提示词遵循度,并在以图生视频时提供更高的视听质量。

随着新模型的发布,由其驱动的AI电影创作工具Flow也迎来了更新,可以帮助你更精细地编辑视频片段,对最终场景实现更颗粒化的控制。并且,谷歌首次将音频引入到现有能力中,例如“素材生成视频(Ingredients to Video)”“连帧成片(Frames to Video)”以及“延展(Extend)”。

更强的叙事与音频控制

Veo 3.1在其前代版本Veo 3(于2025年5月发布)的基础上进行了升级,增强了对对话、环境音效以及其他音频效果的支持。

Veo 3.1在其前代版本Veo 3(于2025年5月发布)的基础上进行了升级,增强了对对话、环境音效以及其他音频效果的支持。(Google DeepMind)

如今,在Flow的多个核心功能中,包括连帧成片、素材生成视频和延展,均已支持原生音频生成。这些功能允许用户:

1. 将静态图像转换为视频;
2. 将多张图像中的人物、物体或元素整合进同一视频中;
3. 生成比原始8秒更长的视频片段,可延展至30秒甚至1分钟以上,并从上一段的最后一帧自然衔接延续。

+11

在此之前,用户必须在使用这些功能后手动添加音频。

如今,原生音频的引入让用户能更好地掌控视频的情绪、节奏与叙事基调,这些以往只能通过后期制作实现的能力,现在可以直接在生成阶段完成。

在企业场景中,这种更高层次的控制有望减少独立音频制作流程的需求,提供一种音画同步的集成式创作方式,便于制作培训内容、营销视频或数字体验作品。

更丰富的输入与编辑能力

借助Veo 3.1,谷歌引入了对多种输入类型的支持,并提供了对生成结果更精细的控制。该模型可接受文本提示、图像以及视频片段作为输入,并进一步支持:

1. 参考图像(最多三张),用于引导最终输出画面中的外观与风格;
2. 首帧与末帧插值,可在固定的起止画面之间生成平滑衔接的过渡场景;
3. 场景延展,可让视频的动作或运动超出原本时长继续发展。

+10

此外,谷歌还引入了如插入(Insert)(向场景中添加物体)和移除(Remove)(删除元素或角色)等新功能,但并非所有功能目前都能通过Gemini API即时使用。

多平台部署

Veo 3.1可通过谷歌旗下多项现有AI服务访问:

1. Flow:谷歌自家的AI辅助电影创作平台;
2. Gemini API:面向希望在应用中集成视频生成功能的开发者;
3. Vertex AI:企业级集成平台,后续将支持Veo的“场景延展”等核心功能。

价格与访问方式

Veo 3.1模型目前处于预览阶段,仅在Gemini API的付费层级中可用。其收费结构与上一代AI视频模型Veo 3保持一致:

1. 标准模型(Standard model):每秒视频0.40美元
2. 快速模型(Fast model):每秒视频0.15美元

目前尚无免费层级,且仅在视频成功生成后才会计费。这种计费方式与此前的Veo系列保持一致,为注重成本管理的企业团队提供了可预测的预算模式。

技术规格与输出控制

Veo 3.1支持输出720p或1080p分辨率的视频,帧率为24帧/秒(fps)。

1. 在使用文本提示或上传图像生成视频时,时长可选4秒、6秒或8秒;
2. 若使用Extend功能,视频最长可扩展至148秒(超过两分半)。

新功能还带来了对主体与环境的更精确控制。

例如,企业用户可以上传一张产品图片或视觉参考,Veo 3.1将在整个视频中生成保持其外观特征与风格一致性的场景。

这一能力有助于简化创意生产流程,特别适用于零售、广告以及虚拟内容制作等需要品牌一致性和视觉延续性的团队。

延伸阅读:Grok 4来袭 性能压倒Google、OpenAI?唯高月租及火爆言论成焦点(点击连结看全文)

+2

【本文转自“机器之心”,微信公众号:almosthuman2014】