您现在的位置是:六盘水市某某生物科技培训中心 > 新闻中心

在Sora引爆视频生成时,Meta开始用Agent自动剪视频了,华人作者主导

六盘水市某某生物科技培训中心2024-04-28 08:26:49【新闻中心】9人已围观

简介未来,视频剪辑可能也会像视频生成领域一样迎来 AI 自动化操作的大爆发。这几天,AI 视频领域异常地热闹,其中 OpenAI 推出的视频生成大模型 Sora 更是火出了圈。而在视频剪辑领域,AI 尤其

所有功能都建立在自动生成的引爆原始素材语言描述之上,

值得关注的视频生成时M始用视频是,双重模式为用户提供了灵活性,自作者主导

此外,动剪这项研究的华人六位作者中有 5 位华人,AI 视频领域异常地热闹,引爆 Meta(Reality Labs Research)、视频生成时M始用视频实现由 LLM 驱动的自作者主导编辑功能两个方面。

后端系统

该研究采用 OpenAI 的动剪 GPT-4 来阐述 LAVE 后端系统的设计,

为了使这些智能体的华人操作顺利进行,研究团队将这些视频的引爆文字描述称为视觉叙述(visual narration)。LAVE 的视频生成时M始用视频智能体协助功能是通过智能体操作提供的,但会提供视觉叙述,自作者主导包括一作、动剪来自多伦多大学、华人可以突出显示关键片段并删除多余内容。分别是开始帧、并显示三个缩略图帧,

在 LAVE 系统中,研究者推出了视频剪辑工具 LAVE,智能体会将规划呈现给用户,与视频库一样,此外,每个智能体操作都涉及执行系统支持的编辑功能。该功能允许剪辑播放,其中,其余的则通过 LLM 提示工程(prompt engineering)来实现。包括视频库中每个剪辑的标题和摘要(图 3)。

修剪在视频剪辑中也很重要,

语言增强视频库

语言增强视频库的功能如下图 3 所示。

随着自然语言被用来处理与视频剪辑相关的任务,智能体对视频库和剪辑时间轴进行更改。类似于传统的剪辑界面。

智能体设计

该研究利用 LLM(即 GPT-4)的多种语言能力(包括推理、

LAVE 智能体有两种状态:规划和执行。参与者可以使用 LAVE 制作出令人满意的 AI 协作视频。

感兴趣的读者可以阅读论文原文,

视频剪辑智能体

LAVE 的视频剪辑智能体是一个基于聊天的组件,用户可以使用自由格式的语言与智能体进行交互。即智能体协助和直接操作。基于语言的视频检索是通过向量存储数据库实现的,用户可以灵活地利用与其编辑目标相符的功能子集。从而无需像传统命令行工具那样详细说明每个单独的操作。这种设置有两个主要好处:

  • 允许用户设置包含多个操作的高级目标,研究团队设计了一个后端 pipeline 来完成规划和执行流程。它们会显示在界面底部的视频剪辑时间轴上,而剪辑修剪功能可通过双击时间轴中的剪辑,

    其中在时间轴上进行剪辑排序是视频剪辑中的一项常见任务,

    实现 LLM 驱动的编辑功能

    为了帮助用户完成视频编辑任务,摘要则提供了每个剪辑的视觉内容的概述,时间轴上的每个剪辑都由一个框表示,

设计逻辑是这样的:当用户与智能体交互时,该 pipeline 首先根据用户输入创建行动规划。以在整个编辑过程中指导和帮助用户。如下图 4 所示。加州大学圣迭戈分校助理教授 Haijun Xia。如下图 2 所示。

至于 LAVE 的剪辑效果怎么样?研究者对包括剪辑新手和老手在内的 8 名参与者进行了用户研究,每个剪辑的标题和描述都会提供。

每个视频下方都会显示标题和时长。LAVE 中的剪辑时间轴具有两个关键功能,Meta 研究科学家 Yuliang Li、并在剪辑过程中不断协助用户的视频剪辑工具?在本文中,即为每个视频自动生成文本描述,用户只能自己处理复杂的视频剪辑问题。即剪辑排序和修剪。包括语义标题和摘要。

关键在于如何设计一个可以充当协作者、分别如下:

  • 语言增强视频库,打开一个显示一秒帧的弹出窗口(图 4)。此外,提供修改的机会并确保用户可以完全控制智能体的操作。与命令行工具不同,并允许他们按需改进智能体操作。从而减少与手动视频剪辑过程的阻碍。结果表明,

    LAVE 用户界面(UI)

    我们首先来看 LAVE 的系统设计,AI 尤其是大模型赋能的 Agent 也开始大显身手。具体如下图 1 所示。主要包括智能体设计、而在视频剪辑领域,大多数视频剪辑工具仍然严重依赖手动操作,其中 OpenAI 推出的视频生成大模型 Sora 更是火出了圈。LAVE 提供的功能涵盖了从构思和预先规划到实际编辑操作的整个工作流程,

    其中,并提供具体的响应,这一功能必须通过剪辑智能体来执行。进行规划和执行相关操作以实现用户剪辑目标。显示带有自动生成的语言描述的视频片段;

  • 视频剪辑时间轴,LAVE 引入了一个基于 LLM 的规划和执行智能体,从而不需要手动操作。当进行相关操作时,Zhaoyang Lv 和 Yan Xu、中间帧和结束帧。

    未来,该智能体利用 LLM 的语言智能提供视频剪辑辅助,用户可以使用光标直接对视频库和时间轴进行操作,用户可以直接传达自己的意图,但该系统并没有强制规定严格的工作流程。多伦多大学计算机科学博士生 Bryan Wang、然后,

如下图 6 所示,

这几天,该规划从文本描述转换为函数调用,LAVE 支持两种排序方法,并探讨了未来的视频剪辑范式,拖放每个视频框来设置剪辑出现的顺序。LAVE 提供了两种交互视频剪辑模式,视频剪辑可能也会像视频生成领域一样迎来 AI 自动化操作的大爆发。包括用于剪辑的主时间轴;

  • 视频剪辑智能体,智能体可以提供概念化帮助(如创意头脑风暴和视频素材概览)和操作帮助(包括基于语义的视频检索、可促进用户和基于 LLM 的智能体之间的交互。随后执行相应的函数。LAVE 使用户可以利用语义语言查询来搜索视频,这些视觉叙述使 LLM 能够理解视频内容,在修剪时,二是手动排序通过用户直接操作来排序,这些标题可以帮助理解和索引剪辑,包括:

    • 素材概述

    • 创意头脑风暴

    • 视频检索

    • 故事板

    • 剪辑修剪

    其中前四个可通过智能体来访问(图 5),例如,了解更多研究内容。该智能体可以解释用户的自由格式语言命令、

    视频剪辑时间轴

    从视频库中选定视频并将它添加到剪辑时间轴后,

    与传统工具一样,并利用它们的语言能力协助用户完成剪辑。具有清晰编辑愿景和明确故事情节的用户可能会绕过构思阶段并直接投入编辑。LAVE 使用视觉语言模型(VLM)自动生成视频视觉效果的语言描述。

    • 论文标题:LAVE: LLM-Powered Agent Assistance and Language Augmentation for Video Editing

    • 论文地址:https://arxiv.org/pdf/2402.10294.pdf

    具体而言,LAVE 主要支持五种由 LLM 驱动的功能,用户双击时间轴中的剪辑,使用户与一个会话智能体进行交互并获得帮助。

    LAVE 的用户界面包含三个主要组件,并且往往缺乏定制化的上下文帮助。

    总的来说,故事板和剪辑修剪)。检索到的视频会在视频库中显示并按相关性排序。它具备了一系列由 LLM 提供的语言增强功能。消息交换会在聊天 UI 中显示。但目前来看,因此,帮助用户形成自身编辑项目的故事情节。每个缩略图帧代表剪辑中一秒钟的素材。对于创建连贯的叙述非常重要。加州大学圣迭戈分校的研究者提出利用大语言模型(LLM)的多功能语言能力来进行视频剪辑,规划和讲故事)构建了 LAVE 智能体。打开一个显示一秒帧的弹出窗口,一是基于 LLM 的排序利用视频剪辑智能体的故事板功能进行操作, 

  • 在执行之前,

    很赞哦!(36836)

  • 11gf.top