速途网5月25日讯(报道:乔志斌)当地时间周三,谷歌宣布将DeepMind和Google Brain合并为一个大型AI团队,新的Google DeepMind分享了如何使用其视觉语言模型(VLM)为YouTube Shorts生成描述的细节,这有助于提高可发现性。
“短片是在短短几分钟内创建的,通常不包括描述和有用的标题,这使得它们更难通过搜索找到,”DeepMind在帖子中写道。火烈鸟可以通过分析视频的初始帧来解释正在发生的事情来进行这些描述。(DeepMind举了一个例子,“一只狗在头上平衡一堆饼干。文本描述将存储为元数据,以“更好地对视频进行分类并将搜索结果与观看者查询相匹配”。
谷歌DeepMind的首席商务官科林·默多克(Colin Murdoch)表示:对于Shorts,创作者有时不会添加元数据,因为创建视频的过程比长视频更简化。Shorts产品管理总监托德·谢尔曼(Todd Sherman)补充说,由于Shorts主要是在Feed上观看的,人们只是滑动到下一个视频而不是主动浏览它们,因此没有那么多的动力来添加元数据。