央视迈出了创新的一大步,发布了首个专攻视听内容生产的AI大模型——央视听大模型。这一模型的诞生,不仅意味着媒体内容生产方式的革新,更是AI技术在媒体领域的深度应用。
央视听大模型依托央广电视总台的海量视听数据,结合上海AI实验室的原创先进算法和大模型训练基础设施优势,实现了视听内容生产的智能化升级。基于“书生通用大模型体系”,这一模型将拓展视听媒体的创意空间,提高创作效率,并带来交互方式的变革。
央视听大模型为用户提供了强大的交互式图像、视频编辑与创作能力。用户只需简单操作,即可快速修改或编辑图像,实现“指哪改哪,画随口出”。这一功能,让内容生产变得更加直观、便捷。
央视听大模型可根据提供的视频,创作主持词、新闻稿件,甚至诗歌等文字。媒体编辑可在大模型的协助下,一键为视频生成风格各异的解说词,覆盖美食、文化和科技等多个领域。
央视听大模型具备强大的视频理解能力和视听媒体问答能力,相当于拥有了感知真实世界的“眼睛”和“耳朵”。通过与AI聊天对话的形式,用户可以深挖视频蕴含的信息,进一步完善输出的内容。
上海人工智能实验室科研团队介绍,央视听大模型具备的视觉理解能力,源于跨模态互动技术的最新突破。这一模型将图像/视频视为另一种“语言”,并将视觉与语言对齐,降低人工智能视觉任务的门槛。
除了视频内容,央视听大模型还具备快速生成“数字人主播”的能力。使用较短的真人采集视频即可生成对应的数字人。AI生成的数字人主播以“真人”形象呈现,不仅能根据既定文案和背景场景快速生成播报视频,还可自动学习真人的语言及动作习惯,做到形象更逼真,表情更自然。
央视听大模型的发布,标志着AI技术在媒体领域的应用迈入了新的阶段。这一模型不仅为媒体内容生产带来了前所未有的便利,更为观众带来了更加丰富、多元的视听体验。在未来的发展中,我们有理由相信,AI技术将为媒体行业带来更多惊喜。
这一技术的出现,为媒体行业带来了全新的呈现方式,使得内容生产更加多元化、个性化。