新壹科技亮相2024世界人工智能大会 推出新壹视频大模型2.0

2024-07-05 17:54:00 大京生活

7月4日,2024世界人工智能大会(WAIC 2024)在上海世博中心开幕。作为视频人工智能赛道的先行者,新壹科技受邀参展。当天,新壹科技在上海世博展览馆展示了基于新壹视频大模型的系列产品及应用场景解决方案,并正式发布了新壹视频大模型2.0版本。

世界人工智能大会自2018年创办以来已成功举办六届,WAIC 2024大会时间为7月4日—7日,期间,全球人工智能领域的专家学者和企业家将围绕“以共商促共享 以善治促善智”这一主题,分享经验、探讨前沿AI技术,共同推动全球人工智能技术的应用和发展。

一直以来,新壹科技都秉承“释放AIGC视频生产力”的理念,聚焦视频人工智能的研发与应用,其以新壹视频大模型为核心,推出了AI原生应用平台「一帧秒创」、AI数字人平台「新壹数字人」等AI系列产品及服务。

目前,新壹科技已在文旅、金融保险、媒体、营销、出版、政务、教育、汽车、医疗等众多场景打造了落地方案,大幅提高了各垂直领域的创造力和生产力。诸如金融保险领域的保险咨询客服、数字人投保顾问;数字政务领域的政务热线数字人、政务大厅的数字化咨询台;传媒领域融媒体中心开展数字主持播报、提升新闻报道制作传播效率等,给业界留下了深刻印象。

值得一提的是,其直播数字人也在展会上首次亮相。数字人主播没有时长及精力上限,能7*24小时不间断帮助商家实现流量变现。现下,当消费降级成为趋势,中小商家中对价格敏感度高,对主播表现力要求不高,就适合选用数字人直播模式来解决。

自2023年发布国内首款聚焦视频领域的大模型——新壹视频大模型以来,新壹科技一直持续对AI视频领域深入探索。在本次WAIC 2024展会上,其正式发布了新壹视频大模型2.0版,这一版本进一步夯实了其在视频AI领域的领先地位,也为视频人工智能在处理、分析、应用层面带来了更多可能性。

据介绍,新壹视频大模型2.0进一步提升了其多模态AIGC模型的核心能力,包括多模态感知能力的强化、实时学习与自迭代功能升级、多场景交叉推理能力拓展、AI全流程视频生产能力提升;此外,在短视频创作能力、真实场景与人物动作模拟等细节方面也得到了大幅强化。多层次细节的强化和提升,使大模型2.0版本支撑下的视频生成,更为精准且适应场景更广泛,赋予用户更高效、更智能、更细腻的AI全流程视频生产体验。

增强的多模态感知能力

新壹视频大模型2.0进一步增强了其对多模态信息的感知能力,包括文字、图片、语音等多种形式输入。2.0能更精准理解用户意图,为生成更高质量视频内容打下坚实基础。

实时学习与自迭代功能升级

通过升级机器算法,新壹视频大模型2.0在实时学习和自迭代方面有显著提升。模型能持续从用户反馈和大规模数据中学习新识,自动调整和优化,以不断提升视频生成的效率和精度。

多场景交叉推理能力拓展

新壹视频大模型2.0的交叉推理能力进一步得到拓展,支持在更广泛的场景下生成符合要求的视频内容。无论是教育、娱乐、广告还是其他领域,模型都能根据需求快速生成符合场景特点的视频作品

AI全流程视频生产能力提升

从脚本生成、素材生产和匹配、智能剪辑配音到数字人播报,新壹视频大模型2.0让整个流程更加智能化,大大减轻创作者负担。模型还升级拓展了素材库和模板库,涵盖更风格及行业领域,用户可便捷地挑选并融入定制化,轻松创作出具有鲜明个人特色或品牌调性的视频作品。

短视频创作能力增强

升级后,秒创AI视频支持生成更高质量、更长时长的视频内容(如15-30秒),满足用户在短视频创作和分享方面的更多需求;同时,模型还能根据用户需求自动调整视频节奏、镜头切换等细节,使生成视频效果更加可控。

真实场景与人物动作模拟

此外,新壹视频大模型2.0在模拟真实世界复杂场景和人物动作方面也取得新的突破,可以更逼真地模拟出各种场景和人物动作,助力用户生成更生动、自然的视频作品。

(免责声明:此文内容为本网站刊发或转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。)

(责任编辑:贺翀 )
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。