加入TMGM! 只需三分钟便可交易!
注册新账户
豆包大模型团队发布了视频生成实验模型“VideoWorld”,并宣布其代码正式开源。与当前主流的多模态模型如Sora、DALL-E、Midjourney等不同,VideoWorld在业内首次实现了无需依赖语言模型,仅通过视觉信息即可认知世界。
传统的多模态模型通常依赖语言或标签数据来学习知识。然而,语言并不能捕捉真实世界中的所有信息。VideoWorld通过去除语言模型,实现了统一执行理解和推理任务,基于潜在动态模型(LDM),高效压缩视频帧间的变化信息,提升知识学习效率和效果。
实验结果显示,VideoWorld在仅有300M参数的情况下表现显著。达到专业5段9x9围棋水平,并能够在多种环境中执行机器人任务。
VideoWorld的发布为人工智能领域带来了新可能性,尤其在视频生成、自动驾驶、医疗影像等领域。纯视觉认知模型可以更直观地理解和生成视频内容,减少对语言描述的依赖,提高生成效率和质量。在自动驾驶领域,技术可提升车辆对环境的理解和决策能力。在医疗影像分析中,辅助医生进行诊断和治疗规划。
开源有助于加速技术普及,吸引开发者社区,建立行业标准。但也带来挑战,包括知识产权保护、竞争模仿和社区管理等方面。对于投资者来说,VideoWorld的发布标志着AI技术的重要突破,纯视觉认知模型的应用前景广阔,相关企业有望获得新增长点。
本网站提供的信息仅为一般性参考,并不构成个人财务建议。请在使用本网站信息前,结合您的财务目标、状况和需求评估其适用性。保证金外汇和差价合约交易具有较高风险,可能不适合所有投资者,您可能会面临损失超过初始投资金额的情况。您不拥有合约标的资产的所有权和收益权。我们建议在交易前咨询专业意见,确保您充分了解相关风险。在选择本网站提供的金融产品前,请仔细阅读我们的用户协议、风险提示、隐私政策及其他相关披露文件。本网站的产品和服务不适用于美国居民。