ACM CAIS 2026 Workshop征稿|首届Agent Skills研讨会:智能体技能的设计、评估与优化¶
公众号: 机器之心 发布日期: 04月16日 抓取日期: 2026-04-17 URL: https://www.jiqizhixin.com/articles/97d6752f-116b-49c7-a68a-8139f128e79d
Title: 腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎! | 机器之心
URL Source: https://www.jiqizhixin.com/articles/97d6752f-116b-49c7-a68a-8139f128e79d
Markdown Content:
腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎! | 机器之心¶
机器之心¶
![]()
登录
文章库
PRO会员通讯
SOTA!模型
AI Shortlist
AI 好好用

文章库

登录
腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎!
0%
展开列表
打造全球领先“具身智能超级供应链”,京东发布行业首个具身数据全链路基础设施
04月16日
京东具身智能生态发布会

当AI迈入Harness时代:以MiniMax为样本看智能体云端新基建
04月16日
MaxHermes

数据限制具身?觅蜂杀进场破局:高质量数据水电一样即取即用
04月16日
觅蜂科技(Maniformer)

TPAMI 2026 | 北大彭宇新团队提出CPL++框架,实现视觉定位模型的「自知之明」和「自我纠错」
04月16日
CPL++

澜舟科技发布可信 AI 技术体系,以智能体和数字员工重构企业服务新范式
04月16日
可信 AI

ICLR 2026巴西见!上海AI实验室北极星X星启交流会,等你来聊
04月16日
上海人工智能实验室

脸谱心智陆弘远团队ACL 2026新作:别再给模型叠加「高级词」了!模型更爱听「大白话」
04月16日
ACL 2026

腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎!
04月16日
HY-World 2.0

ACM CAIS 2026 Workshop征稿|首届Agent Skills研讨会:智能体技能的设计、评估与优化
04月16日
Agent Skills研讨会

打通分子宏微观鸿沟,40+任务超越SOTA,上智院开源Suiren-1.0模型
04月16日
AI for Science

万帧实时!流式3D重建天花板,被国产开源模型打破了
04月16日
流式 3D 重建基础模型

本周六,围观学习ICLR 2026论文分享会,最后报名了
04月16日
ICLR 2026论文分享会

太反差了!那边Claude强制「刷脸」认证,这边国内Coding Plan被外国人疯抢
04月16日
GLM Coding Plan

训练提速4.6倍!FP4+BF16双轨并行,NVIDIA×港大×MIT联手重新定义扩散模型训练速度上限
04月16日
Sol-RL

它石智航Pre-A轮融资4.55亿美金破中国具身智能纪录,高瓴红杉美团联合领投
04月16日
它石智航

继HappyHorse后,阿里又有一款模型登顶权威评测榜单
04月16日
ABot-PhysWorld

2026具身智能数据赛道,卷出了一匹「黑马」
04月15日
觅蜂科技(Maniformer)

从「片段生成」到「长视频漫游」:OmniRoam探索轨迹可控的长视频生成新范式
04月15日
视频生成

阿里ATH发布AI开发工具Meoo,可一键开发一键部署
04月15日
Meoo(秒悟)

构建跨越时空的微观实验室:KIMMDY 仿真器实现秒级生物化学反应的动态模拟
04月15日
AI for Science

![]()
新闻资讯 原创
8小时前
腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎!
4月16日,腾讯正式发布并开源混元3D世界模型2.0( HY-World 2.0)。HY-World 2.0是一个多模态世界模型,能够理解文字、图片、视频等不同类型输入,自动生成、重建和模拟 3D 世界,同时支持多格式3D资产(Mesh/3DGS/点云等)导出,可以与现有的游戏工作流无缝对接,用于快速生成游戏地图和关卡原型。
混元世界模型 2.0让 AI 从“对话”、“画图”、“捏物体”,进化到了“造世界”——包含人、物、景的完整世界。不同于谷歌的Genie 3和混元世界模型1.5仅能生成一分钟视频文件,世界模型2.0的实用性更进一步:它可以直接生成可二次编辑的3D资产文件,这些生成的3D资产可以直接导入到游戏制作或者具身仿真引擎,实现真正可玩、可用。
目前,世界模型2.0已经上线至腾讯混元3D创作引擎官网,用户可以申请使用。(申请使用地址:https://3d.hunyuan.tencent.com/sceneTo3D)
实机演示: 输入“生成一个日式RPG风格的中世纪地牢”,即可生成一个3D空间资产
实机演示: 输入“生成一个温馨的绘本风格小木屋”,游戏角色可以自由穿行在生成的3D场景中 所有内容均为3D文件,且全部由HY-World 2.0大模型一键生成
支持多种模态输入,草图变地图、图片变空间
混元世界模型2.0支持文、图、视频多种输入。输入一段文字或一张图片,模型即可精准解析复杂语义,一键生成风格多样的可漫游世界。相比较混元世界模型1.0,2.0的模型架构全面升级,画面精细度和真实感大幅提升。用户还可以自定义风格,按需生成真实风、漫画风、游戏风的3D空间。生成完成后,用户可以将资产导入到Unity、UE 等引擎、进行二次编辑,显著降低了游戏地图的创作门槛。



模型还支持角色模式,用户可以操作角色在街道、建筑、场景中自由探索,不限时间,具有物理碰撞,就像在游戏里一样。



同时,世界模型2.0支持复刻真实3D场景,用户输入一段真实空间的视频或者多视角图片,模型就能构建出高精度的数字孪生空间。基于升级后的 WorldMirror 2.0 架构,模型支持任意尺寸图像与视频输入,一次性预测密集点云、多视角深度图、表面法线及相机参数 ,一次生成永久可复用。未来,室内装修预览、城市规划、文化遗产保护等场景,都可以基于这一能力实现快速构建和还原。
与其他世界模型相比,混元世界模型2.0在场景完整度(物体侧面和背面)以及对输入图片的遵循程度表现更优。混元生成的3DGS与Mesh的混合表征,也让用户能够开启角色模式进行有真实物体碰撞的交互。
以3D生成为主轴,统一空间理解、生成、重建
混元世界模型2.0以3D为主轴,通过统一空间理解、生成、重建的架构,实现了SOTA级的生成效果。
传统方法需要精确的相机参数才能生成全景图,但现实中这些参数往往拿不到。
HY-World 2.0 全新升级HY-Pano-2.0模型, 采用端到端隐式学习方案,让模型自己学会从普通图片到 360 度全景的空间映射,完全不需要任何相机元数。再配合团队的真实全景照片和 UE 引擎合成数据的混合训练策略,保证了生成质量和泛化能力。
有了全景图,下一步是规划“怎么走”。
通过团队自研的空间Agent技术,结合VLM与游戏自动寻路算法常用的navmesh表征,让大模型能够理解空间语义,并智能规划出有意义的漫游轨迹,确保覆盖场景中最有价值的区域,同时避免穿墙、跑飞。模型会根据每个场景的不同语义,规划出“环绕物体”、“最大漫游”等五类运镜轨迹,这样搭配下一步的世界扩展模型,可以让用户在 3D 世界中的探索路径既自然又有趣。
沿着规划好的轨迹,模型通过视频生成技术不断“扩展”世界。
这一步的关键创新在于“精确的相机控制 + 细粒度视觉细节保持 + 空间一致性记忆机制”,这一套流程可以确保新生成的区域与已有区域在几何和视觉上完美衔接,不会“穿帮”。通过记忆力机制的设计以及体系化的中间训练和后训练,团队打造了目前业界最强的新视角生成(NVS)模型HY-WorldStereo。生成画面对输入相机的精准跟随,且多条运镜的生成结果保持空间一致不会有冲突;通过后训练算法的设计,使得保持快速生成的同时画面质量不会衰减。

最后,将所有生成的片段通过HY-WorldMirror 2.0 整合为一个统一的、可交互的 3D 世界。使用定制的Depth alignment和自适应Mask gaussian场景优化算法,生成的场景采用 3D 高斯泼溅(3DGS)表示,同时可以转出高质量mesh,可以无缝导出到 Unity/UE 等主流游戏引擎,支持二次编辑和创作。
混元世界模型(HY-World 系列)自发布以来就在持续进化:从首个开源的3D世界模型 HY-World 1.0 ,到可实时在线交互的 HY-World 1.5 ,再到一键生成高质量完整3D空间资产的 HY-World 2.0,腾讯混元的3D世界模型正在一步步将“AI 造世界”从概念变为现实。
申请在线体验:https://3d.hunyuan.tencent.com/sceneTo3D
开源代码:https://github.com/Tencent-Hunyuan/HY-World-2.0
技术报告:https://3d-models.hunyuan.tencent.com/world/world2_0/HY_World_2_0.pdf
