不是视频生成,而是世界构建
从一张图片或一句提示词出发,直接生成真实3D世界(网格 / 3DGS)。不再是短暂播放的画面,而是可浏览、可编辑、可复用的空间资产。
从一张图片或一句提示词出发,生成真实可探索的3D世界,可漫游、可编辑、可持续存在。由 HY World Model 2 驱动,让创作不止于画面,而是进入空间。
早期体验期间暂不开放创建功能。加入候补名单,成为首批用户。
全球注册开放时第一时间通知你 — 无需中国手机号。

从一张图片或一句提示词出发,直接生成真实3D世界(网格 / 3DGS)。不再是短暂播放的画面,而是可浏览、可编辑、可复用的空间资产。
通过全景生成、路径规划与世界扩展能力,自动补全视野之外的内容,生成结构一致、可导航的完整3D场景,而非局部片段。
支持第一人称与第三人称视角,在生成的世界中自由移动与交互,具备基础物理反馈,让用户真正“进入”AI创造的空间。
HY World Model(又称 HunyuanWorld)是腾讯推出的开源 AI 模型家族,能够根据文本提示词或单张图像生成沉浸式、可探索、可交互的 3D 世界。“混元”在中国哲学中意为“原初统一”,后缩写为 “HY” 用于国际品牌。
HunyuanWorld 2.0 生成的是真正的 3D 场景 —— 不再只是视频。输出可直接编辑,并可在 Unreal Engine、Unity 等游戏引擎中使用。
模型权重、训练代码与推理流水线全部在 GitHub 上开源。你可以在自己的硬件上运行,也可以针对自定义领域进行微调。
HunyuanWorld-Voyager 变体在 Stanford 的 WorldScore 基准测试中,视频生成与 3D 重建质量均排名第一。
从首个开源 3D 世界模型,到实时可交互的世界,再到原生支持游戏引擎的输出。
面向 3D 世界生成、重建与模拟的多模态世界模型。四阶段流水线(HY-Pano 2.0 → WorldNav → WorldStereo 2.0 → WorldMirror 2.0)直接输出真实的 Mesh / 3DGS / 点云,可在 Blender、Unity、Unreal Engine 与 Isaac Sim 中使用。WorldMirror 2.0 的代码和权重在 tencent-hy-world-2.0-community 许可证下开源。
开源了 WorldPlay-8B 模型的强化学习后训练代码(WorldCompass),支持社区微调。
WorldPlay-8B 模型的完整训练代码已开源,社区可以从零开始训练自己的世界模型。
首个具备长时几何一致性的开源实时交互世界模型。以 24 FPS 流式输出视频,支持键鼠控制。基于 HunyuanVideo-8B 骨干。
通用前馈 3D 重建模型。支持视频到 3D 以及多视图图像到 3D 生成。输出稠密点云、深度图以及 3D Gaussian Splatting。
首个具备原生 3D 重建能力的超长程世界模型。可将点云视频导出为 3D 格式,无需外部工具。在 Stanford WorldScore 排行第一。
业界首个开源 3D 世界生成模型。从文本/图像到沉浸式、可探索的 3D 世界。兼容 CG 制作流水线。Lite 版本可在消费级 GPU(24GB VRAM)上运行。
HY-World 2.0 是一个多模态世界模型框架。它接收文本、单视图图像、多视图图像或视频,并在一次处理中输出真实的 3D 资产 —— 网格、3D Gaussian Splatting(3DGS)、点云、深度图、表面法线以及相机参数。
全景生成。将文本提示词或单张图像转换为 360° 全景图,用以确立世界的风格、光照与空间布局。支持写实、卡通与游戏风格。
空间规划。空间智能体基于全景图预测相机轨迹 —— 即你可以穿行、观察和探索的路径 —— 在合成任何 3D 内容之前完成规划。
世界扩展。沿着规划好的轨迹生成可漫游的 3DGS 世界,相机控制精度极高 —— RotErr 0.492、TransErr 0.968、ATE 1.768,三项指标全面优于 WorldStereo 1.0。
世界合成与重建。一个约 1.2B 参数的统一前馈模型,在一次前向传播中预测深度、表面法线、相机参数、点云以及 3DGS 属性 —— 分辨率覆盖 5 万到 50 万像素。
| Model | Role | Params | Status |
|---|---|---|---|
| WorldMirror 2.0 | 多视图 / 视频 → 3D 重建 | ~1.2B | 已发布 |
| WorldMirror 1.0 | 旧版多视图 / 视频 → 3D | ~1.2B | 已发布 |
| HY-PanoGen(HY-Pano 2.0) | 文本 / 图像 → 360° 全景 | — | 即将推出 |
| WorldStereo 2.0 | 全景 → 可漫游 3DGS 世界 | — | 即将推出 |
多视图 / 视频 → 3D 重建
~1.2B
旧版多视图 / 视频 → 3D
~1.2B
文本 / 图像 → 360° 全景
—
全景 → 可漫游 3DGS 世界
—
WorldMirror 2.0 在点云重建方面达到同类最佳水平,WorldStereo 2.0 在相机控制上领先 —— 这是首个与 Marble 等闭源系统处于同一梯队的开源 3D 世界模型。
| 数据集 | 精度 ↓ | 完整度 ↓ |
|---|---|---|
| 7-Scenes | 0.012 | 0.016 |
| NRGBD | 0.015 | 0.016 |
| DTU | 0.554 | 0.771 |
HY World Model 家族的架构、参数与能力。
HY World Model 与其他主流 AI 世界模型及视频生成模型的对比。
官方公告与社区反馈。
HunyuanWorld-Voyager 正式上线,全面开源!全球首个具备原生 3D 重建能力的超长程世界模型,为 VR、游戏与仿真重新定义 AI 驱动的空间智能。直接 3D 输出:无需借助任何工具即可将点云视频导出为 3D 格式。
我们非常激动地宣布 Hunyuan3D World Model 1.0 发布并开源!该模型能够让你仅凭一句话或一张图像,就生成沉浸式、可探索、可交互的 3D 世界。这是业界首个开源 3D 世界生成模型,兼容 CG 制作流水线。
持续登顶!HunyuanWorld-Voyager 现已在 Hugging Face 上位列趋势榜第一!我们的开源世界模型同时在 Stanford WorldScore 上排名榜首,充分展示了其在视频生成与 3D 重建两方面的实力。
GitHub 仓库、模型权重、技术报告与在线体验。
HY World Model 2 上手容易,只需三个简单步骤。

选择一张预设图片,或上传你的素材,作为3D世界的起点与视觉基底。无论是风景、室内还是概念画面,都可以成为世界生成的初始框架。

输入一段提示词,描述你希望扩展与生成的内容。AI将基于你的意图,补全空间结构、细节与风格,构建完整的3D世界。

耐心等待约3-5分钟,即可获得一个可探索的3D世界。支持自由漫游与视角切换,让你的创作真正落地为空间。
从一张图片到一个完整世界,从灵感到可探索空间,HY World Model 2 为不同创作者提供统一而强大的3D生成能力,让每一个想法都能被构建、被进入、被实现。
构建可重复、可控制的3D场景,不再受限于一次性的画面生成。你可以在同一世界中反复取景,精确调整镜头路径、构图与空间关系,让每一帧都具备一致性与可控性,从而更高效地完成叙事与视觉表达。

为你的虚拟形象打造专属世界。无论是日常内容、剧情演绎还是品牌表达,都可以在一个持续存在的3D空间中展开,让内容风格更加统一、记忆点更强,持续输出具有辨识度的视觉资产。

快速将灵感转化为可探索的3D场景,而不仅仅是平面概念图。从环境氛围到空间结构,都可以即时生成并自由漫游,帮助你在早期阶段验证世界观与关卡设计,加速创意到落地的过程。

将设计想法直接转化为可浏览的空间原型。通过简单的图像或描述,快速生成具备结构与尺度感的3D场景,用于方案演示、灵感探索或客户沟通,让抽象设计更直观、更具说服力。

HY World Model 2 是基于浑元大模型构建的多模态3D世界生成框架。它支持从文本、单张图片等输入直接生成可探索、可编辑的3D世界,而不仅仅是生成视频内容。
HY World Model 2 可以从一张图片或一句提示词生成完整的3D世界,包括网格(Mesh)、3D高斯点云(3DGS)等结构化资产。这些内容支持自由漫游、视角切换,并可用于多种创作与开发场景。
不同于传统视频模型(如 Genie、HY World 1.5)生成一次性的视频内容,HY World Model 2 生成的是可持续存在的3D世界。这意味着用户可以进入场景中探索、编辑,并在不同项目中复用这些空间资产。
是的,HY World Model 2 生成的3D资产(如Mesh、3DGS)可用于主流3D工具和引擎,例如 Unity、Unreal Engine 等,方便进一步编辑、开发或制作完整项目。
是的,用户需要注册并登录后,才能使用 HY World Model 2 的核心功能,包括3D世界生成与管理等操作。
HY World Model 2 采用按调用次数计费的方式。每次生成3D世界会消耗固定成本,具体费用会在功能界面中清晰展示,用户可根据需求灵活使用。
通常情况下,使用 HY World Model 2 生成一个完整的3D世界大约需要3-5分钟。具体时间会根据场景复杂度和生成内容有所变化。
是的,HY World Model 2 将持续迭代。未来会不断提升空间生成质量、丰富场景类型,并增强交互能力与世界构建深度,让AI生成的3D世界更加真实与可用。
“混元”(意为“原初统一”)是腾讯的整体 AI 品牌,在海外市场被重新命名为 “Tencent HY”。“HunyuanWorld” 或 “HY World Model” 特指其世界生成产品线。混元家族还包括 HunyuanVideo(视频生成)、Hunyuan3D(3D 资产)以及 Hunyuan LLM。常见别名包括:HY-World、HY World Model、Hunyuan World Model、HunyuanWorld。
是的,整个 HY World Model 家族均已开源。代码仓库托管于 github.com/Tencent-Hunyuan,核心仓库包括 HY-WorldPlay(v1.5)、HunyuanWorld-1.0 和 HunyuanWorld-Voyager。模型权重在 Hugging Face 的 “tencent” 组织下提供。HunyuanWorld 2.0 计划于 2026 年 4 月 15 日开源。
推荐的推理流水线基于 HunyuanVideo-8B 骨干模型,建议使用 40GB 及以上 VRAM 的 GPU(如 A100、H100)。HunyuanWorld 1.0 的 Lite 版本以及 v1.5 的 WAN-5B 轻量化流水线可以在 24GB VRAM 的消费级 GPU(如 RTX 4090)上运行。社区也提供了量化版本。
HY World Model 生成的是真实的 3D 场景(而非仅仅视频),完全开源,并支持 24 FPS 的实时交互控制。Sora 和 Veo 3 虽然能生成高保真的被动视频,但均为闭源、仅支持云端,且不输出 3D 几何。HY World Model 在 Stanford WorldScore 基准测试中,视频生成与 3D 重建两项均排名第一。
HY World Model 由腾讯混元团队开发。更广泛的混元 AI 战略由首席 AI 科学家姚顺雨(前 OpenAI 研究员,于 2025 年 12 月加入)领衔。2026 年 3 月,腾讯将 AI Lab 并入混元团队,整合 AI 力量,并引入了来自 WizardLM 团队的视频与 3D 专长。
HY-World 2.0 是一个四阶段流水线:HY-Pano 2.0 从文本或图像生成 360° 全景图,WorldNav 规划相机轨迹,WorldStereo 2.0 将全景扩展为可漫游的 3DGS 世界,而 WorldMirror 2.0 —— 一个约 1.2B 参数的前馈模型 —— 在一次前向传播中预测深度、表面法线、相机参数、点云和 3DGS。在首发时,WorldMirror 2.0 已开源;HY-Pano 2.0 和 WorldStereo 2.0 的权重将随后开放。
HY-World 2.0 可输出 Mesh、3D Gaussian Splatting(3DGS)、点云、深度图以及相机参数,可直接导入 Blender、Unity、Unreal Engine 和 Isaac Sim。Maxon 也已将 Hunyuan 3D 集成到 Cinema 4D 的制作流水线中。
模型与权重以 tencent-hy-world-2.0-community 许可证发布。完整仓库位于 github.com/Tencent-Hunyuan/HY-World-2.0,模型卡片位于 huggingface.co/tencent/HY-World-2.0。
角色模式允许你以第一人称或第三人称方式在生成的 3D 世界中探索,并具备基于物理的碰撞反馈。与仅生成视频的世界模型不同,这里没有固定时长限制 —— 世界是持久存在的 3D 几何,因此可游玩的时长不受限制。