NitroGen:英伟达联合斯坦福大学等推出的通用游戏AI模型
AI智库导航-aiguide.cc为您提供最新的AI新闻资讯和最新的AI工具推荐,在这里你可以获得用于营销的AI聊天机器人、AI在商业管理中的应用、用于数据分析的AI工具、机器学习模型、面向企业的AI解决方案、AI在商业客户服务中的应用、AI和自动化工具等。
主要介绍
NitroGen是由英伟达、斯坦福大学、加州理工学院等机构联合开发的开源通用游戏AI模型,旨在通过单一模型实现跨1000余款游戏的零样本(Zero-Shot)操作能力。其核心目标是通过互联网规模的游戏视频数据训练,使AI具备“直觉式运动控制”能力,覆盖RPG、平台跳跃、竞速、Roguelike等多元类型,并支持快速适配新游戏。这一模型不仅为游戏行业带来变革,更被视为通向通用具身智能(Embodied AI)的关键一步。
功能特点
- 跨游戏泛化能力
- 支持1000+款游戏,覆盖3D动作、2D平台、俯视视角等视觉风格,以及RPG、吃鸡、竞速等类型。
- 无需针对新游戏重新训练,仅需少量微调即可快速上手,例如在未接触过的游戏中完成探索或战斗任务。
- 端到端学习框架
- 直接以游戏视频帧为输入,输出真实手柄操作信号,天然适配所有支持手柄的游戏。
- 采用“行为克隆”(Behavior Cloning)技术,通过大规模视频-动作数据集学习玩家操作模式。
- 开源生态支持
- 公开数据集、评测套件及模型权重,支持社区开发者复现与改进。
- 提供Gymnasium API兼容的环境封装层,统一不同游戏的交互接口。
优缺点
优点
- 通用性强:突破传统AI局限于单一游戏的限制,实现跨类型、跨风格操作。
- 数据效率高:基于4万小时公开游戏视频训练,无需人工标注动作标签,仅通过自动提取手柄输入叠加层(Input Overlays)生成标签。
- 迁移学习潜力:在未见过的新游戏中,任务成功率较从零训练的模型提升最高达52%。
缺点
- 依赖高质量视频数据:需处理不同手柄类型、叠加层透明度及视频压缩伪影等噪声,数据清洗成本高。
- 策略复杂度有限:当前聚焦于“直觉式运动控制”,暂未涉及高阶策略推理(如战术规划、长期目标分解)。
- 硬件要求高:训练5亿参数模型需大规模算力支持,个人开发者复现难度较大。
如何使用
- 环境配置
- 安装依赖库(如PyTorch、Gymnasium)及NitroGen代码库.
- 数据加载
- 下载公开数据集(含4万小时游戏视频及动作标签)。
- 模型微调
- 针对新游戏进行轻量级适配。
- 实时推理
- 连接游戏环境并生成操作。
框架技术原理
- 数据驱动架构
- 数据集构建:从公开游戏视频中自动提取手柄操作叠加层,通过模板匹配定位手柄区域,并训练分割模型生成动作标签。
- 模型设计:基于GR00T N1.5架构(原为机器人设计),采用扩散Transformer(Diffusion Transformer)从像素输入直接学习动作输出,支持流匹配(Flow-Matching)实现端到端训练。
- 多游戏基准评测
- 定义3类任务(探索、战斗、解谜)及5次rollout评估,统计平均任务完成率,量化模型泛化能力。
- 环境封装层
- 将不同游戏的API统一为Gymnasium标准,支持大规模并行训练与评测。
创新点
- 互联网规模视频-动作数据集
- 首次利用4万小时公开游戏视频自动生成动作标签,解决传统数据标注成本高的问题。
- 统一视觉-动作策略模型
- 通过单一模型实现跨游戏操作,避免为每款游戏单独训练专用AI。
- 机器人与游戏协同进化
- 游戏世界作为“多元宇宙”模拟环境,为机器人训练提供低成本、高复杂度的交互场景。
评估标准
- 任务完成率:在3类任务中统计5次rollout的平均成功率。
- 零样本泛化能力:测试模型在新游戏中的表现,对比从零训练的基线模型。
- 数据效率:评估微调所需数据量与性能提升的关系。
- 视觉风格适应性:覆盖3D、2D俯视、横向卷轴等不同视角的游戏。
应用领域
- 游戏行业
- 自动化测试:替代人工完成游戏压力测试、BUG复现。
- 动态难度调整:根据玩家水平实时生成适配操作。
- 机器人训练
- 通过游戏模拟复杂物理环境,降低真实世界数据采集成本。
- AI研究
- 作为通用具身智能基准模型,推动多模态学习与迁移学习研究。
项目地址
- 代码库:https://github.com/MineDojo/NitroGen
- 论文:https://nitrogen.minedojo.org/assets/documents/nitrogen.pdf
- 数据集:https://huggingface.co/datasets/nvidia/NitroGen
- 预训练模型:https://huggingface.co/nvidia/NitroGen
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...