对于视频游戏行业来说,Google DeepMind 不再是一个陌生的名字。近年来,谷歌子公司一直在测试很多可以玩游戏的自主软件,最近他们宣布了AlphaStar系统,可以玩《星际争霸II》——一款由暴雪开发和发行的即时战略游戏——与《星际争霸2》处于同一水平。世界顶级游戏玩家。
为了完善视频游戏人工智能,谷歌 DeepMind 推出了 SIMA,这是一种人工智能系统,经过训练可以更像人类一样玩游戏,而不是一个自行计算和运行速度极快的人工智能。
SIMA 这个名字是 Scalable Instructable Multiworld Agent 的首字母组合,大致翻译为:Scalable Multiworld Agent 和 Can Follow instructions。目前仅处于研究阶段,但其潜力正如其名。 DeepMind 表示,SIMA 并不是人类的对手,而是正在被开发成为每个玩家的有效助手,能够接收游戏玩家的命令来执行任务。
目前,Google 已与 Hello Games、Embracer、Tuxedo Labs、Coffee Stain 等多家工作室等八家游戏开发商合作,对 SIMA 进行训练和测试。
研究人员已将SIMA集成到《无人深空》、《Satisfactory》、《英灵神殿》和《模拟山羊3》等游戏中,教AI如何玩一些基本操作。谷歌在博客文章中表示,SIMA 不需要访问游戏源代码或链接到 API 来执行游戏操作。
谷歌 DeepMind 研究员、SIMA 联合负责人蒂姆·哈雷 (Tim Harley) 在新闻发布会上表示:“SIMA 并不是为了获胜而训练的,它是为了操作和遵循指令而训练的。”
游戏中的一些任务谷歌的人工智能系统可以自行执行 - 视频:谷歌 Deepmind。
掌握游戏可以被认为是人工智能系统的一项技术成就。然而,学习在各种游戏环境中遵循指令可能会带来有用的人工智能助手,不仅在娱乐领域,而且在生活的许多方面。
谷歌的研究表明,用户将能够口头向人工智能发出命令。通过SIMA项目,谷歌希望利用视频游戏作为测试平台,更好地了解人工智能系统的工作原理,从而改进它们在现实生活中的应用。
为此,团队在 Unity 引擎中构建了一个模拟环境,SIMA 需要在其中创建虚拟雕塑来展示 AI 理解和操纵对象的能力。
然后,谷歌记录了一对游戏玩家的活动——其中一个控制游戏,另一个给出下一步该做什么的指示——以收集语言指令。接下来,谷歌继续记录每个玩家在玩游戏时的活动,以分析他们采取的行动顺序的逻辑。
SIMA 将学习这些数据,以便能够预测屏幕上将继续发生的情况,从而采取相应的操作。这种预测-行动循环将帮助 SIMA 学会流利地玩游戏。
SIMA目前拥有约600项基本技能,如转动角色、爬楼梯、打开菜单使用地图等。研究人员 Harley 表示,SIMA 将逐渐改进,使其能够理解和执行更复杂的任务。现在,“自己寻找资源、扎营”这样的要求还太困难,但未来这个任务是可以实现的。
SIMA 并不是像 Nvidia 的产品那样被设计为集成 AI 的 NPC(只能说话),而是能够像普通游戏玩家一样玩自己,甚至可能影响游戏的结果。此前,STALKER游戏开发团队曾计划制作这样一个交互式、自玩的AI系统,但还只是停留在想法层面:似乎受到了当前技术的限制。
但现在的背景不同了。 SIMA 和类似的系统将逐渐学习如何玩游戏,然后如何像聊天机器人用户与机器交谈一样进行交谈。在不久的将来,游戏玩家很可能能够对自己进行编程,与自己或整个团队一起玩游戏,执行无聊的任务,以便他们和他们的朋友可以在这些活动中找到乐趣。
留言