包含标签:deepmind 的文章
-
《星际争霸2》AI已达宗师段位,水平超99.8%的人类玩家
AI越来越强了。 我们此前有报道,DeepMind 公司旗下人工智能“阿法星”(AlphaStar)将会加入《星际争霸2》的天梯战局,在小部分游戏对局中匿名和玩家进行对战。 近日,官方公布了这个 AI 的天梯战绩,仅在六周时间内,“阿法星”就打进了《星际争霸2》前 0.2% 排名的人类玩家之列,成为了首个在游戏中达到“宗师”排名的非人类。 在这场较量中,“阿法星”先是通过观察研究人类玩家的行为,再依次与游戏中的不同种族进行对抗,以探测对方的弱点。但是与先前挑战的其他线性游戏不同,《星际争霸2》的地图相当开阔,因此玩家在比赛中可能会采取无数种行为,这无疑给 AI 的计算带来了极大的挑战。 与此同时,DeepMind 还把“阿法星”的操作执行速度限制在了正常人类水平,让它不能够利用超人类的速度(如每分钟执行上万次动作)进行游戏,从而让 AI 更加依赖真正的战术和运营策略与人类玩家对抗。 结果,“阿法星”目前在《星际争霸2》已在四个赛区达到了天梯排位的“宗师”段位,均位于排名前 200,超过了 99.8% 的人类玩家。 DeepMind 于 2016 年凭借“阿法狗”程序与人类围棋世界冠军之战中大获全胜而成名;其后该程序升级为“阿法元”(AlphaGo Zero),能够从空白状态起,不需要任何人类棋谱输入的条件下自学围棋;下一代“阿法零”(AlphaZero)则接连击败了国际象棋、将棋、围棋三个世界冠军级的电脑程序,成为了全能棋王。而在今年年初,“阿法星”就曾在《星际争霸2》中击败了两位来自 Liquid 战队的职业玩家。 更新:原文中“大师”段位有误,已修正为“宗师”。来源:Kotaku -
在《雷神之锤3》夺旗模式中,AI已经能碾压人类玩家了
害怕.jpg 在即时战略之后,第一人称射击成为另一个 AI 碾压人类的游戏类型。谷歌的 DeepMind 人工智能研究人员利用第一人称射击游戏《雷神之锤 3 竞技场》训练了一个 AI,并在《科学》杂志上发表了一篇关于 AI 与人类比赛对抗的论文。 DeepMind 的研究人员在论文中写道:「AI 在一对一的游戏中表现越来越好,但大多数现实世界的努力都需要团队协作。」为了测试 DeepMind 在多人游戏中的表现,研究团队创建了一个程序,尝试训练 AI 在《雷神之锤 3 竞技场》的夺旗模式中与人类对抗。 这个昵称为「胜利(Win)」的程序被输入了数千小时的游戏数据以供学习。在几周之后,该程序已经能对抗人类玩家了。研究人员发现,即便把 AI 的反应速度放慢到人类水平,AI 依然可以跟人类玩家抗衡。 由于测试的模式是「夺旗模式」,除了射击外,也非常考验玩家的策略配合。游戏在随机生成的地图上进行,玩家通过收集敌方旗帜送回到我方基地得分。 据论文描述,AI 会分析「我手上有旗帜吗」「我最近见到过我的队友吗」「我能很快到达敌方基地吗」等问题,通过比较这些问题的答案和得分情况,推算出一套积极的策略。比如在一名队友运送旗帜期间,会有另一名队员埋伏在敌方基地,因为 AI 知道一旦运旗的队友到达自家基地,敌方旗帜马上会刷新,埋伏的队员就可以立刻捡起来。参与测试的人类玩家 最终,DeepMind 团队发现他们训练的 AI 平均能以 16 分的优势击败由两名人类玩家组成的团队。而在另一项研究中,研究人员安排一个由两名专业游戏测试员组成的团队,不断与两名 AI 组成的团队对抗。但即使经过 12 小时的练习,人类测试员的胜率只有 25%(6.3% 平局)。 而人类击败 AI 的办法,就是和 AI 组队。研究表明,一个人类加一个 AI 的组合,比仅由 AI 组成的团队胜率高出 5%。这表明 AI 能够适应与非 AI 队友配合,彼此长短互补。人类玩家更擅长远距离射击,而 AI 则更擅长夺旗。来源:Kotaku Gamasutra -
谷歌新 AI 在《星际争霸2》中以 10:1 击败人类职业选手
2月份Serral也要和AI打一场 此前谷歌旗下的科技公司 DeepMind 宣布将在北京时间 1 月 25 日凌晨 2 点直播公司最新研制的 AI 和《星际争霸2》职业选手之间的比赛,现在这个比赛已经完成,结果也颇让人吃惊:谷歌 AI 以 10:1 的成绩击败两位人类职业选手。 本次参赛的双方分别是 DeepMind 专为《星际争霸2》设计的 AI,其名为「AlphaStar」,人类职业选手则来自 Liquid 战队的 TLO(虫族选手)和 MaNa(神族选手)。需要说明的是,直播中公布的前 10 场比赛是之前已经录制好的,今天的直播只是现场解说和分析。只有最后一场比赛是今天凌晨现场对战的。 据介绍,在 2018 年 12 月 10 日的对战中,AlphaStar 以 5:0 战绩打败了 TLO。事实上,AlphaStar 在这 5 场比赛的表现并非那么出色,它有时会出现一些毫无意义的操作,或者目的不明的行为,但凭借着高超的微操依然拿下了胜利。 之后,AlphaStar 又经过了相当于 200 年的训练和自我学习,在 12 月 19 日再次以 5:0 的完胜战绩打败了 MaNa,并在这场比赛中展现出了更好的发挥,与更少的失误。 在这两场比赛中,AlphaStar 展现出了完全不逊于职业选手的操作。无论是建筑的布局,开场的侦查,还是对战时对每个单位的走位操控都非常出色,尤其是它能够同时在地图上多个地点同时进行操控,这是人类选手做不到的。两位职业选手都表示与这样一个超级 AI 的较量确实很头疼,这是他们从未见过的对手。 不过在这 10 场比赛中,AI 有一个巨大的优势,那就是凡是地图上能看到的地方,AI 都能一览无余,而人类必须依赖切屏才能获取信息。 不过 MaNa 最后还是为职业选手扳回了些颜面,在今天的现场对战中,他又和 AlphaStar 进行了一场神族内战,取得首场也是唯一一场胜利。 在本次比赛中,AI 的 APM 被限制在 450 以内,同时也不再是全图视野,它必须和人类一样通过切屏来获取信息、分析单位。比赛地图固定为汇龙岛地图,全部为神族内战。尽管此前赢了 10 局,但今天的现场对战还是暴露了 AlphaStar 算法存在的问题,最终被人类拿下一城。今天现场对战的一场比赛 视频地址 MaNa 也在直播中聊到这场比赛,表示“AlphaStar 的前几分钟是世界级的...很难判断 AlphaStar 在做什么,这是一次不错的体验” ,TLO 也表示了相同的观点,表示和从未对战过的 AI 对抗非常困难,与和人对抗相差甚远。 AlphaStar 的早期学习方法与 AlphaGo 相似,它首先会通过观看人类对战的录像学习人类选手的操作和战术 ,以快速达到高段天梯玩家的水平。在这个阶段的学习之后,AlphaStar 已经能够以 95% 的胜率击败游戏自带的最高级 AI 了;为了进一步的提高,AlphaStar 开始自我对战学习,它被分为许多种不同的版本,每个版本有不同的倾向,从而保证其多样性,并最终获得一个足够智能的版本。 第一次与 TLO 对战的是自我学习 9 天后的 AlphaStar;第二次对战 MaNa 时则是自我学习 14 天后的版本。根据比赛后的数据分析显示,虽然 AlphaStar 的长处并不在于 APM,事实上它的 APM 比人类选手还低一些,它的主要优势还是来自于上面提到的无需操控视角,直接读取已知地图的所有信息。 随后,谷歌重新设计了一个需要操作视角的 AlphaStar,经过短短 7 天训练之后又和 MaNa 打了一局,最终落败。但从数据分析来看,虽然自我学习的时间比上一版本短很多,但控制视角对 AlphaStar 的表现带来的影响并没有想象中的那么大,它的主要强大之处还是在于快速有效的决策与强大的微操。 在昨天谷歌 AI 的赛事通告发出之后,ENCE 也宣布《星际争霸2》全球总冠军 Serral 将在今年 2 月 15 日与 ReaktorNow 组织的《星际争霸2》AI 挑战赛的冠军展开一场人机大战。不过这个并不是像 AlphaStar 那样的超级智能 AI,而是一个类似脚本设计的 AI。 不管怎么样,如果今天的 AI VS 人类比赛没看够的话,不妨也关注一下这个。来源:Deepmind