包含标签:AlphaGo 的文章
-
谷歌的AI这次要挑战《星际争霸2》了
这次是谁能赢呢? 谷歌旗下的科技公司 DeepMind 宣布,他们将在北京时间1月25日凌晨2点直播《星际争霸2》的比赛,并将派出公司最新研制的 AI 来参与本次比赛。 值得注意的是,DeepMind 此前也曾开发了知名的人工智能 AlphaGO。他们今次与暴雪进行合作,通过学习《星际争霸2》的游玩方式来验证新 AI 的性能。在11月的暴雪嘉年华中,暴雪还曾透露该项试验还在测试阶段,然而仅过了三个月,我们就将会看到 AI 的进步。暴雪表示《星际争霸》成为了人工智能的巨大挑战,也是最佳的测试环境。 该比赛将于北京时间1月25日凌晨2点举办,并在 Twitch 和 Youtube 进行直播。来源:PCGamer -
还记得“围棋大师”AlphaGo吗?这次它输的非常彻底
但对手依然不是人类。 还记那个由谷歌旗下DeepMind 团队开发的人工智能AlphaGo 吗? 它在2016年3月与围棋高手李世石一战成名,让全世界认识了它的名字;随后又以“Master”的名字,于2017年1月在网络上以30秒快棋连胜全球数十名围棋高手,包括当时世界排名第一的柯洁;随后在2017年5月于乌镇举行的比赛上,柯洁全力迎战AlphaGo 但却惨遭三战全败。AlphaGo和李世石的对局在乌镇与柯洁的对局 至此,一度被认为人类最不可能被战胜的围棋也被人工智能拿下,AlphaGo 已经站在了这个项目的巅峰,可谓是独孤求败。 但它终究还是败了,而且是 100:0 的惨败。 究竟谁能让它连一局都赢不了? 答案是DeepMind 的下一代人工智能:AlphaGo Zero。 在今天出版的《自然》杂志上,DeepMind 团队详细介绍了他们在2016年击败李世石的AlphaGo,因为它是史上第一个在围棋项目上击败人类的机器,这毫无疑问是人工智能技术一项新的里程碑。而在这之后,他们又开发出了新一代的人工智能:AlphaGo Zero。 如果说,上一代的AlphaGo 是通过分析人类目前留下了成千上万场对决和赛局来学习围棋的规律和制胜方法的话,那么使用了强化学习技术(reinforcement learning)的AlphaGo Zero 则更加简单,它只需要知道游戏规则,就可以开始自我学习。 DeepMind 的首席执行官 Demis Hassabis 表示:“它的学习方式就是自己和自己玩,从完全没有任何规律的随机游戏开始。在这个过程中,它很快就超过了人类水平,并最终以100:0 的战绩击败了论文中提到的上一代AlphaGo。” “这项技术比上一代AlphaGo 更强就在于他不受限于人类的知识。它可以从零开始自己学习,直到击败世界上最强的围棋选手:AlphaGo 自己。”AlphaGo Zero的自我强化学习 在经过72小时,但是上百万次的自我对弈之后,AlphaGo Zero 仅仅使用4个 TPU 就击败了48个 TPU 的 AlphaGo Lee,也就是上面提到2016年击败李世石的版本。此时它对阵 AlphaGo Master 的成绩为压倒性的 89:11,Master 则是上面提到打败柯洁的版本;而经过40天的自我对弈之后,它最终以100战全胜的成绩全面超越了AlphaGo Master。 此外,研究人员还发现,由于不再受限于人类现存的棋局数据和理论,AlphaGo Zero 的棋路非常奇特,经常会出现人类从来没有下过的变种棋法。短短几十天,它不仅掌握了人类上百年来积累的围棋技术,而且还有了全新的理解与开拓。 Demis Hassabis 表示:“当前的最强版本,AlphaGo Zero 向我们展示了即使不用人类的数据,即使只用更少的计算资源,也能够取得长足进步。当然,我们最终的目的是用这些技术进展去解决现实问题,如蛋白质折叠或者新材料设计。如果我们能够在这些问题上取得同样进展,这将会而改善每个人的生活,并且给人类的知识带来长足的进步。” 曾经不可想象的未来,似乎离我们又近了一步呢,现在突然很好奇下一个被人工智能拿下的领域将会是什么呢?来源:财新网、gizmodo -
那个下棋很厉害的阿尔法狗 玩游戏也不赖
你可能不知道,在 AlphaGo 学会下围棋之前,它其实在玩游戏上已经超越了很多人类的。更新:北京时间3月15日下午,阿尔法狗在与李世石的最后一轮较量中获胜,本次人机围棋大战总比分定格为1:4。那一天人类回想起了被狗虐的感伤…… 最近,谷歌旗下DeepMind 的最新开发的人工 AI 阿尔法狗(AlphaGo)挑战韩国围棋高手李世乭的消息,想必大家都知道了。截稿时,双方五局比赛中,人类已经输了三局,围棋作为很长时间以来,人类智力的顶级试炼石已经遭到了机器的挑战。 然而在你可能不知道,在AlphaGo 学会下围棋之前,它其实在玩游戏上已经超越了很多人类。 2015年,Deep Mind 公布了AlphaGo 的前身的学习成果。那时候它的名字还叫“自己学习游戏规则的人工智能”。谷歌在没有给予任何游戏相关情报和规则指示的情况下,让 AI 游玩了49款规则不同的游戏,其中29款的成绩明显的高于人类玩家水平。下面《打砖块》就是其中一个例子。▲训练100场▲训练200场▲训练400场▲训练600场,已经会使用策略了▲完整视频 虽然它名字很绕口,但是其强大的学习能力早在那时候就体现出来了。 记得《杀出重围》之父Warren Spector 经常说,主流游戏这么多年来都没有什么革命性的进步。其实这话还是挺有道理的,虽然我们觉得电子游戏的 AI 水平一直在进步,但事实上它们仍旧遵循的是程序员在游戏中设定好的固有逻辑与反应,并没有随着时间学习与进步。 试想如果把AlphaGo 所使用的技术运用到游戏中,尤其是运用到电竞当中,你觉得你在《英雄联盟》里还能用人机来练手吗?_(:з」∠)_ 其实也不用担心,要知道AlphaGo 强大运算能力的背后依靠的是1202个 CPU 和176个 GPU 堆起来的,他们加起来的能耗远超200000W,一般的人家里的电脑肯定没有这等运算能力。与之相对的,人脑的能耗一般低于30W,至少在效率上我们是完胜的。 最后肯定有人问,为什么昨天人类好不容易扳回一局你不说? 是这样的,世界职业围棋排名网站 GoRatings.org 有一个规则,如果一个围棋选手,正式出道之后从未输过任何一场棋局,那么这个围棋选手是不会计入到这个排名统计的。 而正是因为如此,DeepMind 的工程师Raia Hadesell 昨天在 Facebook 上公开表示:“AlphaGo 现在可以有正式排名了。(谢谢输给你,李世石,如果一直赢棋就不能被排名算法统计)。现在 AlphaGo 积分是3533分,排名世界第四。”▲AlphaGo进入榜单,排名第四▲韩国为AlphaGo颁发的围棋九段证书 所以,到底是谁算计了谁呢?