欢迎来到合肥浪讯网络科技有限公司官网
  咨询服务热线:400-099-8848

还记得好莱坞艳照门吗?那个黑客认罪了!

发布时间:2016-09-13 文章来源:  浏览次数:3486

自从谷歌的AlphaGo(以下简称AG)击败了围棋九段高手李世乭后,一方面关于人工智能的争议再次尘嚣直上,另一方面AG又找到了新的挑战领域。3月27日,暴雪娱乐制作总监Tim Morten在上海WCS世锦赛上公布证明,狗狗下一个挑战目标将是星际争霸2(以下简称SC2,星际争霸简称为SC,以后不再赘述)。



关于AG和星际争霸职业选手的比赛,人们最关注的无疑是比赛结果,毕竟是AG再次将人类骄傲的自尊捏个破碎摧毁,仍是人类反戈一击,证实人工智能所谓的胜利只不外是一时侥幸?


AG如何学习?


所谓“良知知彼,百战不殆”,要分析AG能否击败职业选手,首先就要了解AG如何学习一种全新的规则。与前辈“深蓝”所采用的推演式算法不同,AG在与李世乭对战之前,除了学习围棋的基本规则外,还学习了人类对弈中使用的近3000万种走法来“丰硕阅历”,让AG学会猜测人类专业棋手怎么落子。然后让AG自己跟自己下棋,从而又产生规模庞大的新棋谱,据谷歌工程师宣称,AG天天可以尝试百万量级的走法。而在正式对弈中,AG会通过蒙特卡洛树搜索算法从这些棋谱中搜索出胜率最高的走法。



比拟国际象棋,围棋的走法可能性非常多,仅起手时就有19*19种落子方式,更不要说以后的棋子布局方式了。在有限的国际象棋棋盘上,“深蓝”可以依赖推演算法算出之后的12步棋,但是在围棋上,这种“思维方式”非常陈旧,耗费资源多且效率低下,因此才被“学习+思维”的全新方式取代。


AG有何优劣?


可以说,AG需要先学习SC2的基本规则,包括舆图地形、各种族兵种的攻防数值,在此基础上消耗时间学习之前SC2职业高手大量的对战,最后自我对战形成更多战术储存在服务器中,最后利用蒙特卡洛树搜索算法进行战术对比,在实际对战中与职业高手一较高下。



但是,因为游戏本身就是多个规则逻辑模块组成的程序集合,与AG可以说是源出同门,由人工智能程序执行游戏程序,执行效率不知要高出人多少倍。目前顶尖的职业选手,其APM(每分钟操纵次数,键盘+鼠标的总和)也不外400多,假如扣除了重复操纵外,其EAPM(每分钟有效操纵次数)就更低了,但与此比拟,AG运行后守旧估计其APM可以超过8000,并且全部都为有效操纵,AG完全可以凭借高速操纵,达到战术胜利累积到战略胜利的目的,这段视频足以说明AI能够以人类完全达不到的手速吊打人类。



100只小狗VS20辆攻城坦克,由职业选手和AI各自操纵小狗进攻,职业选手仅消灭了2-3辆坦克就全军覆灭,AI却能判定弹着点方位避开攻击,消灭全部坦克后还有近20只左右的剩余。当然了,可以通过技术手段设定AG的APM上限来限制这种上风。而且AG也不是没有劣势,人工智能没有什么战略战术的概念,假如要AG达到职业选手所需要的战略战术概念,目前还不知道要消耗多长时间。同时目前在比赛中需要为AG设定操纵视野范围和侦探的功能,不然舆图加载完成后,AG可以在最短时间内制定出最优路线,而职业选手需要依赖士兵探索,这样的比赛几无公平可言。


由AI挑战AI的电竞?


固然AG挑战职业选手的众多细节还未确定,但目前已经引起了各方的爱好,暴雪方面可以通过比赛增加对SC2的关注度,一改目前SC2的弱势局面。而同时,AG与职业选手的比赛也可认为电竞增加新的内容形式,不仅是人工智能挑战人类,而且可以衍生出AI挑战AI的比赛方式。



因为SC中的 AI可以由第三方脚本的形式存在,所以AI挑战AI并无技术难度。早在母巢之战资料片中,用代码玩 SC的 的服务器API就已经存在, 用C++代码以及LUA语言可自由编程天生dll格局的AI文件,将这个AI文件注入程序后即可操作SC的兵种。至今为止,AI文件已经能够获取SC内存底层中各种建筑与兵种数据,并且操作各种兵种作出各种动作,假如更多的人应用这个API制作属于自己的SC AI文件,那么在AI之间进行电竞比赛就不再是一个梦了。


此前,美国的Elecbyte小组使用C语言与Allegro程序库开发了一款免费2D格斗游戏引擎Mugen,吸纳了众多格斗游戏的着名人物和招式,通过这款引擎实现了各人物的穿越乱斗,并且已经实现了AI之间的战斗,众多兴趣者可以使用自己编写的AI算法,让格斗人物发出无法在实际操纵中实现的酷爽连招,如今这种方式在SC中也同样可以实现。



电竞比赛发展到今天,此前竞赛游戏的战术潜力已经被开发殆尽,此次人工智能挑战职业选手一方面是为测试人工智能的潜力,另一方面也为电竞比赛带来了新的看点,同时支持第三方算法脚本的竞技性游戏又为AI扩展提供了技术基础,那么AI之间的电竞挑战又有何不可?让众多手速不足的“手残”程序猿们通过自己的代码一决高下,你高兴了吗?



自从谷歌的AlphaGo(以下简称AG)击败了围棋九段高手李世乭后,一方面关于人工智能的争议再次尘嚣直上,另一方面AG又找到了新的挑战领域。3月27日,暴雪娱乐制作总监Tim Morten在上海WCS世锦赛上公布证明,狗狗下一个挑战目标将是星际争霸2(以下简称SC2,星际争霸简称为SC,以后不再赘述)。



关于AG和星际争霸职业选手的比赛,人们最关注的无疑是比赛结果,毕竟是AG再次将人类骄傲的自尊捏个破碎摧毁,仍是人类反戈一击,证实人工智能所谓的胜利只不外是一时侥幸?


AG如何学习?


所谓“良知知彼,百战不殆”,要分析AG能否击败职业选手,首先就要了解AG如何学习一种全新的规则。与前辈“深蓝”所采用的推演式算法不同,AG在与李世乭对战之前,除了学习围棋的基本规则外,还学习了人类对弈中使用的近3000万种走法来“丰硕阅历”,让AG学会猜测人类专业棋手怎么落子。然后让AG自己跟自己下棋,从而又产生规模庞大的新棋谱,据谷歌工程师宣称,AG天天可以尝试百万量级的走法。而在正式对弈中,AG会通过蒙特卡洛树搜索算法从这些棋谱中搜索出胜率最高的走法。



比拟国际象棋,围棋的走法可能性非常多,仅起手时就有19*19种落子方式,更不要说以后的棋子布局方式了。在有限的国际象棋棋盘上,“深蓝”可以依赖推演算法算出之后的12步棋,但是在围棋上,这种“思维方式”非常陈旧,耗费资源多且效率低下,因此才被“学习+思维”的全新方式取代。


AG有何优劣?


可以说,AG需要先学习SC2的基本规则,包括舆图地形、各种族兵种的攻防数值,在此基础上消耗时间学习之前SC2职业高手大量的对战,最后自我对战形成更多战术储存在服务器中,最后利用蒙特卡洛树搜索算法进行战术对比,在实际对战中与职业高手一较高下。



但是,因为游戏本身就是多个规则逻辑模块组成的程序集合,与AG可以说是源出同门,由人工智能程序执行游戏程序,执行效率不知要高出人多少倍。目前顶尖的职业选手,其APM(每分钟操纵次数,键盘+鼠标的总和)也不外400多,假如扣除了重复操纵外,其EAPM(每分钟有效操纵次数)就更低了,但与此比拟,AG运行后守旧估计其APM可以超过8000,并且全部都为有效操纵,AG完全可以凭借高速操纵,达到战术胜利累积到战略胜利的目的,这段视频足以说明AI能够以人类完全达不到的手速吊打人类。



100只小狗VS20辆攻城坦克,由职业选手和AI各自操纵小狗进攻,职业选手仅消灭了2-3辆坦克就全军覆灭,AI却能判定弹着点方位避开攻击,消灭全部坦克后还有近20只左右的剩余。当然了,可以通过技术手段设定AG的APM上限来限制这种上风。而且AG也不是没有劣势,人工智能没有什么战略战术的概念,假如要AG达到职业选手所需要的战略战术概念,目前还不知道要消耗多长时间。同时目前在比赛中需要为AG设定操纵视野范围和侦探的功能,不然舆图加载完成后,AG可以在最短时间内制定出最优路线,而职业选手需要依赖士兵探索,这样的比赛几无公平可言。


由AI挑战AI的电竞?


固然AG挑战职业选手的众多细节还未确定,但目前已经引起了各方的爱好,暴雪方面可以通过比赛增加对SC2的关注度,一改目前SC2的弱势局面。而同时,AG与职业选手的比赛也可认为电竞增加新的内容形式,不仅是人工智能挑战人类,而且可以衍生出AI挑战AI的比赛方式。



因为SC中的 AI可以由第三方脚本的形式存在,所以AI挑战AI并无技术难度。早在母巢之战资料片中,用代码玩 SC的 的服务器API就已经存在, 用C++代码以及LUA语言可自由编程天生dll格局的AI文件,将这个AI文件注入程序后即可操作SC的兵种。至今为止,AI文件已经能够获取SC内存底层中各种建筑与兵种数据,并且操作各种兵种作出各种动作,假如更多的人应用这个API制作属于自己的SC AI文件,那么在AI之间进行电竞比赛就不再是一个梦了。


此前,美国的Elecbyte小组使用C语言与Allegro程序库开发了一款免费2D格斗游戏引擎Mugen,吸纳了众多格斗游戏的着名人物和招式,通过这款引擎实现了各人物的穿越乱斗,并且已经实现了AI之间的战斗,众多兴趣者可以使用自己编写的AI算法,让格斗人物发出无法在实际操纵中实现的酷爽连招,如今这种方式在SC中也同样可以实现。



电竞比赛发展到今天,此前竞赛游戏的战术潜力已经被开发殆尽,此次人工智能挑战职业选手一方面是为测试人工智能的潜力,另一方面也为电竞比赛带来了新的看点,同时支持第三方算法脚本的竞技性游戏又为AI扩展提供了技术基础,那么AI之间的电竞挑战又有何不可?让众多手速不足的“手残”程序猿们通过自己的代码一决高下,你高兴了吗?

上一条:3.15:GMV的膝盖中...

下一条:小米推出3000美元自行...