【大紀元2017年10月31日訊】(大紀元記者晨曦編譯報導)由谷歌DeepMind子公司開發的人工智能圍棋程序AlphaGo最近獲得一大突破,變得比以前更加聰明。據該公司在《自然》(Nature)雜誌上發表的一篇論文披露,其新版人工智能(AI)程序命名為AlphaGo Zero,無需人工訓練就可自主學習,現在已經能夠打敗其舊版本。
在對AlphaGo Zero的開發上,該公司研究團隊另闢蹊徑,不像原來那樣使用人類研製的方法來教會該軟件,而是在沒有對其進行訓練的情況下,令其對抗其它版本的自己。當AI一次次戰勝以前的自己時,就在持續更新它對該遊戲的認知,從而棋藝越來越高明。
新版AI與老版AI的對壘是馬拉松式的,每次都會持續數日,其自我學習能力也超越了所有人類棋手。在連續下棋3整天以後,Zero就能夠擊敗曾經戰勝過全球圍棋冠軍的AlphaGo版本,而且比賽結果懸殊,Zero連勝100場,無一失手。
「不使用人類的數據——也就是不以任何方式吸收人類的知識——我們實際上就解除了人類知識對其的限制,」AlphaGo Zero的主要設計人員在新聞發布會上解釋說。「因此它就能從基本原則開始創建自己的知識。」
換言之,不去模仿人類棋手,AlphaGo Zero就沒有任何會對人類棋手構成妨礙的偏見或監督,因此也就能夠生成更加完美的策略。◇
責任編輯:朱涵儒