谷歌人工智能叫什么
google的人工智能都眾所周知,那么谷歌的人工智能叫什么,下面是學(xué)習(xí)啦小編為你整理的谷歌人工智能叫什么,供大家閱覽!
1936年,艾倫·圖靈提出了一種可以輔助數(shù)學(xué)研究的機(jī)器(后來被稱為“圖靈機(jī)”),80年過去了,人類在人工智能領(lǐng)域已經(jīng)取得突飛猛進(jìn)的發(fā)展。上世紀(jì)90年代,IBM超級計算機(jī)“深藍(lán)”擊敗國際象棋世界冠軍,引發(fā)了“電腦是否超越人腦”的熱議。然而,圍棋因其變化莫測的招式成為了AI(Artificial Intelligence,人工智能)難以攻克的“禁地”。當(dāng)然,這個世界總有“不信邪”的人。DeepMind開發(fā)的AI程序AlphaGo,擊敗了歐洲圍棋冠軍樊麾。
AlphaGo是什么來歷?
起初,DeepMind是英國的一家小型人工智能公司,專精于深度學(xué)習(xí)和分析建模領(lǐng)域,在2014年被谷歌收購。這家公司的創(chuàng)始人名叫德米斯·哈薩比斯(Demis Hassabis),他擁有劍橋大學(xué)和倫敦大學(xué)學(xué)院的計算機(jī)科學(xué)和認(rèn)知神經(jīng)科學(xué)學(xué)位,還是一位國際象棋大師。從外表上來看,“學(xué)生氣”的哈薩比斯很普通,但是其對AI的見解和愿景改變了很多的看法,其中就包括著名物理學(xué)家史蒂芬·霍金。一直以來,霍金總是傾向于“AI威脅論”,認(rèn)為智能機(jī)器終有一天會威脅人類的安全。不過在與哈薩比斯長談了4個小時之后,霍金似乎轉(zhuǎn)變了態(tài)度。
介紹完DeepMind的負(fù)責(zé)人,我們把目光轉(zhuǎn)回到AlphaGo。事實上,AlphaGo成名已久,曾經(jīng)先后與Crazy Stone和Zen(兩款知名圍棋程序)進(jìn)行了500局對弈,僅有一局失利。此外,其也優(yōu)于Facebook的圍棋程序Dark Forest,后者得到了馬克·扎克伯格的支持。AlphaGo具備策略網(wǎng)絡(luò)(Policy Network)和估值網(wǎng)絡(luò)(Value Network)能力,前者分析局面、預(yù)測對手招式,后者負(fù)責(zé)判斷勝率,可以在2微秒內(nèi)走出一步棋,而Dark Forest僅具備第一種能力,并且走棋所花費(fèi)的時間也要更慢。
當(dāng)然,真正讓AlphaGo成名的還是戰(zhàn)勝歐洲圍棋冠軍樊麾,這在當(dāng)時引起了軒然大波,甚至推升了谷歌的股價,畢竟這是電腦對人腦的一次勝利。更重要的是,站在計算機(jī)的角度來看,與象棋相比,圍棋的難度要大很多,每個步數(shù)的潛在組合非常復(fù)雜,曾有專家說AI十年內(nèi)都無法掌握圍棋。
阿爾法圍棋(AlphaGo)是一款圍棋人工智能程序,由位于英國倫敦的谷歌(Google)旗下DeepMind公司的戴維·西爾弗、艾佳·黃和戴密斯·哈薩比斯與他們的團(tuán)隊開發(fā),這個程序利用“價值網(wǎng)絡(luò)”去計算局面,用“策略網(wǎng)絡(luò)”去選擇下子。2015年10月阿爾法圍棋以5:0完勝歐洲圍棋冠軍、職業(yè)二段選手樊麾;2016年3月對戰(zhàn)世界圍棋冠軍、職業(yè)九段選手李世石,李世石輸了。
阿爾法圍棋(AlphaGo)是一款圍棋人工智能程序。這個程序利用“價值網(wǎng)絡(luò)”去計算局面,用“策略網(wǎng)絡(luò)”去選擇下子。
深度學(xué)習(xí)
阿爾法圍棋(AlphaGo)的主要工作原理是“深度學(xué)習(xí)”。“深度學(xué)習(xí)”是指多層的人工神經(jīng)網(wǎng)絡(luò)和訓(xùn)練它的方法。一層神經(jīng)網(wǎng)絡(luò)會把大量矩陣數(shù)字作為輸入,通過非線性激活方法取權(quán)重,再產(chǎn)生另一個數(shù)據(jù)集合作為輸出。這就像生物神經(jīng)大腦的工作機(jī)理一樣,通過合適的矩陣數(shù)量,多層組織鏈接一起,形成神經(jīng)網(wǎng)絡(luò)“大腦”進(jìn)行精準(zhǔn)復(fù)雜的處理,就像人們識別物體標(biāo)注圖片一樣。
兩個大腦
阿爾法圍棋(AlphaGo)是通過兩個不同神經(jīng)網(wǎng)絡(luò)“大腦”合作來改進(jìn)下棋。這些大腦是多層神經(jīng)網(wǎng)絡(luò)跟那些Google圖片搜索引擎識別圖片在結(jié)構(gòu)上是相似的。它們從多層啟發(fā)式二維過濾器開始,去處理圍棋棋盤的定位,就像圖片分類器網(wǎng)絡(luò)處理圖片一樣。經(jīng)過過濾,13 個完全連接的神經(jīng)網(wǎng)絡(luò)層產(chǎn)生對它們看到的局面判斷。這些層能夠做分類和邏輯推理。
這些網(wǎng)絡(luò)通過反復(fù)訓(xùn)練來檢查結(jié)果,再去校對調(diào)整參數(shù),去讓下次執(zhí)行更好。這個處理器有大量的隨機(jī)性元素,所以人們是不可能精確知道網(wǎng)絡(luò)是如何“思考”的,但更多的訓(xùn)練后能讓它進(jìn)化到更好。
第一大腦:落子選擇器 (Move Picker)
阿爾法圍棋(AlphaGo)的第一個神經(jīng)網(wǎng)絡(luò)大腦是“監(jiān)督學(xué)習(xí)的策略網(wǎng)絡(luò)(Policy Network)” ,觀察棋盤布局企圖找到最佳的下一步。事實上,它預(yù)測每一個合法下一步的最佳概率,那么最前面猜測的就是那個概率最高的。這可以理解成“落子選擇器”。
第二大腦:棋局評估器 (Position Evaluator)
阿爾法圍棋(AlphaGo)的第二個大腦相對于落子選擇器是回答另一個問題。不是去猜測具體下一步,它預(yù)測每一個棋手贏棋的可能,在給定棋子位置情況下。這“局面評估器”就是“價值網(wǎng)絡(luò)(Value Network)”,通過整體局面判斷來輔助落子選擇器。這個判斷僅僅是大概的,但對于閱讀速度提高很有幫助。通過分類潛在的未來局面的“好”與“壞”,AlphaGo能夠決定是否通過特殊變種去深入閱讀。如果局面評估器說這個特殊變種不行,那么AI就跳過閱讀在這一條線上的任何更多落子。