人工智能方面的論文(2)
人工智能方面的論文篇二
人工智能的威脅
如果《紐約時(shí)報(bào)》的報(bào)道屬實(shí),當(dāng)今的人工智能已經(jīng)發(fā)展到令人無法想象的程度。比如,自動(dòng)駕駛汽車;蘋果siri 智能語音能夠聽出你的聲音,幫你找到最近的電影院。IBM 公司最近剛剛推出一款“冒險(xiǎn)”智能軟件取代了“沃森”系統(tǒng)用于醫(yī)療作用,最初是用于培訓(xùn)醫(yī)學(xué)院學(xué)生,最終將運(yùn)用于臨床治療階段?,F(xiàn)在,幾乎不到一個(gè)月就有一款最新的人工智能產(chǎn)品問世。不過,其中有許多最新的發(fā)明還不成熟,據(jù)我之前的分析,目前我們?nèi)匀粵]有發(fā)明出具有想象力,天然語言處理系統(tǒng)的智能,或是智能創(chuàng)造其他機(jī)器的能力,而我們?cè)陂_發(fā)人類大腦的道路上已經(jīng)停滯不前了。
在某種程度上,支持者與反對(duì)者之間的區(qū)別就是時(shí)間期限。比如,未來學(xué)家、發(fā)明家雷蒙德・庫茲韋爾就認(rèn)為20年智能就能研發(fā)出真正接近人類智力水平的人工智能。而我認(rèn)為這個(gè)過程起碼現(xiàn)在,幾乎不到一個(gè)月就有一款最新的人工智能產(chǎn)品問世,而我們?cè)陂_發(fā)人類大腦的道路上已經(jīng)停滯不前了人工智能的威脅格力・馬庫斯/ 文 李雨蒙/ 譯需要20 年,尤其要考慮到創(chuàng)造常識(shí)(正常思維)的困難,發(fā)明人工智能的挑戰(zhàn),還有軟件技術(shù),都比庫茲韋爾預(yù)測(cè)的要困難得多。
然而,從今往后的一個(gè)世紀(jì)里,沒有人會(huì)在意人工智能的發(fā)展需要多久,只會(huì)關(guān)心將會(huì)出現(xiàn)哪些先進(jìn)的人工智能?;蛟S在這個(gè)世紀(jì)末,人工智能就會(huì)變得比人類更加智慧――不僅可以解決國際象棋、瑣碎小事等等,基本可以處理所有的事物,無論從數(shù)學(xué)、工廠還是科學(xué)和醫(yī)藥。還剩下一小部分創(chuàng)造類工作留給人類,比如演員,作家或是其他創(chuàng)意類工作。最終的電腦系統(tǒng)可以完成自我編程,獲取大量的最新信息。我們這些“碳基生物”的模糊印象,他們能夠在分分鐘就分析處理完成,也不需要長(zhǎng)時(shí)間的睡眠或休息。
對(duì)于支持者來說,人工智能的未來充滿希望。庫茲韋爾就曾撰文發(fā)表自己一個(gè)大膽的設(shè)想,就是人類與智能機(jī)器結(jié)合,將人類的靈魂上傳到人工智能中,使我們的靈魂永生;彼得・迪亞芒蒂斯則認(rèn)為人工智能是開啟“富裕時(shí)代”,擁有富足食物、水源、消費(fèi)工具的重要因素。不過,反對(duì)者像埃里克・布林約爾松和我很擔(dān)憂機(jī)器人職業(yè)化和人工智能帶來的隱患,即使不去考慮高級(jí)人工智能對(duì)勞動(dòng)力市場(chǎng)的影響,功能強(qiáng)大的智能機(jī)器也會(huì)威脅人類的生活,與人類爭(zhēng)奪有限的資源。
大多數(shù)人把這種擔(dān)心看作是科幻小說里的蠢話――像《終結(jié)者》和《黑客帝國》這類。在一定程度上,我們需要未來很長(zhǎng)一段時(shí)間做好打算,我們要擔(dān)心小行星會(huì)撞地球,化石燃料產(chǎn)量下降,全球變暖等問題,而不用擔(dān)心機(jī)器人問題??墒?,詹姆斯・巴雷特的黑暗系新書《我們的最終發(fā)明:人工智能和人類時(shí)代的終結(jié)》,描述了一種嚴(yán)峻的情況,我們至少應(yīng)該有所思考。
如果機(jī)器最終取代了人類――正如在人工智能領(lǐng)域工作的人所堅(jiān)信的那樣,真正的問題在于價(jià)值觀:我們?nèi)绾伟褍r(jià)值觀輸入機(jī)器中,當(dāng)它們的價(jià)值觀與我們的價(jià)值觀發(fā)生了很大的沖突時(shí),我們?cè)撊绾魏瓦@些機(jī)器協(xié)商呢?牛津的哲學(xué)家尼克・博斯特羅認(rèn)為:我們不能樂觀地假設(shè),超級(jí)智能一定會(huì)分享人類的智慧和智能發(fā)展形成的價(jià)值觀――對(duì)科學(xué)的求知欲,對(duì)他人的關(guān)心和仁慈,精神啟發(fā)和沉思,克制物質(zhì)占有欲,高雅的文化品位,對(duì)感受簡(jiǎn)單生活的快樂,謙虛無私等等?;蛟S通過專門的訓(xùn)練,能夠創(chuàng)造出擁有這些價(jià)值觀的超級(jí)智能,或是珍惜人類財(cái)富和高尚道德的超級(jí)智能,或是設(shè)計(jì)者想要它擁有一些復(fù)雜目標(biāo)的智能。這是可能的――可能從技術(shù)上說更簡(jiǎn)單――打造一個(gè)能夠把最終價(jià)值都放在計(jì)算圓周率小數(shù)上的超級(jí)智能。
英國控制論學(xué)者凱文・沃里克曾問道:“當(dāng)機(jī)器不在我們?nèi)祟愃幍乃季S次元中思考時(shí),你如何跟它理論,如何與它做交易,如何能明白它的想法?”
如果說巴雷特黑暗系理論有漏洞的話,那就是他未經(jīng)思考就提出的假設(shè):如果機(jī)器人聰明到可以下棋,那它可能也會(huì)“想要制造宇宙飛船”――在任何足夠復(fù)雜,有目標(biāo)驅(qū)動(dòng)的系統(tǒng)中都是天生具有自我保護(hù)和獲取資源的本能?,F(xiàn)在大部分機(jī)器都非常先進(jìn),比如,IBM公司的深藍(lán)系列電腦,但是目前它們還沒有顯示出想要獲得資源的興趣。
可是,在我們感到沾沾自喜,確定無需擔(dān)心時(shí),別忘了有一點(diǎn)非常重要:我們要意識(shí)到隨著機(jī)器越來越聰明,它們的目標(biāo)也是會(huì)變化的。一旦電腦能夠有效地重新給自己編程,成功地提升自己的性能,達(dá)到所謂的“技術(shù)奇點(diǎn)”或“智能爆炸”,那么我們就不能忽視機(jī)器在與人類搶奪資源和自我保護(hù)的較量中會(huì)有勝過人類的風(fēng)險(xiǎn)。
在巴雷特書中,最鮮明的觀點(diǎn)之一是來源于著名的系列人工智能企業(yè)家丹尼・希利斯,他把即將到來的轉(zhuǎn)變比作生物進(jìn)化史上最重大的轉(zhuǎn)變之一:“我們現(xiàn)在達(dá)到的高度就像是一個(gè)單細(xì)胞有機(jī)體轉(zhuǎn)變?yōu)槎嗉?xì)胞有機(jī)體的高度。我們是變形蟲,我們不清楚自己在創(chuàng)造的到底是個(gè)什么東西。”
無論怎樣,人工智能的進(jìn)步已經(jīng)達(dá)到了我們從未想過的危險(xiǎn)。德雷塞爾大學(xué)的電腦風(fēng)險(xiǎn)專家加格跟我說:隨著因特網(wǎng)時(shí)代的到來和大數(shù)據(jù)時(shí)代的爆炸,“人工智能已經(jīng)收集了有關(guān)我們的許多數(shù)據(jù),并輸入計(jì)算程序,做出預(yù)測(cè)”,“ 我們無法知道數(shù)據(jù)被收集的時(shí)間,沒法保證收集的數(shù)據(jù)信息是準(zhǔn)確的,沒法更新信息,或提供必要的信息背景”。甚至在20 年前,幾乎沒有人會(huì)預(yù)想到這種風(fēng)險(xiǎn)。前方還會(huì)有怎樣的危險(xiǎn)呢?沒有人真的知道,但是巴雷特提出的問題卻值得我們思考。
人工智能方面的論文相關(guān)文章:
1.人工智能科技論文
2.人工智能小論文