人工智能有什么弊端
人工智能有什么弊端
人工智能的高速發(fā)展,可能未來會對人來造成一定的影響,下面是學(xué)習(xí)啦小編為你整理的人工智能有什么弊端,供大家閱覽!
久前發(fā)生了這樣一件事,德國汽車制造商大眾聲稱,該公司位于德國的一家工廠內(nèi),一個(gè)機(jī)器人“殺死”了一名外包員工。其實(shí)這并不是首起“機(jī)器人殺人事件”,早在20世紀(jì)80年代后,世界上便出現(xiàn)多例機(jī)器人殺人事件,涉及多個(gè)國家。好在隨著科學(xué)技術(shù)的快速發(fā)展,人類對于機(jī)器人的控制也就越發(fā)精細(xì),使得類似的機(jī)器人傷人事件幾乎不再發(fā)生,不過這也使得很多人對于機(jī)器人“放松警惕”,這也是此次發(fā)生在大眾的事件引起廣泛關(guān)注的原因。機(jī)器人或者說人工智能究竟“是好是壞”,又一次成為科學(xué)家、社會學(xué)家們爭論的焦點(diǎn)。
簡單來說人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。因此,機(jī)器人僅僅是人工智能的一個(gè)分支,但卻是最受人們關(guān)注甚至喜愛的一類。這一“派系”的最佳形象代言人有兩位:哆啦A夢和變形金剛。
通過人們對于哆啦A夢和變形金剛的喜愛與向往也不難看出,絕大多數(shù)人是希望機(jī)器人能夠發(fā)展壯大,成為人類的伙伴,幫助人類戰(zhàn)勝各種困難。不過這一切的前提就是機(jī)器人可以向這兩位一樣,是遵紀(jì)守法的好市民。然而事實(shí)上到目前為止關(guān)于人工智能的道德底線問題還沒有一個(gè)讓人信服的答案,也就是說不排除人工智能起義消滅人類的情況。
作家莎士比亞的名作《哈姆雷特》中有這樣一句話廣為流傳:“是生存還是毀滅,這是一個(gè)值得思考的問題。”想象一下,如果有一天人工智能足夠“聰明”,開始思考這樣一個(gè)問題的時(shí)候,它們會給出怎樣的答案?是心甘情愿的成為人類的工具,還是與人類和平共處平等相待,又或是消滅人類自己掌控世界?顯然,這是一個(gè)值得我們?nèi)祟愃伎嫉膯栴}。
人工智能發(fā)展太快了
相比于人類的進(jìn)化史,人工智能的發(fā)展史可以說僅僅是彈指一揮間。人類進(jìn)化為早期智人大約是10萬年前(當(dāng)然在此之前還有數(shù)百萬年的進(jìn)化史),而人工智能這一概念最早出現(xiàn)是在上世紀(jì)50年代,也就是說發(fā)展到今天也才60年左右。當(dāng)然除了這些,還有一個(gè)問題就是目前人類“進(jìn)化”的腳步已經(jīng)十分緩慢了,相反人工智能的發(fā)展在飛快的進(jìn)步。人們在研究科技,探索世界的同時(shí)極大的推動了人工智能的發(fā)展進(jìn)步。
著名物理學(xué)家斯蒂芬·霍金語言“未來100年內(nèi),電腦將憑借人工智能把人類取而代之。當(dāng)這一局面發(fā)生時(shí),我們需要確保電腦擁有與我們一致的目標(biāo)??萍剂α吭诓粩鄩汛?,我們在運(yùn)用科技時(shí)應(yīng)該善用自己的智慧。我們的未來就是這種科技力量和人類智慧之間的較量。”
工智能可能會超越人類
人類之所以能夠掌控地球,原因之一就是“聰明”。人類可以運(yùn)用自己的智慧建造家園,消滅敵人從而改善生活環(huán)境。人類通過不斷地學(xué)習(xí),掌握新的知識好技能從而更好地應(yīng)對挑戰(zhàn)。近年來,人工智能也開始效仿人類,“學(xué)習(xí)”認(rèn)識世界。目前人工智能的學(xué)習(xí)方式比較典型的是基于“大數(shù)據(jù)”,通過海量內(nèi)容的識別歸類,在發(fā)現(xiàn)相似事物時(shí)進(jìn)行判斷,據(jù)報(bào)道稱目前已有人工智能設(shè)備的“智商”相當(dāng)于4-5歲的兒童。
人類慘遭人工智能打敗的事件自然不止一列:1997年,IBM研制的超級電腦“深藍(lán)”在標(biāo)準(zhǔn)比賽時(shí)限內(nèi)以3.5比2.5的累計(jì)積分擊敗了國際象棋世界冠軍卡斯帕羅夫,震驚世界。2011年2月16日,在美國智力競猜節(jié)目《危險(xiǎn)邊緣》第三場比賽中,IBM另一超級電腦“沃森”以三倍的巨大分?jǐn)?shù)優(yōu)勢力壓該競猜節(jié)目有史以來最強(qiáng)的兩位選手肯·詹寧斯和布拉德·魯特,奪得這場人機(jī)大戰(zhàn)的冠軍。2011年3月,一只以數(shù)學(xué)模型進(jìn)行交易,并啟用機(jī)器人作為“基金經(jīng)理人”的基金,僅靠6個(gè)電腦程序就創(chuàng)造出1.9%的回報(bào)率,擊敗了日本最優(yōu)秀的基金公司。
理論上人腦的利用率是有限的,但是人工智能的大腦卻要容易開發(fā)了很多,因此無論從哪個(gè)角度看人工智能極有可能在未來比人類更“聰明”。
人類離不開人工智能
人工智能之所以會出現(xiàn)可以說是科技發(fā)展的必然結(jié)果,也是人類為了更好生活而邁出的重要一步。人工智能的出現(xiàn)改變了人們的生活方式,提升了工作效率,帶來的正面效果遠(yuǎn)超其負(fù)面影響,這也就堅(jiān)定了不少人繼續(xù)研發(fā)人工智能技術(shù)的信念。
目前人類應(yīng)用人工智能主要是機(jī)器人以及各種識別設(shè)備,主要目的是提升效率和保護(hù)人類的自身安全,因此“生殺決定權(quán)”還掌握在人類自己手里。如今人們的日常生活已經(jīng)離不開人工智能了,將人工智能引申到一個(gè)廣義定義的話,幾乎每個(gè)人都與人工智能設(shè)備有過親密接觸。
人工智能(Artificial Intelligence),英文縮寫為AI,看到這里很多喜歡玩游戲的朋友就不會陌生了。除了這些我們生活中接觸的很多數(shù)碼設(shè)備,都有智能設(shè)備的影子,如語音助手或者翻譯應(yīng)用等等。也許這些應(yīng)用目前的“工作效率”不盡如人意,但是它們確實(shí)在不斷地進(jìn)步,變得越來越聰明。最近幾年,受到消費(fèi)者關(guān)注的物聯(lián)網(wǎng)體系中的智能家居、智能穿戴設(shè)備和車載網(wǎng)等等都是人工智能參與的產(chǎn)物。
人工智能可以稱之為先進(jìn)科技的代表,也是“未來生活”的象征之一。人們渴望更加舒適便利的生活,必將有更多的工作由“非人類”代工,因此說人類再也離不開人工智能并不為過。
人工智能怎么“看”人類
以上均是站在人類的角度評價(jià)人工智能,反過來再人工智能眼里人類又是什么樣的?人工智能不斷的發(fā)展,其“智慧”也將越來越趨近甚至超越人類,那么“他”也將擁有喜怒哀樂和自己的評判標(biāo)準(zhǔn)。常言道:人分善惡,物有美丑,只不過人工智能的善惡觀念會與我們一樣嗎?
在未來,人工智能眼中的人類究竟是什么樣我們我從得知,但是如果他們不喜歡人類或者“理念”與人類背道而馳,那么兩者間的矛盾必將激化。相反如果人工智能接受了人類,與人類有了共同目標(biāo),那么兩者則有希望和平共處。目前階段,人工智能僅僅是人類的工具,如果有一天人工智能蛻變?yōu)橐粋€(gè)“群體”,有自我意識,人們能否接納他們同樣是一個(gè)問題。
當(dāng)然我們也可以這樣看待人工智能,他們就像是潛力巨大的“武器”,究竟是用來保護(hù)家園還是破壞世界,人類或許也有著一定的決定作用。人類研發(fā)人工智能絕大多數(shù)都是想要改善生活,但也不乏利用人工智能來危害他人的例子,這同樣是人類未來威脅的一部分。以目前最為普及的智能手機(jī)為例,它的出現(xiàn)改變了人們的生活,讓我們有了更多的休閑和交流方式,但是智能手機(jī)也為很多人提供了投機(jī)取巧的機(jī)會。這些人利用智能手機(jī)的安全漏洞來盜取用戶隱私,設(shè)置陷阱,非法獲取利益,已經(jīng)嚴(yán)重危害到了用戶的利益和社會安全,可以想象如果這樣的人掌握了人工智能技術(shù),人們的未來將岌岌可危。
除了“被人利用”,人工智能本身也有很多便利條件可以危害到人類社會的安全和穩(wěn)定。據(jù)統(tǒng)計(jì)2020年全球?qū)⒂?00億臺設(shè)備連入互聯(lián)網(wǎng),涉及人們生活的方方面面,如果人工智能不再為人類服務(wù),那么人類的“敵人”將無處不在,可以說社會秩序?qū)⑺查g癱瘓。
人類應(yīng)該怎樣做
人工智能潛在的威脅和其潛在的利益是成正比的,也正因如此人們害怕“他”卻無法拒絕,不過想要妥善利用這股力量,就必須有一個(gè)完善的監(jiān)管體系或者說是 “道德束縛”,這也正是目前所缺少的。
如今已經(jīng)有了很多人工智能設(shè)備投入實(shí)驗(yàn),那么隨之而來的問題就是,這些設(shè)備造成的事故責(zé)任由誰來承擔(dān)?人們會將自己的生命財(cái)產(chǎn)安全放心的交給冷冰冰的機(jī)器碼?這些都將成為未來我們將要面臨的問題,因此在人工智能足夠“聰明”之前,為“他們”樹立一套可靠的行為準(zhǔn)則是十分必要的。
很多國外的科技大佬對于人工智能的未來都不是十分“樂觀”,認(rèn)為未來人工智能將會凌駕在人類之上。特斯拉CEO伊隆·馬斯克今年1月向“未來生命研究所”投資了1000萬美元,用以評估與人工智能相關(guān)的風(fēng)險(xiǎn)。該機(jī)構(gòu)日前拿出了近700萬美元,支持針對人工智能負(fù)面效應(yīng)展開的研究。這筆資金將獎勵給37個(gè)研究團(tuán)隊(duì),這些團(tuán)隊(duì)的研究課題廣泛,但均與人工智能未來的發(fā)展有關(guān)。
比爾·蓋茨則表示:“我是屬于擔(dān)心人工智能的陣營。起初,機(jī)器會為我們做很多事,也不會太過于智能。如果控制得好,我們可以持積極的態(tài)度。但幾十年以后,人工智能進(jìn)階到足夠強(qiáng)大的程度,人們就該擔(dān)心了。我同意伊隆·馬斯克等人對這一問題的立場,我不明白為什么有些人毫不關(guān)心。”
人工智能的發(fā)展是必然趨勢,但是人類作為地球現(xiàn)在的主人,一定不希望自己被“機(jī)器”所統(tǒng)治。筆者認(rèn)為束縛人工智能發(fā)展是不可取的,人類想要進(jìn)步,更好的認(rèn)知宇宙,認(rèn)知自己就不能因?yàn)槲磥淼耐{而止步不前。但是相對的也不能為了求快而盲目前進(jìn),最終葬送了自己的未來。
目前,人工智能的發(fā)展還處于初級階段,就好像是一個(gè)陶胚,人類還有能力決定將它塑造成什么樣,這時(shí)候未雨綢繆做一些壞的打算是十分正確的。人工智能涉及的絕不僅僅是計(jì)算機(jī)科學(xué),還包括哲學(xué)和認(rèn)知科學(xué),心理學(xué),控制論,不定性論,仿生學(xué),社會結(jié)構(gòu)學(xué)與科學(xué)發(fā)展觀。僅僅是技術(shù)快速發(fā)展智能決定人工智能水平的提升速度,就好像是一座平地而起的高塔,沒有穩(wěn)固的根基和其他防護(hù)的束縛,崩塌只是時(shí)間問題,而且還會傷及無辜。因此,想要構(gòu)建一個(gè)與人類和睦共處的人工智能,在其余諸多學(xué)科體系上也要盡快完善