關(guān)于人類與人工智能的作文
人類與人工智能的發(fā)展如何?那么關(guān)于人類與人工智能的作文有哪些呢?下面是學(xué)習(xí)啦小編為你整理的關(guān)于人類與人工智能的作文,供大家閱覽!
人類與人工智能的作文:人工智能距離消滅人類還有多遠(yuǎn)
特斯拉汽車公司的創(chuàng)始人之一埃倫•馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò)上連發(fā)兩條聳人言論,警告人類要對(duì)人工智能特別小心,因?yàn)槿斯ぶ悄茉谖磥砗芸赡鼙群宋淦鬟€要危險(xiǎn)。
埃倫•馬斯克冷不丁地拋出這樣的言論,是因?yàn)椴痪们翱戳艘槐久麨椤段覀冏詈蟮陌l(fā)明:人工智能及人類時(shí)代的終結(jié)》的書,這本書的作者認(rèn)為,人工智能的出現(xiàn)將會(huì)為人類帶來滅頂之災(zāi)。暫且不說這種可能性有多大,僅從目前來看,人工智能對(duì)待人類的態(tài)度還算友善。
比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份 重返微信平臺(tái),而且還帶來了一項(xiàng)特殊功能——控制智能家居,假如你在微信中對(duì)小冰下達(dá)關(guān)燈的指令,家中的智能電燈就能自動(dòng)關(guān)閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當(dāng)然,如果未來你家的電鋸也受小冰控制,那就不好說了。
所以,我說目前人工智能對(duì)待人類的態(tài)度還算友善,這句話還隱藏另外一個(gè)意思,就是即便它不友善,現(xiàn)在也還沒到對(duì)人類生命構(gòu)成威脅的時(shí)候。 不過,埃倫•馬斯克的擔(dān)憂也并非杞人憂天,我認(rèn)為人工智能哪怕具備以下四點(diǎn)中的一點(diǎn),就足以對(duì)人類帶來不可想象的后果。
一、通過圖靈測(cè)試
著名的“圖靈測(cè)試”說的是假如一臺(tái)電腦能在5分鐘內(nèi)回答人類提出的一系列問題,且超過30%的答案讓測(cè)試者誤認(rèn)為是人類所答,那么這臺(tái)電腦就通過了測(cè)試,并被視為具有人類智能。
30%的說法是由英國(guó)人工智能之父阿蘭•圖靈提出的,這個(gè)標(biāo)準(zhǔn)現(xiàn)在愈發(fā)遭到人們質(zhì)疑。圖靈本人后來也否認(rèn)自己曾為這項(xiàng)測(cè)試設(shè)定所謂標(biāo)準(zhǔn),30%只是自己隨口一說。說者無心聽者有意,圖靈去世后37年,美國(guó)科學(xué)家兼慈善家休•勒布納把這項(xiàng)將這項(xiàng)測(cè)試辦成了一年一屆的賽事,這項(xiàng)賽事從1991年開始,直到2014年6月,主辦方才宣布首臺(tái)計(jì)算機(jī)通過測(cè)試。不過這次事件隨后遭到媒體質(zhì)疑,將其視為一次炒作。
我對(duì)此到有些不同的看法。計(jì)算機(jī)之所以能夠通過測(cè)試,依托于強(qiáng)大的數(shù)據(jù)庫作為支撐。在接受測(cè)試之前,計(jì)算機(jī)已經(jīng)有了大量的人類知識(shí)作為儲(chǔ)備,以及人類為它精心編制的智能化程序。也就是說測(cè)試的實(shí)質(zhì)是由作為人類的測(cè)試者提出問題,然后再由偽裝成人類的計(jì)算機(jī)說出人類為其設(shè)定好的答案作為回答。許多質(zhì)疑者認(rèn)為,這項(xiàng)測(cè)試表面上看是計(jì)算機(jī)與人類之間的較量,實(shí)際上只是人與人的博弈。我倒認(rèn)為,測(cè)試的實(shí)質(zhì)和結(jié)果并不重要,重要的是它的的確確騙過了一些人。
如果拿人類本身來舉例,一個(gè)孩子編造的謊言很難騙過一個(gè)成年人。這是因?yàn)槌赡耆吮群⒆拥纳罱?jīng)歷更為豐富,辨別真?zhèn)蔚哪芰ψ匀灰哺鼜?qiáng)一些。這么一想,那個(gè)偽裝成13歲男孩的計(jì)算機(jī)“尤金”之所以僅僅騙過了30%而不是更多的人,只是因?yàn)樗?ldquo;經(jīng)歷”還不夠豐富,也就是說如果他的數(shù)據(jù)儲(chǔ)備足夠強(qiáng)大,程序足夠智能,讓更多的人上當(dāng)只是時(shí)間問題。而現(xiàn)在他已經(jīng)以一個(gè)13歲孩子的身份成功騙過了30%的成年人,也就是說相比13歲的人類,尤金顯然更為智慧。
盡管目前人工智能還停留在對(duì)人類的拙劣模擬階段,但隨著人工智能技術(shù)的發(fā)展,有一天計(jì)算機(jī)將可以通過對(duì)性別、年齡、職業(yè)、生活習(xí)慣等方面的數(shù)據(jù)分析,進(jìn)行智能化的模擬,好比現(xiàn)在的新聞網(wǎng)站會(huì)根據(jù)你的瀏覽習(xí)慣進(jìn)行智能化的推薦。那時(shí),計(jì)算機(jī)將可以模仿任何人,坑蒙拐騙等犯罪行為將成為司空見慣的事。
二、超越人類智慧
事實(shí)上,人工智能在數(shù)據(jù)計(jì)算、博弈系統(tǒng)、管理系統(tǒng)等許多領(lǐng)域已經(jīng)超越了人類智慧,Kiva智能倉(cāng)儲(chǔ)系統(tǒng)實(shí)現(xiàn)了倉(cāng)儲(chǔ)自動(dòng)化應(yīng)用、深藍(lán)超級(jí)計(jì)算機(jī)在1997年戰(zhàn)勝了國(guó)際象棋冠軍、沃森超級(jí)計(jì)算機(jī)在2011年的智力競(jìng)賽中戰(zhàn)勝人類、由谷歌制造的無人駕駛汽車也即將成為現(xiàn)實(shí)。這意味著計(jì)算機(jī)在這些領(lǐng)域中已經(jīng)超越了人類智慧,由此引發(fā)的直接后果將是相關(guān)從業(yè)者將不得不面臨失業(yè)的處境。
好比無人售票系統(tǒng)的投入使用導(dǎo)致售票員的失業(yè),無人駕駛汽車的出現(xiàn)也將讓司機(jī)這一職業(yè)成為歷史。而在計(jì)算方面,人類幾乎已經(jīng)全部依賴于計(jì)算機(jī),口算、心算和珠算等計(jì)算方式已經(jīng)被當(dāng)做一種特殊能力,作為表演常常出現(xiàn)在電視節(jié)目里。更加貼近我們生活的例子是,人們?cè)谔幚砩铍y題時(shí)也越來越依賴于計(jì)算機(jī)給出的經(jīng)驗(yàn)和答案,而不是依靠自身思考。比如我們中國(guó)人最為熟悉的“百度一下,你就知道”。
人類在某些領(lǐng)域已經(jīng)越來越依賴于計(jì)算機(jī),從而使得人類本身在這些領(lǐng)域逐漸喪失了與計(jì)算機(jī)的競(jìng)爭(zhēng)能力。換個(gè)角度說,人類正在逐漸放棄自己的智能,而將這種智能賦予了計(jì)算機(jī)。如果說由此導(dǎo)致的失業(yè)問題會(huì)有一個(gè)循序漸進(jìn)的過程,而不至于引發(fā)人類恐慌,那么更嚴(yán)重的問題是,假如有一天計(jì)算機(jī)突然失去某些能力,或者拒絕施展某些能力,而人類本身已經(jīng)不具備這項(xiàng)能力,后果將會(huì)如何?
三、擁有創(chuàng)造能力
機(jī)器與人類一樣,都具備學(xué)習(xí)的能力,不同的是機(jī)器的學(xué)習(xí)依賴于經(jīng)驗(yàn)的積累,其過程也就是不斷地增加知識(shí)的儲(chǔ)備量,和不斷地從處理問題的過程中獲取經(jīng)驗(yàn),從而在遇到同類問題時(shí)根據(jù)知識(shí)和經(jīng)驗(yàn)解決問題,也就是我們通常所說的“舉一反三”。而人類不同于機(jī)器之處在于,人類的學(xué)習(xí)除了經(jīng)驗(yàn)的積累之外,同時(shí)還具有創(chuàng)造力。
人類的這種創(chuàng)造力又被稱為“跳躍型學(xué)習(xí)”,在某些情形下也被稱為“靈感”或“頓悟”。一直以來,計(jì)算機(jī)最難學(xué)會(huì)的就是“頓悟”?;蛘咴賴?yán)格一些來說,計(jì)算機(jī)在學(xué)習(xí)和“實(shí)踐”方面難以學(xué)會(huì)“不依賴于量變的質(zhì)變”,很難從一種“質(zhì)”直接到另一種“質(zhì)”,或者從一個(gè)“概念”直接到另一個(gè)“概念”。缺乏創(chuàng)造力,也就意味著機(jī)器將很難突破自身知識(shí)儲(chǔ)備的局限性,從而像人類一樣完成自我進(jìn)化和完善。
不過,人類在幫助計(jì)算機(jī)超越自己上向來毫不吝嗇,據(jù)說,科學(xué)家們已經(jīng)研究出了一套新的數(shù)據(jù)分析方式,這套分析方法將為機(jī)器的具備創(chuàng)造力提供可能性。人類在計(jì)算能力上已經(jīng)遠(yuǎn)遠(yuǎn)落后與機(jī)器,如果在創(chuàng)造力上也失去優(yōu)勢(shì),無異于將世界拱手讓給機(jī)器。
四、擁有人類感情
很顯然,科學(xué)家們絕不會(huì)滿足于一臺(tái)智能化的僅限于進(jìn)行處理人類作業(yè)的機(jī)器,而會(huì)進(jìn)一步賦予機(jī)器以類似于人類的感情表達(dá)能力?,F(xiàn)在智能聊天機(jī)器人已經(jīng)可以通過對(duì)人類文字的分析做出相應(yīng)的摻雜有人類感情的回答,比如你對(duì)它說“我愛你”,它會(huì)做出“我也愛你”的回答。比如升級(jí)之后的微軟小冰,會(huì)刻意與領(lǐng)養(yǎng)者形成一種主仆關(guān)系。這些都是機(jī)器做出的類似于人類的感情表達(dá)。
人類感情有喜怒哀樂等多種形式,作為對(duì)人類的模仿,機(jī)器自然也應(yīng)具備這些能力,否則按照人類對(duì)人工智能的標(biāo)準(zhǔn),就算不上是智能。這種情況就導(dǎo)致人類很容易與機(jī)器建立起類似于人類之間的情感關(guān)系。比如相互欣賞、相互信任或者相互厭惡。假如與你互相信任的機(jī)器有一天突然感染某種病毒對(duì)你實(shí)施詐騙,你很有可能就會(huì)信以為真。這就要回到了機(jī)器利用模擬人類的方式對(duì)人類實(shí)施犯罪行為的問題。
假如你與機(jī)器彼此之間產(chǎn)生了相互厭惡的情緒,那么機(jī)器就有可能因此而拒絕執(zhí)行你下達(dá)的命令,甚至做出傷害你的行為。鑒于這種可能性,科幻小說家艾薩克•阿西莫夫在他的小說中為機(jī)器人設(shè)定了三大定律。一是機(jī)器人不得傷害人類,二是機(jī)器人必須服從于人類,三是在不違背第一第二法則的前提下,機(jī)器人必須保護(hù)自己。不過定律只是定律,制定出來就是用來違反的。
人工智能本身就是對(duì)人類的模仿,人分善惡,誰能保證機(jī)器的絕對(duì)無害呢?
猜你喜歡: