国产成人v爽在线免播放观看,日韩欧美色,久久99国产精品久久99软件,亚洲综合色网站,国产欧美日韩中文久久,色99在线,亚洲伦理一区二区

學(xué)習(xí)啦>新聞資訊>科技>

人工智能的優(yōu)越性論文

時間: 坤杰951 分享

  隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學(xué)習(xí)正在超越機(jī)器學(xué)習(xí),人工智能來勢兇猛。那么,如今人工智能最熱門的技術(shù)趨勢是什么?以下是學(xué)習(xí)啦小編整理分享的人工智能的優(yōu)越性論文的相關(guān)文章,歡迎閱讀!

  人工智能的優(yōu)越性論文篇一

  人工智能的十大熱門技術(shù)趨勢

  隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學(xué)習(xí)正在超越機(jī)器學(xué)習(xí),人工智能來勢兇猛。那么,如今人工智能最熱門的技術(shù)趨勢是什么?

  1.神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來越復(fù)雜。感知和翻譯等大多數(shù)神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來越復(fù)雜,遠(yuǎn)非此前簡單的前饋神經(jīng)網(wǎng)絡(luò)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)所能比。特別需要注意的是,神經(jīng)網(wǎng)絡(luò)正與不同的技術(shù)(如LSTMs、自定義目標(biāo)函數(shù)等)相混合。

  神經(jīng)網(wǎng)絡(luò)是多數(shù)深度學(xué)習(xí)項目的根基。深度學(xué)習(xí)基于人腦結(jié)構(gòu),一層層互相連接的人工模擬神經(jīng)元模仿大腦的行為,處理視覺和語言等復(fù)雜問題。這些人工神經(jīng)網(wǎng)絡(luò)可以收集信息,也可以對其做出反應(yīng)。它們能對事物的外形和聲音做出解釋,還可以自行學(xué)習(xí)與工作。

  2.長短期記憶網(wǎng)絡(luò)(LSTMs)。當(dāng)你閱讀本文時,你是在理解前面詞語的基礎(chǔ)上來理解每個詞語的。你的思想具有連續(xù)性,你不會丟棄已知信息而從頭開始思考。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的一大缺陷便無法做到這一點,而遞歸神經(jīng)網(wǎng)絡(luò)能夠解決這一問題。

  RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))擁有循環(huán)結(jié)構(gòu),可以持續(xù)保存信息。過去幾年里,RNN在語音識別和翻譯等許多問題上取得了難以置信的成功,而成功的關(guān)鍵在于一種特殊的RNN――長短期記憶網(wǎng)絡(luò)。

  3.“注意力模型”。“注意力”是指神經(jīng)網(wǎng)絡(luò)在執(zhí)行任務(wù)時知道把焦點放在何處。我們可以讓神經(jīng)網(wǎng)絡(luò)在每一步都從更大的信息集中挑選信息作為輸入。例如,當(dāng)神經(jīng)網(wǎng)絡(luò)為一張圖片生成標(biāo)題時,它可以挑選圖像的關(guān)鍵部分作為輸入。

  4.神經(jīng)圖靈機(jī)依然有趣,但還無法勝任實際工作。當(dāng)你翻譯一句話時,并不會逐詞進(jìn)行,而會從句子的整體結(jié)構(gòu)出發(fā)。機(jī)器難以做到這一點,這一挑戰(zhàn)就被稱為“強(qiáng)耦合輸出整體估計”。

  神經(jīng)圖靈機(jī)就是研究者們在硅片中重現(xiàn)人類大腦短期記憶的嘗試。它的背后是一種特殊類型的神經(jīng)網(wǎng)絡(luò),它們可以適應(yīng)與外部存儲器共同工作,這使得神經(jīng)網(wǎng)絡(luò)可以存儲記憶,還能在此后檢索記憶并執(zhí)行一些有邏輯性的任務(wù)。

  5.深度學(xué)習(xí)讓計算機(jī)視覺和自然語言處理不再是孤島。卷積神經(jīng)網(wǎng)絡(luò)最早出現(xiàn)在計算機(jī)視覺中,但現(xiàn)在許多自然語言處理(NLP)系統(tǒng)也會使用。LSTMs與遞歸神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)最早出現(xiàn)在NLP中,但現(xiàn)在也被納入計算機(jī)視覺神經(jīng)網(wǎng)絡(luò)。

  此外,計算機(jī)視覺與NLP的交匯仍然擁有無限前景。

  6.符號微分式越來越重要。隨著神經(jīng)網(wǎng)絡(luò)架構(gòu)及其目標(biāo)函數(shù)變得日益復(fù)雜,手動推導(dǎo)出“反向傳播”的梯度也變得更加困難而且容易出錯。谷歌的TensorFlow等最新的工具包已經(jīng)可以超負(fù)荷試驗符號微分式,能夠自動計算出正確的微分,以確保訓(xùn)練時誤差梯度可被反向傳播。

  7.神經(jīng)網(wǎng)絡(luò)模型壓縮的驚人成果。多個團(tuán)隊以不同方法大幅壓縮了訓(xùn)練一個良好模型所需的素材體量,這些方法包括二值化、固定浮點數(shù)、迭代修剪和精細(xì)調(diào)優(yōu)步驟等。

  這些技術(shù)潛在的應(yīng)用前景廣闊,可能將會適應(yīng)在移動設(shè)備上進(jìn)行復(fù)雜模型的訓(xùn)練。例如,不需要延遲就可以得到語音識別結(jié)果。此外,如果運(yùn)算所需要的空間和時間極大降低,我們就可以極高幀率(如30 FPS)查詢一個模型,這樣,在移動設(shè)備上也可以運(yùn)用復(fù)雜神經(jīng)網(wǎng)絡(luò)模型,近乎實時地完成計算機(jī)視覺任務(wù)。

  8.深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)繼續(xù)交匯。在“端對端”機(jī)器人等領(lǐng)域出現(xiàn)了令人激動的進(jìn)展,現(xiàn)在機(jī)器人已經(jīng)可以一起運(yùn)用深度和強(qiáng)化學(xué)習(xí),從而將原始感官數(shù)據(jù)直接轉(zhuǎn)化為實際動作驅(qū)動。我們正在超越“分類”等簡單工作,嘗試將“計劃”與“行動”納入方程。

  9.批標(biāo)準(zhǔn)化。批標(biāo)準(zhǔn)化現(xiàn)在已經(jīng)被視作評價一個神經(jīng)網(wǎng)絡(luò)工具包的部分標(biāo)準(zhǔn)。

  10.神經(jīng)網(wǎng)絡(luò)研究與優(yōu)化齊頭并進(jìn)。創(chuàng)造新的神經(jīng)網(wǎng)絡(luò)方法需要研究者,還需要能將它們迅速付諸實踐的方法。谷歌的TensorFlow是少數(shù)能夠做到這些的庫:使用Python 或 C++等主流編程語言,研究者可以迅速創(chuàng)作新的網(wǎng)絡(luò)拓?fù)鋱D,接著在單一或多個設(shè)備上進(jìn)行測試。

下一頁分享更優(yōu)秀的<<<人工智能的優(yōu)越性論文

2444416