欧美成人A片免费|日韩无码一级av|一级黄色大片在线播放|黄片视频在线观看无码|亚洲精品成人无码影视|婷婷五月天视频网站|日韩三级AV在线播放|姓爱av在线婷婷春色五月天|真人全黃色录像免费特黄片|日本无码黄在线观看下载

  • +1

研究發(fā)現(xiàn)AI深度學(xué)習(xí)也有類似“前額葉皮層”,楊立昆點(diǎn)贊

澎湃新聞?dòng)浾?邵文
2022-06-23 20:10
來源:澎湃新聞
? 科學(xué)湃 >
聽全文
字號(hào)

AI也有類似人類的“聽覺皮層”、“前額葉皮層”機(jī)制嗎?

近日,Meta AI、美國哥倫比亞大學(xué)、多倫多大學(xué)等的研究人員就完成了一個(gè)關(guān)于深度學(xué)習(xí)模型和人腦之間相似性的研究。

“模擬人類智能是一個(gè)遙遠(yuǎn)的目標(biāo)。盡管如此,自我監(jiān)督算法中類腦功能的出現(xiàn)表明我們可能走在正確的道路上?!闭撐淖髡咧弧eta AI研究員在推特上發(fā)文稱。

所以他們有什么發(fā)現(xiàn)?

研究發(fā)現(xiàn),AI模型Wav2Vec 2.0與人類大腦處理語音的方式非常相似,甚至AI也像人類一樣,對(duì)“母語”有更強(qiáng)的辨別能力,如法語模型就比英語模型更容易感知來自法語的刺激。

Jean-Rémi King在推特上發(fā)布的演示視頻中展示了AI模型與人腦相互對(duì)應(yīng)的結(jié)構(gòu):聽覺皮層與Transformer的第一層(藍(lán)色)最吻合,而前額葉皮層則與Transformer的最深一層(紅色)最吻合。

Wav2Vec 2.0 接受了600小時(shí)的語音訓(xùn)練,這大致相當(dāng)于新生兒在語言習(xí)得的早期階段所接觸的內(nèi)容。研究人員將此模型與412名志愿者(351名說英語、28名說法語和33名說中文普通話的人)的大腦活動(dòng)進(jìn)行比較。

科學(xué)家讓參與者聽一小時(shí)自己母語的有聲小說,然后對(duì)他們的大腦做功能性磁共振成像 (fMRI) 紀(jì)錄。研究人員將這些大腦活動(dòng)與Wav2Vec 2.0模型的每一層以及幾個(gè)變體進(jìn)行比較,包括隨機(jī)(未經(jīng)訓(xùn)練的)Wav2Vec 2.0 模型、在600小時(shí)非語音上訓(xùn)練的模型、在600小時(shí)非母語語音上訓(xùn)練的模型、在600小時(shí)母語訓(xùn)練的模型和直接在參與者母語的語音到文本(speech-to-text)上訓(xùn)練的模型。

實(shí)驗(yàn)有四個(gè)重要發(fā)現(xiàn)。

首先,Wav2Vec 2.0使用自監(jiān)督學(xué)習(xí)來獲取語音波形時(shí)的表現(xiàn)類似于在人類大腦中看到的。其次,Transformer層的功能層次與大腦中語音的皮層層次相吻合,這以前所未有的細(xì)節(jié)揭示了語音處理的全腦排列。第三,該模型對(duì)聽覺、語音和語言的表征與人腦的表征趨同。第四,對(duì)模型與另外386名人類參與者進(jìn)行的語音辨別練習(xí)行為比較表明一種共同的語言專業(yè)化。

這些實(shí)驗(yàn)結(jié)果證明了,600小時(shí)的自監(jiān)督學(xué)習(xí)就足以產(chǎn)生一個(gè)在功能上等同于人腦語音感知的模型。Wav2Vec 2.0學(xué)習(xí)到語言特定表征的所需的材料與嬰兒學(xué)說話過程中接觸到的“數(shù)據(jù)量”相當(dāng)。

“深度學(xué)習(xí)三巨頭”之一Yann LeCun盛贊這是“出色的工作”,這個(gè)團(tuán)隊(duì)的研究表明在語音方面接受自監(jiān)督學(xué)習(xí)訓(xùn)練的Transformer分層活動(dòng)與人類聽覺皮層活動(dòng)之間,確實(shí)密切相關(guān)。

谷歌大腦的研究員Jesse Engel則稱,這項(xiàng)研究將可視化濾波器提升到下一個(gè)層次。現(xiàn)在,不僅能看到它們?cè)凇跋袼乜臻g”的樣子,而且“類腦空間”中的模樣也能模擬出來了。

但也有一些批評(píng)聲音,如加利福尼亞大學(xué)洛杉磯分校的神經(jīng)科學(xué)博士后Patrick Mineault就有些懷疑這篇研究是否真的測(cè)量了人類大腦的語音處理過程。因?yàn)橄啾扔谌苏f話的速度,fMRI測(cè)量信號(hào)的速度其實(shí)非常慢,這意味解釋結(jié)果時(shí)需要非常謹(jǐn)慎。Mineault也表示自己并非認(rèn)為研究不可信,但這項(xiàng)研究需要給出一些更有說服力的數(shù)據(jù)。

Meta AI實(shí)際上一直在尋找AI算法與人類大腦之間的聯(lián)系。此前Meta AI宣布,他們將與神經(jīng)影像中心Neurospin(CEA)和INRIA合作,試圖解碼人類大腦和完成語言任務(wù)訓(xùn)練的深度學(xué)習(xí)算法如何對(duì)同一段文本作出反應(yīng)。

舉個(gè)例子,如通過在一個(gè)人主動(dòng)閱讀、說話或聆聽時(shí),將人腦掃描與深度學(xué)習(xí)算法進(jìn)行比較,并給出相同的單詞和句子集進(jìn)行破譯,研究人員希望找到大腦生物學(xué)和人工神經(jīng)網(wǎng)絡(luò)之間的相似之處以及關(guān)鍵的結(jié)構(gòu)和行為差異,幫助解釋為什么人類處理語言的效率比機(jī)器高得多。 

Meta AI研究科學(xué)家Jean-Rémi King說道,“我們正在做的是嘗試將大腦活動(dòng)與機(jī)器學(xué)習(xí)算法進(jìn)行比較,以了解大腦如何運(yùn)作,并嘗試改進(jìn)機(jī)器學(xué)習(xí)?!?nbsp;

    責(zé)任編輯:李躍群
    校對(duì):張艷
    澎湃新聞報(bào)料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號(hào)

            滬公網(wǎng)安備31010602000299號(hào)

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報(bào)業(yè)有限公司