ChatGPT 人工智能背后的語(yǔ)言模型讓讀心術(shù)成為現(xiàn)實(shí)
根據(jù)奧斯汀德克薩斯大學(xué)的神經(jīng)科學(xué)家的一項(xiàng)突破性研究,人工智能(AI)可以使用為聊天機(jī)器人ChatGPT提供能力的相同技術(shù),將大腦活動(dòng)翻譯成文字。

他們使用fMRI機(jī)器和OpenAI的第一個(gè)語(yǔ)言模型GPT-1來(lái)分析志愿者的大腦掃描和音頻片段,例如CNN記者DonieO‘Sullivan,他聽(tīng)了《綠野仙蹤》有聲書(shū)。人工智能學(xué)會(huì)了如何通過(guò)觀察志愿者的大腦活動(dòng)來(lái)預(yù)測(cè)他們所聽(tīng)到的單詞。該技術(shù)可用于幫助那些因腦損傷或中風(fēng)而無(wú)法溝通的人,而不需要進(jìn)行手術(shù)。
然而,這項(xiàng)技術(shù)也提出了關(guān)于隱私、準(zhǔn)確性和大腦解碼監(jiān)管的道德和法律問(wèn)題,因?yàn)樗赡鼙挥糜谖kU(xiǎn)或有爭(zhēng)議的目的。研究人員和人工智能專家敦促立法者實(shí)施保障措施以保護(hù)大腦數(shù)據(jù),他們認(rèn)為這是隱私的最后前沿之一。
上周生成式人工智能系統(tǒng)的開(kāi)發(fā)商,包括OpenAI的首席執(zhí)行官SamAltman,前往國(guó)會(huì)作證,就議員們對(duì)這種強(qiáng)大技術(shù)的風(fēng)險(xiǎn)所持的擔(dān)憂提出警告。
Altman警告說(shuō),缺乏監(jiān)管的人工智能的發(fā)展可能「對(duì)世界造成嚴(yán)重危害」,并敦促議員們制定法規(guī)來(lái)解決這些問(wèn)題。



?津公網(wǎng)安備12011002023007號(hào)