為什么比爾·蓋茨認(rèn)為人工智能需要一定的自我意識(shí)?
1. 比爾·蓋茨表示,“元認(rèn)知”是人工智能的下一個(gè)前沿領(lǐng)域。
關(guān)于人工智能的報(bào)道和寫(xiě)作讓我對(duì)人類(lèi)大腦的驚人之處有了全新的認(rèn)識(shí)。雖然大型語(yǔ)言模型(LLMs)令人印象深刻,但它們?nèi)狈ξ覀內(nèi)祟?lèi)認(rèn)為理所當(dāng)然的整體思維。比爾·蓋茨在Next Big idea Club播客節(jié)目中提出了這個(gè)觀點(diǎn)。蓋茨在接受主持人魯弗斯·格里斯科姆(Rufus Griscom)的采訪(fǎng)時(shí),詳細(xì)談到了“元認(rèn)知”,它指的是一種能夠思考自身思維的系統(tǒng)。蓋茨將“元認(rèn)知”定義為“從廣義上思考問(wèn)題,然后退一步想,這個(gè)問(wèn)題的答案有多重要?我如何檢驗(yàn)自己的答案,哪些外部工具可以幫助我做到這一點(diǎn)?”
這位微軟創(chuàng)始人表示,GPT-4 或 Llama 等現(xiàn)有大型語(yǔ)言模型的整體“認(rèn)知策略”仍然不夠完善。蓋茨說(shuō):“它只是通過(guò)不斷的計(jì)算來(lái)生成每個(gè)標(biāo)記和序列,不會(huì)像人類(lèi)一樣后退一步,然后思考:好吧,我要寫(xiě)這篇論文,這是我想涵蓋的內(nèi)容;好吧,我會(huì)在這里做一些闡述,這是我想做的總結(jié),等等?!?/span>
蓋茨認(rèn)為,人工智能研究人員常用的提高大型語(yǔ)言模型性能的方法(擴(kuò)大訓(xùn)練數(shù)據(jù),提高計(jì)算能力)只會(huì)帶來(lái)幾次大的飛躍。在此之后,人工智能研究人員將不得不采用“元認(rèn)知”策略,教人工智能模型更聰明地思考,而不是更努力地思考。
蓋茨說(shuō),“元認(rèn)知”研究可能是解決大型語(yǔ)言模型最棘手問(wèn)題的關(guān)鍵:大型語(yǔ)言模型的可靠性和準(zhǔn)確性。他說(shuō):“這項(xiàng)技術(shù)……將達(dá)到超人的水平,但需要加上可靠性限制,我們今天還達(dá)不到這個(gè)水平……許多新研究都增加了“元認(rèn)知”的水平,如果做得好,就能解決天才的不穩(wěn)定性問(wèn)題?!?/span>
2. 美國(guó)最高法院對(duì)雪佛龍里程碑式的裁決將如何影響科技和人工智能?
近日,最高法院對(duì)雪佛龍(CheVRon)一案的裁決的影響變得越來(lái)越清晰,包括它對(duì)人工智能的未來(lái)意味著什么。在 Loper Bright 訴 RAImondo 案中,法院推翻了“雪佛龍?jiān)瓌t”(Chevron Doctrine),該原則要求法院尊重聯(lián)邦機(jī)構(gòu)對(duì)不直接解決爭(zhēng)議中心問(wèn)題的法規(guī)的(合理)解釋。從本質(zhì)上講,最高法院認(rèn)為司法機(jī)構(gòu)比行政機(jī)構(gòu)更有能力(也許政治動(dòng)機(jī)更少)填補(bǔ)國(guó)會(huì)通過(guò)的法律中的法律模糊之處。這或許有一定道理,但反方的論點(diǎn)是,行政機(jī)構(gòu)擁有多年的主題和行業(yè)專(zhuān)業(yè)知識(shí),這使他們能夠更有效地解釋國(guó)會(huì)的意圖并解決爭(zhēng)端。
正如斯科特·羅森伯格(Scott Rosenberg)所指出的,取消“雪佛龍?jiān)瓌t”可能會(huì)使通過(guò)有意義的聯(lián)邦人工智能法規(guī)變得更加困難?!把┓瘕?jiān)瓌t”允許國(guó)會(huì)將法規(guī)定義為一系列一般性指令,然后由機(jī)構(gòu)專(zhuān)家來(lái)定義具體規(guī)則,并在實(shí)施和執(zhí)行層面逐案解決爭(zhēng)議?,F(xiàn)在,國(guó)會(huì)將負(fù)責(zé)提前制定法律的細(xì)枝末節(jié),盡力預(yù)測(cè)未來(lái)可能出現(xiàn)的爭(zhēng)議。對(duì)于人工智能這樣一個(gè)年輕而快速發(fā)展的行業(yè)來(lái)說(shuō),這可能尤其困難。在“后雪佛龍”時(shí)代,如果國(guó)會(huì)通過(guò)了人工智能法規(guī),那么從現(xiàn)在起將由法院來(lái)解釋法律,但屆時(shí)行業(yè)、技術(shù)和參與者都可能發(fā)生了根本性的變化。
但并不能保證法院會(huì)迎接挑戰(zhàn)。只要看看高等法院的決定就知道了,它有效地推翻了德克薩斯州和佛羅里達(dá)州管理社交網(wǎng)絡(luò)內(nèi)容審核的法規(guī)的合憲性。莫卡特斯中心人工智能研究員迪恩·鮑爾指出:“鑒于人工智能的興起,他們不愿意解決社交媒體(一種成熟的技術(shù))上的此類(lèi)爭(zhēng)議,這可能會(huì)帶來(lái)更棘手的法律問(wèn)題。”
設(shè)計(jì)應(yīng)用程序制造商 Figma 暫時(shí)關(guān)閉了其新推出的 “Make Design “功能,因?yàn)橛杏脩?hù)發(fā)現(xiàn)該工具生成的天氣應(yīng)用程序用戶(hù)體驗(yàn)設(shè)計(jì)與蘋(píng)果公司的天氣應(yīng)用程序極為相似。生成式人工智能模型的這種復(fù)制通常表明其在某一特定領(lǐng)域的訓(xùn)練數(shù)據(jù)不足,導(dǎo)致過(guò)于依賴(lài)單一的、可識(shí)別的訓(xùn)練數(shù)據(jù),在本例中就是蘋(píng)果的設(shè)計(jì)。
但 Figma 首席執(zhí)行官迪倫·菲爾德(Dylan Field)否認(rèn)自己的產(chǎn)品在訓(xùn)練過(guò)程中接觸過(guò)其他應(yīng)用設(shè)計(jì)?!罢缥覀児_(kāi)解釋的那樣,該功能使用現(xiàn)成的大型語(yǔ)言模型,結(jié)合我們委托這些模型使用的設(shè)計(jì)系統(tǒng),” 菲爾德表示,“這種方法的問(wèn)題……是可變性太低?!?翻譯一下,也就是說(shuō),承認(rèn)“Make Design”的系統(tǒng)訓(xùn)練不足,但這不是Figma的錯(cuò)。