亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

50%的研究者覺(jué)得AI有10%的可能會(huì)毀滅人類(lèi)

AIGC行業(yè)資訊3年前 (2023)更新 編輯員
1.3K 0

關(guān)于AI的潛在威脅,在媒體轟炸之下,我們大多人都能說(shuō)上幾條來(lái),比如數(shù)據(jù)監(jiān)控,數(shù)據(jù)造假,不透明性。

但若真是要講清楚這些名詞將如何系統(tǒng)性改變這個(gè)社會(huì),尤其是去設(shè)想這些威脅具體落在社會(huì)的情況會(huì)怎樣,那可能沒(méi)有多少人能做得到。

但有兩位演講者做到了。

一個(gè)月前,Youtube上線了一條名為《AI困境》的視頻,截至今天已經(jīng)獲得136萬(wàn)播放。就在上周,這條視頻還累計(jì)得到了超過(guò)60萬(wàn)次播放。

50%的研究者覺(jué)得AI有10%的可能會(huì)毀滅人類(lèi)

Tristan Harris和Aza Raskin是人性化技術(shù)中心的聯(lián)合創(chuàng)始人,他們還有個(gè)更響亮的名字,“硅谷的良心”。近幾十年來(lái),他們一直致力于挖掘科技對(duì)社會(huì)可能造成的影響,我們?nèi)缃袷熘摹白⒁饬?jīng)濟(jì)”就是通過(guò)他們的宣傳家喻戶曉,他們最知名的成果是Netflix獲獎(jiǎng)紀(jì)錄片《社會(huì)困境》,這部片子講述了社交網(wǎng)絡(luò)和它背后的大公司對(duì)人的選擇和注意力的控制。

50%的研究者覺(jué)得AI有10%的可能會(huì)毀滅人類(lèi)

對(duì)于AI技術(shù),他們肯定不是最資深的研究員。但最快的去理解和講述科技對(duì)社會(huì)的影響,他們是毫無(wú)疑問(wèn)的專(zhuān)家。
因此也就有了這篇接近兩萬(wàn)字的演講,這毫無(wú)疑問(wèn)是截至當(dāng)下這個(gè)時(shí)間點(diǎn)最形象,最有說(shuō)服力的關(guān)于AI到底可能如何毀掉人類(lèi)的文明的分步說(shuō)明指南。
“推廣AI就像你要上一架飛機(jī),50%的工程師說(shuō),如果你上這架飛機(jī),每個(gè)人都會(huì)墜毀的可能性大于10%, 你會(huì)上那架飛機(jī)嗎?”
這里就是他們的演講。
引言:虛擬世界的曼哈頓計(jì)劃時(shí)刻
我們開(kāi)始錄這個(gè)視頻的原因有兩個(gè):
第一個(gè)原因:這是第一次,我看到的人工智能讓我感覺(jué),我們?cè)竭^(guò)了一個(gè)閾值
第二個(gè)原因:我們?cè)噲D向記者解釋正在發(fā)生的情況時(shí)有一種非常奇怪的體驗(yàn)

50%的研究者覺(jué)得AI有10%的可能會(huì)毀滅人類(lèi)

這是去年1月份的事情。那時(shí)可能只有大約100人在玩這個(gè)全新的技術(shù)(注:這個(gè)技術(shù)指Stable Diffusion的圖像生成AI技術(shù)),現(xiàn)在已經(jīng)有1000萬(wàn)人使用它生成了超過(guò)10億張圖像。我們向記者解釋這項(xiàng)技術(shù)如何工作:你輸入一些文字,它會(huì)生成一張以前從未見(jiàn)過(guò)的圖片。在結(jié)束時(shí),記者們會(huì)說(shuō):“很酷,你從哪個(gè)圖像數(shù)據(jù)庫(kù)獲得這些圖像?”
很明顯,我們像橡皮筋一樣拉伸了記者們的思維。然后,因?yàn)檫@是一種全新的能力和全新的范例,他們的思維會(huì)彈回來(lái)。
這不是記者很蠢,而是我們所有人都會(huì)經(jīng)歷的一件事。
即使在多次做這個(gè)演講時(shí),我們也意識(shí)到我們必須擴(kuò)展我們的思維。然后我們看向別處,它就會(huì)彈回來(lái)。我們只是想給這種體驗(yàn)命名一個(gè)名字。因?yàn)槿绻愀覀円粯樱谶@個(gè)演講結(jié)束后回家時(shí),你會(huì)說(shuō):“等等,我們剛看到什么?”
我認(rèn)為,因?yàn)?a class="external" href="http://www.xmqqs.cn/tag/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd" title="查看與 人工智能 相關(guān)的文章" target="_blank">人工智能是一個(gè)如此抽象的東西,它影響著如此多的事情,而且沒(méi)有以往生活中身體感覺(jué)的基本隱喻,所以很難完全理解它有多么變革性。所以,當(dāng)我們說(shuō)這次演講是一個(gè)對(duì)一種范例性技術(shù)的范例性響應(yīng)時(shí),我們真正想要做的是,讓你們所有人有一種更加直觀的方式來(lái)體驗(yàn)我們即將迎來(lái)的指數(shù)曲線。
先簡(jiǎn)單地介紹一下我們的來(lái)歷,因?yàn)槲覀儗⒄f(shuō)很多關(guān)于人工智能并不太積極的話。
其實(shí),自2017年以來(lái)我一直致力于一個(gè)名為“針鼴計(jì)劃”的項(xiàng)目,使用人工智能翻譯動(dòng)物交流,解碼人類(lèi)(和動(dòng)物交流的)語(yǔ)言,這其中有許多我真正喜歡和相信的的東西。
幾周前,我用ChatGPT為自己做了一個(gè)西班牙語(yǔ)導(dǎo)師,花了15分鐘。我們并不是在說(shuō)它比Duolingo好(笑)(注:Duolingo,美國(guó)一個(gè)語(yǔ)言學(xué)習(xí)網(wǎng)站及app)
我們并不是說(shuō)這些技術(shù)不會(huì)帶來(lái)令人難以置信的積極影響,這不是我們要說(shuō)的;我們要說(shuō)的是,我們現(xiàn)在將這些新的大型語(yǔ)言模型人工智能釋放到公眾領(lǐng)域,是否以一種負(fù)責(zé)任的方式這樣做?
我們聽(tīng)到的人說(shuō),我們沒(méi)有負(fù)責(zé)任地這樣做。
我個(gè)人的感覺(jué)是, 這就像1944年,你接到了羅伯特·奧本海默的電話,他在負(fù)責(zé)這個(gè)被稱(chēng)為曼哈頓工程的東西。你不知道那是什么,他說(shuō)世界即將以一種基本方式改變。除了,這種改變的方式不是以安全負(fù)責(zé)的方式,而是以非常危險(xiǎn)的方式部署的。
我經(jīng)常說(shuō),這更像是一個(gè)擔(dān)心這個(gè)問(wèn)題的大量人群的隱喻。其中一些人可能在這個(gè)房間里,他們是這個(gè)行業(yè)里的人。我們想弄清楚責(zé)任看起來(lái)像什么。
為什么我們會(huì)這么說(shuō)?因?yàn)檫@個(gè)統(tǒng)計(jì)數(shù)據(jù)讓我感到驚訝:
50%的人工智能研究者相信,有大于10%的可能性,人類(lèi)將因?yàn)闊o(wú)法控制人工智能而滅絕。
再說(shuō)一遍,一半的人工智能研究者相信,有大于10%的可能性,人類(lèi)因?yàn)闊o(wú)法控制人工智能而滅絕。
這就像你要上一架飛機(jī),50%的工程師說(shuō),如果你上這架飛機(jī),每個(gè)人都會(huì)墜毀的可能性大于10%, 你會(huì)上那架飛機(jī)嗎?
但由于我們將要討論的一些動(dòng)態(tài),我們正在迅速將人們載上這架飛機(jī)。

50%的研究者覺(jué)得AI有10%的可能會(huì)毀滅人類(lèi)

有三條技術(shù)規(guī)則,與我們要與你們分享的內(nèi)容相關(guān):
第一,當(dāng)你發(fā)明一項(xiàng)新技術(shù)時(shí),你會(huì)發(fā)現(xiàn)一種新責(zé)任,這些責(zé)任不總是明顯的。
舉兩個(gè)例子,在電腦能永遠(yuǎn)記住我們之前,我們不需要將被遺忘的權(quán)利寫(xiě)入法律,這一點(diǎn)都不明顯;廉價(jià)的存儲(chǔ)意味著我們必須發(fā)明新的法律。
在大規(guī)模生產(chǎn)的相機(jī)進(jìn)入市場(chǎng)之前,我們不需要將隱私權(quán)寫(xiě)入法律。布蘭代斯實(shí)際上不得不從零開(kāi)始發(fā)明隱私權(quán),這原本不在原始憲法中。
當(dāng)然,稍微向前跳一下,還要關(guān)注經(jīng)濟(jì)學(xué),我們?nèi)栽谂ふ胰绾螌慕?jīng)濟(jì)學(xué)出發(fā)把從我們這里帶走的權(quán)利寫(xiě)入法律。
所以,當(dāng)你發(fā)明一項(xiàng)新技術(shù)時(shí),你會(huì)發(fā)現(xiàn)一種新責(zé)任。
其次,如果這種技術(shù)賦予權(quán)力,它將啟動(dòng)一場(chǎng)競(jìng)賽。
如果不協(xié)調(diào)這場(chǎng)競(jìng)賽,最終會(huì)以悲劇結(jié)束。沒(méi)有一個(gè)單一的參與者能停止這場(chǎng)以悲劇結(jié)束的競(jìng)賽,這就是《社會(huì)困境》(這兩位制片人打造的Netflix獲獎(jiǎng)紀(jì)錄片)所要表達(dá)的。
我很好奇這是否對(duì)你有意義,因?yàn)楫?dāng)你打開(kāi)TikTok并滾動(dòng)手指時(shí),你就激活了那臺(tái)針對(duì)你大腦計(jì)算和預(yù)測(cè)的超級(jí)計(jì)算機(jī)人工智能,它以越來(lái)越高的精度計(jì)算出完美的內(nèi)容,讓你持續(xù)向下滑(瀏覽內(nèi)容)。
這是我們已經(jīng)擁有的每天都在使用人工智能,這是一種非常簡(jiǎn)單的技術(shù),它只是計(jì)算要顯示給你的大腦神經(jīng)系統(tǒng)的照片和視頻,讓你持續(xù)向下瀏覽。
盡管,這種相對(duì)簡(jiǎn)單的技術(shù),相當(dāng)于人類(lèi)對(duì)人工智能的第一次接觸, 已經(jīng)足夠破壞人類(lèi),造成信息過(guò)載,成癮、厭世滾動(dòng)、兒童性別化、注意力持續(xù)時(shí)間縮短、極化、假新聞和民主的崩潰;但是,沒(méi)有人希望讓這些事情發(fā)生。

50%的研究者覺(jué)得AI有10%的可能會(huì)毀滅人類(lèi)

只是有一群工程師說(shuō),我們?cè)噲D最大限度地(讓用戶)參與其中,這似乎是無(wú)害的,而你在YouTube上得到的推薦越來(lái)越個(gè)性化,YouTube的人并不知道這會(huì)導(dǎo)致互聯(lián)網(wǎng)上不同的(信息)兔子洞。
我們會(huì)討論,在第二次與人工智能的接觸中會(huì)發(fā)生什么。我們也會(huì)從這項(xiàng)技術(shù)中獲得很多好處。我們也將討論一場(chǎng)大家容易記住的競(jìng)賽。
再解釋一下,第一次 (AI的)接觸是定制人工智能(注:即推薦算法),第二次接觸是創(chuàng)造人工智能,和生成式大模型等。
在第一次與社交媒體的接觸中,人類(lèi)失敗了。
為什么我們失敗了? 我們?cè)趺磿?huì)失敗?
我們(在紀(jì)錄片里 )說(shuō)了很多關(guān)于社交媒體的事情。這里的要點(diǎn)是,就像我們提到的那樣,人工智能有一種范例性反應(yīng)。我們看到的社交媒體的范例是什么?
這個(gè)范例是,我們給人們一個(gè)發(fā)言平臺(tái),我們連接人與朋友,我們讓人們加入志同道合的社區(qū),我們將使中小型企業(yè)能夠接觸其客戶。
這些說(shuō)法都是正確的,這些都是真實(shí)的好處,這些說(shuō)法并沒(méi)有錯(cuò)誤。
但我們經(jīng)常說(shuō),在這張友好的面孔后面,還有其他問(wèn)題。人們已經(jīng)指出,我們有成癮問(wèn)題、誤信息問(wèn)題、心理健康問(wèn)題、言論自由與審查之間的問(wèn)題。如果你一直在關(guān)注我們的工作, 這一切都在《社會(huì)困境》中。
我們說(shuō),甚至在這些問(wèn)題背后,實(shí)際上還有更深層的問(wèn)題,那就是我們談到的技術(shù)第三條法則中的軍備競(jìng)賽。
這場(chǎng)軍備競(jìng)賽是為了獲得關(guān)注,這變成了對(duì)大腦干細(xì)胞(成癮性)的競(jìng)賽。這創(chuàng)造了一種致力于最大限度提高用戶參與度的人工智能。
雖然這些內(nèi)容看起來(lái)是正確的,但我們錯(cuò)過(guò)了更深層的范例。所以,如果我們想預(yù)測(cè)這些將融入社會(huì)的其他人工智可能會(huì)發(fā)生什么,我們必須理解我們談?wù)撍鼈兊姆绞?,以及背后的真正?nèi)涵。
請(qǐng)注意,如果你試圖獨(dú)立解決這些問(wèn)題,如成癮、誤信息和心理健康,你就是在玩捉迷藏,你不會(huì)解決問(wèn)題的根源。
值得注意的是,最大限度提高(用戶)參與度實(shí)際上改寫(xiě)了我們社會(huì)的各個(gè)方面,因?yàn)樗鼘⑽覀兩鐣?huì)的其他核心方面納入其觸手之中,然后占據(jù)和掌控它們。
現(xiàn)在,兒童的身份被掌控在是否擁有Snapchat賬戶或Instagram賬戶上。如果你18歲沒(méi)有這些賬戶,你就不存在;如果不這樣,就相當(dāng)于被社會(huì)排斥;媒體新聞業(yè)也無(wú)法在Twitter之外存在,或不能在Twitter之外宣傳自己;國(guó)家安全現(xiàn)在是通過(guò)社交媒體和信息戰(zhàn)進(jìn)行的;政治和選舉現(xiàn)在也是通過(guò)這種參與經(jīng)濟(jì)運(yùn)行的。
這就是為什么現(xiàn)在要管制它變得如此困難,這也是我們稱(chēng)這一時(shí)刻為重要轉(zhuǎn)折點(diǎn)的部分原因。
我們相信人工智能的重大轉(zhuǎn)變即將來(lái)臨,我們想在它融入我們的社會(huì)之前解決這個(gè)問(wèn)題。在與GPT-3的(人工智能)第二次接觸時(shí),首先要注意的是,我們是否已經(jīng)解決了社交媒體的錯(cuò)位問(wèn)題?不,我們沒(méi)有解決,因?yàn)樗呀?jīng)融入進(jìn)去了。
現(xiàn)在,如果我們談?wù)摰诙谓佑|時(shí)刻,即GPT-3這些新型大型語(yǔ)言模型,我們會(huì)先討論現(xiàn)在我們正在談的是什么。
我們說(shuō)人工智能會(huì)讓我們更高效,它會(huì)幫助我們更快地寫(xiě)東西,更快地編寫(xiě)代碼,解決不可能的科學(xué)難題,解決氣候變化,并幫助我們賺很多錢(qián)。
這些說(shuō)法都是正確的,這些都是真實(shí)的好處,都是真的將要發(fā)生的事情。
同時(shí)在這之后,我們又看到了這張奇怪的可怕的面孔,我們擔(dān)心人工智能偏見(jiàn),擔(dān)心它會(huì)奪走我們的工作,我們需要透明度。在所有這些背后,有另一種怪物,這個(gè)怪物是一個(gè)集合,AI已經(jīng)在一起協(xié)同發(fā)展,這個(gè)怪物正在增加其能力。我們擔(dān)心它將再次與社會(huì)糾纏在一起。
因此,本次演講的目的首先是這一點(diǎn)。

? 版權(quán)聲明

相關(guān)文章