亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

50%的研究者覺得AI有10%的可能會毀滅人類

AIGC行業(yè)資訊2年前 (2023)更新 編輯員
1.3K 0

關(guān)于AI的潛在威脅,在媒體轟炸之下,我們大多人都能說上幾條來,比如數(shù)據(jù)監(jiān)控,數(shù)據(jù)造假,不透明性。

但若真是要講清楚這些名詞將如何系統(tǒng)性改變這個(gè)社會,尤其是去設(shè)想這些威脅具體落在社會的情況會怎樣,那可能沒有多少人能做得到。

但有兩位演講者做到了。

一個(gè)月前,Youtube上線了一條名為《AI困境》的視頻,截至今天已經(jīng)獲得136萬播放。就在上周,這條視頻還累計(jì)得到了超過60萬次播放。

50%的研究者覺得AI有10%的可能會毀滅人類

Tristan Harris和Aza Raskin是人性化技術(shù)中心的聯(lián)合創(chuàng)始人,他們還有個(gè)更響亮的名字,“硅谷的良心”。近幾十年來,他們一直致力于挖掘科技對社會可能造成的影響,我們?nèi)缃袷熘摹白⒁饬?jīng)濟(jì)”就是通過他們的宣傳家喻戶曉,他們最知名的成果是Netflix獲獎(jiǎng)紀(jì)錄片《社會困境》,這部片子講述了社交網(wǎng)絡(luò)和它背后的大公司對人的選擇和注意力的控制。

50%的研究者覺得AI有10%的可能會毀滅人類

對于AI技術(shù),他們肯定不是最資深的研究員。但最快的去理解和講述科技對社會的影響,他們是毫無疑問的專家。
因此也就有了這篇接近兩萬字的演講,這毫無疑問是截至當(dāng)下這個(gè)時(shí)間點(diǎn)最形象,最有說服力的關(guān)于AI到底可能如何毀掉人類的文明的分步說明指南。
“推廣AI就像你要上一架飛機(jī),50%的工程師說,如果你上這架飛機(jī),每個(gè)人都會墜毀的可能性大于10%, 你會上那架飛機(jī)嗎?”
這里就是他們的演講。
引言:虛擬世界的曼哈頓計(jì)劃時(shí)刻
我們開始錄這個(gè)視頻的原因有兩個(gè):
第一個(gè)原因:這是第一次,我看到的人工智能讓我感覺,我們越過了一個(gè)閾值
第二個(gè)原因:我們試圖向記者解釋正在發(fā)生的情況時(shí)有一種非常奇怪的體驗(yàn)

50%的研究者覺得AI有10%的可能會毀滅人類

這是去年1月份的事情。那時(shí)可能只有大約100人在玩這個(gè)全新的技術(shù)(注:這個(gè)技術(shù)指Stable Diffusion的圖像生成AI技術(shù)),現(xiàn)在已經(jīng)有1000萬人使用它生成了超過10億張圖像。我們向記者解釋這項(xiàng)技術(shù)如何工作:你輸入一些文字,它會生成一張以前從未見過的圖片。在結(jié)束時(shí),記者們會說:“很酷,你從哪個(gè)圖像數(shù)據(jù)庫獲得這些圖像?”
很明顯,我們像橡皮筋一樣拉伸了記者們的思維。然后,因?yàn)檫@是一種全新的能力和全新的范例,他們的思維會彈回來。
這不是記者很蠢,而是我們所有人都會經(jīng)歷的一件事。
即使在多次做這個(gè)演講時(shí),我們也意識到我們必須擴(kuò)展我們的思維。然后我們看向別處,它就會彈回來。我們只是想給這種體驗(yàn)命名一個(gè)名字。因?yàn)槿绻愀覀円粯?,在這個(gè)演講結(jié)束后回家時(shí),你會說:“等等,我們剛看到什么?”
我認(rèn)為,因?yàn)?a class="external" href="http://www.xmqqs.cn/tag/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd" title="查看與 人工智能 相關(guān)的文章" target="_blank">人工智能是一個(gè)如此抽象的東西,它影響著如此多的事情,而且沒有以往生活中身體感覺的基本隱喻,所以很難完全理解它有多么變革性。所以,當(dāng)我們說這次演講是一個(gè)對一種范例性技術(shù)的范例性響應(yīng)時(shí),我們真正想要做的是,讓你們所有人有一種更加直觀的方式來體驗(yàn)我們即將迎來的指數(shù)曲線。
先簡單地介紹一下我們的來歷,因?yàn)槲覀儗⒄f很多關(guān)于人工智能并不太積極的話。
其實(shí),自2017年以來我一直致力于一個(gè)名為“針鼴計(jì)劃”的項(xiàng)目,使用人工智能翻譯動物交流,解碼人類(和動物交流的)語言,這其中有許多我真正喜歡和相信的的東西。
幾周前,我用ChatGPT為自己做了一個(gè)西班牙語導(dǎo)師,花了15分鐘。我們并不是在說它比Duolingo好(笑)(注:Duolingo,美國一個(gè)語言學(xué)習(xí)網(wǎng)站及app)
我們并不是說這些技術(shù)不會帶來令人難以置信的積極影響,這不是我們要說的;我們要說的是,我們現(xiàn)在將這些新的大型語言模型人工智能釋放到公眾領(lǐng)域,是否以一種負(fù)責(zé)任的方式這樣做?
我們聽到的人說,我們沒有負(fù)責(zé)任地這樣做。
我個(gè)人的感覺是, 這就像1944年,你接到了羅伯特·奧本海默的電話,他在負(fù)責(zé)這個(gè)被稱為曼哈頓工程的東西。你不知道那是什么,他說世界即將以一種基本方式改變。除了,這種改變的方式不是以安全負(fù)責(zé)的方式,而是以非常危險(xiǎn)的方式部署的。
我經(jīng)常說,這更像是一個(gè)擔(dān)心這個(gè)問題的大量人群的隱喻。其中一些人可能在這個(gè)房間里,他們是這個(gè)行業(yè)里的人。我們想弄清楚責(zé)任看起來像什么。
為什么我們會這么說?因?yàn)檫@個(gè)統(tǒng)計(jì)數(shù)據(jù)讓我感到驚訝:
50%的人工智能研究者相信,有大于10%的可能性,人類將因?yàn)闊o法控制人工智能而滅絕。
再說一遍,一半的人工智能研究者相信,有大于10%的可能性,人類因?yàn)闊o法控制人工智能而滅絕。
這就像你要上一架飛機(jī),50%的工程師說,如果你上這架飛機(jī),每個(gè)人都會墜毀的可能性大于10%, 你會上那架飛機(jī)嗎?
但由于我們將要討論的一些動態(tài),我們正在迅速將人們載上這架飛機(jī)。

50%的研究者覺得AI有10%的可能會毀滅人類

有三條技術(shù)規(guī)則,與我們要與你們分享的內(nèi)容相關(guān):
第一,當(dāng)你發(fā)明一項(xiàng)新技術(shù)時(shí),你會發(fā)現(xiàn)一種新責(zé)任,這些責(zé)任不總是明顯的。
舉兩個(gè)例子,在電腦能永遠(yuǎn)記住我們之前,我們不需要將被遺忘的權(quán)利寫入法律,這一點(diǎn)都不明顯;廉價(jià)的存儲意味著我們必須發(fā)明新的法律。
在大規(guī)模生產(chǎn)的相機(jī)進(jìn)入市場之前,我們不需要將隱私權(quán)寫入法律。布蘭代斯實(shí)際上不得不從零開始發(fā)明隱私權(quán),這原本不在原始憲法中。
當(dāng)然,稍微向前跳一下,還要關(guān)注經(jīng)濟(jì)學(xué),我們?nèi)栽谂ふ胰绾螌慕?jīng)濟(jì)學(xué)出發(fā)把從我們這里帶走的權(quán)利寫入法律。
所以,當(dāng)你發(fā)明一項(xiàng)新技術(shù)時(shí),你會發(fā)現(xiàn)一種新責(zé)任。
其次,如果這種技術(shù)賦予權(quán)力,它將啟動一場競賽。
如果不協(xié)調(diào)這場競賽,最終會以悲劇結(jié)束。沒有一個(gè)單一的參與者能停止這場以悲劇結(jié)束的競賽,這就是《社會困境》(這兩位制片人打造的Netflix獲獎(jiǎng)紀(jì)錄片)所要表達(dá)的。
我很好奇這是否對你有意義,因?yàn)楫?dāng)你打開TikTok并滾動手指時(shí),你就激活了那臺針對你大腦計(jì)算和預(yù)測的超級計(jì)算機(jī)人工智能,它以越來越高的精度計(jì)算出完美的內(nèi)容,讓你持續(xù)向下滑(瀏覽內(nèi)容)。
這是我們已經(jīng)擁有的每天都在使用人工智能,這是一種非常簡單的技術(shù),它只是計(jì)算要顯示給你的大腦神經(jīng)系統(tǒng)的照片和視頻,讓你持續(xù)向下瀏覽。
盡管,這種相對簡單的技術(shù),相當(dāng)于人類對人工智能的第一次接觸, 已經(jīng)足夠破壞人類,造成信息過載,成癮、厭世滾動、兒童性別化、注意力持續(xù)時(shí)間縮短、極化、假新聞和民主的崩潰;但是,沒有人希望讓這些事情發(fā)生。

50%的研究者覺得AI有10%的可能會毀滅人類

只是有一群工程師說,我們試圖最大限度地(讓用戶)參與其中,這似乎是無害的,而你在YouTube上得到的推薦越來越個(gè)性化,YouTube的人并不知道這會導(dǎo)致互聯(lián)網(wǎng)上不同的(信息)兔子洞。
我們會討論,在第二次與人工智能的接觸中會發(fā)生什么。我們也會從這項(xiàng)技術(shù)中獲得很多好處。我們也將討論一場大家容易記住的競賽。
再解釋一下,第一次 (AI的)接觸是定制人工智能(注:即推薦算法),第二次接觸是創(chuàng)造人工智能,和生成式大模型等。
在第一次與社交媒體的接觸中,人類失敗了。
為什么我們失敗了? 我們怎么會失敗?
我們(在紀(jì)錄片里 )說了很多關(guān)于社交媒體的事情。這里的要點(diǎn)是,就像我們提到的那樣,人工智能有一種范例性反應(yīng)。我們看到的社交媒體的范例是什么?
這個(gè)范例是,我們給人們一個(gè)發(fā)言平臺,我們連接人與朋友,我們讓人們加入志同道合的社區(qū),我們將使中小型企業(yè)能夠接觸其客戶。
這些說法都是正確的,這些都是真實(shí)的好處,這些說法并沒有錯(cuò)誤。
但我們經(jīng)常說,在這張友好的面孔后面,還有其他問題。人們已經(jīng)指出,我們有成癮問題、誤信息問題、心理健康問題、言論自由與審查之間的問題。如果你一直在關(guān)注我們的工作, 這一切都在《社會困境》中。
我們說,甚至在這些問題背后,實(shí)際上還有更深層的問題,那就是我們談到的技術(shù)第三條法則中的軍備競賽。
這場軍備競賽是為了獲得關(guān)注,這變成了對大腦干細(xì)胞(成癮性)的競賽。這創(chuàng)造了一種致力于最大限度提高用戶參與度的人工智能。
雖然這些內(nèi)容看起來是正確的,但我們錯(cuò)過了更深層的范例。所以,如果我們想預(yù)測這些將融入社會的其他人工智可能會發(fā)生什么,我們必須理解我們談?wù)撍鼈兊姆绞?,以及背后的真正?nèi)涵。
請注意,如果你試圖獨(dú)立解決這些問題,如成癮、誤信息和心理健康,你就是在玩捉迷藏,你不會解決問題的根源。
值得注意的是,最大限度提高(用戶)參與度實(shí)際上改寫了我們社會的各個(gè)方面,因?yàn)樗鼘⑽覀兩鐣钠渌诵姆矫婕{入其觸手之中,然后占據(jù)和掌控它們。
現(xiàn)在,兒童的身份被掌控在是否擁有Snapchat賬戶或Instagram賬戶上。如果你18歲沒有這些賬戶,你就不存在;如果不這樣,就相當(dāng)于被社會排斥;媒體新聞業(yè)也無法在Twitter之外存在,或不能在Twitter之外宣傳自己;國家安全現(xiàn)在是通過社交媒體和信息戰(zhàn)進(jìn)行的;政治和選舉現(xiàn)在也是通過這種參與經(jīng)濟(jì)運(yùn)行的。
這就是為什么現(xiàn)在要管制它變得如此困難,這也是我們稱這一時(shí)刻為重要轉(zhuǎn)折點(diǎn)的部分原因。
我們相信人工智能的重大轉(zhuǎn)變即將來臨,我們想在它融入我們的社會之前解決這個(gè)問題。在與GPT-3的(人工智能)第二次接觸時(shí),首先要注意的是,我們是否已經(jīng)解決了社交媒體的錯(cuò)位問題?不,我們沒有解決,因?yàn)樗呀?jīng)融入進(jìn)去了。
現(xiàn)在,如果我們談?wù)摰诙谓佑|時(shí)刻,即GPT-3這些新型大型語言模型,我們會先討論現(xiàn)在我們正在談的是什么。
我們說人工智能會讓我們更高效,它會幫助我們更快地寫東西,更快地編寫代碼,解決不可能的科學(xué)難題,解決氣候變化,并幫助我們賺很多錢。
這些說法都是正確的,這些都是真實(shí)的好處,都是真的將要發(fā)生的事情。
同時(shí)在這之后,我們又看到了這張奇怪的可怕的面孔,我們擔(dān)心人工智能偏見,擔(dān)心它會奪走我們的工作,我們需要透明度。在所有這些背后,有另一種怪物,這個(gè)怪物是一個(gè)集合,AI已經(jīng)在一起協(xié)同發(fā)展,這個(gè)怪物正在增加其能力。我們擔(dān)心它將再次與社會糾纏在一起。
因此,本次演講的目的首先是這一點(diǎn)。

? 版權(quán)聲明

相關(guān)文章