AI發(fā)展會讓窮人更窮?“全民發(fā)錢”是最優(yōu)解嗎?
OpenAI創(chuàng)始人Sam Altman曾表示不擔心“AI取代人類的工作之后,人類何去何從”的問題,他認為真正的難題是財富分配問題。
AI的指數級發(fā)展會帶來平等還是加深鴻溝?如何實現(xiàn)“AI為人人”的目標?對技術的依賴又是否會影響到我們的思想甚至存續(xù)?
知識萬象邀請中國人民大學哲學院教授劉永謀、經濟學家梁捷、中國科學院計算技術研究所博士牛雪松、前北京科技大學教師季燕江,詳解我們距離“AI為人人“的時代有多遠。
核心要點
- 1長遠來看AI發(fā)展可以彌合技術與貧富鴻溝,人類在沒有經濟壓力之后何去何從更值得探討。
- 2GPT的偏強化學習框架致力于消除偏見、種族主義等問題,上述問題也是人類真實社會的反映。
- 3存在AI控制人類思想的潛在風險,令人類失去在精神層面自我發(fā)展和迭代的機會,逐漸走向平庸。
1. AI發(fā)展會讓窮人更窮?“全民發(fā)錢”是最優(yōu)解嗎?
季燕江:有觀點認為了解或使用GPT的人是某種程度上的“精英“,這帶來上一波互聯(lián)網革命我們就曾討論過的老問題:AI是否會造成新的鴻溝?GPT作為創(chuàng)造財富并重新分配的機會,是否會讓窮人更窮、富人更富?
梁捷:AI技術的應用短期內確實有可能進一步拉大貧富差距。因為現(xiàn)在確實不是所有人都能接觸到人工智能,且有良好教育背景的人更容易適應AI發(fā)展并在短期內抓住機會,完成財富投資和資金分配。但我認為這只是短期的臨時現(xiàn)象。
隨著IT技術發(fā)展,數字鴻溝其實在不斷縮小,智能手機發(fā)明普及后曾經的“上網難”問題被解決,將大家拉到了同一起跑線。所以相信不久的將來就會有幫助人們使用AI的程序被開發(fā)出來,做更好的普及,縮小技術鴻溝,最后做到AI面前人人平等。所以長期來看,AI會讓大家站在同一起跑線上,反而有機會縮小貧富差距,讓社會更平等。
劉永謀:第一,我非常贊同梁老師的樂觀看法,即強調人類運用和控制技術來為社會謀得更多福利、促進社會進步。
第二,這一問題是制度與技術結合的問題。我不贊同技術決定論,即技術有自己的內在發(fā)展規(guī)律,這一規(guī)律決定社會走向兩極分化或更加平等,而無法通過人為控制或改變。我認為必須是人的努力和技術發(fā)展二者相結合才能決定或重塑我們的未來。制度搞得好,可能就走向平等;搞不好,貧富差距可能就很大。
第三,馬克思是工具論者,認為包括AI在內的所有技術,就只是一種工具,人可以控制它。先進技術一定是能推動社會進步發(fā)展的革命性力量,但在現(xiàn)實中又被統(tǒng)治階級控制。因為這一階級有錢有權有勢,會最先使用到先進技術、使用得更好,并將其用于維護自己統(tǒng)治。所以長遠來看,對AI技術的使用,需要靠全社會的普通勞動者和制度設計者共同努力,推動社會平等。
季燕江:OpenAI創(chuàng)始人Sam Altman曾設想,隨著AI發(fā)展,將不需要那么多人工作,很多人會失業(yè)并需要重新訓練才能進入新的就業(yè)崗位。他主張在全球范圍內進行全民基本收入(UBI,即Universal BASIc Income)實驗,即被試者不需要工作,就會收到一筆錢保障個人有一定品質的生活,可以學一些感興趣的東西并將其實踐。
未來可能體現(xiàn)為技術巨頭賺了足夠多錢,政府將其中一部分通過稅收的形式收上來并每年無條件發(fā)放給每個公民一定數額。各位如何看待UBI實驗?企業(yè)和政府未來應該做些什么解決AI發(fā)展帶來的潛在社會問題?
梁捷:遠在GPT出現(xiàn)前UBI的概念就已經出現(xiàn)。前幾年美國總統(tǒng)大選時一名叫楊安澤的候選人就是UBI的積極支持者,該政策已經在西歐部分國家試點。它最核心的特點就是無條件發(fā)錢,有人將其形容為“直升機撒錢”。那這里就涉及一個問題:一個人在沒有經濟壓力的情況下應該干什么?
馬克思1846年的《德意志意識形態(tài)》一文中說過,“共產主義社會未來是早上打魚,中午狩獵,晚上討論哲學?!盪BI就是要實現(xiàn)這個目標。它相信絕大多數人拿了錢之后不會在家游手好閑。
Universal BASIC Income定義(圖源:Stanford Basic Income Lab網站)
工作對我們而言意味著什么?它的意義真的有點復雜。盡管很多人都在抱怨工作累,但我們工作不僅能得到經濟回報,更能得到人生意義和價值。UBI就希望讓我們免除后顧之憂,讓我們做發(fā)自內心想做的工作。過去認為這一計劃只在歐洲富裕國家可以實施,發(fā)展中國家民眾拿到錢后很有可能就不干活了。過去主流經濟學認為人都是理性的,給我錢我才干活。UBI則挑戰(zhàn)了這一假設,認為人在沒有壓力的情況下愛干嘛干嘛,反而能發(fā)揮很大創(chuàng)造力。
AI和ChatGPT這種可以快速替代大量“狗屁工作”的新發(fā)明出現(xiàn),重提UBI就顯得更有說服力,每個人都可以想象如何從狗屁工作中解放,充分發(fā)揮自己的聰明才智。但要做這個UBI實驗其實很困難,因為它挑戰(zhàn)了很多國家的勞動力市場制度、稅收制度甚至是法律制度,給民眾發(fā)錢也占了很大一部分GDP,在動輒人口上億的大國推行更困難,未來幾十年都沒那么容易實現(xiàn)。
當然,我們也可以期待,AI對人類勞動替代到底會達到什么程度?若能達到80%的替代,或許UBI的阻力會小很多。就目前在經濟學界,絕大多數學者還是認為UBI是過于激進的制度,可以小做嘗試,但全面推開還需要很長時間。
2. 我們距離“AI為人人”有多遠?算法偏見實為人類社會的真實反映?
季燕江:在人工智能的開發(fā)過程中,不僅有相關技術背景的工程師,還有心理學家等人文背景的專家參與。若要實現(xiàn)“AI為人人”,從技術和人文角度可以有哪些路徑?
牛雪松:如何讓整個網絡空間中所有人都有表達權、大家的話語都是同樣權重,多年前就曾有過相關研究。GPT產品其實使用了一套偏強化學習框架,訓練出大模型后將人的反饋輸入,消除模型中的偏見或種族主義等問題。其他科技公司的產品也用到了類似的利用強化規(guī)則學習的方法,一定程度上削平不平等。
劉永謀:第一,GPT出現(xiàn)的價值觀偏差、意識形態(tài)不安全和虛假信息等問題,其實就是人類社會真實狀況的反映。因為它使用的海量自然語言都是我們人類自己在網絡留下的足跡,是在所有信息中尋找一個正確率最高的回答,所以反映了我們自身。性別歧視、種族歧視,都是人類自身存在的問題。所以它也提示我們要從思想上迭代進化,拋棄一些不平等的想法。
第二,為什么我國也要開發(fā)相關產品?因為ChatGPT的訓練目前是基于美國數據,所以它不是一個純技術產品,而是技術和語料、文化相結合的產物,所有有必要開發(fā)中國的AI產品,不能用“技術中性”論來忽視掉背后的問題。AIGC(人工智能生成內容)生產要比PGC(專業(yè)生產內容)和UGC(用戶生產內容)生產快得多,如果我們沒有控制和引導,這面鏡子就會反過來影響甚至控制我們,我們的思想反而成了ChatGPT為我們塑造的。所以一定要重視起來、積極解決。
第三,之前有相關人士通過生命未來研究所聯(lián)名呼吁暫停GPT-4.0的訓練。我們當然不能說ChatGPT背后的安全問題無關緊要,有人懷疑它或將成為顏色革命(編者注:顏色革命即21世紀初期,在前蘇聯(lián)和中東北非地區(qū)發(fā)生的以顏色命名,以和平的非暴力方式進行的政權更迭運動。)的武器也不算是空穴來風。但我覺得暫停訓練沒什么用,實際上也暫停不了,畢竟呼吁得響亮的馬斯克也食言了,暗地里重金加碼成立AI公司。面對AI技術,我們應該控制和利用,要正確面對它而不是逃避。
該聯(lián)名呼吁已得到兩萬余人支持,其中不乏各領域專家學者(圖源:生命未來研究所網站)
季燕江:GPT類產品基本都是大公司、大模型、大資源,若我們要討論平等,就涉及到我們是否要“多元化”的問題。小公司沒有太多硬件資源,是否也能訓練出針對特定需求的GPT類產品,并實現(xiàn)AI領域內的去中心化?
牛雪松:其實在GPT的大模型出來前,大家做的就是本地化操作,針對一個具體場景進行解析,比如翻譯場景中就是只能英譯漢,需要英譯法就得重新做一套模型。GPT為我們帶來的新啟發(fā)就是當整體數據量都被用于訓練時,模型能力將遠超從前?,F(xiàn)在這個節(jié)點,讓小公司基于GPT拿到小模型并應用于生產場景,這條路線似乎還不是很成熟。不過大家也做了一些努力并小有成就,比如針對自動駕駛、醫(yī)療、金融等專業(yè)領域的模型正在發(fā)布或內測狀態(tài)。所以未來隨著技術和算力迭代,小公司肯定也能獲得更大算力,模型本身算力也會壓縮,是可以實現(xiàn)的。
3. 我們的思想會被AI控制嗎?AI技術普及將導致人類社會走向平庸?
季燕江:GPT類產品已經向我們展示了AI的強大能力。但同時,有人認為存在IT巨頭或掌握AI制定權的機構控制人類思想的潛在風險:他們通過AI訓練、影響我們的生活,控制我們的思想,我們有了AI卻喪失了自由的思維,失去了在精神層面自我發(fā)展和迭代的機會。對于這種悲觀的展望,各位認為要做什么來補救?
劉永謀:我認為我們未來必然會生活在機器人代替絕大多數人類勞動的社會,理論上50~100年內技術即可達到這一水平。在這一假設基礎上,我們來展望人類未來,有兩種極端看法,一種悲觀,一種樂觀。
樂觀看法,未來實現(xiàn)“數字共產主義”,機器人生產出供所有人過上好生活的物質資料,在此背景下若能設計出完美的制度,就可以進入機器烏托邦的美好社會。大多數人會贊同這種設計,即機器人屬于全社會,按照社會統(tǒng)一生產平均分配,帶有公有制色彩;所有人都有同等的財富分配權利,每個人都實現(xiàn)經濟自由。這種經濟自由實現(xiàn)后會有大量閑暇時間,人們可能會從事哲學藝術、文化科技等工作來提升個人境界。這就是AI烏托邦的理想社會狀況。
悲觀看法,就是電子圓形監(jiān)獄形成。ICT技術(編者注:指信息與通信技術,覆蓋了所有通信設備或應用軟件)會加劇社會規(guī)訓化的趨勢,使得當代社會逐漸成為專制的“電子圓形監(jiān)獄”(electronic panopticon),所有人的一舉一動甚至思想都在監(jiān)控中。社會是一臺巨大智能機器,每個人都是機器上的智能零件,隨時可以標準化替換。
這樣的社會有四大特點:第一是極度強調科學和效率,拋棄人文;第二是極力擴張經濟,向外探索;第三是極端理性主義;第四是等級制,即知識就是發(fā)言權,實現(xiàn)公開等級的數字化制度。機器人監(jiān)控我們的行動,并對我們隨時采取行動。
英國哲學家邊沁于1785年提出圓形監(jiān)獄(Panopticon)(圖源:UCL網站)
但這兩種極善極惡的情況都不大可能出現(xiàn),人類歷史總是好壞參半。人們吃飽穿暖了真的就會搞藝術哲學嗎?剝削者是否愿意為走向數字共產主義付出巨大代價?反過來,電子圓形監(jiān)獄不僅監(jiān)控普通人,還監(jiān)控極權者,反而可以用作民主用途。所以我們更應該采取第三種看法,即務實主義,走介于烏托邦與敵托邦之間的路。而不同國家歷史文化不同,走的路可能會不同。
未來很有可能介于兩個極端之間?!凹夹g工具論”認為技術就是工具,科技要發(fā)展,我們應好好使用;“技術實體論”認為技術有內定好的自主性,或讓我們滅亡,或讓我們更好;二者之間的“制度設計論”則認為文化和技術結合時的不同社會文化要素會帶來不同結果。
我個人觀點則是“技術控制的選擇論”,即無法證明技術僅是工具還是有一定自主性。這些觀點背后是我們是否要控制技術的問題。我們關注每一項新技術,考慮其風險并了解如何去控制它為社會造福,盡管要做一些必要犧牲,但還是要控制技術,這樣社會才能進步。
牛雪松:我個人比較認同技術工具論。技術其實是提高我們生產力的方式,人有很多技術替代不了的情感、思考等東西,不管技術怎么發(fā)展,它始終是人類生產的,替代不了人?;蛟S《黑客帝國》未來可能真的會成為現(xiàn)實,但目前它離我們還是很遙遠。我們還是要好好生活,擁抱技術,讓技術更好促進生活。
《黑客帝國》劇照(圖源:豆瓣)
梁捷:AI進步速度非常快,水平也很高,但是否能達到人類智慧巔峰,有待商榷。AI能創(chuàng)作出像莎士比亞文集、《紅樓夢》等代表人類智慧巔峰的偉大作品嗎?恐怕不行,這大概是80分與99分的區(qū)別。
我們需要擔心的問題是當AI逐漸普及,未來的年輕人整日與GPT待在一起,學習AI生產的80分作品,人類智慧是否會逐漸向80分水平靠攏?或許整體平均值提高對社會有利,但我們還是希望社會上能有極少數的人為我們提供了不起的超過100分的作品。所以我們每個人都需要更深入思考,思想等最精華的最巔峰的結晶或許并不能依靠GPT,仍需要我們自己努力,避免平庸化社會。