亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

人工智能將為戰(zhàn)爭(zhēng)帶來新的變數(shù)

AIGC行業(yè)資訊2年前 (2023)發(fā)布 編輯員
1.4K 0

百歲基辛格重磅發(fā)聲:人工智能將改變?nèi)虬踩c世界秩序

2023年,亨利·基辛格已經(jīng)100歲高齡,但是他頭腦依然很清醒,思路依然很清晰。他還是一如既往的參加國際問題的討論,并且還能給出令人佩服的預(yù)測(cè)。

《經(jīng)濟(jì)學(xué)人》在4月底與基辛格進(jìn)行了長(zhǎng)達(dá)8個(gè)小時(shí)的對(duì)話。在這次對(duì)話中,基辛格表示出了對(duì)中美兩國圍繞科技和經(jīng)濟(jì)領(lǐng)先地位日益激烈競(jìng)爭(zhēng)的擔(dān)憂,他還擔(dān)心人工智能即將極大程度地加劇中美對(duì)立?;粮裾J(rèn)為,人工智能將在五年內(nèi)成為安全領(lǐng)域的關(guān)鍵因素,其顛覆性潛力堪比活字印刷術(shù)。

“我們生活在一個(gè)破壞性空前的世界中”,基辛格警告道。盡管原則上人類要介入機(jī)器學(xué)習(xí)的反饋循環(huán),但人工智能還是可能成為全自動(dòng)的、不可阻擋的武器。

基辛格一直非常關(guān)注人工智能的發(fā)展,他曾經(jīng)說過“搞技術(shù)的人關(guān)心的是應(yīng)用,我關(guān)心的是影響”。最近,基辛格和谷歌前首席執(zhí)行官埃里克·施密特、麻省理工學(xué)院蘇世民學(xué)院院長(zhǎng)丹尼爾·胡騰洛赫爾還共同完成一本書《人工智能時(shí)代與人類未來》,基辛格在這本書中提出,人工智能將重塑全球安全和世界秩序,并對(duì)人工智能發(fā)展對(duì)個(gè)體和人類自我身份認(rèn)同的沖擊進(jìn)行了反思。

人工智能將為戰(zhàn)爭(zhēng)帶來新的變數(shù)

自有記載的人類歷史起,安全始終是一個(gè)有組織的社會(huì)追求的最低目標(biāo)。在每一個(gè)時(shí)代,尋求安全的社會(huì)都試圖將技術(shù)進(jìn)步轉(zhuǎn)化為日益有效的方法,用以監(jiān)視威脅,練兵備戰(zhàn),施影響于國界之外,戰(zhàn)時(shí)則用于加強(qiáng)軍事力量以取得勝利。對(duì)最早期的有組織社會(huì)來說,冶金、防御工事、戰(zhàn)馬蓄養(yǎng)和造船等方面的進(jìn)步往往具有決定性的意義。到了近代早期,火器槍炮、海軍艦船、航海工具和技術(shù)方面的創(chuàng)新也發(fā)揮了類似的作用。

隨著力量的增強(qiáng),主要大國之間會(huì)相互衡量,以評(píng)估哪一方會(huì)在沖突中獲勝,取得這樣的勝利會(huì)帶來什么風(fēng)險(xiǎn)和損失,開戰(zhàn)有什么正當(dāng)?shù)睦碛?,以及另一個(gè)大國及其軍事力量介入沖突會(huì)對(duì)結(jié)果產(chǎn)生什么影響。不同國家的戰(zhàn)力、目標(biāo)和戰(zhàn)略至少在理論上被設(shè)定為一種平衡,或者說是一種力量的均衡。

人工智能時(shí)代的網(wǎng)絡(luò)戰(zhàn)爭(zhēng)

在過去的一個(gè)世紀(jì)里,對(duì)手段和目的的戰(zhàn)略調(diào)整已然出現(xiàn)了脫節(jié)。用于追求安全的技術(shù)層出不窮,破壞性也越來越大,而運(yùn)用這些技術(shù)實(shí)現(xiàn)既定目標(biāo)的戰(zhàn)略卻變得越來越難以捉摸。在當(dāng)今時(shí)代,網(wǎng)絡(luò)和人工智能的出現(xiàn)又為這些戰(zhàn)略計(jì)算增加了超乎尋常的復(fù)雜性和抽象性。

在冷戰(zhàn)結(jié)束后的今天,主要大國和其他國家都利用網(wǎng)絡(luò)能力增強(qiáng)了本國的武器庫,這些網(wǎng)絡(luò)能力的效用主要源自其不透明性和可否認(rèn)性,在某些情況下,也源自對(duì)其在散播虛假信息、收集情報(bào)、蓄意破壞和傳統(tǒng)沖突的模糊邊界上的運(yùn)用——這構(gòu)成了種種尚無公認(rèn)理論教條的戰(zhàn)略。與此同時(shí),每一次進(jìn)步都伴隨著新的弱點(diǎn)被揭露。

人工智能時(shí)代可能使現(xiàn)代戰(zhàn)略之謎更趨復(fù)雜化,這并非人類本意,也許還完全超出人類的理解。即使各國不廣泛部署所謂的致命自主武器(即經(jīng)過訓(xùn)練和授權(quán)可以自主選擇目標(biāo),并在沒有進(jìn)一步人類授權(quán)的情況下進(jìn)行攻擊的自動(dòng)或半自動(dòng)人工智能武器),人工智能仍有可能增強(qiáng)常規(guī)武器、核武器和網(wǎng)絡(luò)能力,從而使對(duì)手之間的安全關(guān)系更加難以預(yù)測(cè)和維護(hù),沖突更加難以限制。

沒有哪個(gè)大國可以忽視人工智能的安全維度。一場(chǎng)爭(zhēng)奪人工智能戰(zhàn)略優(yōu)勢(shì)的競(jìng)賽已經(jīng)開始,尤其是在美國和中國之間,當(dāng)然還有俄羅斯。隨著對(duì)他國正在獲得某些人工智能能力的認(rèn)知或猜疑日益蔓延,將會(huì)有更多國家尋求獲得這些能力。而一旦被引入,這能力就會(huì)快速擴(kuò)散。雖然創(chuàng)造一種復(fù)雜的人工智能需要大量的算力,但對(duì)其進(jìn)行增殖擴(kuò)散或使用它通常并不需要。

解決這些復(fù)雜問題的辦法既不是陷入絕望,也不是繳械投降。核技術(shù)、網(wǎng)絡(luò)技術(shù)和人工智能技術(shù)已經(jīng)存在,其中每一項(xiàng)技術(shù)都將不可避免地在戰(zhàn)略中發(fā)揮作用。我們已不可能退回到這些技術(shù)“未被發(fā)明”的時(shí)代。如果美國及其盟友因這些能力可能產(chǎn)生的影響而畏縮不前,結(jié)果不會(huì)是一個(gè)更和平的世界。相反,那將是一個(gè)不太平衡的世界,身處其中的各國會(huì)競(jìng)相發(fā)展和使用最強(qiáng)大的戰(zhàn)略能力,而不考慮民主責(zé)任和國際平衡。

今后幾十年,我們需要實(shí)現(xiàn)一種力量平衡,這種平衡既要考慮到網(wǎng)絡(luò)沖突和大規(guī)模虛假信息傳播等無形因素,也要考慮到由人工智能輔助的戰(zhàn)爭(zhēng)的獨(dú)特屬性。殘酷的現(xiàn)實(shí)迫使人們認(rèn)識(shí)到,即使是在彼此競(jìng)爭(zhēng)中,人工智能領(lǐng)域的對(duì)手們也應(yīng)致力于限制極具破壞性、不穩(wěn)定性和不可預(yù)測(cè)性的人工智能能力的開發(fā)和使用。在人工智能軍備控制方面的清醒努力與國家安全并不沖突,它是一種嘗試,為的是確保在人類未來的框架下尋求實(shí)現(xiàn)安全。

一個(gè)社會(huì)的數(shù)字能力越強(qiáng),這個(gè)社會(huì)就變得越脆弱

縱觀歷史,一個(gè)國家的政治影響力往往與其軍事力量和戰(zhàn)略能力大致匹配,這是一種即使主要通過施加隱性威脅也會(huì)對(duì)其他社會(huì)造成破壞的能力。然而,基于這種力量權(quán)衡的均勢(shì)不是靜態(tài)的或自我維持的。相反,它首先依賴于各方就這一力量的構(gòu)成要素及其使用的合法界限達(dá)成共識(shí)。其次,維持均勢(shì)需要體系內(nèi)所有成員,尤其是對(duì)手,就各個(gè)國家的相對(duì)能力、意圖和侵略的后果進(jìn)行一致的評(píng)估。最后,保持均勢(shì)需要一個(gè)實(shí)際的、公認(rèn)的平衡。當(dāng)體系中的一方以一種與其他成員并不成比例的方式增加自身力量時(shí),體系將通過組織對(duì)抗力量或者通過適應(yīng)新的現(xiàn)實(shí)來設(shè)法做出調(diào)整。當(dāng)均勢(shì)的權(quán)衡變得不確定時(shí),或者當(dāng)各國對(duì)各自相對(duì)實(shí)力的權(quán)衡結(jié)果完全不同時(shí),由誤算引發(fā)沖突的風(fēng)險(xiǎn)就會(huì)達(dá)到最大。

在當(dāng)今時(shí)代,這些權(quán)衡的抽象性更進(jìn)一步。帶來這種轉(zhuǎn)變的原因之一是所謂的網(wǎng)絡(luò)武器,這類武器涉及軍用和民用兩個(gè)領(lǐng)域,因此其作為武器的地位是模糊的。在某些情況下,網(wǎng)絡(luò)武器在行使和增強(qiáng)軍事力量方面的效用主要源于其使用者未披露其存在或未承認(rèn)其全部能力。傳統(tǒng)上,沖突各方都不難認(rèn)識(shí)到發(fā)生了交戰(zhàn),或者認(rèn)識(shí)到交戰(zhàn)各方是誰。對(duì)手間會(huì)計(jì)算對(duì)方的戰(zhàn)力,并評(píng)估他們部署武器的速度。可是這些在傳統(tǒng)戰(zhàn)場(chǎng)上顛撲不破的道理卻不能直接套用到網(wǎng)絡(luò)領(lǐng)域。

常規(guī)武器和核武器存在于物理空間中,在那里,它們的部署可以被察覺,它們的能力至少可以被粗略計(jì)算出來。相比之下,網(wǎng)絡(luò)武器的效用很大一部分來自其不透明性;若被公之于眾,它們的威力自然有所減損。這些武器利用之前未曾披露的軟件漏洞,在未經(jīng)授權(quán)用戶許可或知情的情況下侵入網(wǎng)絡(luò)或系統(tǒng)。在“分布式拒絕服務(wù)”(DDoS)攻擊(如對(duì)通信系統(tǒng)的攻擊)的突發(fā)事件中,攻擊者可能會(huì)使用一大堆看似有效的信息請(qǐng)求來壓垮系統(tǒng),使系統(tǒng)無法正常使用。在這種情況下,攻擊的真實(shí)來源可能被掩蓋,使人難以或無法(至少在當(dāng)時(shí))確定攻擊者。即使是最著名的網(wǎng)絡(luò)工業(yè)破壞事件之一——震網(wǎng)(Stuxnet)病毒破壞了伊朗核項(xiàng)目中的制造控制計(jì)算機(jī),也沒有任何政府對(duì)此事做過正式承認(rèn)。

常規(guī)武器和核武器可以相對(duì)精確地瞄準(zhǔn)目標(biāo),道德和法律要求它們瞄準(zhǔn)的對(duì)象只能是軍事力量和設(shè)施。而網(wǎng)絡(luò)武器可以廣泛地影響計(jì)算和通信系統(tǒng),往往可對(duì)民用系統(tǒng)造成特別有力的打擊。網(wǎng)絡(luò)武器也可以被其他行為體基于其他目的而進(jìn)行吸納、修改和重新部署。這使得網(wǎng)絡(luò)武器在某些方面類似于生物和化學(xué)武器,其影響可以非預(yù)期和未知的方式傳播。在許多情況下,網(wǎng)絡(luò)武器影響的是大范圍的人類社會(huì),而不僅僅是戰(zhàn)場(chǎng)上的特定目標(biāo)。

網(wǎng)絡(luò)武器的這些用途,使得網(wǎng)絡(luò)軍備控制難以被概念化或被推行。核軍備控制的談判人員可以公開披露或描述一類核彈頭,而不必否認(rèn)該武器的功能。網(wǎng)絡(luò)軍備控制談判人員(目前尚不存在)則需要解決以下悖論:一旦對(duì)網(wǎng)絡(luò)武器的威力進(jìn)行討論,可能就會(huì)導(dǎo)致這種威力的喪失(允許對(duì)手修補(bǔ)漏洞)或擴(kuò)散(對(duì)手得以復(fù)制代碼或侵入方法)。

我們所處的數(shù)字時(shí)代的一個(gè)核心悖論是:一個(gè)社會(huì)的數(shù)字能力越強(qiáng),這個(gè)社會(huì)就變得越脆弱。計(jì)算機(jī)、通信系統(tǒng)、金融市場(chǎng)、大學(xué)、醫(yī)院、航空公司和公共交通系統(tǒng),甚至民主政治的機(jī)制,所涉及的系統(tǒng)在不同程度上都容易受到網(wǎng)絡(luò)操縱或攻擊。隨著發(fā)達(dá)經(jīng)濟(jì)體將數(shù)字指揮和控制系統(tǒng)整合到發(fā)電廠和電網(wǎng)中,將政府項(xiàng)目轉(zhuǎn)移到大型服務(wù)器和云系統(tǒng)中,并將數(shù)據(jù)轉(zhuǎn)謄到電子賬簿中,它們?cè)诰W(wǎng)絡(luò)攻擊面前的脆弱性也成倍增加。這些行為提供了更豐富的目標(biāo)集合,因此僅僅一次成功的攻擊就可能造成實(shí)質(zhì)性的破壞。與此相對(duì),如果發(fā)生數(shù)字破壞的情況,低技術(shù)國家、恐怖組織甚至個(gè)人攻擊者可能會(huì)認(rèn)為他們承受的損失相對(duì)要小得多。

人工智能將為戰(zhàn)爭(zhēng)帶來新的變數(shù)

各國正在悄無聲息地,有時(shí)是試探性地,但又確鑿無疑地發(fā)展和部署那些對(duì)各種軍事能力的戰(zhàn)略行動(dòng)均有所促進(jìn)的人工智能,這對(duì)安全政策可能產(chǎn)生革命性影響。

戰(zhàn)爭(zhēng)一直是一個(gè)充滿不確定性和偶然性的領(lǐng)域,但人工智能進(jìn)入這個(gè)領(lǐng)域?qū)槠鋷硇碌淖償?shù)。

人工智能和機(jī)器學(xué)習(xí)將通過擴(kuò)大現(xiàn)有武器類別的打擊能力來改變行為者的戰(zhàn)略和戰(zhàn)術(shù)選擇。人工智能不僅能使常規(guī)武器瞄得更精準(zhǔn),還能使它們以新的、非常規(guī)的方式進(jìn)行瞄準(zhǔn),比如(至少在理論上)瞄準(zhǔn)某個(gè)特定的個(gè)人或物體,而不是某個(gè)地點(diǎn)。通過研究大量信息,人工智能網(wǎng)絡(luò)武器可以學(xué)習(xí)如何滲透防御,而不需要人類幫它們發(fā)現(xiàn)可以利用的軟件漏洞。同樣,人工智能也可以用于防御,在漏洞被利用之前定位并修復(fù)它們。但由于攻擊者可以選擇目標(biāo)而防御者不能,人工智能即使未必讓進(jìn)攻方戰(zhàn)無不勝,也可令其占得先機(jī)。

如果一個(gè)國家面對(duì)的對(duì)手已經(jīng)訓(xùn)練人工智能來駕駛飛機(jī)、獨(dú)立做出瞄準(zhǔn)的決策并開火,那么采用這種技術(shù)將在戰(zhàn)術(shù)、戰(zhàn)略或訴諸升級(jí)戰(zhàn)爭(zhēng)規(guī)模(甚至是核戰(zhàn))的意愿方面產(chǎn)生什么變化?

人工智能開辟了信息空間能力的新視野,包括虛假信息領(lǐng)域。生成式人工智能可以創(chuàng)造大量似是而非的虛假信息。人工智能推波助瀾的信息戰(zhàn)和心理戰(zhàn),包括使用偽造的人物、圖片、視頻和演講,無時(shí)無刻不在暴露出當(dāng)今社會(huì)令人不安的新弱點(diǎn),尤其是在自由社會(huì)。廣泛轉(zhuǎn)發(fā)的示威活動(dòng)配上了看似真實(shí)的圖片視頻,里面的公眾人物發(fā)表著他們從未真正說過的言論。從理論上講,人工智能可以決定將這些由人工智能合成的內(nèi)容以最有效的方式傳遞給人們,使其符合人們的偏見和期望。如果一個(gè)國家領(lǐng)導(dǎo)人的合成形象被對(duì)手操縱,以制造不和或發(fā)布誤導(dǎo)性的指令,公眾(甚至其他政府和官員)會(huì)及時(shí)識(shí)破這種騙局嗎?

在災(zāi)難真正發(fā)生之前行動(dòng)

各個(gè)主要的技術(shù)先進(jìn)國家都需要明白,它們正處于戰(zhàn)略轉(zhuǎn)型的門檻上,這種轉(zhuǎn)型與當(dāng)年核武器的出現(xiàn)同等重要,但影響將更加多樣化、分散化和不可預(yù)測(cè)。每個(gè)正在擴(kuò)展人工智能前沿的社會(huì)都應(yīng)致力于成立一個(gè)國家層面的機(jī)構(gòu),來考量人工智能的防御和安全,并在影響人工智能創(chuàng)建和部署的各個(gè)部門之間建立橋梁。這個(gè)機(jī)構(gòu)應(yīng)被賦予兩項(xiàng)職能:確保維持本國在世界其他地區(qū)的競(jìng)爭(zhēng)力,同時(shí)協(xié)調(diào)研究如何防止或至少限制不必要的沖突升級(jí)或危機(jī)。在此基礎(chǔ)上,與盟友和對(duì)手進(jìn)行某種形式的談判將是至關(guān)重要的。

如果要對(duì)這一方向進(jìn)行探索,那么世界兩大人工智能強(qiáng)國——美國和中國——就必須接受這一現(xiàn)實(shí)。兩國可能會(huì)得出這樣的結(jié)論:無論兩國競(jìng)爭(zhēng)的新階段可能會(huì)出現(xiàn)何種形式的競(jìng)賽,兩國仍應(yīng)該尋求達(dá)成一項(xiàng)共識(shí),即不會(huì)同對(duì)方打一場(chǎng)前沿技術(shù)戰(zhàn)爭(zhēng)。雙方政府可以委托某個(gè)團(tuán)隊(duì)或高級(jí)官員負(fù)責(zé)監(jiān)督,并直接向領(lǐng)導(dǎo)人報(bào)告潛在的危險(xiǎn),以及如何避免這些危險(xiǎn)。

在人工智能時(shí)代,我們應(yīng)該對(duì)長(zhǎng)期以來的戰(zhàn)略邏輯進(jìn)行調(diào)整。在災(zāi)難真正發(fā)生之前,我們需要克服,或者至少是遏制這種自動(dòng)化的驅(qū)向。我們必須防止運(yùn)行速度比人類決策者更快的人工智能做出一些具有戰(zhàn)略后果的、不可挽回的行為。防御力量的自動(dòng)化,必須在不放棄人類控制的基本前提下去實(shí)施。

當(dāng)代領(lǐng)導(dǎo)人可以通過將常規(guī)能力、核能力、網(wǎng)絡(luò)能力和人工智能能力廣泛而動(dòng)態(tài)地結(jié)合在一起,來實(shí)現(xiàn)控制武器裝備的六大任務(wù)。

第一,對(duì)抗和敵對(duì)國家的領(lǐng)導(dǎo)人必須準(zhǔn)備定期開展相互對(duì)話,討論他們都想要避免的戰(zhàn)爭(zhēng)形式,就像他們的前任在冷戰(zhàn)期間所做的那樣。為對(duì)此有所助力,美國及其盟友應(yīng)該圍繞它們認(rèn)為共同的、固有的和不可侵犯的利益與價(jià)值觀組織起來,這些利益和價(jià)值觀包括在冷戰(zhàn)結(jié)束時(shí)及冷戰(zhàn)后成長(zhǎng)起來的幾代人的經(jīng)驗(yàn)。

第二,必須對(duì)核戰(zhàn)略的未解難題給予新的關(guān)注,并認(rèn)識(shí)到其本質(zhì)正是人類在戰(zhàn)略、技術(shù)和道德方面遭遇的巨大挑戰(zhàn)之一。幾十年來,對(duì)廣島和長(zhǎng)崎被原子彈化為焦土的記憶迫使人們認(rèn)識(shí)到核問題的不尋常性和嚴(yán)峻程度。正如美國前國務(wù)卿喬治·舒爾茨在2018 年對(duì)國會(huì)所說:“我擔(dān)心人們已經(jīng)失去了那種恐懼感?!睋砗藝业念I(lǐng)導(dǎo)人必須認(rèn)識(shí)到,他們有責(zé)任共同努力,以防止災(zāi)難的發(fā)生。

第三,網(wǎng)絡(luò)與人工智能技術(shù)的領(lǐng)先大國應(yīng)該努力界定其理論和限制(即使其所有方面均未被公開),并找出自身理論與競(jìng)爭(zhēng)大國之間的關(guān)聯(lián)點(diǎn)。如果我們的意圖是威懾而非使用,是和平而非沖突,是有限沖突而非普遍沖突,就需要以反映網(wǎng)絡(luò)和人工智能獨(dú)特層面的措辭來重新理解和定義這些術(shù)語。

第四,擁核國家應(yīng)承諾對(duì)其指揮控制系統(tǒng)和早期預(yù)警系統(tǒng)進(jìn)行內(nèi)部檢查。這類失效保護(hù)檢查應(yīng)確定檢查步驟,以加強(qiáng)對(duì)網(wǎng)絡(luò)威脅和在未經(jīng)授權(quán)、疏忽或意外情況下使用大規(guī)模毀滅性武器行為的防范。這些檢查還應(yīng)包括排除對(duì)核指揮控制系統(tǒng)或早期預(yù)警系統(tǒng)相關(guān)設(shè)施的網(wǎng)絡(luò)攻擊的選項(xiàng)。

第五,世界各國,特別是技術(shù)強(qiáng)國,應(yīng)制定強(qiáng)有力和可接受的方法,在緊張局勢(shì)加劇和極端情況下盡量延長(zhǎng)決策時(shí)間。這應(yīng)該是一個(gè)共同的概念性目標(biāo),特別是在競(jìng)爭(zhēng)對(duì)手之間,它可以將控制不穩(wěn)定性和建立共同安全所需的步驟(既有當(dāng)前的,也有長(zhǎng)期的)聯(lián)系起來。在危機(jī)中,人類必須對(duì)是否使用先進(jìn)武器承擔(dān)最終責(zé)任。特別是競(jìng)爭(zhēng)對(duì)手間應(yīng)該努力就一種機(jī)制達(dá)成一致,以確保那些可能不可撤銷的決定是以有助于人類對(duì)其加以思考并有利于人類生存的方式做出的。

第六,主要的人工智能大國應(yīng)該考慮如何限制軍事化人工智能的繼續(xù)擴(kuò)散,或者依靠外交手段與武力威脅,開展系統(tǒng)性的防擴(kuò)散工作。那些野心勃勃地想要將技術(shù)用于不可接受的破壞性目的的技術(shù)收購者會(huì)是誰?有哪些特定的人工智能武器值得我們特別關(guān)注?誰來確保這條紅線不被逾越?老牌的核大國探索過這種防核擴(kuò)散概念,結(jié)果成敗參半。如果一種具有顛覆性和潛在破壞性的新技術(shù)被用于武裝世界上懷有最強(qiáng)烈敵意或道德上最不受約束的政府的軍隊(duì),那么戰(zhàn)略均勢(shì)可能難以實(shí)現(xiàn),沖突也可能無法控制。

由于大多數(shù)人工智能技術(shù)具有軍民兩用特性,我們有責(zé)任在這場(chǎng)技術(shù)研發(fā)競(jìng)賽中保持領(lǐng)先。但這也同樣迫使我們?nèi)ダ斫馑木窒扌浴5鹊轿C(jī)來臨才開始討論這些問題就為時(shí)已晚了。一旦在軍事沖突中使用,人工智能技術(shù)的響應(yīng)速度之快,幾乎注定它將以比外交手段更快的速度產(chǎn)生結(jié)果。大國之間必須就網(wǎng)絡(luò)和人工智能武器展開討論,哪怕只是為了形成一套共同的戰(zhàn)略概念話語,以及感知彼此的紅線。

要在最具破壞性的能力上實(shí)現(xiàn)相互制約,絕不能等到悲劇發(fā)生再去亡羊補(bǔ)牢。當(dāng)人類開始在創(chuàng)造新的、不斷演化的、擁有智能的武器方面展開競(jìng)爭(zhēng)時(shí),歷史不會(huì)原諒任何對(duì)此設(shè)限的失敗。在人工智能時(shí)代,對(duì)國家優(yōu)勢(shì)的持久追求,仍須以捍衛(wèi)人類倫理為前提。

? 版權(quán)聲明

相關(guān)文章