欧美成人A片免费|日韩无码一级av|一级黄色大片在线播放|黄片视频在线观看无码|亚洲精品成人无码影视|婷婷五月天视频网站|日韩三级AV在线播放|姓爱av在线婷婷春色五月天|真人全黃色录像免费特黄片|日本无码黄在线观看下载

  • +1

澎湃思想周報|哈貝馬斯反對“哈貝馬斯機器”;戰(zhàn)爭中使用的AI

賈敏,季寺
2026-03-16 13:15
來源:澎湃新聞
? 思想市場 >
聽全文
字號

哈貝馬斯反對“哈貝馬斯機器”

著名德國哲學家哈貝馬斯于當?shù)貢r間2026年3月14日去世,享年96歲。在哈貝馬斯對公共領域的眾多貢獻當中,其與谷歌公司的一段公案尚未得到充分討論。2024年底,美國科技巨頭谷歌的英國人工智能研究部門DeepMind 將其開發(fā)的一款旨在調解和解決沖突的生成式人工智能工具命名為“哈貝馬斯機器”(Habermas Machine),然而《南德意志報》(Süddeutsche Zeitung)2025年4月刊發(fā)的獨家報道“哈貝馬斯對抗谷歌:不要以他的名義(Habermas vs. Google:Not in His Name)”顯示,該項目從未征得哈貝馬斯本人的同意。哈貝馬斯在通過該報獲悉此事后深感不悅,并表示他完全無意為該項目提供授權或支持?!肮愸R斯機器”項目和哈貝馬斯本人的反對態(tài)度對于當下勢不可擋的AI浪潮具有重要的借鑒意義。

著名德國哲學家哈貝馬斯。視覺中國 圖

2024年10月,谷歌DeepMind研究團隊和哈佛大學、耶魯大學、牛津大學學者在頂級學術期刊《科學》(Science)上發(fā)表了一篇題為《人工智能可以幫助人類在民主協(xié)商中找到共識》(AI can help humans find common ground in democratic deliberation)的論文,對“哈貝馬斯機器”項目進行了詳細介紹。這項研究在英文世界引發(fā)了廣泛影響,在當時就被《衛(wèi)報》《麻省理工科技評論》等媒體爭相報道。

“哈貝馬斯機器”的研究團隊在英國招募了5734名參與者,圍繞移民、氣候變化和普惠式托兒服務等議題開展了一系列實驗。參與者首先提交個人觀點,該生成式人工智能模型將這些觀點整合為群體聲明,接著參與者對這些聲明進行排序、提出批評意見,查看同樣由該人工智能模型生成的修訂版本,隨后進行最終排序并選出獲勝方案。為了在更具代表性的群體中評估該模型的有效性,研究人員還通過一個由200名英國參與者組成的虛擬公民大會對該模型進行了測試。這些參與者的選取反映該國的人口結構,并討論了相同的議題。研究發(fā)現(xiàn),在56%的情況下,參與者更傾向于選擇人工智能生成的群體聲明而非由人類撰寫的聲明。人工智能生成的聲明被認為表述更清晰且更能準確反映多數(shù)立場。同時,在體現(xiàn)少數(shù)立場方面,人工智能生成的聲明與人類撰寫的聲明并無顯著差異。此外,人工智能參與調解減少了討論中的群體分歧。這些結果在初步實驗和虛擬公民大會中具有一致性。(參見哈佛大學陳曾熙公共衛(wèi)生學院網(wǎng)站上周刊發(fā)的對上述研究論文的扼要介紹:“Lessons learned: Using AI can help groups find common ground on polarizing topics”)

盡管研究者相信“哈貝馬斯機器”為我們在日益分裂的世界中尋求共識和促進集體行動提供了一種很有前景的工具,但該研究發(fā)表后褒貶不一,也遭到了一些批評。例如倫敦大學學院(UCL)的沖突解決專家梅蘭妮·加爾森博士(Dr Melanie Garson)就告訴《衛(wèi)報》,盡管她自認為一名技術樂觀主義者,但她擔心少數(shù)群體因人數(shù)太少而無法影響這類群體聲明,卻可能不成比例地受到人工智能得出的最終結果的影響。她還指出,“哈貝馬斯機器”并未給參與者提供表達自身感受的機會,因此無法促使他們對持不同觀點者產(chǎn)生共情。在加爾森看來,技術使用的語境至關重要,例如在長期關系當中,調解的目標與其說是達成共識,更重要的在于教導行動,而“哈貝馬斯機器”顯然沒有考慮到這類問題。

開頭提到的《南德意志報》的報道披露,2025年2月中旬,德國記者馬蒂亞斯·普費弗(Matthias Pfeffer)在讀到關于“哈貝馬斯機器”的英文報道后,通過電子郵件聯(lián)系了哈貝馬斯。他在與哈貝馬斯的通信中獲得了一種印象:DeepMind的研究人員——其中包括在牛津大學任教的認知科學家克里斯托弗·薩默菲爾德(Christopher Summerfield)——在未征得哈貝馬斯同意的情況下,擅自對其項目進行了命名。在與哈貝馬斯的交流過程中,普費弗的這一印象得到了證實。時年95歲的哈貝馬斯為其反對立場提供了詳細的哲學論證,其核心觀點是,將人類解決沖突的過程委托給一個技術系統(tǒng),既是不可想象的,也是邏輯上不可能的:“在任何一場話語交流中,每一位參與者都肩負著一項極具挑戰(zhàn)性的任務——即進行敏銳的‘換位思考’。在此過程中,參與者必須參照所有可能受影響的他人的利益與價值取向,來審視自身的利益與價值取向;如有必要,還須據(jù)此做出相應的調整?!?/p>

在哈貝馬斯看來將此類項目和他的名字掛鉤顯然是為了“宣傳造勢”,并且具有“誤導性”。他還為自己因年事已高而無法就此事展開更為深入持久的公開辯論深表遺憾。而谷歌DeepMind快速而恭敬地做出了回應,并表達了深深的歉意。他們聲明當初選用這個名字是出于敬意,如今已充分理解了哈貝馬斯的反對,承諾“未來絕無任何意圖將哈貝馬斯的名字用于任何項目或服務”。

“哈貝馬斯對抗谷歌”發(fā)表后幾日,歐洲文化基金(European Culture Foundation)刊登了一篇題為“公共思想家與私人平臺:哈貝馬斯為何說‘不’”的短文。該文指出,當歐洲最偉大的思想家的名字都能在未經(jīng)其同意的情況下被盜用時,數(shù)字未來需要捍衛(wèi)這一事實便已昭然若揭。這一事件并不僅僅關于一名哲學家,而是有力地提醒我們:歐洲為何必須發(fā)揮引領作用,去構建能夠捍衛(wèi)人類尊嚴、民主價值觀及公共利益的數(shù)字空間。我們要共同致力于構建一個立足于開放、倫理與民主參與的數(shù)字環(huán)境。

戰(zhàn)爭中使用的AI

美國軍方已公開承認,在對伊朗的襲擊中動用了“多種先進的人工智能工具”,這些系統(tǒng)能夠“在數(shù)秒內篩查海量數(shù)據(jù)”。在此背景下,美國眾議院120多名民主黨議員近日致信五角大樓部長皮特·赫格塞斯(Pete Hegseth),要求其說明:在美軍轟炸伊朗南部一所小學、造成大量平民死亡的行動中,人工智能究竟發(fā)揮了什么作用。進步新聞與評論網(wǎng)站Common Dreams上Jake Johnson的文章對此做了詳述。

2026年2月28日,在伊朗米納卜市一所被襲擊的小學,救援人員和當?shù)鼐用裨噲D從廢墟里營救傷員。新華社 圖

由加州民主黨眾議員薩拉·雅各布斯(Sara Jacobs)牽頭的議員們在信中提出,在“史詩狂怒行動”期間,人工智能是否參與了目標選擇、情報評估和法律判斷,如果確有使用,是否經(jīng)過人工審查,以及審查發(fā)生在哪一環(huán)節(jié)。他們還追問,包括Maven Smart System(美軍用于整合情報與輔助識別目標的智能分析系統(tǒng))在內的人工智能系統(tǒng),是否曾將沙賈雷赫·塔伊貝赫學校(Shajareh Tayyebeh School)識別為打擊目標;如果是,是否有人工對目標的準確性進行核實。

這封信發(fā)出的前一天,《紐約時報》報道稱,五角大樓調查人員初步認定,美軍應對伊朗米納卜一所女子學校遭轟炸負責。那次空襲已造成至少175人死亡,其中大多數(shù)是兒童。

總統(tǒng)唐納德·特朗普最初在毫無證據(jù)的情況下試圖將責任歸咎于伊朗,之后又改口稱自己“對此了解得還不夠”,無法判斷應由誰負責。根據(jù)《紐約時報》的說法,這起襲擊源于美軍在目標識別上的失誤:當時美軍正在打擊一處與學校相鄰的伊朗基地,而那棟校舍此前曾是該基地的一部分,因此最終被誤傷。

美國軍方已經(jīng)確認,在這場針對伊朗的戰(zhàn)爭中使用了人工智能工具。這場戰(zhàn)爭是與以色列軍隊協(xié)同進行的,而以軍此前在對加沙地帶的軍事行動中也曾廣泛使用AI。美國中央司令部負責人布拉德·庫珀(Brad Cooper)在一段視頻講話中表示,美軍作戰(zhàn)人員正在使用多種先進AI工具,這些系統(tǒng)能夠在極短時間內處理海量信息,幫助決策者排除干擾,更快作出判斷,并搶在敵方反應之前采取行動。

NBC新聞本周早些時候也報道稱,美軍正在使用數(shù)據(jù)分析公司Palantir的AI系統(tǒng),以識別持續(xù)空襲中的潛在目標。報道指出,Palantir的軟件部分依賴Anthropic公司的Claude AI系統(tǒng),而赫格塞斯正試圖將人工智能置于美國作戰(zhàn)體系的核心位置。

議員們在信中進一步表示,在赫格塞斯執(zhí)掌五角大樓期間,他一直在削弱旨在減少平民傷亡的相關措施,嘲諷所謂“愚蠢的交戰(zhàn)規(guī)則”,并將“最大殺傷力”塑造為美軍的首要目標。在他們看來,正因為赫格塞斯和特朗普公開輕視對美軍的法律約束,美以對伊朗戰(zhàn)爭中出現(xiàn)大規(guī)模平民傷亡,“令人震驚,但并不令人意外”。

Robert Booth和Dan Milmo在《衛(wèi)報》上的文章指出,伊朗戰(zhàn)爭預示著人工智能驅動的轟炸時代即將到來,其速度將超越“思維的速度”。美國軍方借助人工智能制定作戰(zhàn)計劃所展現(xiàn)出的速度與規(guī)模,正引發(fā)外界擔憂:在人類尚未來得及充分判斷之前,機器生成的打擊方案可能已被迅速推進,人工決策在實戰(zhàn)中被進一步壓縮甚至邊緣化。

美國在對伊朗實施打擊時動用人工智能工具,意味著一種新的戰(zhàn)爭形態(tài)正在出現(xiàn)。與傳統(tǒng)戰(zhàn)爭相比,AI正在把從目標識別、情報分析到法律審查、打擊發(fā)起的整個流程大幅壓縮,其速度甚至被形容為快于“思維的速度”。圍繞這一趨勢,學界和倫理研究者日益擔心,人類在關鍵環(huán)節(jié)中可能只剩下形式性的審核角色。

AI模型Claude被認為能夠“縮短殺傷鏈(kill chain)”,也就是壓縮從發(fā)現(xiàn)目標、識別目標、決策批準到批準打擊之間的全過程。此前,美國和以色列已在加沙廣泛使用AI進行目標識別,而在對伊朗的軍事行動中,這一技術的部署顯然又向前推進了一步。

報道顯示,美以兩國僅在開戰(zhàn)后的前12小時內,就對伊朗目標發(fā)動了近900次打擊。在此期間,以色列導彈還殺死了伊朗最高領袖阿亞圖拉·阿里·哈梅內伊。研究人員認為,如此高密度、同步展開的打擊節(jié)奏,正體現(xiàn)出AI參與作戰(zhàn)規(guī)劃后所帶來的規(guī)?;c高速化特征。

學界將這一現(xiàn)象稱為“決策壓縮”(decision compression)。所謂“決策壓縮”,是指復雜軍事行動原本需要較長時間籌劃、審查和協(xié)調,如今卻可能在極短時間內完成。擔憂者指出,在這種節(jié)奏下,軍事專家和法律顧問雖然名義上仍在流程之中,但實際上可能只是對自動生成的打擊方案進行快速確認,難以作出充分、獨立的判斷。

早在2024年,總部位于舊金山的Anthropic就已將其模型部署到美國戰(zhàn)爭部及其他國家安全機構,以提高戰(zhàn)爭規(guī)劃效率。隨后,Claude被納入由軍事科技公司Palantir與五角大樓合作開發(fā)的一套系統(tǒng)之中。按其公開說法,這套系統(tǒng)旨在顯著提升情報分析能力,并為官員決策提供支持。

紐卡斯爾大學政治地理學高級講師、研究“殺傷鏈”的專家克雷格·瓊斯(Craig Jones)表示,AI系統(tǒng)正在直接就“打擊什么目標”提出建議,而這一過程在某種意義上比人類思考還快。他指出,AI帶來的不僅是速度提升,還有打擊規(guī)模的同步擴大:一方面可以實施刺殺式定點清除,另一方面又能同時削弱對方使用空中彈道導彈反擊的能力,而這在以往戰(zhàn)爭中往往需要數(shù)天甚至數(shù)周才能完成。

目前的新一代AI軍事系統(tǒng),已經(jīng)能夠迅速處理關于潛在目標的大量信息來源,包括無人機影像、通信攔截記錄以及人工情報。Palantir的系統(tǒng)據(jù)稱會利用機器學習技術對目標進行識別、排序,并提出武器使用建議,同時結合現(xiàn)有庫存和過往打擊類似目標的效果進行計算。更進一步的是,系統(tǒng)還可以通過自動化推理,對發(fā)動打擊是否具備法律依據(jù)作出評估。

倫敦大學瑪麗女王學院倫理、技術與社會教授戴維·萊斯利(David Leslie)表示,這代表著軍事戰(zhàn)略和軍事技術進入了一個新階段。不過他同時警告,過度依賴AI可能導致所謂“認知卸載”——也就是說,本應由人承擔的思考與判斷工作被轉移給機器,最終使得負責拍板的人對行動后果產(chǎn)生心理上的疏離感,仿佛自己并未真正參與決策。

對于小學被轟炸的事件,聯(lián)合國則將此事定性為“嚴重違反人道主義法”。對于相關報道,美國軍方表示正在展開調查。這類事件也進一步加劇了外界對于AI參與戰(zhàn)爭決策所帶來風險的擔憂。

至于伊朗方面目前在多大程度上將AI嵌入其作戰(zhàn)體系,外界所知仍然有限。伊朗曾在2025年宣稱,其導彈瞄準系統(tǒng)中已使用人工智能,但由于長期受到國際制裁,其AI發(fā)展能力顯然難與美國和中國相提并論??傮w來看,伊朗在這一領域的技術基礎仍相對有限。

值得注意的是,在對伊朗發(fā)動打擊前幾天,美國政府一度表示將把Anthropic從相關系統(tǒng)中移除,原因是該公司拒絕允許其AI被用于全自主武器(fully autonomous weapons)或監(jiān)控美國公民。不過,在徹底淘汰完成之前,Anthropic的模型仍在繼續(xù)使用。與此同時,其競爭對手OpenAI已迅速與五角大樓達成協(xié)議,允許其模型用于軍事目的。

萊斯利指出,AI最大的優(yōu)勢就在于加快決策速度,把原本可能需要幾天甚至幾周完成的規(guī)劃過程壓縮到幾分鐘,甚至幾秒鐘內完成。但問題也恰恰在于此:系統(tǒng)雖然能為人類決策者生成多種選項,卻也讓后者擁有的判斷時間變得更短,能夠進行獨立審查和充分權衡的空間隨之大幅縮小。

英國皇家聯(lián)合軍種研究所研究員普雷拉娜·喬希則(Prerana Joshi)表示,AI在國防系統(tǒng)中的部署范圍正在持續(xù)擴大,應用領域已從前線打擊延伸至后勤、訓練、決策管理和維護等多個方面。她認為,AI的價值在于幫助決策鏈條上的各類人員提高效率和生產(chǎn)率,并以更快速度整合數(shù)據(jù),從而為判斷提供支持。

不過,這種“支持”究竟會不會在實戰(zhàn)中逐步轉化為“替代”,仍是目前最受關注的問題。隨著AI越來越深入地嵌入軍事體系,未來戰(zhàn)爭不僅將變得更快、更密集,也可能變得更難以由人類充分控制。在技術優(yōu)勢與倫理風險之間,新的戰(zhàn)爭時代已經(jīng)顯露輪廓。

同時近日《衛(wèi)報》另一條相關評論表示,戰(zhàn)爭中的AI不只用于打擊,也用于制造認知混亂。Margaret Sullivan的評論談的不是美軍目標識別系統(tǒng),而是這場戰(zhàn)爭中的AI生成假圖、假視頻如何污染信息環(huán)境。

這幾天,社交媒體上充斥著大量看起來“極其真實”的戰(zhàn)爭視頻和圖片:有的視頻顯示伊朗導彈擊中特拉維夫機場,有的畫面則似乎拍到美國士兵被伊朗軍方持槍控制。它們往往制作精良,傳播速度驚人,很容易在第一時間抓住人們的注意力與情緒。

問題在于,這些內容很多并不是真的。它們常常借助當下最先進的人工智能工具生成,表面上幾乎無懈可擊,實際上卻具有極強的誤導性。即使后來有人指出它們是假的,辟謠的力量也常常追不上它們擴散的速度。正如CNN的事實核查記者丹尼爾·戴爾(Daniel Dale)所說,新的偽造內容冒出來的速度,往往比人們揭穿它們的速度還要快。

更麻煩的是,假圖泛濫帶來的后果,不只是“假的越來越多”,還包括“真的也越來越難被相信”。當公眾不斷看到AI偽造的戰(zhàn)爭畫面時,連那些來自可靠新聞機構、真實記錄戰(zhàn)爭現(xiàn)場的照片,也可能被指認為“合成的”、“可疑的”或“經(jīng)過篡改的”。這種氛圍會制造出一種普遍懷疑,讓人對一切視覺證據(jù)都失去信任。

而這種懷疑可能是有害的。在某些情況下,它恰恰成為一種消解現(xiàn)實的方式:戰(zhàn)爭中的死亡、廢墟、流離失所和恐懼,不再被當成真實發(fā)生的災難,而像是互聯(lián)網(wǎng)上另一種可以隨意質疑、隨手滑過的“視覺內容”。當人們開始把戰(zhàn)爭影像視作某種電子游戲式的刺激素材時,現(xiàn)實本身反而被削弱了。

    責任編輯:朱凡
    圖片編輯:張穎
    校對:施鋆
    澎湃新聞報料:021-962866
    澎湃新聞,未經(jīng)授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務許可證:31120170006

            增值電信業(yè)務經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報業(yè)有限公司