ChatGPT技術潛在的政治安全風險
吉磊 李大琨
2022年底,OpenAI 推出了新一代的人工智能大語言模型ChatGPT,成為全球用戶迅速破億的現象級應用。相比傳統人工智能技術,以ChatGPT為代表的大模型表現出強大的語言理解交互能力、多領域内容生成能力、快速進化的湧現能力以及弱人工智能向強人工智能持續邁進的前景,引起了各界的強烈關注。随着智能時代數字世界和物理世界不斷深度融合,持續演進的大模型技術深度嵌入國内和國際的政治、經濟、社會諸領域成為大勢所趨,對這一高歌猛進的技術的潛在政治和安全風險進行思考也日益緊迫。
政治決策面臨新風險
數字時代的公共空間分散化和碎片化問題日益凸顯。大語言模型基于互聯網數據處理和深度學習技術,在未來的政治過程中能夠通過充分彙總信息、确定目标集合、設計合理方案等方式,有力地輔助國家對多元社會進行系統性整合,加強政治決策的便捷性、科學性和包容性。然而,大模型技術增強國家治理能力的同時,也給政治決策帶來一些隐含的風險。
一是政治決策機制重塑。伴随着大模型的普及化與應用化程度的深入,大模型憑借其無與倫比的信息收集處理能力,配合先進的算法,處理信息後給出的決策建議在相當程度上具有整合性和便利性,将不可避免地使某些政策制定者依賴大模型進行政治決策。在這種情況下,大模型實際上已經部分承擔了政策建議甚至政治決策職能。如果政策制定者長期依賴大模型技術而不注重自身政治素養的提高,那麼将不可避免地出現政策創新力匮乏的問題,進而降低整個國家的決策水平。
二是政治決策忽視偏好問題。大模型畢竟隻是一種技術,在收集信息時隻是出于單純的收集目的。盡管大模型處理海量數據資源,且模型靈敏度會依靠日後訓練與數據填補而提升,但政治決策對象畢竟是具備情感偏好的生命體,他們所喜好的政策未必就是最符合程序計算的政策。這就出現了一個極困難的問題——人工智能系統可能始終無法完全理解政治決策對象的情感訴求。因此,大模型依據慣例做出的政治建議或決策存在回應性不足的風險。
三是政治信任降低的風險。大模型深度進入政治生活後,無論是政治決策者抑或是政治訴求表達者均可利用該模型從事政治活動。在這種情況下,由于大模型輸入語言的類人化程度極高,政治決策者難以判斷收到的政治訴求是否出自真正的“人”之口,政治訴求表達者難以判斷收到的政策回應是否真的源于“官員”本人,此時可能出現政治決策者與訴求表達者的雙向信任危機。
輿論傳播面臨新挑戰
大模型作為革命性的人工智能技術,将發揮顯著的社會賦權功能,進一步提升普通民衆在公共議題上的話語權,促進公衆意見的傳播和影響,推動社會群體和社會組織的組織能力提升。但由于大模型對公衆意見和思想強大的影響力,也給國家内部和國際社會的輿論傳播和治理帶來不小的挑戰。
第一,錯誤信息和觀點将潛移默化引導公衆輿論。大模型的算法和數據具有魯棒性、透明度、可解釋性、可靠性欠缺等問題,“大數據+海量參數+大算力”提升了模型的總體拟人表現,但并不是和人一樣理解與思考,有時無法從事實上區分信息的真實性,難以識别數據隐含的偏見和毒性,從而産生虛假的、誤導性的或低質量的結果。這些錯誤和偏見往往會影響人的政治判斷和政治選擇,甚至隐蔽地塑造和誤導公衆輿論,沖擊主流價值和觀念。
第二,大語言模型可能弱化國家闡釋權。闡釋權代表了國家在引導社會輿論、宣揚社會思想方面的權威性,是國家軟實力的重要組成。随着大模型全面嵌入社會并參與某些重大概念與事件的解釋,大模型由于自身的普及性和便利性,可能使社會公衆習慣于第一時間尋求大模型解釋路徑。這種先入為主性疊加大模型輸出系統的高度拟人與完備化,将嚴重削弱官方解釋的說服力,削弱國家闡釋的權威性。
第三,大語言模型淪為意識形态武器。大模型技術在算力、算法、數據等方面的高門檻容易導緻少數國家的技術壟斷,可能被當作意識形态戰争或顔色革命的工具。一國可針對他國公衆心理弱點來供給帶有政治目的與本國意識形态偏好的内容産品,進而影響目标國公衆的政治判斷和政治選擇,間接把控政治走向,對目标國意識形态安全陣地進行隐形滲透。
技術監管面臨新難度
大語言模型廣泛應用後,國家和政府需要應對的數據壓力呈幾何級增長,而且伴随着輸出語言的高度拟人化,想要對這些信息進行真僞分辨極其困難。掌握大語言模型技術的科技公司在社會中的話語權越來越大,使得國家在大模型時代進行數字治理和技術監管的難度大增。
首先,監管需求和監管能力之間存在差距。随着大模型技術的逐漸發展,其輸出錯誤或具備隐晦意識形态宣傳的話語表述,在大多數情況下難以為非專業人士所識别。此外,當ChatGPT等大模型以網絡水軍的方式參與公共事務,并蓄意就某一政治事件輸出具備意識形态色彩的錯誤事實時,龐大的數據體量會造成不小的監管壓力。如果政府部門無法及時對網絡環境進行正确監管,對錯誤信息進行分辨處理,這種由于監管缺口而在公衆間廣泛傳播的錯誤信息可能造成嚴重的意識形态風險。
其次,技術壟斷侵蝕國家治理能力。大語言模型技術的創造、發展和普及都離不開專業的科技企業,特别是科技巨頭。這些企業以委托治理的方式參與國家治理目标的實現。但是大語言模型必需的算法、算力、數據三大數字要素被少數頭部科技企業掌握,先行優勢擴大規模效應,這些企業必然會形成技術壟斷趨勢。走向寡頭化的科技巨無霸依賴算法權力和運作效率,模糊國家的權力邊界,甚至取代國家的部分功能,帶來“國家空心化”的危險。
深刻影響動蕩變革期的國際體系
智能時代國際科技競争日益激烈,科技水平和創新能力是國家權力的核心要素。大模型技術作為人工智能領域的劃時代革新,其發展和擴散對已經進入新的動蕩變革期的國際體系具有深刻影響。
一方面,大模型技術很可能會強化科技政治極化對抗。大模型架構所需的高數據量與技術儲備特質決定其存在被科技大國壟斷的趨勢。在時下激烈的技術競争下,技術大國通常選擇護持已有技術避免對手國獲取,而無力參與大模型架構的技術弱國隻能被迫選邊站隊。部分發達國家近年來通過限制芯片等遏制發展中國家的科技和産業發展的事例表明,國際技術政治的競争性進一步加劇,國際秩序墜入兩極對抗的可能性上升。
另一方面,大模型技術可能會助推價值觀聯盟形成。掌握大模型技術的國家基本上都是發達國家,這種技術霸權加劇了發展中國家對發達國家的技術依賴。同時,由于大模型技術的重要意義,使得發達國家進一步加大了對自身價值優越感的傳播,強化了西方價值觀隐蔽的支配地位,使發達國家更容易利用大模型工具推動價值觀聯盟形成。
(作者單位:華東政法大學政府管理學院)
來源:中國社會科學網-中國社會科學報