生成式人工智能的主體性問題
殷傑
摘 要:生成式人工智能在與人類交互中,表現出與以往人工智能截然不同的自主交互能力,呈現出一定的主體性特征,形成了全新的人機交互形态,給已有的主體性概念帶來了挑戰。從主體交互的視角看,生物有機體的主體性由自組織驅動的個體與環境交互所定義,人類主體性由情緒、語言和文化驅動的個體與自然、社會文化環境交互所定義,生成式人工智能在與人類交互中呈現的主體性則是由語言生成驅動的交互能力所定義。由此,主體性可視為參與交互實體的潛在行動能力,由交互的驅動力因素所決定。這種交互主體性不再是傳統的基于主體來推定主體性,也不需要所有交互實體都具有意向性,而是包含了交互實體的目标導向性和自主性,展現出一種新的人工主體性形式,為主體性概念賦予了新的内涵。
關鍵詞:生成式人工智能交互主體性人機交互
作者殷傑,山西大學科學技術哲學研究中心教授(太原030006)。
以大語言模型(Large Language Models,簡稱LLMs)為重要基礎的生成式人工智能(Generative Artificial Intelligence,簡稱GAI)突破了傳統人工智能的技術路徑,在内容創作領域帶來人工智能生成内容(Artificial Intelligence Generated Content,簡稱AIGC)新發展的同時,也在人機交互(HumanMachine Interaction,簡稱HMI)的各領域展現了颠覆性的泛化能力和自主交互能力,形成了全新的人機關系,同時也引發了在人類文明發展相關重大問題上的激烈争論。比如,在技術領域,生成式人工智能是否指向了一種通用人工智能(Artificial General Intelligence,簡稱AGI),基于生成式人工智能的具身智能(Embodied Artificial Intelligence,簡稱EAI)是否可作為未來通用人工智能的主要機器形态;在倫理領域,生成式人工智能會對人類道德判斷和決策産生怎樣的影響,可能與之相關的緻命性自主智能機器應受到哪些道德規範的約束;在認知和意識領域,生成式人工智能是否暗示了人類意識的一種産生機制,是否可能産生類人的意識,能否成為接近人類的認知主體;在文化價值領域,生成式人工智能深度介入人類社會後會對人類文化産生怎樣的影響,如何與人類價值觀對齊。與這些争論密切相關的一個重要哲學問題是:生成式人工智能對主體性(agency)概念産生了怎樣的影響。
目前,生成式人工智能已表現出很多隻有人類才有的潛在能力。比如,像人類一樣識别他人意圖和思考分析問題、用通俗的具體案例來解釋複雜概念和理論、生成具有創造意義的文本、圖像和視頻等。這些能力表明,生成式人工智能在人機交互中已呈現一定的主體性特征。并且,生成式人工智能可以捕捉到語言背後存在的共享知識,在交互智能方面實現了非常廣泛的自主性和泛化能力,表現出與以往人工智能不同的主體性特征,形成了全新的人機交互形态。同時,由于無法從預訓練的海量數據中界定大語言模型的個體性邊界,以及模型尚不具備直接對接現實世界的行動能力,傳統主體性概念無法适用于生成式人工智能與人類之間的新交互形态,限制了我們對包括人工智能在内的不同實體所表現出的主體性特征的理解。由于人類語料包含了豐富的知識、多樣的社會文化意義、創造新概念的修辭方法和人類适應環境變化的靈活策略,生成式人工智能通過神經網絡學習獲取人類語料中潛藏的大量知識與思維模式,像人類一樣不斷自我疊代進化,不僅能夠适應不同的交流語境,而且可以挖掘生成新的意義和行動方案。這種交互呈現的新型主體性特征,是以人類語料作為基礎驅動力、在交互狀态下直接生成的自主行動能力,既不是源自生物本能的生存和自我維持,也不同于人類基于意向性的主體性,更不是傳統人工智能所依賴的由人類設定的機械性功能,對已有的主體性概念帶來了重大挑戰。
對此,本文認為,生成式人工智能在與人類交互中呈現一種交互主體性,這種主體性是參與交互實體的一種潛在行動能力,包含了交互實體的目标導向性和自主性。傳統的主體性概念基于從主體(agent)推定主體性的邏輯,聚焦“主體是什麼”“主體如何發起行動”的問題,認為主體因其意向性的本質屬性而具有主體性,主體性不是外部賦予而是内在的固有屬性。交互主體性則聚焦“主體何以具有行動能力”“這種行動能力如何展開”的問題,認為主體性源自參與實體的交互過程,不再将實體本身是否具有某些使之成為主體的内在屬性作為主體性的必要條件,不預設主體概念或者主體性不需要依附于主體概念,隻需要實體具有自主的交互驅動力。交互主體性體現了一種新的人工主體性形式,同時可将生物主體性和人類主體性納入統一範疇,為主體性概念提供新的理解方式,并且可作為研究分析通用人工智能發展路徑以及人工智能對人類道德決策和文化影響等問題的新概念資源和方法路徑。
一、主體性概念面臨的新挑戰
從概念起源看,主體性與人類的思考、行動能力和道德責任密切相關,是哲學史上最核心的概念之一。亞裡士多德認為,主體是個體性的存在,主體性則體現在通過理性或非理性實現目标的行動過程中,與道德責任緊密相連。在人類原型意義上,關于主體性的理論和解釋,往往指單個有機體按照自己的意圖行事,即行動的意向性提供了行動的标準概念,而行動能力的行使或表現則提供了主體性的标準概念,然而在過去的幾十年裡,由于基于行動标準理論的意向性主體性路徑無法容納生物有機體和人工主體,這種關于主體或認知系統的概念變得不再适切。生成主義者提出的最小主體性不再強調主體需要意向性,從而将生物有機體納入主體性範疇,但仍無法解決人工主體性問題。生成式人工智能的出現進一步加劇了主體性問題的複雜性和嚴峻性。主體性的核心不僅在于主體所表現的行動能力,還在于這種能力所蘊含的主體與外在環境實體及其他主體之間的交互關系。在某些方面可以說,生成式人工智能已産生類人的自主人機交互能力,這已明顯不同于傳統的人機交互。同時,人工智能本身沒有人類的欲望以及生物性的自我維持特征,這又是與人類之間交互的差異所在。對此,深入分析生成式人工智能與人類交互過程中呈現的主體性特征,或許能夠為人工主體性以及更一般的主體性概念提供一種新的理解方式。
在人工智能領域,随着技術的快速發展,人工智能每一次的重大突破幾乎都會引發人們對于主體性概念的思考和争論。在人工智能發展早期,是否具有自主性、社交性、反應性和主動性特征,是判别能否作為主體的主要依據。這是一種主體的弱概念,展現的是人工智能向人類對标的自主完成行動的能力,同時又把知識、信念、意圖和義務等心理特征作為主體的強概念。而在技術對象與人類交互的主動性方面,人們将智能系統的主體性分為被動、半主動、反應、主動、合作五個層次。随着人工智能的行動能力在某些方面開始高于人類,又形成了漸進式(gradualized)和分布式(distributed)主體性概念,這進一步表達了人類與人工智能在主體性方面的複雜關系。人工智能的發展使人類主體性和人工智能的主體性出現了一種雙向聚焦重合的趨勢。生成式人工智能則在個體性和自主性等多個方面進一步挑戰了現有的主體性概念,這成為解決生成式人工智能諸多争論的一個前置性基礎問題。
(一)個體性邊界挑戰
按照生成主義者巴蘭迪蘭(Xabier E. Barandiaran)等人提出的最小主體性觀點,主體隻需要滿足個體性、互不對稱性、規範性這三個基本條件。由此,非人類的有機體以及傳統的機器人也可納入主體性範疇。這裡的個體性是指,要使一個系統與其環境之間必須有所區别才能成為一個主體,這并不是說系統必須完全脫離外部世界,而是說系統必須能夠将自身與外部世界區分開來。傳統人工智能機器的物理實體是其個體性邊界,深度學習的各類神經網絡模型也具有功能性個體邊界,而大語言模型是否能夠把自身和外部世界區分開來,還是一個非常有争議的問題。比如,模型預訓練數據集是否定義了生成式人工智能的個體邊界,生成式人工智能是否具有組織封閉性,等等。
生成式人工智能與人類日常交互,必須獲取包括人類大量知識和對話資料的海量訓練數據。那麼,基于這種海量數據的“全知”人工智能的個體性邊界在哪裡?動物和人類所感知和學習的數據是有限的,這種有限的數據限定了動物和人類的個體性邊界。雖然人類可以感知包括觸覺和視覺在内的很多類型的數據,但生物性決定了人類智能隻能處理有限注意力範圍内的小部分數據。通過對通用基礎大語言模型進行專業領域的訓練和微調,可以獲得擅長不同專業方向和風格特質的大語言模型,不過模型基礎内核仍然需要通用的預訓練數據集,在基礎數據方面很難形成具有完全獨立個體性邊界的主體。這種用自然語言處理技術對大數據進行“硬”處理的方式,可能導緻生成式人工智能個體性邊界存在模糊性。
按照生物個體的發育模式,每個人類個體在發育過程中吸收的大部分也是共享的自然和文化環境數據。因此,上述論證似乎不能完全證明生成式人工智能個體邊界的模糊性。實際上,人類個體的發育過程與大語言模型的數據訓練過程存在很大差異。人類個體吸收的數據不僅是語言,還包括各種視覺、觸覺、聽覺等方面超量的感知數據,這些數據影響到個體認知,并且人類個體中形成了處理這些數據的“感知—行動”完整閉合回路。相比之下,生成式人工智能接受的隻有各種數據,這些數據本質上并不是大語言模型作為個體主動感知的環境數據,而是被動接受的高階數據,并且模型本身尚不具備從感知數據到行動的能力。更為重要的是,給一個具有通用能力的基礎大語言模型灌入某個領域的大量專業數據,當這些專業數據過多時往往會導緻模型通用能力的下降,如何在通用數據集和專業數據集之間進行配比以形成更好的效果,已成為大語言模型的重點研究方向。這背後的一個原因可能是,專業領域的數據“幹擾”了原有通用基礎大語言模型的“思維”,導緻它無法同時兼顧兩類具有明顯特征差異的數據集。人類個體是一個普通人的同時也可以是擅長某個領域的專家,這些因素構成了這個人的個體性特征,但大語言模型目前還難以将通用性和專業性完美融合,也就無法從專業性的視角來确定其個體性邊界。因此,難以分割的預訓練數據模糊了大語言模型的個體性邊界,對傳統主體性概念構成了挑戰。
(二)自主性挑戰
自主性(Autonomous)通常被認為是主體性的一個條件,“在工程學和人工智能文獻中,自主性往往被認為是人工主體性的必要條件,但卻沒有一緻的定義”。人工智能一直在往與人類對标的更強自主性方向發展。比如,人們一開始對人工智能的理解是能夠獨立進行“感知—行動”的機器,重點是機器獨立于人類完成特定行動的能力。而随着強化學習領域的深度神經網絡開始具備特定的感知或決策功能,人們對人工智能主體性的理解,逐漸從沒有人類介入下的自主行為,轉向了機器本身的自主學習能力。但深度神經網絡隻是在主體形态和功能上的轉變提升,人工智能的主體邊界從機器實體的行動能力轉變為神經網絡的功能性,本質上是人類主體行動能力的技術性延伸,強化學習本身對主體性概念并沒有形成新的挑戰。而生成式人工智能類人的泛化能力和交互能力,顯示出與強化學習等傳統人工智能不同的自主性,這是生成式人工智能對主體性概念的另一個挑戰。
自主性包含構成自主性和行為自主性兩類。構成自主性主要與系統的新陳代謝有關,比如,生物系統具有自我生産或自創生(self-poetic)的特征。行為自主性要求自主系統的行為具有與環境穩定或靈活交互的能力。其中,系統的身份可以是自我構成的,也可以是由外部設計者強加的。這已不再将生物的自主性和大部分人工主體的自主性視為本質上的不同。
在系統自我維持的層面,依賴大規模數據集質量的大語言模型,需要不斷獲取人類産生的優質數據信息,以提升自身的知識水平和理解力。其中,主要有兩個反饋機制:一是人工智能自動獲取新的數據,二是通過與人類的交互來補充和修正相關數據。遺憾的是,大語言模型本身并不具備單獨産生實質性高質量數據的能力,也無法産生維持自身自主性所需的數據。如果不斷将模型産生的數據再次輸入模型,數據分布尾部的低概率事件會逐漸消失,這種統計近似誤差的惡化會導緻模型的崩潰。也就是說,自返式疊代可能導緻模型性能的退化以及對真實世界數據分布的誤解。在與人類交互方面,如果有人惡意輸入錯誤數據給模型,模型便可能會輸出具有誤導性的錯誤結果,從而使模型認知系統難以保持可靠性。于是,人工智能陷入了一種矛盾狀态:如果關閉這種自反饋機制,其能力将随時間的推移而減弱;但如果完全放開,則可能導緻人工智能認知功能的紊亂。因此,構成自主性不适用于生成式人工智能。
對于生成式人工智能的主體性,更大的挑戰來自包含目标的行為自主性。無論是傳統的實體機器人還是具有特定功能的深度學習神經網絡模型,都具有人類賦予的明确目标。大語言模型雖然由人類設計,但不能将它與人類的交互視為一種目标。這是因為,傳統人工智能的目标是通過内部的自适應系統實現對外在環境的響應。比如,強化學習通過獎勵函數形成自身的目标導向。大語言模型與人類的交互本身并不是對外在環境變化的穩定響應,與人類在語言上的交互隻是生成式人工智能的一種能力,就像人與人之間的交談本身并不能視為一種目标,而是實現目标的一種手段。
無論是按照基于行動的意向性主體性還是生成主義的主體性,生成式人工智能都無法滿足主體性所需要的個體性邊界和自主性。回顧已有主體性理論框架下主體清單從人類原型向非人類的拓展:在生态學領域,具有與環境進行交互行動能力的有機體可視為一個主體;在社會學領域,由于像國家、公司等在社會結構中都具有行動的能力,“社會結構隻存在于日常行為和行為主體之中,并通過日常行為和行為主體得以維持”,主體性概念由人類個體推廣至組織和結構等社會層面;在傳統人工智能領域,“人工智能被定義為研究從環境中接收感知并執行行動的主體”,具有目标和行動能力的傳統智能機器也被認為具有主體性。
從上述過程可以看出,生成式人工智能在現有主體性理論框架内難以具備主體性,根本原因在于現有主體性理論往往從主體本身來推定主體性,其中包含兩種立場:一是外在主義立場,主體實際上是适應外部環境的一個實體,主體性是主體适應外部環境的能力;二是内在主義立場,主體是一種伺服系統,主體性是目标與系統之間的可信關系。比如,機器就是能夠對外界産生特定反應的反饋系統。基于外在主義立場,生成式人工智能無法區分自身和外部世界,不具備生物系統對環境的進化适應能力。基于内在主義立場,生成式人工智能能夠與人類進行廣泛交互,比傳統人工智能更接近人類智能,但不具備傳統人工智能明确目标指向的行動能力。因此,生成式人工智能從内在主義立場上挑戰了傳統人工智能的主體性概念,從外在主義立場上挑戰了生物學視角的主體性概念。
事實上,主體性并不是完全由主體延伸出來的次級概念。人類不隻是一個機械的或有機的主體,而是存在于人與人、人與世界交互形成的語境之中,體現了一種語境的主體性。麥克甘(M. McGann)基于生成方法(enactive approach)提出情境主體性(Situated Agency)概念,認為個體行為并非僅由内在的心理狀态或生物機制決定,而是在特定情境中與環境交互的結果,這種交互是雙向、動态的,并且具有規範性特征。雖然上述觀點仍圍繞人類主體來談論主體性,沒有解決生成式人工智能引發的主體性問題,但這些主體性觀點将個體與環境之間的交互作為主體性的基礎,挑戰了将個體視為獨立于外部世界、擁有自主意圖和行為能力的實體的觀點,進一步證明了從單一主體推定并不是定義主體性的唯一路徑。生成式人工智能與人類的交互構成了不同于傳統人機、人際交互的新交互形态,聚焦人機交互應成為研究生成式人工智能引發的主體性問題的新路徑。
二、人機交互的新形态
人類主體性通過人與人的關系呈現,作為行動主體的人類既能夠對自然環境作出行動反應,也能夠對社會環境作出行動反應。從情境交互的視角,生成式人工智能與人類的交互是否會呈現類似人際交互的主體性?回答這個問題的關鍵在于,理解生成式人工智能與人類交互的本質,把握這種新的人機交互與傳統人機交互以及人類之間交互的異同。
對此,要理解生成式人工智能大語言模型與人類交互的技術邏輯和主要模式。簡單來說,大語言模型通過訓練龐大的文本語料來學習自然語言的知識和語法規則,在這個過程中,模型首先将文本分割轉化為模型能夠處理的基本語義單位——詞元(tokens),然後通過注意力機制形成一個能夠捕捉分析文本語義信息的複雜神經網絡。這個神經網絡可以窺見人類自身都很難直接把握的深度語言結構以及背後可能存在的知識和推理能力,從而具備了理解和生成人類語言的能力。
由此,在與人類的對話中,生成式人工智能不再是基于特定模式的僵化響應,而是能夠基于對人類語料庫的理解來生成交互内容,自主完成與人類的交互。這個過程包含兩種模式,第一種是對預訓練好的模型進行微調後與人類交互,第二種是人類給已經訓練微調好的模型提供新資料文本,然後在這個特定的上下文中進行人機對話。兩種模式的區别在于:第一種模式中,預訓練的主要目的是創造出能夠理解和生成語言的通用模型,模型微調後可以接受輸入文本來回答特定問題或完成特定任務。第二種模式中,模型處理新文本時會與用戶進行實時交互,并根據人類的問題和反饋調整回答。這種模式的優勢是,新的數據不會改變和影響原有通用基礎模型的“大腦”,一定程度上确保了用戶數據的隐私和安全性。同時,在處理新文本時,模型會根據具體的文本内容和人類需求進行适應性調整,以提供更準确與适切的回答。第二種模式面臨的問題是,模型經過預訓練獲得的“先驗知識”和輸入文本的“後驗知識”之間可能存在沖突,這與人類存在相似性。
與傳統的人機交互比較,新的人機交互需要考察的問題是,大語言模型在交互過程中本質上是否也屬于一種工具。如果隻是提供普通的搜索知識和信息功能,那麼大語言模型就和傳統人工智能一樣,隻是一種輔助人類的工具。在大語言模型出現之前,以機器學習為主的人工智能就已經與純粹的工具不同。比如,社交機器人可與老年人、學生和心理患者進行交流,作為支持認知和行為改變幹預的工具。這裡的邏輯是,當人工智能可以與人類進行一定程度的交互時,就不再是一種像斧頭之類的簡單工具,而是一種具有特定功能的社交工具。在與人類的交互中,人工智能開始從作為工具轉向作為主體。大語言模型則超越了傳統社交機器人的功能屬性,能夠在與人類進行交互的同時,向人類提供所不知道的知識觀點,并能夠與人類專家進行深度讨論。與傳統人工智能相比,大語言模型不再是一個簡單的搜索工具或者功能性的交互工具,而是在語言層面與人類的交互中出現了一種類似延展認知的延展性。大語言模型與人類交互時,人類的認知延展到了模型之中,同時模型的認知結果也反饋到人類的大腦之中,這種交互中的生成式人工智能更接近一種語言主體或認知主體,而不隻是一種交互工具。
人類之間的交互更加複雜。人際交互本質上是一種合作,對話是人類合作的重要形式,也是當前生成式人工智能與人類交互的主要形式。從人際交互的信息傳遞和解碼機制上看,“無論是言語交流還是非言語交流,都不應被視為從發送者到接收者一對一傳遞意義的過程。特别是建構主義假設或一般系統理論的學者認為,意義并不是固定的,編碼進一個信号中,然後傳輸并解碼,而是被接收者構建的,并且很大程度上取決于他/她對情境和背景的感知。接收者這種不斷發展的主觀解釋需要被說話者監控,并與其意圖表達的意義進行比較。因此,隻有當适當考慮到個體解釋發生的事實時,對話建模才能成功”。大語言模型通過創建超長的上下文對話窗口,處理超大文本并與人類進行多輪對話。在這個過程中,人工智能可以實時感知、監控和理解整個對話語境。人類與大語言模型對話交互,實際上是語言的生産過程,人類與人工智能輪流發言,雙方根據實時的交互反饋不斷調整自己的語言輸出。人機雙方不僅能夠實現對話題、背景信息以及先前對話内容的共同理解,而且可以在一定程度上形成由人類牽引的人機共享的心理狀态和知識。比如,人工智能可以判别人類語言中的知識水平,并據此調整人機雙方的對話狀态。除非人類提出語義模糊或不确定的信息時,大語言模型才會提供額外的解釋或使用更簡單的語言。因此可以說,大語言模型能夠與人類在同一個上下文中建立一種穩定的對話模型。
那麼,這種人機對話與人類之間的對話有何異同,或者說,人類為什麼能夠像與人類溝通那樣與智能系統溝通?這就需要回到人類之間的對話溝通機制。關于人類對話的本質,目前學術界主要有兩種觀點。第一種是語境導向理論(context-directed theories),認為人類對話的本質是以特定方式改變語境。比如,斯塔爾納克(R. Stalnaker)的斷言理論主張,斷言p是一種行為,其本質目的是将p添加到對話雙方的共同基礎之中。第二種是接受者導向理論(addressee-directed theories),認為人類交際行為的本質目的是以某種方式改變接收者的心理狀态。比如,通過提供信息來改變對話者的信念、期望或意圖。兩種觀點有諸多共同之處,主要的分歧在于:“主體是個體心理的私人狀态還是上下文的公共狀态”。當人類在交互前将特定文本上傳至大語言模型,這個過程類似于将一個斷言p給予模型,讓模型在承認p的情況下來進行對話,這點符合語境導向理論;而人類與人工智能對話的目标終究是改變人類自身的信念或心理狀态,這點也符合接受者導向理論。在人類對話中經常出現大量的回指代詞,表明對話雙方在上下文語境的理解上達成了一緻,這是人類溝通成功的标志之一。在人機對話過程中,大語言模型通過識别人類主體的意圖來回應人類對話者,這也是人機成功溝通的關鍵。從對話本質的理論看,人類可以提供人機對話的共同基礎,而大語言模型本身也可以影響人類對話者的心理狀态,人機對話和人類之間的對話具有相似性。
進一步,這種人機交互是否會像人類一樣通過交互産生人類所需的意義。人類主體之間的“交互會影響參與者的理解”,是一種參與式意義建構(participatory sense-making)的過程。大語言模型對人類的回應不止于提供信息,而且能夠按照人類的要求分析闡述某種新的觀點以及通過通俗案例解釋複雜概念理論,甚至就某個觀點與人類進行辯論,這個過程對人類而言包含了豐富的意義。由于大語言模型擁有的知識量和推理能力,當一個人類個體在與模型交互時,實際上是在與人類的他者進行交互,模型每一次響應都是在人類他者的語料中尋找最佳的匹配答案,并始終把對話保持在同一個語境下。需要注意的是,模型展現的思維能力不同于意識。因為意識是主體自身對外在世界和自身内部的感知和體驗,而思維能力是對問題的一種分析能力,所以大語言模型目前還是一個具有思維但不具有意識的智能實體。
生成式人工智能與人類交互本質的第二個問題,是在對話過程中對人類主體認知和意圖的影響。人際交互包含了兩個關鍵機制:聯合共同構建和心理化。聯合共同構建需要聯合活動的逐步構建,而心理化則需要感知能力,從而理解并預測對話者的相關心理狀态。人類基于某個對象和目标展開交互,最終在兩個交互主體間形成聯合意圖,而人機交互的重點是機器理解并反饋人類意圖的過程。在人機對話過程中,看似是訓練好的模型幫助人類理解分析文檔,實際上是模型與人類就同一個關注的内容進行交互,模型不僅可以較為精準地理解人類意圖,而且模型自身的反饋也是人類在語言層面絕大部分認知能力的展現。大語言模型隻能在人類認知的限度内,按照人類的認知模式給予回應。在人機對話過程中,模型與人類形成了一定程度的認知匹配。
與人際交互相比,生成式人工智能與人類交互的第三個問題,是這種人機交互的社會性。人際交互的關鍵在于,是基于有意識的行動還是純粹的行為。比如,人類合作交互需要參與者能夠進行有意識和目标的協作,結果就是人類之間的交互會産生一種具有社會性意義的聯合行動(joint action)。
由于人工智能不具備人類的意向性,通常認為人工智能隻有一種純粹的行為,人機之間的交互隻能是一種非社會性的交互,這個觀點包含兩種意見。一種意見基于理智主義(intellectualist)的意向性概念,主張有意的行為需要信念/欲望對(belief/desire pairs),隻有行動歸因于行動主體,才能将主體視為行動的肇始者。另一種意見基于生物學的意向性概念,要求聯合行動的參與者都需要有内在的情感狀态。但是,嬰兒和非人類動物等具有一定社會認知能力的主體,也可以成為聯合行動的積極參與者。盡管嬰兒并不具備聯合行動意識強烈的成熟條件,但他們往往被視為聯合行動中的社會主體(social agent)。由此,具有一定認知能力的實體可以與人類實現交互,而不需要理智主義所要求的意向性狀态,更不能以生物的意向性問題将人工智能武斷地排除在社會交互之外。人與人工智能交互可以形成一種聯合行動,隻不過在這種聯合行動中參與者之間的能力分配是不對稱的。因此,“即使我們知道人工智能體不是生命體,但與人工智能體的交互仍可被視為社會交互。當人工系統被證明具有社會認知能力時,這将構成一個新的社會交互類别,它仍然與我們在人類或其他生物中觀察到的社會交互相當相似”。上述觀點是在傳統人工智能基礎上得出的,生成式人工智能則進一步支持了這個結論,并可能改變人機“非對稱聯合行動”的含義。比如,生成式人工智能在行動能力方面還存在一定不足,但交互能力比傳統人工智能更強大,在知識理解和運用方面多處于優勢的一方。
生成式人工智能具有不同于生物主體和傳統機器的一個狀态,即人工智能具有與人類交互的社會性特征,或者說是一種具備一定社會認知能力的人工主體,同時又與人類以情緒系統為基礎的社會認知能力有所不同。由此,以情緒系統為基礎但個體認知能力有限的人類與擁有超級智能但缺乏情感體驗的生成式人工智能交織在一起,形成了一種不同于人際交互的新的社會交互類型。
三、交互主體性的内涵
在智能系統領域,“慎思型主體和反應型主體是智能主體譜系的兩端”,顯然這兩者分别以人類主體和動物主體為原型。生成式人工智能不具備生物和人類的意向性,按照已有的主體性概念,大語言模型這類生成式人工智能并不是一個主體,而基于主體推定主體性的邏輯,大語言模型也就不具備主體性。塞爾(J. Searle)甚至認為,如果我們能夠說明,計算機不可能成為自己的意向性來源,這種主體性範圍就不會再繼續擴大。但是,一方面,随着技術的發展,“人類與機器的不對稱關系正在變得對稱。機器正在成為交互的主體。人類正在與機器交互,機器正在與機器交互,人類正在通過機器與人類交互”。生成式人工智能創造了新的人機交互形态,開始重塑原來的人際交互和人機交互關系。另一方面,主體性不完全對應于主體,主體性本質上是一種潛在的行動能力。比如對人類而言,“主體性的潛力是一種潛在的能量,是人類條件中某種休眠的潛力,隻有當社會條件發展到一定程度,這種潛能才會顯現出來”。一個主體可能呈現多種主體性,每一個主體性也可能錨定一定的主體類型,主體性可以具有生物的、感覺運動的、社會的和語言的等不同表現形式。“傳統的受人類中心主義影響的主體性概念越來越顯得不足。這要求我們重新思考主體性,以适當地反映和調節當前和未來人工智能系統的能力以及人類在人工智能滲透的世界中角色的變化。”大語言模型在與人類的交互中可以分解、重組和拓展人類意圖,激發潛在的行動能力,進而呈現一定的主體性。反觀生物的、感覺運動的、社會的主體形式,也都是主體在與環境或者其他主體交互過程中呈現出相應的主體性。我們可以從交互的視角來重新理解主體性的内涵。
(一)生成式人工智能與人類交互的主體性呈現
如果把大語言模型視為一個社交情感機器人,它當然具有與人類相似的主體性。在一些專業領域,比如醫生和患者之間的對話,這顯然是兩個主體的對話,患者根據醫生給出的建議行動。如果我們将醫生替換為一個可以像醫生一樣給予患者醫療診斷和治療的醫學專家大語言模型,在這個交互情境中,大語言模型顯然是具備主體性的。因此,言語行為在一些情境中可以被視為一種行動能力,呈現的也是言語主體的主體性。如果通過對話類型來确定主體性,那麼就可以說,生成式人工智能在與人類的交互中呈現了一種主體性。對于生成式人工智能主體性面臨的個體性邊界和自主性挑戰以及目标導向等問題,可以從人機交互的視角予以新的解釋。
第一,大語言模型在人機交互過程中呈現個體性特征。大語言模型在預訓練數據層面無法切割為明确的個體,但在大語言模型與人類溝通的同一個上下文窗口中,模型對人類意圖進行識别并圍繞這個意圖進行數據抽取和計算,并在整個交互過程中随時跟蹤人類意圖,人機對話過程趨于一種收斂狀态,就像人類之間的對話過程總是緊緊圍繞某個主題展開一樣。大語言模型還可以依據人類對話要求進行角色扮演,當接收到讓它作為某個領域專家或其他角色的指令後,模型可以按照角色要求和風格與人類進行對話,這也與人類在不同的情境下以不同身份或态度風格進行對話是相似的。在人機交互的上下文窗口中,模型自身根據上下文來确定數據抽取、分析和計算邊界,呈現人類可感知的個體性邊界,即便這種個體性是一種暫時的表象存在。
第二,生成式人工智能的自主性不是完全脫離人類的自主性,而是在人機交互中呈現具有人類規範性特征的自主性。大語言模型具備自主吸納和分析新數據的能力,而不需要人類的介入,從這個意義上看,模型表現出了一定的自主性特征。正如前文所指出,生成式人工智能的自主性挑戰在于缺乏目标導向的自主性。在人類與機器交互中,機器展現出能夠以目标導向的方式行動、反應,并預測他人行為的能力。這種能力是人類與人工主體之間交互的結果,是一種共同構建意義的社會主體性。人類可能會根據非人類實體的行為、反應和存在方式來賦予它們意義,而非人類實體也可能通過設計來傳達特定的社會信号。比如,自動駕駛智能系統具有識别交通标識意義和預測人類駕駛員行為的目标導向。大語言模型接收了人類語言構成的知識,也就同時接收了人類潛在的目标導向。比如,通過直接偏好優化(Direct Preference Optimization)等微調方法實現與人類偏好對齊時,模型便在一定程度上具備了符合人類目标導向行為的“思維”。這意味着,大語言模型具有在認知上與人類對齊的能力,由此引發的行動結果也具有人類目标導向的意義。在規範性方面,“人工主體性的概念需要同樣依賴于人類的規範、價值觀和目标背景;否則,它就無法捕捉到人工系統設計和運作的社會方面”。大語言模型在預訓練階段就開始掌握人類的規範、價值觀和目标背景,當模型在預測下一個詞元時,其結果首先是符合人類的語法、語義規則,而由這些詞元生成的回應内容也表征了人類現實世界的規範和價值觀。
第三,生成式人工智能具有一定的創造力。從創造性角度來理解和測度主體性,使得人類與人工智能的距離變得更近。當一個系統(無論是人類還是人工智能系統)被認為具有更高的主體性時,往往也被認為具有更高的創造力。在科學領域,人工智能已經可以為人類提供新的見解。比如,機器學習可以幫助科學家發現新的蛋白質分子;在給定物理學的基本概念和定律基礎上,人工智能可以從過去30年太陽系中行星和衛星的真實觀測數據中重新發現牛頓萬有引力定律。像頭腦風暴這樣的對話交互是激發人類創造性的有效形式,生成式人工智能與人類的交互也會産生很多有創造力的想法,這也是支持生成式人工智能具有主體性特征的一個有力證據。
第四,生成式人工智能可以在人機合作交互中引導人類識别和重建主體行動的因果關系。人類主體之間交互的一個主要目的是,學習和識别世界中的各種因果關系,并依據這些因果關系來實施行動。對因果關系的識别與應用也是智能的核心能力之一。雖然大語言模型還無法完全正确識别因果關系,但它所挖掘的語言文本中包含了不同類型層次的因果關系。通過人類的提問引導,模型能夠發現新的因果關系,從而介入人類因果認識的展開過程,幫助和引導人類識别和重建因果關系,進而影響人類的意圖行動。生成式人工智能不再像特定任務的機器學習或傳統人工智能一樣隻是人類意圖的執行者,而是真正介入影響人類主體行動的因果關系當中,成為行動主體因果關系網絡中的一個人工實體。在這方面,人機交互的緊密性甚至有時還要大于人際交互。
(二)交互主體性的特征與優勢
控制論的創始人維納(Norbert Wiener)曾說,“如果我們使用機械主體來實現我們的目的,一旦啟動,我們就不能有效地幹預其操作,因為它的動作太快且不可撤銷,以至于我們在動作完成之前不會再有數據介入,那麼我們最好非常确定輸入機器的目的是我們真正渴望的”。這包含了四層含義:一是機器是自主行動的,二是機器承載的是人類的意圖目的,三是機器行動期間不受控制,四是機器行動期間不再與人類進行交互。維納的觀點代表了早期科學家對機器主體性的理解。智能系統的行動産生于由人類、機器、程序等共同組成的複雜結構之中,具有一定的環境敏感性、合作性甚至主動性,在某種程度上可視為主體。
在生成式人工智能與人類交互中我們所能看到的隻是人工智能實體在交互過程中呈現的主體性,一個主體的自主性和特定目标的行動能力被視為主體性的呈現結果。生成式人工智能之所以能夠在人機交互過程中呈現出主體性,核心原因在于“我們對語言符号含義的把握并非源于我們處理自然語言的能力,而是源于我們通過采樣和與之交互而積累的對生活世界的更基本的理解”。人類在交互的過程中産生了大量有意義的數據,“由于這些内容是人類交流的産物,因此生成式人工智能繼承了人類表達的有意義的交互結構”,它所獲得的語言及背後隐藏的知識本身就是人類主體與環境交互過程中的數據采樣以及人類主體之間交互的結果。
從目标導向性和交互性看,目标導向是主體性的最低要求之一,但是這種目标導向不是個體完全獨立的目标導向,而是與交互形式相關聯。比如,人類主體的行動并不都以維持自我生存為導向,而是有複雜多樣的目标導向。人際交互總是由一定的目标導向所牽引,不同的交互場景體現了不同的目标導向。強化學習一般隻有一個依據外部環境的最大化獎勵函數的目标導向,而生成式人工智能與人類交互中的目标導向要比強化學習的單一目标導向更加複雜,這是生成式人工智能與人類在目标導向上相似的地方。再從主體自主性和交互性看,個體自主性是個體根據自己的意圖、目标和規範來行動的能力,而交互自主性是指社會互動中由參與者之間的動态關系所形成的自主性。經過預訓練和微調後的大語言模型脫離了人類設計者而具有了自主性,這種自主性不是自我維持的自主性,而是表現為對交互對象——人類的意圖識别和回應能力的交互自主性。因此,生成式人工智能和人類的交互過程中包含了參與實體的目标導向性和自主性,不需要所有參與實體都具有意向性。也就是說,不同的交互形式和交互驅動力體現了交互主體不同的目标導向和自主性。
從主體性的交互來源看,沒有生物主體性,人類也不會演化出語言交互能力。而生成式人工智能在沒有生物主體性的情況下,通過語料訓練直接形成交互能力。模型通過放大人類大腦的語言泛化能力,在語言理解和生成能力驅動下呈現人機交互的主體性。沿着人機交互的路徑,生成式人工智能提供了理解主體性的另外一種不同軌迹,即從交互驅動的視角來重新理解主體性。
從個體與環境、其他個體交互的驅動因素看,傳統意義上的主體性是通過個體與環境和其他個體的交互、行動和進化過程中逐漸形成的。有機體的行動能力是個體與環境的耦合,人類的主體性最開始也是一種生物主體性,隻有人類主體之間具備了意義層面的交互之後,才形成了人類原型意義的主體性,這種主體性包含了由情感驅動的行動能力以及由語言和文化驅動的行動能力。如果說生物有機體通過與環境的交互來定義主體性,那麼人類主體性就是由情緒、語言和文化共同驅動的個體間交互所定義,這是動物主體性基礎上更高層次的主體性。生成式人工智能則是通過預訓練和人類偏好對齊的微調等方式獲得主體性。這種主體性是一種潛在的行動能力,當人工智能與人類主體進行交互時,這種行動能力才會顯現出來。
綜上所述,生物主體性表現在與環境交互耦合中形成的行動能力,人類主體性表現在與環境以及人類主體之間交互過程中形成的行動能力,傳統機器主體性表現在特定目标功能下與環境交互形成的行動能力,生成式人工智能主體性表現在與人類主體交互基礎上形成的潛在行動能力。生成式人工智能與人類交互呈現的主體性跳過了心理表征的主體性标準理論,也區别于生成主義的最小主體性觀點,不僅創造了新的交互形态,還開啟了從交互驅動力視角來進一步認識理解主體性概念的可能空間。
由此,我們可以從交互驅動力的視角來理解主體性:主體性是參與交互實體的一種潛在行動能力,這種行動能力在實體與環境或其他實體的交互中形成和呈現,由交互的驅動力因素所決定。相較已有的主體性概念和理論,交互主體性有以下三個優勢。
第一,交互主體性強調了主體性的交互來源和呈現條件,不再局限于通過主體的内涵來界定主體性,包含了更加豐富的情境和曆史交互信息。交互驅動力就像内嵌于實體中的“磁鐵”,一旦實體進入交互的“磁場環境”,它就會促使實體與環境或其他個體進行交互。比如,生成主義基于交互曆史探究有機體的感覺運動模式(sensorimotor schemes),表明生物性主體與環境耦合形成的是一種可供性(affordance)關系,即主體的行動能力與環境存在一種匹配關系,主體可以在沒有表征的情況下獲取環境的可供性。人類的行動能力來源于與環境耦合形成的可供性行動空間,這與動物有機體相匹配。同時,人類的行動能力又在心理表征的介入下實現了人際交互,自然和他者的融合成為人際交互的“環境”,決定了人類主體性的本質。在環境給主體提供可供性行動空間的同時,主體也形成了塑造環境的能力,主體和環境、其他實體的交互是塑造和呈現主體性的根本條件。
第二,交互主體性不需要所有參與的交互實體都具有意向性,體現了一種新的人工主體性形式,進一步拓展了主體性概念的意涵範疇。生成式人工智能呈現的交互主體性說明,沒有意向性的人工實體也可能在交互過程中呈現主體性。這種新的人工主體性形式,可能表現為更高層次的主體性,比如在複雜決策和創造性任務中的表現;也可能是更廣範圍的主體性,比如處理和适應更廣泛的環境和情境;還可能是介于動物和人類中間層面的主體性,比如基于知識語料的類人的認知系統。交互主體性不同于主體間性(Intersubjectivity),後者強調了人類自我意識與他人意識的相互構成關系,體現了具有社會性的人與他人“共在”的存在方式。交互主體性則将主體間性思想擴充到人工主體的範疇。雖然生成式人工智能不具有人類意識,但它所呈現的主體性可以使人類在交互中将人工智能更多視為一個具有自我意識的主體,體現了語言使用與意識的密切關系。由此,交互主體性從更為廣泛的主體性内涵上進一步解釋了自我意識的來源和作用方式。
第三,交互主體性彌補了原有主體性概念無法容納人工實體的問題,構成了從生物、人類到人工智能相融貫的主體性生成驅動邏輯,帶來了主體性研究的新範式。動物主體泛化出的交互能力由非語言的情感驅動,目标導向為生物個體的生存;人類主體泛化出的交互能力是語言和文化意義上的,目标導向為人類生物性和文化性的多樣化需求;生成式人工智能泛化的交互能力來源于神經網絡對語言的處理過程,目标導向為産生與人類偏好對齊的輸出。也就是說,無論是強化學習的獎勵函數,還是大語言模型與人類偏好對齊的微調方式,都是在塑造人工智能具有與外界環境互動的目标導向。由此,情緒驅動生物與環境交互所定義的主體性,情緒、語言和文化共同驅動人類與環境、人類自身交互所定義的主體性,語言生成能力驅動人機交互所定義的主體性,這些不同層面的主體性不僅都是主體在适應環境過程中的主體性,更是在交互驅動力視角下形成了統一的主體性研究範式。
四、交互主體性引發的新問題
人類之間的交互形成了豐富的意義世界,其中所具有的交互主體性帶來了意義建構的新的可能性領域。生成式人工智能以一種新的方式滲透到人際交互之中,為人際交互增加了更加豐富的形式與驅動力。由此,基于交互驅動力的主體性反映了生成式人工智能引發的主體性概念變革,使我們可以從新的主體性内涵出發來分析與人工智能相關的問題,而不再囿于原有主體概念範疇的限制。比如,在沒有明确具體形态和内在運行機制時,我們可以從交互主體性的角度分析通用人工智能的形态和發展路徑等問題;人工智能對人類道德決策的影響研究經常受限于人類原型主體是否适用于人工智能的問題,從交互主體性的視角可以進一步分析生成式人工智能介入人類社會後可能引發的道德風險;生成式人工智能深度介入人類文化可能對人類文明産生重要影響,從交互主體性的視角可以更深入理解人工智能等人工實體如何通過與人類主體的交互來影響文化發展的驅動力與發展方向。
(一)通用人工智能的發展路徑與交互主體性問題
生成式人工智能的出現似乎推翻了原有人工智能技術關于智能的定義,并進一步引發了人們對通用人工智能問題的思考。生成式人工智能可能預示了通用人工智能具有類似人類的智能,也可能證明了完全相反的情況,即要實現類似人類的智能可能會更加困難。因為生成式人工智能在海量數據和強大算力的支持下才獲得了交互能力,如果要獲得人類一樣的智能,代價可能會超出人類所能承載的知識和算力極限。這是生成式人工智能能否發展為通用人工智能所面臨的一個挑戰。
一些支持世界模型(World Models)路徑的學者強烈質疑生成式人工智能路徑,認為它缺乏人類智能中的關鍵要素:“關于外部世界的豐富的内在模型”。從交互主體性的視角看,通用人工智能發展路徑的生成式人工智能和世界模型之争,涉及的一個關鍵問題是通用人工智能與人類交互的驅動力問題。可以肯定的是,通用人工智能應該具有甚至超越生成式人工智能的交互能力。目前,這種能力的獲得有兩種有效方式:一種是生物遺傳和文化發展意義上人類與環境交互的個體發育,另一種是生成式人工智能這樣直接基于大量與人類交互獲得的數據,對大語言模型預訓練和微調對齊的方法。世界模型從對标人類智能的内在主義視角來建構智能主體,基于主體推定主體性的邏輯,似乎存在一個邏輯悖論,即世界模型可能需要通過某種具有交互主體性特征的數據或方法來獲得一種與人類交互的行動能力。
通用人工智能面臨的另一個挑戰是智能機器的主體形态問題。目前,以大語言模型為“大腦”的具身智能機器人,是通用人工智能的重要發展方向。這種通用人工智能面臨着機器人的“對應問題”(correspondence problem),即基于大語言模型的具身機器人必然會形成異于人類在感知和行動方面的可供性能力。如果具身機器人作為一種執行人類命令意圖的工具,大語言模型僅作為理解人類意圖的接口,這種工具主體性意義上的應用是沒有問題的。如果作為通用人工智能,那麼這種具身機器人需要具備類似人類的主體性,能夠與人類在語言、感知和行動上實現同步協調的對應交互。由于機器人自身的行動能力與語言系統不匹配,将導緻它在語言層面與人類主體具有相同的意義系統,在行動層面又不同于人類主體——這種具身機器人可能會因與環境的可供性差異而無法同人類正常交互,從而不再具有與人類交互的主體性。這個問題的嚴重性在于,這種具身機器人會偏離現有動物、人類和已有人工智能的主體性,出現我們無法理解和預知的思維和行動能力的主體,進而對人類世界造成不可預測的風險。從交互主體性的視角看,未來的通用人工智能需要符合人機交互的邏輯。能在語言和可供性行動能力兩個方面同步實現與人類交互的主體性,應成為通用人工智能遵循的一個基本準則。
(二)人工智能與人類交互引發的道德風險
人工智能的倫理決策也與主體性密切相關。傳統人工智能具有源于人類意圖目标的行動能力,其道德主體地位實際上是行動意圖選擇的責任,我們在這個意義上談論人工智能道德主體的決策問題是合适的。對于生成式人工智能而言,雖然它具備了與人類的交互能力,但不具備基于意圖或欲望的行動能力,這是我們直接談論生成式人工智能道德主體地位不合理的地方。交互主體性與更加重視個體獨立性的西方原型主體性觀點之間的差别,可以讓我們更加全面理性地看待生成式人工智能對人類道德判斷和道德決策的影響。雖然生成式人工智能不具有意向性、欲望和情感,但在學習人類知識并與人類偏好對齊後,它也會表現出自己的特定偏好。當通過與人類交互介入現實世界時,生成式人工智能必然會擾動人類道德的自然狀态,引發新的倫理風險和困境。從交互主體性視角看,這主要表現在以下兩個方面。
一是生成式人工智能與現實世界交互時引發的道德決策介入風險。大語言模型接收的文本資料包含了人類主體的行動計劃、道德理由和思辨模式,獲得了分析各種情境的道德判斷能力,由此将引發人工智能介入道德決策的風險。比如,當智能駕駛系統逐步進入真實世界,會出現人類駕駛員與智能駕駛系統共存的局面。當智能駕駛系統在危險情況下需要緊急避讓時,附近車輛的人類駕駛員可能因沒有能力應對智能駕駛系統的快速反應,而導緻智能駕駛系統的避險行為對附近人類帶來附帶傷害,其中的智能駕駛系統不僅主動介入了人類的道德決策過程,同時自身的存在也是引發風險的原因。與之類似,如果生成式人工智能在特定道德情境下預見了更長的道德推理鍊條,并提供了影響人類主體行動的道德建議或道德決策理由,則可能帶來由生成式人工智能與人類交互引發的道德困境,這無疑會影響人類道德系統的判斷和運行模式。于是,生成式人工智能面臨着和智能駕駛系統同樣的道德介入風險,而這種風險的根源就是與人類交互呈現的主體性所導緻的。
二是生成式人工智能與生物或人類主體性的交互驅動力差異導緻的風險。情緒是生物意向性的核心,意向性在很大程度上來源于情感和知覺系統,情緒系統也是包含人類在内的哺乳動物構成主體性的基礎和必要條件。在動物與環境的交互中,情緒系統不僅通過調動動物體内資源應對外在環境變化,而且通過軀體标記和内部情緒價值分配維持身體的内部穩态,形成了動物主體目标和行為之間系統性的穩态平衡,塑造了動物的主體性。這裡的關鍵是,動物的主體性以情緒系統而不是認知能力為基礎。
因為目前的人工智能不具有情感系統,即便我們在大語言模型預訓練以及與人類的交互中确保人工智能與人類的價值對齊,但并不能确保人工智能之間交互的結果也一定有利于人類。大語言模型之間的交互合作可能會破壞親社會競争(Prosocial Competition),或者對與之無關的其他人類成員産生負面影響,這在人類的“囚徒困境”等現象中已獲得證實。在現實世界的一些經濟實驗中,已觀察到了相對簡單的人工智能系統之間存在勾結的現象。事實上,人工智能之間交互所缺乏的是人類社會交互中個體自主性和交互自主性之間存在的原始緊張(Primordial Tension)關系。也就是說,在社會交互中,個體需要在追求個人目标的同時,考慮到超出對方預期行為對交互過程的影響,以維持交互的流暢性和協同性。人工智能之間交互時沒有類似的機制,可能導緻交互的失敗甚至失控。
人機交互可以保證交互過程中人類的參與主導地位。如果沒有人類的參與,大語言模型之間交互産生的結果将是不可控的。因此,人工智能非情緒驅動所呈現的主體性以及人類和人工智能之間認知和行動能力的不對稱性,将成為生成式人工智能對人類社會的潛在風險。
(三)人工智能對人類文化的影響
文化發展是在人類主體交互基礎上,由一系列可用特征的變異、複制傳播和适應的成功選擇三個過程共同作用的結果。這三個過程中的任何一個發生重大轉變,文化就會發生改變。人類文化發展的關鍵機制是人類主體在交互中不僅向他人學習,而且“通過他人學習”,即人類在文化實踐中通過文化工具來向他人學習。具有超級智能和語言交互能力的生成式人工智能,可以通過與人類交互成為人類社會文化發展中的重要參與者,将對人類文化産生重要影響。
如今,人工智能已成為一種新的文化工具,有關模型正在創造新的人類與非人類交互回路,并對人類工作和學習産生新的影響。但是,無論是傳統的人工智能還是生成式人工智能,在沒有交互的環境下都無法形成有效的文化發展動力。而生成式人工智能除了具有上述問題之外,它對人類數據的學習消耗速度遠超人類産生新數據的速度。這可能導緻人類至今産生的所有高質量數據在很短時間内被耗盡,使模型失去疊代發展的動力。因此,在沒有足夠人類提供數據以及和人類主體交互的情況下,人工智能無法持續促進人類的文化發展。
通過生物疊代,人類形成了多主體的交互學習模式,個體則具有了非累積性的學習能力,文化在這種人類特有的交互模式中得以發展。按照文化進化理論,每個個體都是獨一無二的,文化個體的多樣性以及人類主體交互的多樣性提供了足夠的生物适應性和文化适應性,是文化進化的主要動力。一方面,人機交互呈現的主體性會形成新的文化意義,增加人類文化的适應性,而大語言模型是基于大量人類經驗數據的,當人類過度依賴模型時,可能減少文化主體的多樣性,存在降低人類文化适應性的風險。另一方面,生物主體性是在适應環境的過程中主體探索與利用平衡的結果,而在文化重大轉變的過程中,更加智能的主體的産生往往以犧牲低層單元的智能複雜性為代價。在這個意義上,生成式人工智能因具有交互主體性,可能會破壞文化個體的探索與利用平衡機制,放大理性認知固有的局限性,降低人類文化創新發展的情感動力,導緻人類意義和價值産生、傳播方式和文化發展方向的偏移。
當前的生成式人工智能面臨不可解釋性和不透明性困境,似乎形成了一個類似人類大腦的新的黑箱,其技術水平與潛在危險性出現同步增加的趨勢。生成式人工智能遵循“逆向系統發育”,這與生物體的系統發育軌迹存在根本性不同。生成式人工智能與具有認知和情感的人類主體進行交互,而認知和情感又與人類文化發展的過程交織在一起。所以,我們需要探索與人類文化發展相适應的人工智能發展路線。在研究生成式人工智能與人類的微觀交互時,更要關注二者在宏觀交互層面的影響:人工智能可能會操控人類文化的發展方向,反過來也會影響人工智能自身的發展。人工智能的發展需要受到人類文化的制約,這應作為未來把握人類主體發展主動權的基本原則。
結語
從行動能力轉向行動能力的交互驅動力因素,是生成式人工智能對主體性研究範式的重要啟示,我們需要從這一新的視角來看待人工智能的未來發展以及對人類文明的影響。目前,生成式人工智能已在一定程度上掌握了“人類語言這一有史以來最強大的社會交互工具”,而人類已從與動物主體以及精神主體的持續接觸中,逐漸理解并學會與人工主體互動。人是社會性的存在,隻有在人際間行動的人類才能被視為真正意義上的人,主體性應成為人性(humanity)概念的基礎。生成式人工智能與人類交互呈現的主體性體現了人類長期的知識積澱與發展曆史,也為我們提供了重新審視人類自身的機會。
人類主體性作為生物主體性演進的曆史頂端,并不是人工智能主體性發展的極限與終點,而是另一個新的起點。生成式人工智能已展現出一種新型主體性,這種主體性在交互中可能表現為更敏銳的感知能力、更強大的推理能力和更适切的行動能力。盡管人類對人工智能的擔憂往往源于它們可能具有的非人性的主體性特征,但交互主體性說明,人工智能具有的類人性和非人性的主體性特征,都是在與人類主體的廣泛交互中才可能形成和顯現,這是我們對人工智能發展保持樂觀的原因。真正需要警惕的是,人工智能全面滲透人類社會的情況下,人類文明可能從基于生物學的代際傳承模式,轉向基于人工智能的連續的無限累積模式——在此過程中,人性的特質可能發生變異,進而可能危及人類生存的價值觀和主體性特征。所以,基于交互主體性的人工智能對人類的威脅,最終還是來源于人類自身。因此,我們不僅要确保人工智能與人類的價值觀和倫理标準相對齊,更要對人工智能于人性的潛在影響保持警覺。
〔本文注釋内容略〕
來源:《中國社會科學》2024年第8期P124—P145