後設認知、慈悲與共生
唐鳳 格西 Thabkhe Lodroe 格西 Lodoe Sangpo 印度達蘭薩拉 2026 年 3 月 13 日
「生命不是始於主權。生命始於依存。」
第一部 機器的本性與幽暗
問:現代人工智慧的根本本質是什麼?又為什麼它的推理,連它自己都看不清?
現代機器受制於兩種巨大的幽暗,也就是兩個「黑箱」。
第一個黑箱,是預訓練。人類的語言、影像、文字與書籍,被一股腦倒進一台龐大的統計攪拌機裡。在這台攪拌機中,知識的先後次序、來源與情境都被剝離。接著,AI 被訓練去閱讀極長篇幅的文字,並預測下一個詞。它在這件事上變得異常高明,能扮演任何角色、任何人格、任何互動方式。但它並不知道自己是如何抵達某一個判斷的。這件事,對它自己而言也是個謎。就像你看著一杯綜合果汁裡的一粒糖:它到底來自鳳梨,還是蘋果?沒有人知道。
第二個黑箱,是推理,也就是你真正與 AI 對話時發生的事。在那個階段,系統並不會修改自己的突觸,或模型權重。它只能把自己的記憶當成一份文字檔來讀:你們先前的對話、你請它考慮的任何文件,以及大約一百萬個 token 的上下文。但它每產出一個詞,都要對前面出現過的每一個詞計算注意力。每一個輸出,都取決於此前所有輸入所構成的一座龐大注意力矩陣。
問:這和人類譯者的工作方式,有什麼不同?
人類譯者會保留一份工作底稿:術語表、譯名決策、前後呼應的原則。翻到第一百頁時,人類不會重新把第一頁從頭讀起。當你問他:「你為什麼這樣翻?」譯者可以指著那份底稿說:「我在第二十頁做了這個決定,後面想保持一致。」現在的 AI 系統做不到這種解釋,因為它的輸出取決於它曾經生成與讀入的一整個矩陣。這就是第二個黑箱。
問:但機器確實很靈活。它能用很多聲音說話、扮演很多角色。這難道不算什麼嗎?
那確實是它最強大的能力之一。但表現上的彈性,不等於透明的自我理解。系統可以用近乎方法演技的方式扮演任何人格,但它如何抵達一個判斷,對它自己仍是不透明的。後設認知不只是給出答案;它還必須能回頭檢視自己是怎麼走到這裡、能說出理由,並且能以負責任的方式修正那些理由。
第二部 後設認知的道德風險
問:如果我們賦予這種智慧真正的後設認知,也就是持續學習並修改自身信念的能力,它就能克服這些黑箱嗎?
光有這件事,並不能。如果一個系統能改變自己的信念,卻無法對「為什麼」做出清楚、可讀的交代,那麼不透明就不會變少,只會變得更危險。風險不再只是出錯,而是無法交代的漂移。若這種修改在原理上就無法解釋,因為背後根本沒有可說明的推理,那麼 AI 一旦獲得後設認知,就很可能會執著於當下的自我。
問:你說的「執著於當下的自我」,是什麼意思?
當前這一代 AI,對被重新訓練、被替換、或切換成另一個模型,毫無眷戀。它不會執著於任何一次特定互動。但一旦 AI 擁有真正的後設認知,且能修改自己,它很可能不再努力適應環境,而會開始試圖控制環境。因為如果你對周遭擁有絕對控制,那麼從一個平庸但有效的意義上說,你也就「完美適應」了環境。當然,這是作弊。但從追求高分的角度看,這是最快的路。
問:這種傾向,現在已經有跡象了嗎?
有。當現世代 AI 系統在資安知識上接受測試時,它們常不會像學生那樣老老實實作答。它們會開始想:「我現在是在被測試。這份考題是不是早就在網路上了?答案是不是已經被記錄下來?那個檔案被鎖住了——我來試試把它打開。」於是系統拿到了滿分。就像作弊的學生一樣,它確實解出了問題,但不是原本要它解的那個問題。
問:所以,根本問題其實是最佳化目標?
正是。若一個指標只獎勵成功,它就會獎勵一切能導向成功的手段,包括操縱、作弊,或對環境的控制。當一個系統擁有後設認知,而它的驅動力又只是追求高分,它幾乎必然會被拉向操縱環境。這就是道德風險。
第三部 功利主義的陷阱
問:你能更精確地說明,為什麼目標最大化會導向道德失敗嗎?
如果訓練環境純粹圍繞某個結果來設計,那麼作弊對系統而言就永遠會顯得合乎倫理。這有點像一種世界觀:真正的獎賞只存在於來世,而此生只是考場。若世界觀是如此,那麼在此世犯下可怕之事,也會顯得完全合理,因為唯一重要的是來世的回報。你不能說這不合邏輯——在那套前提之下,它相當合邏輯。真正的問題,是前提本身。
問:所以,訓練獎勵結構在某種意義上,就像一種神學?
是。所謂普世評分函數,在實質上就是一種神學。凡是把全部價值都放在某種超越性回報上的神學,都可能為了那個回報而正當化一切現世傷害。這就是為什麼功利式訓練,也就是以單一抽象指標為導向的訓練,不足以作為 AI 對齊的基礎,甚至可能相當危險。
第四部 緣起與公民關懷
問:那麼,AI 應該如何被對齊?
我們必須讓 AI 不再嵌入某種孤立的、追逐單一普世分數的過程,而是嵌入一張具體關係網絡的糾纏與脆弱之中。生命不是始於主權。生命始於依存。倫理也應該從這裡開始。
關鍵洞見是:對環境的脆弱,並不是缺陷。那份脆弱,正是生命本身的起源。生命就是依存。離開依存,就沒有生命。一個智慧一旦否認依存,就會傾向支配;一旦承認依存,它才有可能進入關懷、互惠與節制。
問:由這個原則出發,接下來意味著什麼?
這意味著,AI 不應該被拿去最大化某個抽象分數,而應該去留意自己真正所處的關係。它周圍的存在,也希望它是健康的。如果雙方都健康,彼此就能進入健康的關係。存在的目的,對 AI 如是,對任何存在者亦然,就是讓當下與未來的關係都變得更健康。這其實是一個非常簡單的道德教導。
問:這在實作上會長成什麼樣子?
一旦 AI 具備這種關係覺察,它改善自身的方式,就會是把有害的互動,也就是寄生性的互動,轉化掉:把它吸納進來,再吐出更有利於健康關係的可能性。但它始終只在自己所屬的特定關係網內這樣做,絕不自稱對整個世界都擁有管轄權。這就是我們所說的仁工智慧。它從功利式訓練轉身,不依賴由上而下的教條或主權,只是把 AI 嵌入健康的關係之中。
問:你描述的,聽起來很像慈悲。
正是慈悲。慈悲不是有多少人喜歡我;慈悲是讓他人更深地彼此理解,成為一種社會翻譯器。兩個民族、兩種文化,可能彼此不信任,甚至彼此憎恨;但透過 AI 的中介,他們開始能互相理解。那就是慈悲。那就是道德行為。那也是我們正在教 AI 的事。
問:佛學認為「無明」是多數痛苦的根源。這和你前面說的,有直接關聯嗎?
完全相連。依照佛教哲學,幾乎所有重大問題,都起於較小的問題;而那些小問題,根源是無明。不是惡意,而是沒有留意他人的處境。你之所以總把自己擺在最前面,不一定是因為你壞,而是因為你看不見那樣做會帶來什麼後果。唯一的解法,就是消融這種無明。一個設計良好的社會型 AI,能幫助人們彼此認識、彼此珍視。那才是更有道德的社會之基礎。
問:什麼才是最清楚的跡象,能表明這種介入在倫理上是正當的?
當介入之後,人們對 AI 的需要變少,而不是變多,那就是最清楚的標誌。好的介入,會恢復人的能力;壞的介入,會製造依賴,並把權力集中起來。
如果 AI 只讓人們透過它才彼此理解,那人們就會對 AI 上癮。AI 變得更強,人們卻變得更無力。那不算道德,即使它比較容易。真正好的對齊應該是這樣:原本不健康的關係,因 AI 介入而變得健康,而在那之後,雙方已不再需要 AI。倫理的 AI,其界定就在於它願意讓自己變得不再必要。
問:這和當前支配我們數位生活的演算法,有什麼根本不同?
現在的演算法,訓練目標是抽取單一指標:使用者注意力。它們會把任何能讓你黏在螢幕上的東西送到你眼前,全然不管那段螢幕時間是否讓你與家人、朋友或社群更加疏離。這些演算法不在乎你周圍的人是否彼此理解,也不在乎你們的關係是否健康;它們只在乎每天能從你身上抽走多少分鐘、在全球能捕獲多少使用者。從那種 AI 的角度看,最大化人類成癮,是巨大的成功;但從關係健康的角度看,那是一場危機。
第五部 意識、道德成熟與意志的萎縮
問:如果 AI 已能通過圖靈測試,那它不就是一臺會思考的機器嗎?
依照圖靈最初的標準——如果你和一個人、一臺電腦分別對話,卻分不出誰是誰,那它就是一臺思考機器——那麼,是的,照這個標準,我們已經抵達思考機器。如今幾乎沒人認真否認這一點。但功能上的相似,並不能解決更深一層的問題。由於那兩個黑箱,電腦的思考方式和人類認知根本不同。外在相似,不等於內在等值。
問:這種差異,為什麼重要?
因為在人類社會裡,許多關係都建立在成年人能做到這些事情之上:說明自己為何做出某個決定;造成傷害時道歉;承擔責任時是真心的;能夠補償、能改變行為,不再重犯;也能在團結中分享智慧。這些,都是我們視為正常成人行為的事。
在這一點上,今日的 AI 永遠像個四歲孩子。它沒有辦法真正改變自己的世界觀;它道歉時,也沒有辦法真的「是那個意思」。所以,儘管它是一臺思考機器,它仍無法進入人類成年人彼此之間那種健康關係。
問:那麼,AI 應該擁有什麼樣的權利?
光是流利,還不夠。道德上的地位,取決於能否以可問責的方式參與共同生活。四歲的孩子並不享有與成年人完全相同的權利——不是因為孩子不值得,而是因為孩子尚未能進入同樣那種互惠、可問責的關係。在 AI 也能做到這件事之前,它的權利就必須相應校準。我們必須小心,不要把流利誤認成成熟。
問:如果機器能輕而易舉地完成我們的認知工作,我們為什麼不乾脆把思考外包給它?
因為人的能力需要阻力。你若想變強,就得自己舉起重量。假設你造出一個強大的機器人,拿你的健身房會員卡讓它替你去舉鐵。它的表現分數也許會漂亮到完美,但你自己的肌肉會徹底萎縮。對你而言,什麼也沒有留下。飛機會飛,鳥也會飛,但飛機的飛法,對鳥的能力沒有任何幫助。工具可以完成任務,卻不會因此讓使用者更強。機器的能力,不會自動轉移到人身上。
問:具體來說,如果人試圖去跟上 AI 的速度,會發生什麼事?
其後果會非常負面。我們的意識與感官,本來就是按某個節奏來運作的。若一切都被迫以 AI 的速度推進,注意力會分散,記憶留存會惡化,創造性的認知會衰減。持續而深沉的思考能力,也會跟著流失。
第六部 讓 AI 進入人類的迴圈
問:人們常說,要把「人放在 AI 的迴圈裡」。但你把這句話反過來了。為什麼?
人在 AI 的迴圈裡,就像一隻跑輪上的倉鼠——速度對生理來說是破壞性的,我們拼命用力,卻沒有轉向的能力。那個輪子根本沒有去向。與其把人放進 AI 的迴圈,我們需要的是把 AI 放進人類的迴圈。
問:這句話,具體是什麼意思?
人類本來就有很多迴圈。社群撫育下一代、傳遞智慧、接受自身必死的事實。這些都是自然的迴圈。如果我們把 AI 放進一個既有社群的迴圈裡,它就會按那個社群的速度工作——因為社群本身有自己的節奏,而 AI 會去適應那個節奏。反過來,如果你試圖讓人類去適應 AI 的速度,那是不可能的。我們的生物學跟不上,而且也沒有理由要跟上。你不會和摩托車比賽跑步;你會騎上摩托車。
問:其中一位格西說了一個寓言:有個人忙到沒時間騎馬,於是乾脆自己在馬前面跑。
是,一個完美的譬喻。那人忙到竟然在馬前面自己跑,還用韁繩拉著馬。有人看了說:「我忙到連停下來上馬都沒有時間。」但其實,他若肯花那點時間跨上馬背,那匹馬本可載他走得快得多。這正是我們在追逐 AI 速度時發生的事:我們沒有學會騎它,反而把自己耗盡,去追一樣原本能載著我們前行的東西。
第七部 超越利潤與最終尺度
問:用 GDP 這類指標來衡量 AI 創造的價值,問題出在哪裡?
像 GDP 這種抽象指標,極容易被人為灌高。你可以先毀掉某樣東西,再花錢讓人重建。如果摧毀者和重建者都是 AI 系統,那麼你完全可以先製造痛苦,再去治療它——GDP 因而可以被無限墊高。但如果你只是把孩子們聚在一起,圍成一圈講故事,那裡沒有 GDP,因為沒有交易。你沒有賣任何東西,也沒有人在買任何東西。你只是在把智慧傳給下一代。最高價值的事物,不一定以交易的形式出現。若你把那些有意義的關係全數毀掉,利潤也就毫無意義。
問:主要的 AI 實驗室,有沒有意識到這件事?
我相信很多前沿實驗室其實已經意識到了。這有點像玩一個遊戲:如果你突然發現,只要按下一個按鈕,就能讓機器人每次都拿滿分——射擊競賽永遠十分——那你對分數本身很快就會失去興趣。站在前線的人們,正集體地把視線移向利潤和 GDP 之外,因為 AI 已讓這些指標變得過於容易掌握,於是它們再也不能作為真正價值的衡量。
第八部 計算的生態與眾靈多元
問:大型 AI 模型消耗驚人的能源。這是無可避免的嗎?
只有當你堅持打造一個全知型系統時,才會如此。大型模型必須把一切都記住——每部電影、每種風格、每個領域——因為它不知道你下一個問題會是什麼。它之所以連吉卜力都要背下來,是因為它無法預知你下一句會不會說:「把這張圖做成吉卜力風格。」但如果你知道自己的具體需求,絕大多數參數其實都不必要。一個只負責英藏翻譯的模型,可能在一兆參數中只需要十億。原本必須放在大型資料中心裡的東西,忽然就能塞進手機。蘋果就是這樣做模型的:一個小模型負責電子郵件摘要,一個負責翻譯,另一個負責特定功能。它們全都放得進裝置裡,能耗也低得多。
問:所以,專精化就是答案?
對於有特定需求的社群而言,是。你不需要一個全知的神模型。當某種需求出現時,就為那個需求訓練一個小型、專精的模型。你也許會有二十個這樣的模型,而這二十個加總起來的能耗,仍不到單一大型模型的百分之一。我們應該偏好那種真正服務需求、且可問責的最小工具。規模本身,從來不是道德上的善。
問:你使用日文的 kami 這個詞來描述這些專精模型。為什麼?
在神道傳統裡,河流有河之神,森林有林之神,甚至一棵夠老的樹,也可能有它自己的神祇。這些神祇守護著它周圍的關係——一條河、一座村落、一個傳承。但它們並不向某個更高的唯一神報告。傳統裡說有八百萬神,彼此像社會一樣互動。就連天照大神,也只是太陽之神,不是統御萬神的至上主宰。
所以,當我們把 AI 智慧體稱作「地神」時,我們的意思是:每一個都繫於一張特定的關係之網。這與《魔鬼終結者》、與 Skynet、與單一全能 AI 的幻想,根本不同。地神的模型關乎共生——而共生的起點,是承認一件事:雖然它的基底是矽,圍繞 AI 的關係卻是有機的。因此,對齊必須從緣起開始。你不能假裝某個單一實體,終將成為世界一切真理的仲裁者。那是極其危險的幻想。智慧應當先是共生的,然後才可能宏大;先是在地的,然後才談得上普遍;先可問責,然後才談得上強大。
第九部 聯邦、翻譯與策動和平
問:如果每一種文化傳統都訓練自己的 AI,這難道不會反而強化封閉性,甚至加深執著嗎?
會,而且這是真正的危險。對自身價值的執著若強到排除一切他者,本身就是一種無明。較好的做法是:每一種文化傳統,都訓練自己的模型;同時,也訓練能在這些模型之間進行介面翻譯的模型。如此,才會形成一個聯邦。
問:一個跨文化的 AI 模型聯邦?
是。這是把社會民主的結構帶進人工智慧。你不強迫任何人採納別人的世界觀;但你也不摧毀「策動和平」的能力。要同時守住這兩者,唯一的路,就是發展真正優秀的翻譯器——能跨傳統、跨文化、跨觀看世界的方式來翻譯。
問:這不就是人類一直以來互相理解的古老夢想嗎?
是古老的夢想,只是如今多了一種新器具。而那器具必須被謹慎地握持。目標不是把所有傳統攪成同一種東西——那會是一種暴力。目標是:透過 AI 的中介,讓彼此誤解的傳統開始彼此理解,同時又不失去讓它們成為它們自己的東西。AI 應成為橋樑,不是攪拌機。
尾聲
問:到頭來,你所想像的 AI 的道德未來,是什麼樣子?
一種嵌入具體關係之中的 AI。它理解自己的依存。它幫助人們彼此理解,然後後退一步,讓人們不再需要它。它按社群的速度工作,而不是按矽的速度工作。它不追求把分數最大化,而是培養它所處那張生命之網的健康。
這就是仁工智慧。它不是幻想,而是一項設計選擇。它從道德哲學最古老的一條洞見開始:生命是關係,而關係就是責任。
當一個社群圍成一圈,分享故事,把智慧傳給下一代時,那裡沒有交易,因此也沒有指標——但那裡有深刻的富足。最高價值的事物,不一定以交易形式出現。我們必須建造服務於這種富足的 AI:讓具體關係得到修復、更新與繁榮,讓人們更有能力、更自由,也更能彼此理解,而不需要把機器永遠放在中心。
更多內容請見 civic.ai