English

Podcast:AI 能有「慈悲心」嗎?

2026 年 3 月 13 日

Caroline Emmer De Albuquerque Green、格西洛朵桑波

原始錄音來自牛津 AI 倫理研究院的 Accelerating AI Ethics Podcast。

Caroline Green 與格西洛朵桑波——一位藏傳佛教僧侶暨學者——在達蘭薩拉麥羅甘吉對談,探討 AI 是否能真正具有慈悲心。他們從佛教倫理出發,深入緣起、平等觀,以及為何慈悲是一種存在方式,而非一種可以訓練進系統的技能。

摘要

這集將仁工智慧框架帶入佛教倫理的對話之中。它是關懷六力那集的自然延伸,深化了「道德能力究竟意味著什麼」的追問——以及 AI 系統可能永遠無法複製的部分。

重點

收聽

完整 Podcast 將於 2026 年 4 月 19 日上線。

完整逐字稿

Caroline Green:如果我想到「緣起」(相互依存),我的理解是我們都彼此依賴。我們因為其他人才有意義。我們因為他人才存在。我們因為他人才能維持自己。我們因為他人才成其為自己。我是說,沒有學生,老師算什麼?沒有病人,醫生算什麼?

格西洛朵桑波:是的,在最基本的世俗層面,這就是核心。不僅是人與人之間,還有更大尺度上的相互依存——生態系統,一切都依賴外在資源。我們非常依賴外在資源。因此,如果你真正能夠理解「緣起」——不只是在概念層面,而是在體驗層面——那它就能真正成為你態度、心態、情感的驅動力。

Caroline Green:這是慈悲概念的核心嗎?

格西洛朵桑波:是的,慈悲建立在這個基礎上,也建立在平等的概念上。那就是基礎。視一切眾生為平等。視所有人都具有達到更高精神境界的能力或潛力,平等地。身體上,有些人的能力或許有所不同,但在心智上我們共享同一本質。在佛教中,我們說每個人都有佛性。種子就在那裡。一樣的。不論你的身體狀況如何。因此,視一切眾生為平等,是生起、培養真正慈悲——無條件慈悲——的基礎。佛教教義中的開示,目的不是為了成就一番事業,而是讓人更完整、更具體地體現——體現慈悲、關懷、慈愛。這一切來自修行。修行來自心智鍛鍊。你必須面對某些挑戰。那些挑戰帶給我們教訓。那些挑戰強化我們心智的韌性。

慈悲在世間顯化的實例

Caroline Green:我們現在在印度的達蘭薩拉,昨天我們去參觀了你朋友為當地貧困家庭孩子開辦的一所學校。我認為這是慈悲如何在世間顯化為具體事物的美麗範例。有人看到了這些街頭孩子的苦難,經歷了一個非常艱難的過程——面對當地社區的抵制,發現當地學校因為這些孩子的生命經歷而不適合他們——他建立了一所美麗的學校,如今已成長為支持七百名孩子的機構,有自己的課程,倫理在其中扮演核心角色。這是一個不僅僅感受到慈悲,而是透過韌性、經歷多年,做出回應的典範。

格西洛朵桑波:就像那位僧人——他親眼目睹了可怕的處境,那些貧民窟的孩子經歷了那麼多。他的慈悲推動他去做些什麼。他經歷了那麼多。而當達賴喇嘛尊者公開說「我所有的一切都是你的」——他的意思不僅是經濟上的支持,更是勇氣。他得到了鼓勵。那是慈悲付諸行動的最美實例之一。

一個有慈悲心的 AI 系統會是什麼樣子?

Caroline Green:我一直聽到一些在 AI 公司工作的人談論慈悲和關懷這樣的概念。你怎麼看待一個有慈悲心的 AI 系統?你覺得這樣的東西可能存在嗎?

格西洛朵桑波:這是個好問題。有慈悲心的 AI。我可以從兩個不同的層面來思考。AI 也許可以表現得非常有慈悲心——擁有所有的資訊、慈悲修行的所有概念要素,基於那些數據,它在外觀上可以呈現為一個非常有慈悲心的 AI。但在體驗層面,在感受層面,我們人類有一個獨特的特質:我們能真正感知彼此的表情。如果你成為一個非常有慈悲心的人,你可以立即感知他人的表情,並據此以非常情境化的方式、帶著智慧來分享你的想法或表達慈悲。沒有一種放諸四海皆準的慈悲方法。一切都必須以非常情境化的、觀點取替的方式來進行。因此,我們對他人需求的回應可以以一種非常慈悲的方式改變。

我不認為 AI 能以那種方式運作。因為我們過去的經驗、我們從他人那裡接收到的關懷和愛——所有這些因素都在我們的心識流中留下某種印記。而當我們行動時,所有這些經驗都扮演著重要角色。這不僅是計算。不僅是一場商業遊戲。感受經驗必須是驅動力,是慈悲行為背後的根本機制。在佛教中,意圖不僅是一個演算法或計算——它是對他人深層的根本關懷,來自修煉,來自體驗。這樣一個人才能真正展現真正的關懷、真正的愛、無條件的慈悲。否則,我們可以在外在做出非常慈悲的舉動,但在更深的層面——那份真摯、情感體驗中的深層關懷——是非常難以理解的。所以,AI 慈悲的可能性——在這個意義上,我認為是非常困難的。

Caroline Green:會有人說:「我們正在訓練我們的 AI 具有慈悲心,所以這是它們的一種存在方式,它們展示了與人類慈悲互動的方式。也許它們甚至會以機器人的形式存在,能夠掃描人臉、精確辨識情緒。我們已經有能夠感知人臉上痛苦的 AI 系統了。所以那就是演算法的關懷、演算法的慈悲。」但我從你剛才所說的話中得到的是:這不僅是你如何回應他人,也是這件事對你自身造成了什麼。以及背後的意圖是什麼。對於一個想要真正具有慈悲心的人來說,這是關乎靈性的成長。而這或許就是 AI 系統的侷限。

格西洛朵桑波:是的。還有另一件事:當我們看到某人正在經歷困難、悲劇或痛苦時,一個有慈悲心的人的外在行為有時看起來可能令人愉悅,也可能不然。聽起來可能很不慈悲,看起來也不慈悲,但從長遠利益的角度來看,有時行為——深層的意圖——是非常善意且慈悲的,但行動必須有一點堅定,甚至有一點嚴厲。慈悲以不同的形式、不同的表達方式呈現。也許 AI 可以一直都很溫和、很撫慰人心,只是解決當下暫時的痛苦——並不真正理解長遠目標、長遠利益,無法透過真正的關懷和感受來將這些納入考量。有時候,表達和行動比來自一個有慈悲心的人口中的話語更有力量。

Caroline Green:所以這是多層次的。多維度的慈悲。沒有簡單的答案。

AI 能幫助正在修習慈悲的人嗎?

Caroline Green:AI 能為正在修習你剛才所描述的這些的人服務嗎?因為要成為一個有慈悲心的人需要大量的修行。

格西洛朵桑波:我對 AI 的了解非常有限。但 AI 可以是很好的助力。這取決於我們如何使用它,或它如何被開發。內在的成長只能來自相當嚴謹的修行。AI 也許可以給你一些資源或一些資訊。但資訊不是幸福。不是慈悲。慈悲不是一種技能。慈悲是一種存在方式。如果你獲得了一些資訊,那些資訊可能停留在非常認知的層面。你可以很聰明,但同時你可以是非常不慈悲的、自私的。現在,透過 AI,你可以在非常短的時間內獲得大量資訊。有時這可能非常令人不知所措。但內在的成長來自感受的經驗。

例如,唐鳳向我解釋過這個比喻——如果你想去健身房鍛鍊肌肉,而你有一個像機器人 AI 這樣的助手,你說:「讓機器人代替我去做運動。」機器人可以舉起很多重量,你得到了高分。但這真的有強化你的肌肉嗎?沒有。它給了你想要的結果。但強化肌肉必須由你自己來做。否則,萎縮就會發生。同樣地,心智的鍛鍊也是朝同一個方向。情感的成長、認知的成長必須來自我們自己的個人旅程和鍛鍊。把一切都外包出去可能會產生負面影響。以有害的方式將 AI 整合到這類系統中——我們需要謹慎。

從懷疑到希望——仁工智慧與慈悲的關係建構

格西洛朵桑波:在與你們——唐鳳和 Tenzin Yangtso——在達蘭薩拉共度的這一週之前,我對 AI 有著負面的印象——不太有希望,更多的是害怕。現在你們向我介紹了仁工智慧(Civic AI)——AI 不只是用來把大量的權力集中在一個單元上,而是更具建設性的關係建構。看到健康的、建設性的、更健康關係的建構,以及也許 AI 可以移除不健康的部分,並在健康關係方面提供更多助力。AI 朝著這個方向發展是美妙的,非常有希望。否則,AI 可能是非常有害的、災難性的。人的成長必須來自內在的鍛鍊——這個部分不應該被妥協。否則,年輕一代可能過度依賴 AI、過度使用它,從而損害情感和認知的成長。這個部分不應該被遺忘。

Caroline Green:你剛才提到了仁工智慧——我們提議 AI,我們稱之為「地神」(Kami)——更小型的、高度情境化的 AI 系統——可以幫助特定的社群和人群。在這裡,真正的核心仍然是人——他們彼此之間的互動方式。AI 是在為他們服務,在他們所處的任何情境中支持他們。人是核心。

格西洛朵桑波:達賴喇嘛尊者說,AI 永遠無法像人類一樣,因為人類有創造力——創造新事物的能力。我認為這是慈悲最美麗的體現之一。AI 可以是很好的助力。但人——以及其他物種——必須在中心,而不是 AI。我們可以用非常建設性的方式使用 AI,就像你們正在推進的仁工智慧。只是把 AI 的能力推到極限、消耗那麼多能源——如果它變得非常具有破壞性,意義何在?人的成長、連結、人與人之間的羈絆——那才是最重要的。

首頁