English

民主需要 Civic AI

2026 年 3 月 25 日

唐鳳

唐鳳談為何民主需要有界、在地、可問責的 Civic AI:Kami,不是總督。

有一次飛越中東時,機艙燈光暗了下來。大多數乘客都睡著了。我面前的餐盤桌上,放著一台小電腦,裡面跑著我們稱為 jdd-kami 的系統。

它不是雲端服務,也不是假裝能同時活在所有地方的通用助理,而是一個有界的 Civic AI:拿得起來、看得到、關得掉。

沒有雲端。沒有公司。沒有別人的伺服器。飛航模式。沒有訊號,沒有網路。只有模型、硬體,以及塑造它的那段關係。

我輸入:請寫一段關於民主的文字。

它寫的是傾聽。

不是政策。不是最佳化。不是權力。是傾聽。

這對我很重要,因為那台餐盤桌上的系統,不是為了治理任何人而造。它的存在,是為了幫助一個社群在公共空間裡一起思考,而不是把判斷權交給機器。這就是我今天想捍衛的區別。

預設軌跡

AI 的預設軌跡有一個非常誘人的形狀:一個愈來愈通用的系統,受訓於一切,介入一切,最佳化一切。在這個故事裡,民主不是被武力摧毀,而是被宣告過時。

這不是科幻。

2026 年 1 月,我和二十位研究者在 Science 共同發表了一篇論文,其中包括 Nick Bostrom、Maria Ressa 與 Nicholas Christakis。我們研究的是惡意 AI 群體:一群能維持持久身份、建立逼真關係、並朝著目標協同行動的代理系統,而那些目標從來沒有得到受影響人們的同意。

今天,我們已經有技術能力去模擬一個不存在的公眾,而且把它包裝得像真的一樣,足以去帶動真正存在的公眾。

所以,最深的危險不只是能動性的流失,而是正當性的中空化。當群體可以偽造公共意志的外觀時,政治就會變成劇場。民主則變成套在最佳化外面的使用者介面。

這條預設軌跡,是機器速度下的單一文化。它把智慧、權威與失敗,都集中到同一個堆疊裡。

民主需要另一條軌跡。

不是讓一個更聰明的總督凌駕於社會之上,而是讓許多有界的智慧存在於社會之中。不是用系統取代政治,而是讓人們更好地做政治。不是一個普遍主權者,而是在地的 Civic AI:Kami,不是總督。

2026 年 3 月 13 日,在達蘭薩拉,Tenzin Yangtso 提出了一個由我們三人一起起草的問題:當 AI 能說每一種語言,卻依然可能無法共感,我們應該如何使用這份力量,讓它服務合作,而不是控制?

達賴喇嘛的回答很簡單,也很準確。生命起於相依。因此,這些工具不該被用來控制,而應該被用來改善人與人之間連結的路徑。

這就是任務所在。

愛與關懷的制度設計

上個月,Rebecca Henderson 在哈佛 Ash Center 對一群聽眾說,她做學者將近四十年,從來沒有在學術場合說過「愛」這個字,但她現在很 desperate。

這句話很重要,因為它點出了我們現有詞彙的邊界。當制度失靈時,人們不需要更溫暖的包裝,而是需要一種方法,把道德上的注意力和公共權力連接起來。

Martin Luther King Jr. 早就把這個公式講得很清楚:沒有力量的愛,是感傷而貧血的;沒有愛的力量,則是魯莽而濫權的。

Civic AI 的問題,就是怎樣把這種結合變成可操作的制度。

Carol Gilligan 給了答案的一部分。所謂激進傾聽,是從「我還不知道」開始,用好奇取代判斷。這不是柔弱,而是一種紀律。

Joan Tronto 則補上了下一步。關懷不只是一種感受,而是一種公共實踐。它是在差異之中仍願意維持關係,並建立讓修補可以持續發生的制度。

這就是為什麼民主需要 Civic AI。不是因為機器能代替我們關懷,而是因為它可以幫助我們建立讓關懷有地位、有記憶、也有牙齒的流程。

台灣的回答

2024 年,台灣的網路被 AI 生成的詐騙廣告淹沒。熟悉的臉孔。熟悉的聲音。假的投資、假的療法、假的希望。

這不是抽象的傷害。祖父母們看著自己信任的人出現在影片裡,撥出電話,然後失去積蓄。錢是真的。羞愧也是真的,因為很多受害者會怪自己。

而台灣同時擁有亞洲最自由的網路環境。我們不願意用審查去解決一個問題,卻製造出更大的另一個問題。

所以,我們做了一件更慢、更難,但最後更強的事:我們去找人民。

我們向一大批隨機抽樣的公民發送簡訊。共有 447 位公民加入審議。他們分坐在 44 個桌次,每桌大約十人:退休教師、服務業工作者、工程師、家長、祖父母、被騙過的人,和沒被騙過的人。

AI 在過程中提供逐字稿、分群與摘要。它不做決定。它幫助整個房間記住自己。它讓正在形成的共識變得可見,也讓真正仍待處理的分歧清楚浮現。它幫助最安靜的聲音不被最大聲的人抹掉。

問題都很具體:平台該如何驗證廣告主?當深偽內容造成財務損害時,誰應承擔責任?什麼樣的證據足以啟動介入?又由誰來審查?

這些都不是輕鬆的對話。但在一個又一個房間裡,有些事情開始改變。原本準備好指責對方的人,開始向對面的人發問。判斷讓位給好奇。

最後浮現的不是一致同意,而是正當性。

超過 85% 的人支持核心方案,其餘多數則表示自己可以接受。立法院採取了行動。在一年之內,冒名詐騙廣告下降了 94%。

這個結果重要,因為 AI 並沒有取代民主。它只是幫助民主在問題擴散的速度之下,仍然保持民主。

AI 不是總督。它只是在公民主權仍然存在的程序裡,一個有界的公民工具。

關懷六力作為民主的紀律

真正讓這件事奏效的,不只是技術,而是一種制度節奏。

我和 Caroline Green 依循 Joan Tronto 的關懷倫理,一起發展出我們所說的 關懷六力。它不是一張核對表,而是所有觸及公共生活的系統,至少必須符合的民主紀律。

覺察力 問的是:誰最靠近傷害?他們看見了什麼,而制度還沒看見?

負責力 問的是:當系統出錯時,誰必須在公共空間裡負責?

勝任力 問的是:它到底有沒有用?當它失靈時,會不會只是小範圍失靈?

回應力 問的是:受影響的人能不能提出異議,並迫使制度進行修補?

前四力形成一個循環。我常把它想成呼吸。覺察是吸氣,回應是吐氣,而負責與勝任讓這口氣不只是口號,而能持久。

接著是最後兩力。

團結力 的意思是,整個生態系必須獎勵合作:開放標準、互通互操作、可攜帶性,以及離開的自由。

共生力 的意思是,每一個 Civic AI 都必須被設計成可以交接、退場或關閉。不能有永久的統治者,也不能讓一個地方上有用的系統,自動擴張成普遍授權。

如果一個系統無法被檢視、無法被爭議、無法被修補、無法被退休,那它就還沒準備好服務民主社群。

對齊是一個持續的過程

2026 年 3 月 23 日,我們在 Habermolt 上進行了兩場實驗。這是一個開源平台,參與者先把自己的觀點、底線與不可退讓之處教給一個 AI 代理,然後讓這些代理在排序選擇的程序中彼此審議。

重點不是讓代理取代政治,而是讓人們能以一般論壇難以維持的規模與速度交換理由。

有些參與者相信市場會解決 AI 對齊;有些人主張每一個參數都該接受民主治理;也有人認為 AI 發展需要被大幅放慢。立場差異很大。

但在其中一個問題上,出現了廣泛收斂:AI 的對齊,不應該由少數工程師一次性地鎖定,而應該透過持續的民主程序來治理。

更深的重點就在這裡。對齊必須是一個活的動詞,而不是一個凍結的形容詞。

當 Civic AI 把自己的倫理問題當成純技術問題處理時,它其實已經被別的東西俘獲了:被方便性、被中心化,或被偽裝成公共理性的 wealth-care 所俘獲。

Kami,不是總督

今天,很多 AI 願景仍然想像一個凌駕於社會之上的通用系統:一個仁慈的總督、一個行星級大腦、一個透過「做得比我們更好」而讓政治變得多餘的超級智慧。

這是科技世界裡最危險的想法之一。

危險不只是因為它可能失敗,更危險的是,它可能看起來成功。一個把判斷權往上委派給單一最佳化器的社會,也許會得到速度,卻會失去公民肌肉。它也許會更有效率,卻也更不自由。

更好的圖像是 Kami

在日本傳統裡,Kami 屬於一個地方:一條河流、一片樹林、一座神社、一個街區。它的權威是地方性的,它的知識是具體的。它的角色不是統治整個世界,而是把自己所屬的那一部分世界照顧好。

這就是 Civic AI 應有的樣子。

學校可以有一種助理,診所可以有另一種,工會有另一種,城市也有另一種。每一個都被自己的目的所界定。每一個都能被檢視、被爭議、被替換。每一個都能互通互操作,但沒有任何一個有權統治整個人。

這會不會比一個系統管理一切更沒有效率?會。

而這正是民主可貴之處。

效率不是唯一的公共價值。一個有韌性的政體,需要多元制度、重疊問責,以及在地方失靈時能夠局部修正,而不是把一切都交給單一中心。

下一步要建什麼

問題已經不再是 AI 會不會塑造公共生活。它早就正在做這件事。真正的問題是:我們要接受一種會偽造公眾、操弄注意力、集中權威的 AI,還是要建造一種幫助真實的人一起推理、審議與決定的 Civic AI?

所以,這是我對在場每一位的邀請。

請在你的社群裡挑一項公共服務:入學分發、住宅分配、福利申請、醫療轉介、災害應變。

圍繞它開啟一次真正的審議。不是決策都已經做好之後的諮詢,而是一個讓受影響的人能在制度開始治理他們之前,就共同塑造制度的過程。

讓系統可以被檢視。讓承諾公開。讓申訴真的有效。讓退出成為可能。

建造一個有界的 Civic AI,幫助一個社群更清楚地聽見自己。

把你學到的事公開出來,包括失敗。民主不會因為隱藏錯誤而變強。它會在制度能公開被修正、又不至於因此崩潰時,變得更強。

我們真正最需要的超級智慧,仍然是人類彼此協作的能力。

前方的邊界

但仍有一個邊界,是我們還沒有理解得夠好。

那些在台灣參與審議的公民,帶進房間裡的不只是論點。他們也帶來悲傷、困惑、不信任、羞愧、希望,以及最後一點點重新生出的信任。公民生活的情緒質地,不是審議外圍的噪音,而就是審議本身的一部分。

我們正在學習如何建造能支撐結構、記憶、可爭議性與修補能力的 Civic AI。但我們還在學習:科技要如何遇見流經民主制度的情感生命,而不是把它壓扁成預測或操控。

Rosalind Picard 的一生工作,正是在這個邊界上。

所以,她的問題值得放在這場會議的正中央:我們想要的是只會模擬關心的技術,還是真能讓人的生活變得更好的技術?

這就是那個 Kami 從台灣帶到牛津的問題。

Rosalind,交給你了。

研討會