本報告彙集了在牛津大學羅德樓舉辦的2026 公民 AI 研討會中 61 位與會者的意見。活動期間,參與者透過 Polis 集體感知平台就 AI 與社區照護進行討論。Polis 運用機器學習識別共識領域並繪製意見群組圖譜——同時避免社群媒體的極化效應。參與者對簡短陳述表達同意、不同意或略過,也可以提交自己的意見。
每個點代表一項陳述。點擊或懸停查看詳情。藍綠色=廣泛共識,深色=意見分歧,紅色=多數不同意。
共識之處
在三個意見群組中,參與者對 20 項陳述中的 14 項達成了廣泛共識。其中五項被 Polis 標記為具有統計顯著性的共識。
在使用政府服務時,即使AI處理了大部分工作,人們仍應隨時能夠聯繫到真人。
學校應該教導孩子質疑AI告訴他們的內容,而不僅僅是如何使用它。
當AI協助做出關於你的福利、住房或健康的決定時,你應該被告知。
AI在照護機構中應該為工作人員騰出更多時間與住民相處,而非取代人與人之間的接觸。
AI公司在使用藝術家和作家的作品來訓練AI系統時,應該付費給他們。
當我與聊天機器人或AI助手交談時,我應該總是被告知它不是真人。
大型科技公司更在乎利潤,而非我們社區會發生什麼。
失智症患者應該對是否使用AI工具來照護他們擁有發言權。
如果AI系統因為種族、年齡或身心障礙而不公平地對待人們,應該有人為此負責。
社區應該在決定如何在當地學校和醫院使用AI時擁有發言權。
人們正在因AI驅動的決策而受到傷害,而政府的行動太慢了。
一個照顧人民的社區,比一個擁有最先進技術的社區更重要。
因AI失去工作的勞工應該得到實際幫助來找到新工作,而不只是建議。
英國應該建立一個獨立機構,擁有關閉有害AI系統的實權。
意見分歧之處
六項陳述在三個意見群組之間顯示出明顯的分歧。這些張力值得進一步探討。
在沒有人陪伴的情況下,用AI來陪伴長者,好過讓他們獨自一人。
在更好地了解AI對人們的影響之前,我們應該放慢AI的發展速度。
照顧重病家人的家庭應該被提供AI工具來協助,即使這些工具並不完美。
除非公司幫助員工找到新職位,否則不應被允許用AI取代他們。
牛津郡新建的AI資料中心將為當地居民創造好的工作機會,而不只是為外地的科技工作者。
學校中的AI工具對幫助落後學生趕上進度的效果,大於它對學習造成的傷害。
三種觀點
Polis 透過主成分分析(PCA)識別出三個不同的意見群組。群組是根據投票模式的相似性來劃分,而非人口統計資料。
每個點代表一位參與者,按投票相似度排列。投票模式相近的參與者聚集在一起。
群組 A:擁抱創新(17 位成員)
對 AI 採用最為開放的群組。他們較不擔心放慢腳步,也不認為公司應被迫幫助被取代的員工。他們支持用 AI 陪伴長者,但對提供不完美的 AI 工具給家庭持懷疑態度。
- 僅 6% 同意公司必須幫助被取代的員工(B 群組 67%,C 群組 86%)
- 47% 認為 AI 在學校中利大於弊(B 群組 8%,C 群組 0%)
- 僅 31% 希望放慢 AI 發展(B 群組 79%,C 群組 100%)
- 79% 支持用 AI 陪伴長者
群組 B:支持改革(21 位成員)
最大的群組。他們贊成向家庭提供 AI 工具——即使不完美——並希望加強勞工保障。他們認為 AI 公司應補償創作者,對有護欄的 AI 持開放態度。
- 94% 支持向家庭提供不完美的 AI 工具(A 群組 15%,C 群組 0%)
- 100% 同意因 AI 失業的勞工應獲得實際幫助
- 100% 同意 AI 公司應付費給藝術家和作家
- 79% 希望放慢 AI 發展
群組 C:謹慎質疑(8 位成員)
最小但立場最明確的群組。他們態度鮮明,對 AI 最為謹慎。他們希望放慢速度、要求嚴格監管,並拒絕提供不完美的 AI 工具。
- 100% 希望放慢 AI 發展
- 100% 不同意向家庭提供不完美的 AI 工具
- 100% 不同意 AI 在學校中利大於弊
- 100% 希望建立有權關閉有害 AI 系統的獨立機構