一位照護工作者在安養機構結束了十二小時的夜班。她花了最後一個小時填寫一份新的 AI 語音轉錄工具原本應該處理的文書作業。這個工具的設計目的是節省時間——在某個儀表板上,它確實做到了。但它是圍繞一個行政問題而建造的,不是圍繞她。沒有人問過她需要什麼。也沒有人問過她照顧的人。
這正是覺察力要彌合的落差:最接近問題的人與做出決策的制度之間的距離。在長期照護中——AI 越來越多地被用於從照護評估到語音啟動支援的各個環節——這段距離可以非常遙遠。
2024 年 2 月至 2025 年 3 月間,一項跨部門協作召集了英國長期照護社群的 100 多位代表,共同產製長期照護中負責任仁工智慧的定義。協作者包括照護與支援受益者、無酬照顧者、專業照護工作者、照護提供者、科技提供者、政策制定者、決策者,以及公民社會代表。三位來自學界、私部門與公民社會的主持人協調了這項工作。
最終定義發表於《刺胳針健康長壽》(The Lancet Healthy Longevity),以照護價值——而非效率指標——作為 AI 政策與實踐的出發點。這項工作之所以成為覺察力的案例研究,不僅在於協作產出了什麼,更在於如何產出:透過練習察覺誰被遺漏、先傾聽再解決問題、以及拒絕讓強勢聲音不受挑戰地主導議程。
共同產製如何實踐覺察力
關係優先
這項協作並非從一個技術問題開始。它從一場圓桌會議開始——向長期照護社群發出公開邀請,建立跨部門的關係,並對照護中 AI 的現況形成共識。第一階段的目標不是產出成果,而是建立坦誠對話所需的信任和跨部門連結。社會照護卓越研究院(SCIE)的共同產製原則引導了整個過程,以平等、多元、可及性和互惠為基礎:透過安全、自願的管道傾聽,而非擷取數據。
權力必須回答問題
這項協作刻意設計了結構,以浮現並處理權力不平衡。照護受益者和照顧者——通常受制於政策制定者、科技開發者和照護機構等更有權力行動者決策的群體——被定位為平等的協作者,而非被諮詢者。工作小組開了三到五次會,探索 AI 對其照護、工作和生活的意義。當群體間出現緊張關係時,會被公開指認。照護受益者和照顧者表示在當前政策格局中感到代表性不足。科技提供者承認了開放性與商業壓力之間的張力。這些分歧沒有被掩飾;它們被記錄為工作的一部分。
故事先於規格
這個過程從故事開始,而非規格。工作小組首先探索 AI 和生成式 AI 在參與者日常生活中的意義——在家中、在工作中、在照護中。協作者分享了使用特定 AI 產品的經驗,討論了希望和擔憂,並反思自己作為開發者、使用者或 AI 系統對象的角色。數字和正式定義是後來才出現的,建立在這些扎實的個人敘事之上。協作產出的負責任仁工智慧定義,讀起來不像一份技術標準,而像一份關於人們重視什麼的聲明:AI 不應取代人際互動,應支持獨立與尊嚴,而其使用應是知情且安全的選擇。
權利作為底線
最終浮現的定義植根於這樣的觀點:照護是與幸福、尊嚴、平等和人權相繫的人類需求。協作者一致認為,照護中 AI 的出發點不應是技術潛力,而應是長期照護在保護和促進獨立、選擇與掌控、尊嚴,以及照護受益者幸福方面的角色——正如國際和國內法律所保障的。權利不是事後附加在技術框架上的;它們是一切的基礎。
拒絕虛假的多元
這項協作主動採取措施,避免徒有包容之表而無其實。它遵循了 SCIE 的共同產製階梯,其中諮詢被排在最低層級,平等夥伴關係排在最高。照護工作者慈善基金會的「以照護工作者為中心」指南為方法提供了參考。經驗豐富的引導者和公民社會團體帶領工作小組。當某些聲音有主導之虞——例如商業壓力與照護價值衝突時——過程的結構確保了較安靜、較脆弱的觀點不被抹消。最後階段召集了 50 多位協作者到場進行審議式集會,面對面辯論並定稿了定義與實踐指南。
從理念到實踐
共同產製經歷了四個階段,每個階段都深化了覺察力的實踐:
廣泛傾聽。 一場圓桌會議召集了長期照護社群的各方代表。目標不是解決問題,而是理解現況:AI 在照護中已經做了什麼、人們希望什麼、又害怕什麼。一份共同聲明被發表,約 30 個組織簽署背書,為接下來的工作確立了兩個目標。
描繪關係與分歧。 主題工作小組圍繞價值觀、良好照護原則和倫理評估而成立。隨著對話推進,參與者反思了他們不同的角色——開發者、使用者、對象——以及彼此之間的權力動態。每個小組選擇一項成果公開共創:科技提供者起草了一份承諾書;照護專業人員提出了對培訓、問責和投資的要求;照護受益者發表了一份關於什麼對他們最重要的聲明。
交出憑據。 一個統籌的共同產製工作小組審查了前幾個階段的所有產出。這是問責層——確保在工作小組中聽到的聲音被忠實地帶入合併文件。最終的定義和實踐原則不是由研究者獨自撰寫,而是從所有小組的貢獻中彙編而成,並有透明的歸屬。
踩著煞車做決定。 最後階段是一場審議式集會。50 多位協作者親自到場,檢視定義和實踐指南。共識點被識別出來。但未解決的緊張關係也是:對共同產製淪為修辭的擔憂、對執行財務現實的擔憂、對照護受益者與制度之間不信任的擔憂。這些開放性問題被作為工作的一部分發表,而非隱藏。
他們建造了什麼
這項協作產出了幾項具體成果,在實踐中體現了覺察力:
以照護為核心的負責任仁工智慧定義——一個從人們在照護中重視什麼(人際連結、尊嚴、選擇)出發的框架,而非從科技能最佳化什麼出發。定義指出,AI 的使用不應損害、傷害或違反照護的基本價值、人權、獨立、選擇與掌控、尊嚴、平等和幸福。
涵蓋十一個領域的實踐原則——包括改善照護與支援、選擇與掌控、可及性、培訓、資料隱私、透明度、人際接觸與連結、偏見與歧視、持續改善、共同產製和永續科技。這些原則不是從現有的 AI 倫理框架中提取的,而是由身處照護系統中的人從頭建構的。
各工作小組的部門特定產出——一份科技提供者承諾書、照護專業人員的要求,以及照護受益者的聲明。這些是覺察力的製品:證明不同群體以各自的方式被聽見,而非被壓縮成一份單一的共識文件。
一份已發表的共同聲明,約 30 個組織簽署背書,標誌著第一步,並讓協作的承諾對更廣大的部門可見。
可能出錯的地方
這項協作本身浮現了幾項風險:
共同產製淪為傾聽劇場。 協作者提出擔憂,認為共同產製原則在實踐中鮮少被遵循,限制了有生活經驗者的有意義參與。修正: 協作將 SCIE 的共同產製框架和照護工作者慈善基金會的「以照護工作者為中心」指南作為結構性保障,而非僅是理想性參考。
結果導向的敘事壓過照護價值。 一個關鍵擔憂是,政府和提供者可能過於熱衷地擁抱 AI,在缺乏充分證據或監督的情況下推動狹隘的結果導向敘事。AI 的採用可能促使安養機構裁員,損害整體照護品質。修正: 定義明確拒絕從效率指標出發,而是將負責任的仁工智慧錨定在人權和照護價值上。
強勢聲音主導議程。 科技開發者面臨競爭和快速出貨的壓力。當上市速度是優先考量時,開放和對話可能充滿挑戰。修正: 刻意的流程設計確保了照護受益者和工作者擁有平等地位,商業利益不會主導框架的建構。
選擇和人際接觸的減少。 照護受益者表達了擔憂:他們可能被提供不適合個人需求的科技選項,以自動化替代品取代人際關係。修正: 定義明確指出,AI 應支持和增強照護關係,而非取代人際互動或照護提供。
可及性的公平問題。 協作者指出了對 AI 系統採購和維護所需財務資源的擔憂,以及這些資源是否能平等地讓每個人都取得。修正: 可及性被確立為核心原則——AI 系統應讓有不同需求的人都能使用,費用不應製造新的不平等。
部門間的不信任。 照護受益者和照顧者對 AI 是否真的為他們服務,而非為政策制定者和提供者的利益服務表示懷疑。部分群體對政策制定者和照護提供者表達了不信任。修正: 公開發表緊張關係、分歧和未解決的問題。對未達成共識之處保持透明,本身就是一種覺察力的實踐。
共同產製疲勞。 這個過程耗時且昂貴。在四個階段中維持真正的參與需要資源,而這些資源未必總是可用的。修正: 協作將共同產製作為原則嵌入定義本身,主張應將其融入 AI 生命週期以及照護服務和更廣泛政策中的 AI 推行——而非視為一次性的諮詢活動。
介面
本案例研究與框架中的其他「力」相連:
→ 負責力(Pack 2): 協作明確地在行動者之間分配了責任——科技開發者、照護提供者、政策制定者——並主張長期照護法規與 AI 監督之間應有更清晰的連結。當 AI 在照護中造成傷害時,誰該負責,是一個反覆出現的主題。
→ 勝任力(Pack 3): 實踐原則包括培訓(人們應能了解照護服務中使用的 AI 系統)和持續改善(使用者回饋應帶來系統改進或風險緩解)。這些直接對應勝任力——做好照護工作的能力。
→ 回應力(Pack 4): 定義對選擇與掌控的堅持——人們應能對其使用和被施加的 AI 做出知情選擇——是一項回應力主張。照護必須適應接受照護的人,而非相反。
Green C, Reinmund T, Hamblin K, Sinha SK. Responsible use of artificial intelligence in the provision of long-term care for older people: a care-centric approach. The Lancet Healthy Longevity, 2026.