AI 透明度、演算法問責、自動決策可挑戰權對無障礙的衝擊(暫存,公開發表時移除)
- EU AI Act Article 13 要求高風險 AI 系統提供充分透明度,使部署者能解讀輸出;Article 50 強制要求生成式 AI 輸出加附機器可讀標記,但上述規範均以「部署者」為主要受眾,身障終端用戶的直接知情權仍有落差。
- GDPR Article 22 確立了對純自動化決定的抵制權與「人類介入」請求權,但「具意義的人類審查」在實務上常流於形式:審查者若無權推翻系統建議,該機制形同虛設。
- 美國 EEOC 於 2023 年 iTutorGroup 案完成首件 AI 招聘歧視和解,CFPB 亦明確指出不得以「黑盒模型過於複雜」作為拒絕說明拒貸原因的藉口,兩者均確認現行反歧視法適用於 AI 工具。
- 台灣《個人資料保護法》目前完全欠缺自動決策的定義與限制規範;2024 年底送至行政院的《人工智慧基本法》草案首次納入「可解釋性」與「可挑戰性」原則(已於 2025.12.23 三讀通過)。
- Wachter 與 Mittelstadt(2018)提出的「反事實解釋」(counterfactual explanation)框架,提供了一種在不揭露商業秘密的前提下讓用戶理解「如何改變結果」的技術路徑,已被 Google TensorFlow What-If Tool 採納,對設計可挑戰機制具有直接實踐價值。
法規框架對照
Section titled “法規框架對照”| 法規 / 規範 | 條款 | 對自動決策的限制 | 影響範圍 |
|---|---|---|---|
| EU AI Act | Article 13 | 高風險 AI 須向部署者揭露能力、限制、準確率、風險 | 招聘、信貸、醫療、移民等高風險領域 |
| EU AI Act | Article 50 | 生成式 AI 輸出須加機器可讀 AI 標記;深偽須明顯標示 | 所有 GPAI 系統輸出 |
| GDPR | Article 22 | 禁止純自動化產生法律效果的決定;當事人有權要求人類介入、表達觀點、申訴 | EU 境內針對自然人的自動化決定 |
| 美國 ADA / EEOC 指引(2022-2023) | Title I + ADA § 102 | AI 招聘工具不得因障礙特徵(非工作能力)篩除求職者;雇主對第三方工具承擔連帶責任 | 使用 AI 招聘工具的所有美國雇主 |
| 美國 ECOA / CFPB 指引 | Equal Credit Opportunity Act | AI 信貸模型不得以「太複雜」為由拒絕說明拒貸原因;必須提供具體 adverse action notice | 所有美國信貸機構 |
| 台灣個資法 | 全法無相關條款 | 無自動決策定義、無申訴機制、無解釋義務 | 規範缺口待《AI 基本法》填補 |
| 台灣《AI 基本法》 | 2025.12.23 三讀通過 | 確立「可解釋性」與「可挑戰性」原則;具體義務待子法 | 涵蓋範圍尚在立法協商 |
對身障者的特殊風險
Section titled “對身障者的特殊風險”案例一:視障求職者遭 AI 招聘平台系統性排除
美國 ADA.gov 2023 年指引明確指出,若招聘平台的線上面試系統無法與螢幕閱讀器(screen reader)相容,視障求職者不只面臨「介面障礙」,更面臨「黑盒不對稱」:他們無法視覺驗證 AI 對其面試表現的評分邏輯,亦無法確認演算法是否以其使用輔助工具作為負面信號。Mobley v. Workday, Inc.(2023 年,仍在訴訟中)原告主張 Workday 的申請人篩選演算法對身障者、特定族裔及年長者系統性不利。
案例二:AI 人臉與聲音分析誤篩自閉症與語言障礙求職者
EEOC 指引(2022)指出,以臉部表情和語音特徵評估「工作適配性」的 AI 面試工具(如 HireVue 類),對自閉症光譜、口吃或其他言語障礙者的評分系統性偏低,因模型以「神經典型」(neurotypical)人士的表情節律與語速為基準。**iTutorGroup 案(2023)**雖直接涉年齡歧視,但其核心問題機制(AI 自動拒件、無人工複核、無申訴管道)在身障歧視場景中完全相同。
案例三:AI 醫療影像診斷對少見障礙的系統性漏診
Nature Medicine(2021)及多篇後續研究確認,醫療影像 AI 因訓練資料中罕見疾病樣本不足,對此類族群假陰性率顯著偏高(農村肺炎 AI 偵測假陰性率比一般族群高 23%)。對原本就面臨就醫障礙的身障者而言,若輔助診斷 AI 又系統性漏掉其特定狀況,且系統未提供任何解釋或複核管道,後果涉及健康安全而非僅行政不便。
可挑戰權的設計實踐
Section titled “可挑戰權的設計實踐”範例一:反事實解釋介面(Counterfactual Explanation UI) Google TensorFlow What-If Tool 實作 Wachter 等人(2018)框架:用戶輸入個人資料後,系統不開放模型權重,但以「如果你的 X 改為 Y,決定將會改變」的具體語句呈現結果邊界。無障礙設計要求:(1)以純文字而非純視覺圖表呈現反事實;(2)鍵盤全程可操作;(3)提供替代文字描述邊界條件。
範例二:政府貸款 / 社會福利 AI 拒件後的申訴流程設計 Contestable AI 研究專案(Tufts University 2024)及英國 ICO 指引強調:AI 拒件通知頁面應包含(1)以平白語言說明主要拒件原因;(2)明確的「申請人工審查」按鈕,符合 WCAG 2.1 AA 對鏈結文字與焦點可見度要求;(3)上傳補充文件的無障礙表單;(4)處理時間承諾與通知機制。英國 ICO 明確指出,若申訴管道本身不符無障礙標準,GDPR Article 22 的人類介入權在實務上形同無效。
對白皮書「第 3 章 核心技術準則」的應用建議
Section titled “對白皮書「第 3 章 核心技術準則」的應用建議”建議一:在 POUR 之上新增「Contestable(可挑戰)」第五原則 WCAG 的 POUR 框架定義介面層的技術義務,但未觸及「AI 決定本身的透明度與可挑戰性」這一層。白皮書應建議,凡涉及 AI 自動決策的系統(招聘、社福核定、金融服務),須具備:可接收的解釋、可操作的申訴路徑、具意義的人類複核,三者缺一不可。「Contestable」原則呼應 GDPR Article 22 及 EU AI Act Article 13,也可作為台灣《AI 基本法》子法立法的技術錨點。
建議二:要求 AI 解釋以無障礙格式強制輸出 目前多數 AI 解釋工具(SHAP、LIME、What-If)預設以視覺圖表呈現特徵重要性,對視障用戶完全不可及。白皮書應要求所有高風險 AI 系統的解釋輸出,同時提供:結構化純文字版本(screen reader 可解析)、符合 WCAG 1.1.1 的替代文字、簡易語言(plain language)摘要(涵蓋認知障礙用戶)。
建議三:填補台灣個資法空白的過渡倡議策略 在《AI 基本法》子法通過前,建議兩條路徑並行:(1)要求使用 AI 輔助決策的政府機關依《行政程序法》第 96 條說明理由義務,將 AI 決策邏輯納入行政說明書;(2)參照 CFPB adverse action notice 模型,要求金融機構及社福機關對涉及 AI 的拒件通知提供可懂的具體原因,不得以「系統自動判定」作為說明全部。
- https://artificialintelligenceact.eu/article/13/
- https://artificialintelligenceact.eu/article/50/
- https://gdpr-info.eu/art-22-gdpr/
- https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/individual-rights/individual-rights/rights-related-to-automated-decision-making-including-profiling/
- https://www.eeoc.gov/newsroom/itutorgroup-pay-365000-settle-eeoc-discriminatory-hiring-suit
- https://www.ada.gov/resources/ai-guidance/
- https://www.consumerfinance.gov/about-us/newsroom/cfpb-acts-to-protect-the-public-from-black-box-credit-models-using-complex-algorithms/
- https://www.consumerfinance.gov/about-us/newsroom/cfpb-issues-guidance-on-credit-denials-by-lenders-using-artificial-intelligence/
- https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3063289
- https://facctconference.org/static/pdfs_2022/facct22-3533169.pdf
- https://www.nature.com/articles/s41591-021-01595-0
- https://ppc.land/taiwan-drafts-ai-basic-act-amid-chip-dominance-and-regulatory-gaps/
- https://iclg.com/practice-areas/data-protection-laws-and-regulations/taiwan
- https://link.springer.com/article/10.1007/s11023-022-09611-z
- https://engineering.tufts.edu/news-events/news/contestability-government-related-ai-systems