跳到內容

AI 透明度、演算法問責、自動決策可挑戰權對無障礙的衝擊(暫存,公開發表時移除)

  • EU AI Act Article 13 要求高風險 AI 系統提供充分透明度,使部署者能解讀輸出;Article 50 強制要求生成式 AI 輸出加附機器可讀標記,但上述規範均以「部署者」為主要受眾,身障終端用戶的直接知情權仍有落差
  • GDPR Article 22 確立了對純自動化決定的抵制權與「人類介入」請求權,但「具意義的人類審查」在實務上常流於形式:審查者若無權推翻系統建議,該機制形同虛設。
  • 美國 EEOC 於 2023 年 iTutorGroup 案完成首件 AI 招聘歧視和解,CFPB 亦明確指出不得以「黑盒模型過於複雜」作為拒絕說明拒貸原因的藉口,兩者均確認現行反歧視法適用於 AI 工具。
  • 台灣《個人資料保護法》目前完全欠缺自動決策的定義與限制規範;2024 年底送至行政院的《人工智慧基本法》草案首次納入「可解釋性」與「可挑戰性」原則(已於 2025.12.23 三讀通過)。
  • Wachter 與 Mittelstadt(2018)提出的「反事實解釋」(counterfactual explanation)框架,提供了一種在不揭露商業秘密的前提下讓用戶理解「如何改變結果」的技術路徑,已被 Google TensorFlow What-If Tool 採納,對設計可挑戰機制具有直接實踐價值。
法規 / 規範條款對自動決策的限制影響範圍
EU AI ActArticle 13高風險 AI 須向部署者揭露能力、限制、準確率、風險招聘、信貸、醫療、移民等高風險領域
EU AI ActArticle 50生成式 AI 輸出須加機器可讀 AI 標記;深偽須明顯標示所有 GPAI 系統輸出
GDPRArticle 22禁止純自動化產生法律效果的決定;當事人有權要求人類介入、表達觀點、申訴EU 境內針對自然人的自動化決定
美國 ADA / EEOC 指引(2022-2023)Title I + ADA § 102AI 招聘工具不得因障礙特徵(非工作能力)篩除求職者;雇主對第三方工具承擔連帶責任使用 AI 招聘工具的所有美國雇主
美國 ECOA / CFPB 指引Equal Credit Opportunity ActAI 信貸模型不得以「太複雜」為由拒絕說明拒貸原因;必須提供具體 adverse action notice所有美國信貸機構
台灣個資法全法無相關條款無自動決策定義、無申訴機制、無解釋義務規範缺口待《AI 基本法》填補
台灣《AI 基本法》2025.12.23 三讀通過確立「可解釋性」與「可挑戰性」原則;具體義務待子法涵蓋範圍尚在立法協商

案例一:視障求職者遭 AI 招聘平台系統性排除

美國 ADA.gov 2023 年指引明確指出,若招聘平台的線上面試系統無法與螢幕閱讀器(screen reader)相容,視障求職者不只面臨「介面障礙」,更面臨「黑盒不對稱」:他們無法視覺驗證 AI 對其面試表現的評分邏輯,亦無法確認演算法是否以其使用輔助工具作為負面信號。Mobley v. Workday, Inc.(2023 年,仍在訴訟中)原告主張 Workday 的申請人篩選演算法對身障者、特定族裔及年長者系統性不利。

案例二:AI 人臉與聲音分析誤篩自閉症與語言障礙求職者

EEOC 指引(2022)指出,以臉部表情和語音特徵評估「工作適配性」的 AI 面試工具(如 HireVue 類),對自閉症光譜、口吃或其他言語障礙者的評分系統性偏低,因模型以「神經典型」(neurotypical)人士的表情節律與語速為基準。**iTutorGroup 案(2023)**雖直接涉年齡歧視,但其核心問題機制(AI 自動拒件、無人工複核、無申訴管道)在身障歧視場景中完全相同。

案例三:AI 醫療影像診斷對少見障礙的系統性漏診

Nature Medicine(2021)及多篇後續研究確認,醫療影像 AI 因訓練資料中罕見疾病樣本不足,對此類族群假陰性率顯著偏高(農村肺炎 AI 偵測假陰性率比一般族群高 23%)。對原本就面臨就醫障礙的身障者而言,若輔助診斷 AI 又系統性漏掉其特定狀況,且系統未提供任何解釋或複核管道,後果涉及健康安全而非僅行政不便。

範例一:反事實解釋介面(Counterfactual Explanation UI) Google TensorFlow What-If Tool 實作 Wachter 等人(2018)框架:用戶輸入個人資料後,系統不開放模型權重,但以「如果你的 X 改為 Y,決定將會改變」的具體語句呈現結果邊界。無障礙設計要求:(1)以純文字而非純視覺圖表呈現反事實;(2)鍵盤全程可操作;(3)提供替代文字描述邊界條件。

範例二:政府貸款 / 社會福利 AI 拒件後的申訴流程設計 Contestable AI 研究專案(Tufts University 2024)及英國 ICO 指引強調:AI 拒件通知頁面應包含(1)以平白語言說明主要拒件原因;(2)明確的「申請人工審查」按鈕,符合 WCAG 2.1 AA 對鏈結文字與焦點可見度要求;(3)上傳補充文件的無障礙表單;(4)處理時間承諾與通知機制。英國 ICO 明確指出,若申訴管道本身不符無障礙標準,GDPR Article 22 的人類介入權在實務上形同無效

對白皮書「第 3 章 核心技術準則」的應用建議

Section titled “對白皮書「第 3 章 核心技術準則」的應用建議”

建議一:在 POUR 之上新增「Contestable(可挑戰)」第五原則 WCAG 的 POUR 框架定義介面層的技術義務,但未觸及「AI 決定本身的透明度與可挑戰性」這一層。白皮書應建議,凡涉及 AI 自動決策的系統(招聘、社福核定、金融服務),須具備:可接收的解釋、可操作的申訴路徑、具意義的人類複核,三者缺一不可。「Contestable」原則呼應 GDPR Article 22 及 EU AI Act Article 13,也可作為台灣《AI 基本法》子法立法的技術錨點。

建議二:要求 AI 解釋以無障礙格式強制輸出 目前多數 AI 解釋工具(SHAP、LIME、What-If)預設以視覺圖表呈現特徵重要性,對視障用戶完全不可及。白皮書應要求所有高風險 AI 系統的解釋輸出,同時提供:結構化純文字版本(screen reader 可解析)、符合 WCAG 1.1.1 的替代文字、簡易語言(plain language)摘要(涵蓋認知障礙用戶)。

建議三:填補台灣個資法空白的過渡倡議策略 在《AI 基本法》子法通過前,建議兩條路徑並行:(1)要求使用 AI 輔助決策的政府機關依《行政程序法》第 96 條說明理由義務,將 AI 決策邏輯納入行政說明書;(2)參照 CFPB adverse action notice 模型,要求金融機構及社福機關對涉及 AI 的拒件通知提供可懂的具體原因,不得以「系統自動判定」作為說明全部。

  1. https://artificialintelligenceact.eu/article/13/
  2. https://artificialintelligenceact.eu/article/50/
  3. https://gdpr-info.eu/art-22-gdpr/
  4. https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/individual-rights/individual-rights/rights-related-to-automated-decision-making-including-profiling/
  5. https://www.eeoc.gov/newsroom/itutorgroup-pay-365000-settle-eeoc-discriminatory-hiring-suit
  6. https://www.ada.gov/resources/ai-guidance/
  7. https://www.consumerfinance.gov/about-us/newsroom/cfpb-acts-to-protect-the-public-from-black-box-credit-models-using-complex-algorithms/
  8. https://www.consumerfinance.gov/about-us/newsroom/cfpb-issues-guidance-on-credit-denials-by-lenders-using-artificial-intelligence/
  9. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3063289
  10. https://facctconference.org/static/pdfs_2022/facct22-3533169.pdf
  11. https://www.nature.com/articles/s41591-021-01595-0
  12. https://ppc.land/taiwan-drafts-ai-basic-act-amid-chip-dominance-and-regulatory-gaps/
  13. https://iclg.com/practice-areas/data-protection-laws-and-regulations/taiwan
  14. https://link.springer.com/article/10.1007/s11023-022-09611-z
  15. https://engineering.tufts.edu/news-events/news/contestability-government-related-ai-systems