第 3 章:核心技術準則 — POUR 與 AI 治理層擴展
本章主旨
POUR 四原則(可感知 / 可操作 / 可理解 / 強健性)是 W3C 二十多年累積的介面層合規基石,但 AI 中介決策(招聘、信貸、醫療、社福核定)的失敗不在介面層 —— 失敗發生在演算法邏輯層,而 POUR 對演算法層沒有約束力。
對身障使用者尤其嚴重的是「驗證不對稱」問題:視障使用者無法視覺驗證 AI 輸出對自己的描述是否正確、認知障礙者無法重建被 AI 拒絕的決策過程、罕見障礙者撞上 AI 訓練資料盲點時 AI 是 silent fail(假陰性,無錯誤訊號)。POUR 全部通過,但 AI 系統本身仍可能系統性歧視特定族群。
本章提出 POUR 的治理層擴展 —— Contestability(可挑戰性) —— 涵蓋三要素:可接收的解釋、可操作的申訴路徑、具意義的人類複核。同時討論 AI 輔助無障礙技術(自動 alt text、即時字幕、視覺描述)帶來的便利與風險:「合規洗白」(自動填空 alt 屬性卻無語意內容)、低資源語言偏見(台語、客語、原住民族語準確率偏低)、幻覺信任困境,必須有對應的內建風險管理。
重要釐清:Contestability 不是 W3C 標準(WCAG 3.0 仍為 Working Draft,本身未涉及此議題),也不是與 POUR 並列的第五原則。本章把它定位為 AI 中介情境下 POUR 的治理層擴展,根植於既有學術提案(Alfrink et al. 2022〈Contestable AI by Design〉)+ 法律框架(GDPR Article 22、EU AI Act Article 13、台灣 AI 基本法子法)。AIA 的編輯位置是「整合既有框架」,不是「自創標準」。
3.1 POUR 在 WCAG 2.2 / 即將到來的 WCAG 3.0 下的演化
Section titled “3.1 POUR 在 WCAG 2.2 / 即將到來的 WCAG 3.0 下的演化”(待撰寫)四原則的當代詮釋,認知無障礙的興起。
3.2 從 POUR 延伸:AI 治理層的可挑戰性(Contestability)要求 [B2]
Section titled “3.2 從 POUR 延伸:AI 治理層的可挑戰性(Contestability)要求 [B2]”(待撰寫)POUR 為何在 AI 中介決策有結構性缺口(介面合規 vs 演算法邏輯);Contestability 三要素(可接收的解釋、可操作的申訴路徑、具意義的人類複核);與 Alfrink 2022、EU AI Act Art.13、GDPR Art.22 的銜接;對身障使用者的特殊風險(BLV 驗證不對稱、認知障礙者重建決策困難、罕見障礙者撞訓練資料盲點)。
3.3 AI 輔助無障礙技術現況
Section titled “3.3 AI 輔助無障礙技術現況”(待撰寫)alt text / 字幕 / 視覺描述 / 手語翻譯 / 螢幕閱讀器 AI 增強。
3.4 AI 無障礙的失敗模式
Section titled “3.4 AI 無障礙的失敗模式”(待撰寫)幻覺信任困境、少數語言偏見、形式合規幻象、身障者偏見。
3.5 對台灣的具體建議
Section titled “3.5 對台灣的具體建議”(待撰寫)在地語言無障礙基準、AI 解釋輸出強制無障礙格式、高風險 AI 身障影響評估。
「Be My Eyes + GPT-4V」全球部署 vs 台灣本土語言 AI 基準的缺位
(案例內文待撰寫)
(待撰寫表格)
研究素材:research/05_wcag22.md, research/08_pour_ai.md, research/17_ai_transparency.md