POUR 原則的當代詮釋 + AI 輔助技術整合(暫存,公開發表時移除)
- WCAG 2.2(2023 年 10 月)新增 9 條 SC,其中 4 條(3.2.6、3.3.7、3.3.8、3.3.9)直接呼應 W3C COGA Task Force 對認知與學習障礙的長期倡議,標誌「認知無障礙」正式成為主流規範。
- WCAG 3.0 仍在草稿階段(2026 年 3 月 Working Draft),涵蓋 174 個 outcomes,預計最早 2029 年發佈正式版,短期內無法取代 WCAG 2.2 的法規依據地位。
- AI 輔助無障礙技術 2023-2025 快速商業化:Be My Eyes + GPT-4V(視覺描述)、AltGen EPUB alt text pipeline(97.5% 錯誤率降低)、Microsoft Seeing AI(擴展至 33 種語言)均已實際部署。
- AI 字幕在清晰英語語音下可達 95-98% 準確率,但對台語、客語等低資源語言辨識率顯著偏低,訓練資料匱乏與缺乏標準化書寫系統是主因。
- 視障用戶面臨獨特的「幻覺信任困境」:因無法即時比對原始圖像,AI 產生的錯誤描述或虛構內容難以被察覺,現有技術文件尚未提供系統性的幻覺偵測保護機制。
POUR 四原則現代詮釋
Section titled “POUR 四原則現代詮釋”Perceivable(可感知):內容須跨越模態差異,讓 AI 視覺模型(GPT-4V、Gemini Vision)能即時生成替代文字。WCAG 2.2 雖未在此原則新增 SC,但 AI alt text 自動化工具已讓大規模合規成本下降;關鍵是確保機器生成描述語意準確,而非僅形式合規。
Operable(可操作):操作障礙範疇擴及認知負擔。SC 3.3.8 Accessible Authentication (AA) 規定登入流程不得強迫使用者完成認知功能測試(記憶密碼、解謎);SC 2.5.8 Target Size (Minimum) 要求觸控目標最小 24×24 CSS 像素。
Understandable(可理解):SC 3.2.6 Consistent Help 要求幫助機制(客服、FAQ)在多頁流程保持相同位置;SC 3.3.7 Redundant Entry 規定同一流程中重複資訊須自動帶入,呼應 COGA「don’t make users recall」原則。
Robust(健壯性):延伸至 AI 時代的「輔助技術相容性」,要求內容能被 LLM 語意解析、螢幕閱讀器 AI 增強功能正確消費。Apple iOS 18 導入機器學習式 Screen Recognition,可自動識別未標記 UI 元素。
認知無障礙的興起
Section titled “認知無障礙的興起”W3C COGA Task Force(Cognitive and Learning Disabilities Accessibility Task Force)同時隸屬 AG WG 與 APA WG,產出兩份主要文件:(1) 整合進 WCAG 2 補充指引的「Cognitive Accessibility Guidance」設計模式;(2) 完整工作說明文件 “Making Content Usable for People with Cognitive and Learning Disabilities”,提供使用者情境角色與設計活動指南。
WCAG 2.2 將認知無障礙從「建議」推進至「可測試合規要求」原因:(1) 認知障礙者(含 ADHD、失智、閱讀障礙、自閉症)占身障人口最大但最不可見的群體;(2) 傳統 POUR 測試多以技術可偵測性為標準,無法量測「認知摩擦」;(3) COGA 透過多年用戶研究建立足夠可重現的測試方法。
AI 輔助無障礙技術現況
Section titled “AI 輔助無障礙技術現況”| 技術 | 廠商/工具 | 成熟度 | 主要風險 |
|---|---|---|---|
| 自動 alt text 生成 | AltText.ai、AllAccessible(GPT-4V)、AltGen | 商業化部署中;AltGen EPUB 測試 97.5% 錯誤降低 | 幻覺;對複雜圖表、文化特定圖像失準 |
| AI 即時字幕 | YouTube 自動字幕、Google Live Captions、Apple Live Captions、Clevercast | 英語 95-98% 準確率 | 口音、台語/客語/原住民語辨識率偏低 |
| AI 視覺描述 | Be My Eyes + GPT-4V、Microsoft Seeing AI(33 語言) | 規模化部署;2024 擴展 Windows 桌機版 | 視障者無法即時驗證;幻覺風險直接影響日常決策 |
| AI 手語翻譯 | SignAll(ASL);Gallaudet AI 中心 | 特定手語研究成熟,產品有限;台灣手語極度缺乏 | 訓練資料不足;身體姿態多維度辨識困難 |
| 螢幕閱讀器 AI 增強 | JAWS AI(桌機商用);Apple VoiceOver + Screen Recognition;Microsoft Narrator + Copilot | JAWS AI 桌機商用;VoiceOver AI 落後於 JAWS | AI 識別錯誤難察覺;閉源模型影響可稽核性 |
AI 無障礙的失敗案例與風險
Section titled “AI 無障礙的失敗案例與風險”幻覺信任困境:ArXiv 2604.00187 指出 BLV 用戶面臨「非對稱驗證問題」——目視使用者可立即判斷 AI 圖像描述是否荒謬,但 BLV 用戶缺乏視覺接地,一旦 AI 自信地描述不存在物件(如藥瓶標籤上劑量錯誤),後果直接關乎安全。
少數語言偏見:台語 ASR 準確率低於普通話,因訓練語料量級差距、台語缺標準化書寫、混語現象難建模。客語情況更嚴峻,2025 年 arxiv《Efficient Dialect-Aware Modeling for Taiwanese Hakka》揭示客語瀕危與 AI 支援缺口的相互強化。
身障者偏見:賓州州立研究發現多種主流 LLM 對含身障術語的文本系統性產生更多負面情感輸出,AI 訓練資料中的社會偏見會在輔助技術情境放大歧視。
形式合規幻象:AI 工具可批量為所有圖片插入 alt 屬性(達技術合規),但描述語意無效(反覆輸出 “image”、“photo of person”),創造「合規洗白」風險。
對白皮書「第 3 章 核心技術準則」的應用建議
Section titled “對白皮書「第 3 章 核心技術準則」的應用建議”一、在 POUR 框架外新增「AI 增強無障礙(AI-Augmented Accessibility)」原則,但以補充原則而非替代 POUR 的方式定位。POUR 處理內容層合規;AI 增強原則應處理動態生成層的品質責任。具體要求:AI 生成的替代內容須附帶信心分值與人工審核觸發機制;使用者須能選擇關閉或降級 AI 生成內容;AI 輔助功能不得使基礎無障礙合規退化。
二、針對 AI 幻覺與少數語言偏見,建議白皮書引入「在地語言無障礙基準」要求。台灣語言環境(普通話、台語、客語、原住民語)在 AI 訓練資料中均屬低資源,現有商業 AI 工具的準確率差異須以量化數據揭露。建議:凡在台灣公共服務部署的 AI 無障礙功能,須提交台語與客語語料的識別準確率報告,並訂最低門檻(如 85% WER 基準),不達標者不得以「提供字幕」聲稱符合無障礙要求。
三、採納 COGA 的認知無障礙設計原則,將 WCAG 2.2 認知 SC 擴展為可執行的設計檢核清單。SC 3.3.7-3.3.9 與 3.2.6 僅是入門門檻。建議引用 COGA「Making Content Usable」進一步要求台灣政府網站與公共服務平台:提供清晰使用者旅程地圖、避免多步驟認證中的記憶負擔、在 AI 聊天介面提供「簡化模式」選項。
- https://www.w3.org/WAI/standards-guidelines/wcag/new-in-22/
- https://www.w3.org/TR/WCAG22/
- https://www.w3.org/WAI/cognitive/
- https://www.w3.org/WAI/GL/task-forces/coga/wiki/WCAG_2.2_Success_Criteria_Groups
- https://www.w3.org/WAI/standards-guidelines/wcag/wcag3-intro/
- https://www.deque.com/blog/w3c-unveils-174-new-outcomes-for-wcag-3-0/
- https://arxiv.org/abs/2501.00113
- https://www.bemyeyes.com/news/introducing-be-my-ai-formerly-virtual-volunteer-for-people-who-are-blind-or-have-low-vision-powered-by-openais-gpt-4/
- https://openai.com/index/be-my-eyes/
- https://arxiv.org/html/2604.00187
- https://www.psu.edu/news/information-sciences-and-technology/story/ai-language-models-show-bias-against-people-disabilities/
- https://arxiv.org/html/2602.22522
- https://www.techpolicy.press/when-ai-cant-understand-your-language-democracy-breaks-down-/
- https://blogs.microsoft.com/blog/2024/03/07/ability-summit-2024-advancing-accessibility-with-ai-technology-and-innovation/
- https://afb.org/aw/spring2024/apple-screen-recognition-machine-learning-accessibility
- https://www.interprefy.com/resources/blog/ai-closed-captions-accuracy
- https://www.accessibility.com/org-spotlight/business/signall-technologies
- https://gallaudet.edu/research/artificial-intelligence-accessibility-and-sign-language-center/