歐盟:AI道德指南,具備三條件及七要件
科技產業資訊室 (iKnow) - 何思穎 發佈於 2019年4月23日
圖、歐盟:AI道德指南,具備三條件及七項要件
歐盟(EU)繼2018年12月首次草案(透過公開資訊收集超過500項意見)發布以後,AI高級專家小組於2019年4月8日發表了可信賴的AI道德指南(ETHICS GUIDELINES FOR TRUSTWORTHY AI)。
根據規範內容,可信賴的AI應具備以下條件:
(1)依法:須尊重所有適用法令及法條 (lawful - respecting all applicable laws and regulations)
(2)合乎正道:須尊重普世道德及價值 (ethical - respecting ethical principles and values)
(3)堅固耐用:技術發展同時仍應考量社會環境 (robust - both from a technical perspective while taking into account its social environment)
該指南條列出了未來AI系統應該滿足的7項關鍵要件,並提供詳細評估表以協助驗證:
- 人類自主性(Human agency)及監督:AI系統應幫助人類做出明智的決定及培養基本權利;與此同時,也必須提供適當的監督機制,人們不應該被AI系統操縱或強迫,人類要有能力干預或監督軟體所做的每一個決策。AI不應該踐踏人類的自主性。
- 技術穩健性及安全性:AI系統應具彈性及安全性,AI必須是安全的,確保意外狀況發生時還有備案,並同時保持準確、可靠且數據可重現(reproducible)。這是唯一能確保將意外降到最低並預防發生的方法。
- 隱私權及數據治理:除確保全方位的尊重隱私權及數據保護,還必須確認有適當的數據治理機制,並將數據的質量及完整性皆納入考量,同時確保數據訪問的合法性。
- 透明度:數據、系統及AI營運模式應透明化,追溯機制可幫助達成以上要求。另外,AI系統之利益相關者應該要能解釋AI系統及其所下之決定。人類一定要意識到,與他們互動的是AI系統,並且必須清楚告知AI的能力及限制。
- 多元性、無差別待遇及公正性:不公正之偏見行為可能導致多種負面影響,如邊緣化弱勢團體及更多歧視行為,務必要避免。為促進多元性,AI系統應可接受所有人來使用,不因其是否殘疾而受限,並在整個產品生命週期中都應將其相關利益關係者納入。
- 社會及環境福祉:AI系統應使全人類受益,包含未來世代。必須確保其永續性及環境友善,此外,應該將環境議題也納入考量,包含其他物種以及其他物種的社會及社會影響都應審慎思考。
- 責任歸屬:應建立機制以確保AI系統及其結果的權責及責任歸屬問題。特別是在重要應用中,具可稽核性使我們能夠評估演算法、數據和設計過程在其中起的關鍵作用。此外,也應確保足夠的無障礙補救措施。
後續將先建一套試點的操作流程
預計將建立一套試點操作流程,以便收集(操作時的關鍵要素)評估列表上的實際回饋,並能夠藉此進行改善。所有利害關係人都可以參與,預計於2019年夏季推出試點操作流程。
還會設立了一個論壇,促進可信賴AI實施的最佳做法之間的意見交流。
在試點階段收到反饋意見後,AI高級專家小組將在2020年初審閱關鍵要素的評估清單,並根據這項審查,委員會將評估結果並提出下一後續步驟。
有關該指南文件的相關信息以及審查評估清單的後續步驟,可參閱歐盟網站。(885字;圖1)
參考網站:
歐盟Ethics guidelines for trustworthy AI,8 April 2019。
本站相關資料
1.歐盟對中國提出10項具體行動以保歐洲繁榮
2.歐盟重罰Google 43.4億歐元、恐影響Android生態鏈
3.英國脫歐對歐盟市場競爭規範之可能影響
4.戴姆勒要求歐盟反壟斷調查諾基亞SEPs運作方式
5.歐盟企業偏愛保護創新的工具,營業秘密或專利?
--------------------------------------------------------------------------------------------------------------------------------------------