圖、美國商務部研擬AI責任規則政策,以建立負責任與可信任的AI發展
4月11日,美國商務部國家電信暨資訊管理局(National Telecommunications and Information Administration, NTIA)發起一項人工智慧(AI)責任政策的公開意見徵求,旨在促進AI系統的生產力效益,同時防止其對個人和社會造成不利影響。透過意見徵求來收集各界的見解,為美國政府在政策推動與制定上提供資訊,同時也能確保政府在AI相關風險與機會上,採取統一且全面性的方法。
人工智慧技術正在快速發展,成為當今數位時代的一個關鍵領域。AI系統可以幫助人們完成許多工作,並對全球經濟和社會帶來了重大的影響。然而,隨著AI技術的發展和應用越來越廣泛,人們對AI潛在的負面影響也越來越擔心。
例如,AI可能受到設計者偏見或訓練資料偏見的影響,產生歧視性言論或行為。在無法確認AI模型適用範圍的前提下,過度依賴AI提供的資料和建議將導致糟糕的決策,或者甚至在某些情況下導致災難性的後果。因此,確保 AI 系統的責任制生態系統是必要的。
NTIA希望透過此次徵求意見,了解AI生態系的現狀和挑戰,並制定出適用於不同領域和場景的AI責任制原則和標準。這些政策可能涉及AI系統的可解釋性、可驗證性和可監管性,以及數據的隱私和安全保護等方面。NTIA的目標是建立一個符合法律和道德規範,並能夠滿足社會期待和需求的AI責任制框架,從而推動AI技術的持續創新,並為人類帶來更多的利益。NTIA 的徵求意見將主要集中在三個主題:
- 在開發和導入AI過程,AI 開發公司和企業客戶應進行那些類型的信任測試和安全測試
- 進行審計和評估所需的哪些數據存取
- 監管機構和其他參與者如何透過獎勵和輔助機制,確保AI系統的風險評估、測試驗證、認證審核等工作,促使企業或公司提供可信保證的AI產品和服務
--------------------------------------------------------------------------------------------------------------------------------------------