︿
Top

人工智慧風險的防火牆

瀏覽次數:863| 歡迎推文: facebook twitter wechat twitter twitter

王宇豪、趨勢研析與前瞻規劃團隊 發表於 2017年12月27日

 
以目前智慧科技的技術現況,電影或小說中「強人工智慧」的情境離實際仍有一段距離,隱藏其背後的潛在風險對一般人的感受更是遙如天際,而人類對未來的習性經常是發生後再來探討,人工智慧的威脅一直只出現在大家的嘴巴上。在嗅出相關風險的當下,難道我們只是坐看這火苗慢慢醞釀、茁壯? 其實世界各國早已開始著手築砌這道人工智慧風險的防火牆,由各個層面分別檢視未來可能發生的種種狀況,早一步地來做風險防治與控管,其內容涵蓋政策、科技、法律、倫理甚與是生存等議題。

    如歐洲議會於2017年2月16日已經正式向歐盟執委會提出議案,擬設立一套全面的法律來界定人工智慧所帶來的道德與法律責任問題,其立法動機在於人工智慧及機器人技術的發展迅速,已逐漸成為人類日常及經濟活動的一部分,希望透過立法規範來確保其安全無虞。目前立法決議尚在討論階段,未來將設立專門機構,落實相關人工智慧和機器人在技術與倫理上的監管。

    同樣是國家層級,美國白宮總統辦公室也於2016年12月正式發布名為《人工智慧、自動化與經濟》的白皮書,報告說明在人工智慧的衝擊下,諸如勞動市場、經濟與政策法令在未來可能面臨的挑戰,並提出因應未來工作型態改變所需的新教育、訓練及過渡的相關對策。英國科學辦公室也於2016年11月9日發布一份政策報告《人工智慧:機會與未來決策影響》,文中介紹人工智慧對於社會及政府的所產生的機會和影響,並提出適應由人工智慧作決策行為時的歸責,及風險管理機制等建議。

    在產業界方面,Google於2014年就提出設立倫理委員會,來確保人工智慧機器人技術不被濫用。OpenAI於2015年由Tesla、Y Combinator等公司共同出資成立,此非營利組織的設立主要聚焦在人工智慧的倫理問題。另外,臉書、亞馬遜、Alphabet、IBM與微軟等五大科技業者於2016宣布共同成立「造福人群與社會的人工智慧夥伴關係」(簡稱Partnership on AI)。Partnership on AI為一非營利組織,其希望通過一個標準開放式的模式,讓人工智慧在社會變遷過程中,變成一種包含道德、公平、包容、透明、隱私、互動、人與人工智慧的協作、信賴及可靠等方面的研究課題。期望能以此種涵蓋人類核心議題的發展,來消除人們對於人工智慧風險的疑慮。

    在學研界的防治更是蓬勃多元,如標準制定組織IEEE發佈的《合倫理設計:利用人工智慧和自主系統最大化人類福祉的願景》,旨在鼓勵科技人員在AI研發過程中,優先考慮倫理問題。2017年1月於美國加州舉行的Beneficial AI 2017 會議,由來自全球頂尖的 AI領域專家聯合簽署了未來人工智能發展的23 項原則(Asilomar AI Principles),內容包括AI開發中的安全、責任及應對AI造成的災難性風險。還有劍橋大學內的跨學科研究中心「存在風險研究中心」(簡稱CSER),其致力於研究和減輕可能導致人類滅絕或文明崩潰的風險,此機構就將人工智慧列為可能造成人類滅絕的主要風險之一,除提出警告外,還加以研究並探討防治方法。

  我們不知道人工智慧離人們還有多近,也不知道人工智慧對人們的影響會有多深,但若我們對人工智慧的防衛築得不夠厚,人工智慧對我們的傷害就一定比想像中大。


(作者是國家實驗研究院科技政策研究與資訊中心研究員)
本文刊登於經濟日報2017/12/27)

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1. 科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2. 著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。