人工智慧時代須防範「人工智慧詐騙術」
科技產業資訊室 (iKnow) - Hana 發表於 2016年10月4日
圖、人工智慧誤判變造圖片
資料來源:首爾經濟
Alpha Go大勝韓國棋王,讓人類意識到人工智慧的能力以及重要性。然而研究發現,邏輯運算、推斷決策能力勝過人類的人工智慧,卻出乎意料地容易受騙。
美國賓夕法尼亞州大學的研究團隊與Google、美國軍方共同針對人工智慧可能會面臨何種惡意攻擊?例如:沙沙聲的噪音有可能頻率內含有命令Siri、Google Now等智慧手機的虛擬助理進行某項功能的指令。在使用者毫不知情的情況下瀏覽含有病毒或木馬程式的網站、email,導致使用者的智慧手機中毒、個資外洩,甚至引發各種爭端。
不僅如此,任何圖片被稍作修改後,人類肉眼看來兩張一模一樣的圖片,但在人工智慧演算法看來卻是截然不同的圖片(如圖一)。換言之,在人類眼中沒有異常的路面標誌或招牌,對於由人工智慧操控的無人駕駛車看來極有可能代表著不同意義,讓人工智慧錯誤判讀路面上的標誌而造成車禍。這類有別於傳統駭客入侵的「人工智慧詐騙術」,在人工智慧時代將成為人類社會極大的威脅。
追根究底,人工智慧之所以如此容易受騙,是因為在機器學習過程中只讓人工智慧學習單方面的知識,使其可以回答或做出正確抉擇,但卻沒有教導人工智慧理解知識。因此,應該如同人類幼兒學習一樣,人工智慧在學習何謂正確知識時也要同時學習何謂錯誤,藉由同時正、反兩面的教導,讓人工智慧建立更難被黑箱攻擊的演算法,才能大幅降低人工智慧被騙的機率。
身為前Google深度學習的主要研究人員之一,目前加入非營利人工智慧研究團隊的Open AI的Good Fellow博士表示,從實驗結果可以發現,如果只告訴人工智慧如何辨識什麼是正確的話,相對很容易被惡意重建另一套偽正確的演算法。然而,若將原始是的正確以及修改後的圖片同時給予人工智慧,訓練其辨識圖片的演算網絡時,則人工智慧錯認圖片的比率就會大幅減少,甚至人工智慧還能做得比原先的更好。
除了Good Fellow博士外,近年來致力於發展爆裂物機器人、無人機、外骨骼機器人的美國軍方也針對人工智慧詐騙技術進行研究。畢竟美國軍方砸重金推動軍隊智慧化,如果輕易就被擊潰,反而導致國防門戶大開。除了美國軍方之外,將人工智慧技術視為企業次世代成長動力的IT企業也開始投入相關研究,希望能盡快彌補漏洞,好讓人工智慧技術發展不會因此受挫。(712字;圖1)
參考資料:
- 인공지능을 속이는 방법. 首爾經濟, 2016/08/19.
本站相關文章:
- 科技巨頭搶併購人工智慧公司
- 谷歌旗下DeepMind揭露人工智慧結合醫療企圖
- 人工智慧取代電腦 成為人類助手
- 下一波趨勢是將人工智慧帶入智慧家庭
- IBM人工智慧「Watson」將進軍韓國市場
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|