︿
Top

不得不思考的人工智慧風險

瀏覽次數:6437| 歡迎推文: facebook twitter wechat Linked

王宇豪、趨勢研析與前瞻規劃團隊 發表於 2017年12月27日
facebook twitter wechat twitter

圖、人工智慧潛在風險
 
由於真正的人工智慧技術還未成熟,人類對自主智慧的風險預想大多集中在較可情境想像的「強人工智慧」如擁有高度智能的機器人上;隨著IoT/AI世代來臨,「弱人工智慧」已先滲入人類生活,這些由具自主思考之機器所產生的不確定性也已開始在人類社會中發酵,我們不得不更早審視所有可能影響的人工智慧範疇與其所產生的風險。

    資源分配極度不均:人工智慧已經開始改變我們的工作型態,2016年全球經濟論壇預測,人工智慧與機器學習將於未來幾年造成約700萬個工作機會消失,並同時創造出200萬個新創的工作機會;英國物理學家霍金也認為,人工智能的崛起將可能重創中產階級而留下少數特定的工作,導致嚴重的經濟失衡。這些推論都認為人類的「既有專業」將輕易地被機器快速複製,造成經濟階層結構性的調整並形成技術性的失業,生產效益與利潤會被集中掌握在少數擁有高度人工智慧資源的群體手中,因此貧富差異極劇,社會高度暴露在資源分配不均的風險環境中。

資訊壟斷:人類思考無法跳脫自身之經驗範疇外,機器也是如此。人工智慧若沒了數據,即便搭配再優異的運算硬體與演算方法仍無法在目標的領域中發揮功效。未來在相關軟硬體技術到位的情況下,「足夠且有用(海量且標記過)的數據」將是人工智慧產業建立利基的最大關鍵之一,各領域領先者會大量的對關鍵數據建立屏障來產生區隔,而使一般使用者取得數據的成本愈來愈高,造成「智者愈智、愚者愈愚」的資訊壟斷風險。

未來無隱私:麥肯錫預估2025年將會有1兆種類的物件相互聯網,這表示在物聯網趨勢下,未來我們的周遭可能全是資訊收集器,而在人工智慧技術的涵蓋下,這些資訊收集器可能都具有自主思考的功能並自行判斷所需的時機來開啟感測器。無論未來隱私權的防治可做到何種地步,人工智慧與萬物聯網的綜效一開始就將隱私權相關風險推進到一個很高的級數。

社會疏離:在網路時代盛行時,依賴網路虛擬世界來滿足社會互動的人數有顯著的提升,不同於真實世界,網路虛擬世界的友善讓人與人的交流充滿了想像與機會,網路虛擬的人格似乎也變得更有勇氣與創造力;但這畢竟不是真實世界,會讓對它極度依賴的群體產生跟真實世界間很大的落差,進而造成社會疏離的風險。而未來到了人工智慧時代,這個虛擬的世界得到了延伸,各種虛擬實境與人工智慧技術讓這虛擬世界更為真實,進而催生出更多上述的依賴群聚,造成真實社會間人際關係互動更疏離的現象。

無自主權:在智慧科技時代人類所做的各種決定都是自主的嗎? 過濾氣泡現象或許已先給了警訊:人工智慧已經進化到可以判斷出日常生活中我們常看且想看的資訊,進而篩選出它認為對人們有用的內容。機器投其所好的做法固然幫忙省了很多時間,但也讓我們得到的訊息越來越趨單一化,目前這現象普遍存在網路如搜尋引擎和社團群組裡。在未來AI物件更普及的世界中,這種人類過度依賴且被單一化價值(或者是目標化價值)的現象會往更惡化的方向升級,導致人類在各領域無自主思考的風險,這某種程度上也算是人類心智上的滅亡危機。


(作者是國家實驗研究院科技政策研究與資訊中心研究員)
本文刊登於經濟日報2017/12/27)

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。