︿
Top

「自主性武器」引發聯合國關注,AI學者呼籲立法限制

瀏覽次數:3933| 歡迎推文: facebook twitter wechat twitter twitter

科技產業資訊室 - 袁子鈞 發佈於 2018年4月27日

圖、
「自主性武器」引發聯合國關注,AI學者呼籲立法限制
 
聯合國於2016年的傳統武器大會(Convention on Certain Conventional Weapons, CCW)後,針對「致命的自主化武器系統」(Lethal Autonomous Weapons Systems ,LAWs)設立了監管專家小組(Group of Governmental Experts ,GGE),並在今年(2018)四月9日至13日於日內瓦招開了第二次大會。然而,就在大會前一周,多國的AI專家連署發起一份聲明稿,指名對南韓科學技術院(KAIST)進行抵制。
 
今年二月,南韓科學技術院宣布將與南韓十大財團之一的韓華集團,旗下的防務公司韓華系統(Hanwha Systems)共同建立一個研究中心,目標是「開發可應用於軍事武器的人工智慧技術」,以達到「無須人為控制的偵測並消除目標」,這使世界各國的AI學者感到不安。參與這次連署的學者說,他們將停止與南韓科學技術院的所有合作並拒絕接待該校的來賓,直到該校承諾所研發的武器將會具有「合理的人為控制」。

這樣的不安並非毫無來由。南韓科學技術院是世界級的研究單位,其研究成果放眼世界仍是表現亮眼,包含贏得2015年DARPA機器人挑戰賽的DRC-Hubo機器人。然而,韓華系統公司是韓國最大的軍火商,其產品包括受到國際條約禁用的集束炸藥。

南韓科學技術院的校長申興哲表示,對於這次抵制他感到十分遺憾,並再次重申,KAIST不會進行任何與人類尊嚴背道而馳的研究,包括不受控的自主性武器。在南韓科學技術院做出承諾之後,抵制事件也告一個段落。

但「自主性武器」對未來的威脅卻仍然存在。若放任自主性武器的發展,便會加快戰爭的速度與規模,更要承擔人工智慧「誤判」的風險。

本屆聯合國傳統武器大會,最大的目標便是訂定出限制「致命的自主性武器系統(Lethal Autonomous Weapons Systems, LAWs)」的國際公約,因為相關法規的訂定速度已經大幅落後現在技術的發展。然而,在會議上仍然沒有達成共識,而其中最主要的意見分歧是在於「LAWs」的界定。

若針對「致命」這個部分來看,配有人工智慧的導彈攔截系統需不需要接受法規監管呢?若是針對「自主性」,那現存的半自動無人機,算不算LAWs的規範範圍呢?所謂「合理的人為控制」又該如何定義?對於這些議題的辯論仍未停止,也讓國際公約的約制共識更是遙遙無期。(722字;圖1)



資料來源:
CCW Report, 2018 Group of Governmental Experts
Leading AI researchers threaten Korean university with boycott over its work on ‘killer robots’

本站相關文章:

1.
未來 AI 發展八大新趨勢
2.南韓KAIST啟動FinFET專利戰 要求三星、高通支付授權金
3.硬體的未來在AI、AI的未來在材料
4.韓國規劃2020年完成扶植8種無人機應用產業
5.韓國想成為AI晶片專利大國

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------