︿
Top

人工智慧:未來決策制定的機遇與影響

瀏覽次數:10778| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室 (iKnow) - 張小玫、杜君妮 發表於 2017年3月10日
facebook twitter wechat twitter

圖、人工智慧:未來決策制定的機遇與影響

 
英國政府科學辦公室(UK Government Office for Science)於2016年11月底發表人工智慧報告“Artificial intelligence: opportunities and implications for the future of decision making” (人工智能:機會和對未來決策的影響)。該報告重點關注幾個重要領域:AI將為社會和政府帶來什麼好處? AI對勞動力市場的影響是什麼? 我們如何通過使用AI來管理倫理和法律挑戰?
 
AI人工智慧不是一種獨特的技術,取決於它的強大的一些先決條件:計算能力,網路頻寬和大規模數據集,所有這些都是“大數據”的元素,其潛力只能通過人工智能實現。根據英國政府首席科學顧問Mark Walport在報告所言,如果數據是燃料,人工智能就是數字革命的引擎。
 
以下是針對報告中的一些亮點:
 

什麼是人工智慧?


人工智慧不只是讓既有流程簡單自動化,運用更涉及使電腦程式在某種程度上能自行找到執行方法。人工智慧能容納的創意程度,賦予其驚人的力量,但也正因如此,人工智慧正挑戰著我們對電腦扮演角色的認知。
 
人工智慧能用於分類數據、搜尋、並進行預測。現今應用於:翻譯和語音辨識、搜尋引擎依照與用戶的相關性進行網站排序、依照先前垃圾郵件來過濾電子郵件等等,人工智慧正廣泛運用在日常生活中。正因其應用正廣泛且快速的成長,並將帶領經濟迎向新一波的浪潮。
 
人工智慧是個廣義的用語,簡單的來說,人工智慧是對數據進行分析,進而模擬現實世界,然後運用其模擬的推論來預測並創造未來產物。
 
電腦能遵循演算法創建的統計模組或逐步的指令來完成特定任務。促使現今生活許多方面自動化的強大工具就是電腦演算法,並可支援各組織的行政運作流程使其數據化,讓步驟程序能更快更一致的進行。自動化的其中一種方式是選擇一系列程序導入,促使特定輸出;現今大多數書籍或線上醫療診斷系統都是使用這個邏輯,個人化的結論會依照對問題不同的答案組成而輸出結果。
 
人工智慧的更多應用
  • 藉由機器學習(Machine Learning),例如:網飛(Netflix)和亞馬遜(Amazon)能依照使用者網路經驗進行產品推薦。
  • 英國的「智能高速公路 (smart motorways)」使用來自嵌入式傳感器和神經網絡系統的路況反饋,來預測和管理交通流。
  • 在金融市場,高頻交易(high-frequency trading)演算法使用預先確定的決策標準回應市場條件,可比交易員速度快許多倍。有些財務顧問也運用類似的演算法自動化探測客戶的投資機會。
  • 康乃爾大學與機器學習專家合作,研究更準確識別鯨魚的聲響,使追蹤個別鯨魚更加容易。
  • 來自數百萬衛星觀測的數字圖像可藉由機器學習分析,來識別環境及社會經濟趨勢的變化及發展模式。

近年來,可用數據和計算能力已達到能實際開發機器學習的程度:能夠根據自行的輸出之不同需求而改變演算法,或依照經驗自動改進計算機程序。機器學習系統更能自動搜索難以發現或容易被遺漏的數據關係。
 
大多數的機器學習不會被限制只能輸出單一預測,許多演算法產生的概率輸出能提供一系列可能預測與不確定性的相關估計。大多產生概率輸出的演算法是能夠被解釋的,然而在更複雜的機器學習系統 (像是深度學習deep learning) 情況下,輸入和輸出數據之間存在許多層統計操作,這些操作已經由演算法而非人工加以定義。正因為如此,不僅是輸出概率,有些簡單的演算法過程也難以用人類可理解的術語來解釋。這使機器學習(Machine Learning)和演算法(Algorithms)在組織流程自動化,存在本質上的不同。
 
機器學習中使用了許多不同類型的演算法,其中的關鍵區別在於其進行學習過程是否受到監督(unsupervised or supervised)
 
未受到監督學習(unsupervised)呈現未標記數據集的學習演算法,代表意思是並沒有所謂對或錯的答案,而是可能通過將資料聚集在數據中找到結構。舉例來說,檢測一系列臉部照片,學習分辨有多少不同的人在這些照片當中;Google的新聞服務使用這種技術將類似的新聞故事分組在一起;基因研究人員以此探索基因在特定族群不同的表現程度;營銷人員依此進行銷售特定族群。
 
監督學習(supervised)則使用標記的數據設定創建模組,然後可用於全新未見過的數據集(data set)進行分類或排序 (例如:可學習在一批照片中找尋特定的)。這有助於識別數據中的特定資料 (可能是關鍵用語或物理屬性)、預測可能的結果、或發現異常數值。從本質而言,這種方式提供一組正確答案,並找出更多相同的答案。
 
關於學術用語 (Terminology)
  • 此篇中涵蓋不同統計技術的廣義用語「人工智慧artificial intelligence」,在統計、計算科學和認知心理學等研究領域也被廣泛運用。
  • 來自不同學術的研究者用「機器學習」和「機器智能」等術語來做出不同的區分,並連結出相關應用於截然不同的產品。
  • 由於此技術已被廣泛運用於不同商業領域,它也與其他類別作業有所連結,可能與「數據挖掘 data mining」和「預測分析predictive analytics」常被討論到,皆屬於人工智慧。
  • 期望機器學習能比目前發展更廣泛。選擇使用較廣泛人工智慧(Artificial Intelligence)名詞,盡量不使用學術用語而模糊焦點。

現今,機器學習關注在深度學習(deep learning)方面,深度學習成為一種監督學習科技,其與多層神經網絡連結,能自動辨識和決策相關的數據集特性。深度學習對機器學習有重要的加乘作用,但其需要非常大量的數據才能發揮效用。Google旗下DeepMind部門設於倫敦,更是深度學習科技之世界領導廠商。
 
機器學習開發自動決策(autonomous decision-making)的潛力為大家關注的重點,許多演算法程序能不必經過人類輸入就能用以做出決策 (像是抵押貸款機構能根據個人信用分數,自動審核借貸)。但是當系統能持續學習並能自行推論,不需要任何人為導入才能算是完全自動化。舉例來說,當自駕車能對速度、方向做即時決定,不需要駕駛人為輸入,而是藉由內部許多相連的機器學習系統對周圍環境資訊進行感知 (不是遵照預先設定的決策,而是及時回應周遭的變化)。
 
至於,其他社會領域使用自動決策技術(autonomous decision-making),將大量改變使用數據及做決定的方式,並且伴隨著可信度等相關問題。這對於政府來說尤其重要,這牽涉到與民眾公眾議題、人民社會福祉和安全等方面。現今,各方專家和政策制定單位對重要決策程序中必須包含民眾參與有普遍共識,但人類在其中所扮演的確切角色或是影響結果的程度,就像科技演進般,隨著時間而改變。
 
深度學習 (Deep Learning)

深度學習是機器學習下的一個子集(subset),須仰賴多層非線性演算程序(non-linear algorithmic process)找尋模式或分類數據。有很多技術都運用此普遍方法─其主要特色為層級/階段設計,上一層導出的結果將會成為下一層的導入。
 
 

人工智慧伴隨的新挑戰


人工智慧帶來極大效益的同時,我們也必須認知人工智慧在某方面的使用伴隨著潛在的倫理問題。專家認為政府應該扮演管理並杜絕可能風險的角色,其中必須考量的兩大領域:

  • 了解機器學習與逐漸增加的個人數據,將對個人自由以及隱私許可等概念可能造成的影響
  • 對人工智慧的自動決策,提出適當的權責機制及調整概念
 
統計分析是使用過去數據來預測可能行為和不同族群特性,廣泛運用在公家和私營單位:保險公司能進行更好的風險評估;商家能更準確地針對特定消費者;執法單位能更準確的評估各方威脅。
 
然而,評估可能會根據種族、生活方式、或居住地,對個人造成不公正的定型風險。但可降低該風險,像是英國公共部門會避免使用種族、國籍或地址作為標準,以產生不公平或歧視。無罪推定原則(innocent until proven guilty)為預測技術運用的方針,通常此技術用於像是在可能需要預先介入的地方,提前佈署警力,而非針對個人。當然,對於其他執法機構來說,準確識別個人也是需要的,可以幫助避免被成見誤導,並能更好地利用資源。
 
還有,人工智慧技術也可從公共數據中推斷某些私人訊息,例如個人的線上行為或判別相關聯的人 (朋友、家人、同事),這些訊息可能遠超過當事人原本同意公開的資訊。信息專員(Information Commissioner)的匿名化實施守則,規定了組織管理此風險的辦法,並防止個人資訊從合併的匿名數據中被重新識別。但隨著公開的可用數據量增加,以及人工智慧技術的發展,重新識別的機會可能增加,組織需要定期審視他們現有的保護措施。
 
演算法的偏差可能導致被既定印象限制的風險。這種偏差主要來源自訓練深度學習系統的數據。例如,假如一所大學使用機器學習演算法來評估入學申請。若其訓練演算法的歷史錄取數據含有早期錄取過程的偏見,則偏見可能以這種方式永存於社會中,加劇了不公平的產生。為了減低此風險,技術專家應該確認數據中的偏差,評估其影響並採取措施。
 
這些重要議題是跨國性,重點圍繞於管理問題和社會可因應的實際應對措施。舉例來說,許多團體建議深入探討後提議如下:
  • 給予演算法創作者認證 (可能遵循特許專業模式);
  • 使用人工智慧的行為守則;
  • 明確標明使用人工智慧造成的損害責任;
  • 設立監察員,支援對於使用機器學習組織提出質問的公民;
  • 設立倫理審查委員會,評估特定人工智慧應用對社會的潛在危害和好處,或者採用已有共識的方法來進行涉及機器學習的審計過程。
 
其中有些想法已經有產業協會或私人公司進行下一步發展。但這些都不是目前可執行於政府機構的政策,所有都值得進一步審議協商。
 
這些提議都需面對使用人工智慧衍伸的責任問題。正如上述所說,許多人工智慧過程可能是不透明的,這使得直接責任歸屬判定不易。倘若人工智慧在使用上造成一些傷害,補救和賠償是一定要的,因此,如何創建一套系統來支持,便是一大挑戰。目前,對於使用AI之責任的應對方式仍未經全面測試。隨著處理這部分案件的經驗累積,將制定一套案立法因應處理。
 
儘管目前對人工智慧做決策的責任歸屬存在著不確定性,但仍需盡快制訂明確的問責制度。像是以設立首席執行官或高階利益關係者,使其對演算法做出的決策負最終責任等方式。若是沒有這類措施,大眾對使用人工智慧的信任將很難維持。這樣或許能鼓勵或確實去開發新形式的責任保險,成為使用人工智能的必要條件(至少在敏感項目)。
 
專家及評論指出,透明度對於確保責任歸屬是必要的條件:運用何種演算法、數據、運用在什麼目的,都需明確列出,以確保該技術使用責任。但這有實際的困難性,要了解這些資訊和其應用需要一定程度的技術,公司安全和商業利益優先考量會與完全透明化抗衡,個人和公司可能會因應演算法透明化做出應對。更基本的難題是,透明化可能也無法提供所需要的證據,只是公開靜態碼不能代表其實際有使用在特定決策中,或者其數據是否有按照程序員預期的方式執行也無從得知。
 
計算科學家和政​​策專家正在討論演算法責任問題的技術解決方案,像是可能給予「程序規律性 (procedural regularity)」,或是讓既定的演算法有一致的應用。另一種方式是使用機器學習技術,從演算法的應用中發現不一致或異常的結果;或者利用分佈式分類帳技術(類似區塊鏈),以此追蹤特定演算法的使用及其效果。
 
評估人工智慧任何技術,單看演算法遠不如檢視演算法如何與數據作用來得有效,而數據和演算法再加上與人的交互作用,所得出的結果又能得到更多資訊,因為在交互作用下會產生更多的數據和反饋 (想像警察對預測警務應用的培訓數據和逮捕數字的影響)。而分析師用來評估其編寫的演算法可能產生的影響的工具,需要對真實世界有一定的敏感度。
 
最後,試圖理解特定決策可能不如聚焦於結果和其實現的過程來得有用。檢視系統是否達到所設定的目標,並確定目標的適當性,這與理解基礎演算法的技術性同等重要。(3005字;圖1)
 
 
參考資料:
Artificial intelligence: opportunities and implications for the future of decision making.



本站相關文章:
  1. 下一波趨勢是將人工智慧帶入智慧家庭
  2. 「超人型」人工智慧 預計2030年上市
  3. 大數據帶動機器學習形成IT新戰場
  4. 谷歌將機器學習與人工智慧設為優先發展事項
  5. 獵豹移動成立機器人公司 深度學習是彎道超車之絕佳機會

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。