協助影像判讀三大方向
王惠瑜、STPI科技政策研究組 發表於 2019年9月2日
圖、協助影像判讀三大方向
人工智慧在各個產業百花齊放,醫療影像在機器學習、深度學習等方法透過 ImageNet影像辨識技術,輔助臨床醫師減少誤診外,更有提升識別效率和降低成本的優勢,在台灣也陸續有醫院推出AI的門診,輔助醫師在診間進行醫療影像的判讀。
美國國家衛生研究院(NIH)、北美放射學會(RSNA)、美國放射學院(ACR)等醫療影像研究機構提出,從醫療影像取得、數據處理及深度學習演算法到可解釋的人工智慧等階段,醫療影像從研究階段加速轉進為臨床實證,並提出三個未來計劃方向。
1. 醫療影像數據共享及可用性
臨床醫療影像具有高分辨率、包含文字、圖像、影片或動作等多種形態交互存在、3D或4D等不同特性的圖像類型,用於建構內含人體生理學、解剖學和病理學等知識的人工智慧醫療影像模型。
由於資料的隱私問題阻礙了數據的收集,而單一的訓練數據來源或數據量不足都會導致模型缺乏多樣化的訓練,訓練結果也可能會受到限制,因此,開發新的學習方法,結合多機構的數據集進行的機器學習,除了需要高品質、已標記及去識別化等要求外,更必須依循科學數據管理的原則,符合影像數據標準,達到可查找(findable),可訪問(accessible),可相互操作(interoperable)且可重覆運用(reusable)的四項共享數據的標準。
2. 強化深度學習
人工智慧在醫療影像通常是決策支援的工具之一,提供臨床醫師可操作的建議,所以,醫療影像的機器學習著重在確認是否存在疾病狀態的分類、正常組織與異常組織的識別、異常組織的偵測、定位、計算距離等功能,並協助臨床醫生框出異常組織的輪廓。
為了將原始數據更有效的直接重建圖像,醫療影像從機器學習的訓練系統進化到深度學習的學習系統,可以非常有效地提高臨床醫學影像的訓練效率,整合臨床影像大量的訓練資料,進行圖像分割,重建和增強等更為複雜的訓練模型,將有助於臨床醫師在進行掃描成像時,使用較小劑量的靜脈造影材料,較低的輻射劑量以及較短時間的掃描和重建高品質的影像。
3. 可解釋的人工智慧
除了醫療法規目前缺乏對演算法的規範外,人工智慧要能結合到臨床醫學的工作流程之中,還有一個最重要的障礙有待克服,對於機器學習的模型會因為歷史的訓練資料偏誤而產生的誤判,不具解釋力的模型很難發現是否產生偏差,在臨床中也無法確認演算法所輸出的結果,缺乏解釋能力的模型較難在臨床醫學中被實踐。
可解釋的人工智慧(Explainable AI)具有模型的解釋能力,除了可以為深度學習的黑箱模型提出解釋外,在模型輸出決策的同時,也會描述模型的局部行為輸出決策背後的解釋,提供給臨床醫師人工智慧的決策判斷說明,如果模型、類神經架構或參數等產生錯誤,醫師亦能同步修正進行調整。
醫療影像的應用出現了轉變,從基礎研究到臨床實證隨著人工智慧的影響擴大到各個層面,除了整合多重數據來源及處理的能力,開發各種增強型演算法外,其中又以臨床醫療中運用人工智慧相關技術所提供的服務將開啟人類與機器新的合作方式,在可預期的未來,人工智慧不再僅僅是協助臨床醫師判斷醫療影像的輔助性的角色,從可解釋的人工智慧模型同步提出建議的解釋及說明轉變為與臨床醫師合作的決策工具,同時,與其相關的政策與醫療法規亦需同步進行討論與規劃。
(作者是國家實驗研究院科技政策研究與資訊中心研究員)
(本文刊登於經濟日報2019/09/01)
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|