您的位置: 首頁 >科技 >

放射AI的可解釋性被認為對于臨床采用至關重要

2022-08-30 14:44:31 編輯:云宇誠 來源:
導讀 如果醫(yī)學AI算法表現(xiàn)良好,為什么要讓眾所周知的黑匣子破壞人們對它的信心?或者,如5月27日發(fā)表在《放射學:人工智能》上的一篇觀點文章中所...

如果醫(yī)學AI算法表現(xiàn)良好,為什么要讓眾所周知的黑匣子破壞人們對它的信心?

或者,如5月27日發(fā)表在《放射學:人工智能》上的一篇觀點文章中所問的那樣:“為什么我們不應該簡單地信任該模型而忽略為什么做出特定決定?”

當前的問題是可解釋性,即人的大腦可以理解AI算法結論背后的邏輯的程度。

賓夕法尼亞大學放射學系的Despina Kontos博士和Aimilia Gastounioti博士都是針對同一天在同一期刊上發(fā)表的發(fā)現(xiàn)而寫的,他們都認為這種可解釋性可能不是必不可少的,但無疑可以加快AI的發(fā)展。納入常規(guī)臨床實踐。

作者指出,對錯誤的決策或預測的一種可理解的解釋“可以幫助人們理解錯誤的原因,并為如何解決該錯誤提供指導。”

同時,對正確決策或預測的解釋“有助于驗證特定結論的邏輯,確保因果關系得到理解,并減輕了對混淆或偏見的潛在懷疑。”

無論哪種情況,“與“黑匣子”相比,放射科醫(yī)生和患者都更容易相信一個能夠解釋其決策(包括其失敗)的模型。”

Kontos和Gastounioti對同一天在同一期刊上發(fā)表的評論結果進行了評論。

由瑞士伯爾尼大學的毛里西奧·雷耶斯(Mauricio Reyes)和同事們提出的研究結果是從放射科醫(yī)生對當前主題的觀點中得出的,并包括以下三個基本要點:

放射人工智能(AI)系統(tǒng)通常具有許多計算層,這可能使人類難以解釋系統(tǒng)的輸出。

正在開發(fā)可解釋性方法,以便可以通過使用可視化,反例或語義來解釋AI系統(tǒng)。

通過增強其可解釋性,可以更好地驗證,信任并在放射醫(yī)學實踐中采用AI系統(tǒng)。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。