利用「可解釋AI」強化X光檢測Covid-19結果

作者 : Sally Ward-Foxton,EE Times歐洲特派記者

AI通常被視為一個「黑盒子」,我們都不知道演算法是如何運作,但這也是它特別有效的部分原因;AI並不仰賴人類的想法來建立演算法邏輯。但是當AI無法正常工作時,我們就需要獲得一定程度的可解釋性,了解該如何妥善修正模型。

假設你完成了對病患的X光檢查,正在等待人工智慧(AI)系統診斷病情。幾分鐘後,人工智慧回覆了診斷結果,顯示可信度為98%,但是診斷結果明顯錯誤,你會怎麼做?嘗試重拍一次X光片還是尋求專家協助?

AI通常被視為一個「黑盒子」,我們都不知道演算法是如何運作,但這也是它特別有效的部分原因;AI並不仰賴人類的想法來建立演算法邏輯。但是當AI無法正常工作時,我們就需要獲得一定程度的可解釋性,了解該如何妥善修正模型。

恩智浦(NXP)一直致力於利用現有技術解決此問題,並對技術進行最佳化,以量化對AI系統最重要的兩種數學不確定性。

第一種是偶然不確定性(aleatoric uncertainty),這是指自然發生的隨機性或雜訊,我們無法(或不知道如何)減少模型內部的這些不確定性。這代表了由於輸入數據品質不佳導致的不確定性,原因可能是X光片模糊,就像自動駕駛車輛在起霧的夜間行駛,看不清交通標誌,或影像中存在其他雜訊源。

第二種是認知不確定性(epistemic uncertainty),在AI領域,這是指由於模型造成的不確定性。 原因可能是數據集有限,模型訓練得不夠好,或為了降低訓練成本而刻意簡化了模型。

恩智浦嵌入式處理器技術和業務戰略主管Gowrishankar Chindalore表示:「我們認為認知不確定性是可以降低的,你可以透過提高運算複雜度,增加更多的訓練層數,從而降低模型的不確定性,當然要注意避免過度擬合(over-fit)。對於輸入不確定性,神經網路只能報告輸入有問題,因此我們應該對輸出保持謹慎態度。你希望神經網路能夠識別這種侷限,最後由人類決定是否需要品質更好的輸入,或完全拒絕輸出。這就是[恩智浦]的可解釋AI (explainable AI,xAI)概念。」

在研究中,恩智浦使用了各種成熟技術來量化不確定性,包括TensorFlow概率、Logit概率分佈和貝葉斯統計(Bayesian statistics),其思路是人類或演算法根據量化不確定性決定下一步怎麼做。例如上述的X光檢查案例,如果返回的偶然不確定性超過一定水準,技術人員將重新拍攝影像;如果返回的認知不確定性太高,就需要由人類專家判斷X光片,並考慮對模型進行更多訓練。

恩智浦的技術總監暨AI/機器學習工程負責人Natraj Ekambaram表示:「今天任何神經網路都只會報告預測結果,其可信度為50%或70%。我們還希望神經網路能報告這兩種不同的不確定性具體是什麼。運算成本非常高。在邊緣進行推論非常非常昂貴,存在功率和運算上的限制。因此我們也探索各種技術,以最佳化方式加速邊緣不確定性量化技術。 」

恩智浦認為,可解釋AI技術的首個應用是根據醫學影像數據(X光或CT掃描)進行新冠病毒(Covid-19)篩檢;Chindalore介紹了這項技術支援的新流程:

「在系統中輸入X光影像,經過訓練的神經網路就會返回預測結果。我們改變了傳統的垂直、線性、一維的方法,現在改使用決策樹(decision tree)的形式。如果返回預測結果之後,[演算法]報告感測器輸入導致了不確定性,技術人員可以重新拍攝X光片,因為神經網路自身無法解決這一問題。但如果不確定性歸因於模型,將由專家對X光片進行判斷,判斷AI結果正確與否;這樣就能取得可信的篩檢結果。藉由可解釋性,人們可以採取不同措施。」

 

恩智浦將可解釋AI研究成果應用於新冠病毒篩檢新流程。

(圖片來源:NXP;Judith Cheng重製)

 

目前的新冠病毒篩檢是仰賴聚合酶連鎖反應(PCR)檢測,利用鼻腔拭子對病毒相關遺傳資訊進行檢測。由於檢測試劑盒供應有限,並且需要幾個小時才能得到結果,而X光和CT掃描技術已經在醫院廣泛應用,可作為新冠病毒檢測的快捷替代技術。恩智浦建議在AI技術中加入可解釋性,以提高根據胸腔影像檢測細菌或病毒性肺炎的可信度,必要時可用於強化PCR檢測。

Chindalore表示:「我們洽談的許多公司、學校和醫院都對此感到非常興奮,因為透過神經網路進行疾病檢測已非新鮮事。事實上,世界各地的許多醫院已經開始使用神經網路技術,讓他們感到興奮的原因是可解釋性因素能帶來某種程度的可信度,神經網路不再盲目地提供輸出,可以進行某種程度的反省/再檢視。」

恩智浦計劃開放根據醫學成像檢測新冠病毒模型的原始程式碼,以幫助對抗病毒,並積極尋求與感興趣的醫療保健產業機構展開合作,特別是能夠取得匿名訓練資料的機構,以進一步推動檢測新冠病毒的研究工作。

雖然將這項技術投入實際應用為時尚早,但Chindalore和Ekambaram表示,這項技術還能用於自動駕駛車輛,也可用於工業機器人,因為工業機器人的訓練資料集往往非常有限。這項技術仍處於開發之中,尚未最終確定具體的商業模式。

 

本文中文譯稿由恩智浦(NXP)提供,責編:Judith Cheng

(參考原文:Applying AI Explainability To Covid-19 X-Ray Systems,By Sally Ward-Foxton)

發表評論