過去一年來,業界已經完成許多任務,大幅提高了人工智慧(AI)的理解力、準確性和可擴展性,預計在2019年我們將會看到更多致力於為AI消除偏見並使決策更加透明的工作進展。

IBM Research副總裁Jeff Welser表示,過去一年來,業界已經在AI方面達到幾項發展里程碑了,預計在2019年將持續關注於三大關鍵領域。他說,對於企業而言,將以AI驅動的認知解決方案帶入可使其輕鬆導入的平台,不只是一項策略性業務需求,同時也增加了AI的理解,以及解決偏見和信任等問題。

在推動AI的進展方面,Welser表示業界已在幾個方面取得進展,包括理解語音和分析影像。例如,IBM的Project Debater計劃已能將目前的AI語音理解能力擴展到回答簡單問題的任務之外,讓機器更能理解人們可能何時提出爭論,並使其超越僅限於「搜尋類固醇」(search on steroids)這一類的簡單任務。例如,提出一個沒有固定答案的問題——政府是否應該提高對於遠距醫療的投資。

Welser說,如同讓AI更能理解所說的內容一樣至關重要的是,它在更快、更準確地辨識所看到的內容方面也取得了長足進展。IBM的作法並非要求提供數千或甚至數百萬幅標記影像來訓練視覺辨識模型,而是證實AI現在甚至可以只用一個例子作為辨識新物件的指導原則,這讓AI得以擴展。

IBM Research Dan Zafrir IBM Research的AI導入來自Project Debater計劃為辨論內容打造的機器學習聽力理解功能;圖右是專業人類辯論家Dan Zafrir(來源:IBM Research)

Welser說,讓AI學習變得可擴展的另一種方式是讓AI代理之間相互學習。IBM研究人員開發了一種架構和演算法,讓AI代理之間得以交換知識,從而比以前的方法學得更快。此外,他說,他們還可以學會調整現有方法失敗之處。

「如果你面對更複雜的任務,其實並不必一定要訓練一個大型系統,」Welser說,「但你可以採用個別系統並將它們結合起來共同完成任務。」

降低深度學習模型的複雜度

在降低深度學習模型所需的運算資源方面也正取得進展。2015年,IBM介紹如何使用16位元精度訓練深度學習模型,而今,該公司強調 8位元精度也不至於折衷各種主要AI資料集類別(包括影像、語音和文本)的模型準確度。AI的調整也可以透過新的神經網路架構搜尋技術來實現,從而減少設計網路所需的繁重工作。

這些進展都建立在AI必須值得信賴的事實基礎上,Welser表示,明年將會有很多工作都關注在這一點。就像其他技術一樣,AI可能會受到惡意控制,因此它必須能夠預測對抗性攻擊。

現在,AI可能很容易受到所謂「對抗示例」(adversarial examples)的影響,駭客可能會在你不知不覺時改變影像,欺騙深度學習模型,而將其分類為攻擊者所需的各種類別。IBM Research的解決辦法是採用一種不依賴於特定攻擊(attack-agnostic)的措施,以評估神經網路的穩健性,並指導系統如何檢測和防禦攻擊。

另一個難題是神經網路往往是黑盒子——關於他們如何做出決定並非顯而易見的,Welser說。缺乏透明度是對於AI信任的一項障礙。同時,消除偏見也很重要,因為AI越來越依賴於決策,他說,但這相當具有挑戰性。

Wesler說:「截至目前為止,我們已經看到大多數人都非常興奮地展開AI系統設計,使其能夠實現某些任務。然後他們會試著搞清楚所設計的AI系統是否存有偏見或者是否安全穩健,或者他們所做的決定是否有問題。」

編譯:Susan Hong

(參考原文:AI Still Has Trust Issues,by Gary Hilson)