我最近拜讀了微軟研究院首席研究員Kate Crawford發表於《紐約時報》(NY Times)的大作,這則有趣的評論主題是「人工智慧的白人爭議」(Artificial Intelligence’s White Guy Problem)。作者是同時也是白宮舉辦「社會與人工智慧研討會」的共同主席。

在「人工智慧」(AI)一詞中的「智慧」(I)基本上都來自於創造與教導該系統的人類輸入。Crawford在評論中提到,種族主義以及其他各種形式的歧視都會被建置於機器學習演算法中,形成許多「智慧」系統的技術基礎,最終發展成為我們如何歸納與呈現的方式。

作為一位設計人員,我們都會在設計中加入一點我們自己的「元素」,無論其本質有關類比、電源或是像AI這樣的軟體,即使它可能是在無意識中發生的。但就算它可能不是故意的,但在採用AI的軟體與學習過程中,被饋送至系統中的資料都可能存在某種偏見。

對於許多機器學習系統而言,AI的學習過程就像是嬰兒學習一樣,透過觀察與模仿所選擇的系統行為類型。如果系統中的某一部份是經由人為操縱的行為,那麼就可能因為人們觀察事情的角度及其所謂的偏見,而使得系統在執行任務時也加進了這些偏差。而在機器視覺系統中,它可能採用經由觀看大量影像進行學習的神經系統演算法;但這些影像是由人們所選擇的,當然也在某方面加進了主觀的人為偏差,最終影響了AI的決策偏頗。

20160715 AI NT01P1

「偏見」基本上是個存在已久的老問題了。但對於先進的AI技術來說則是新興的,甚至更加放大了這個議題。設計人員與編程人員必須不斷琢磨其軟體演算法,才能達到以無偏差方式執行服務任務的要求。因此,像Google的自動駕駛車曾經發生撞上公車的意外,就必須持續修正其演算法——這將會是一個反覆的過程。

如今,我們正隨AI進入一個全新的工程領域,必須發展出新的措施與原則,才能避免所謂的偏見。即使是「啟發式程式設計演算法電腦」(HAL)也會對於試圖終止或派遣任務的任何人存在偏見;它可能會引用知名電影《2001太空漫遊》(2001: A Space Odyssey)中的經典對話:"I can’t let you do that, Dave."

只要是人都會有某種偏見,例如總想迴避高談濶論的人,或不想去某些餐廳吃不喜歡的食物等。更嚴重的偏見則可能是反對某些種族、信仰或膚色等等。

MIT Press也出版了一本有趣的書——David J. Gunkel所寫的The Machine Question,深入探討這個議題。

20160715 AI NT01P2

你對這個問題有什麼看法嗎?

編譯:Susan Hong

(參考原文:Does AI have a 'white guy' bias?,by Steve Taranovich)