無論你是否察覺,人工智慧(artificial intelligence;AI)和機器學習(machine learning;ML)已經掌控當今線上生活的一大部份了。例如,這些技術決定了在你訂閱的新聞服務中所要顯示的內容,並自行定義用戶存取亞馬遜(Amazon)線上服務時將會看到什麼。

如今,演算法幫我們決定了要繳多少保險費、是否符合申請貸款資格,或者履歷資料是否有機會獲選至下一輪的審查。此外,AI和ML如今在醫療領域也相當「熱門」,它可用於協助進行診斷、預測疾病發生等等。

我們正經歴一場物聯網(IoT)的革命——無人駕駛車、智慧家庭、智慧家電、智慧電網,甚至是智慧城市等等。醫療專業人員如今可在遠端監控患者,當然,別忘了還有Siri和Alexa。

確實,在我們生活的這個美好世界中,由於有了技術,持續讓我們的生活變得更輕鬆也更高效。

力量與責任

擁有這些力量不僅改變了我們生活,也帶來更大的責任,甚至還濫用這種權力——這正是特斯拉(Tesla)執行長Elon Musk等人所擔心的。Elon曾經在一次採訪中,針對AI和ML發表了這樣的看法:

「我們正迅速走向遠遠超越任何人類的數位超強智慧(superintelligence)——我認為這一趨勢相當明顯......如果一家公司或特定團體順利發展出如神一般的數位超強智慧,他們就可能統治整個世界......但至少邪惡的獨裁者最終會有死亡的一天,而AI可不像人類一樣會面臨死亡。它將會『永垂不朽』,我們將被籠罩在此永恆獨裁者的陰影之下,永遠無法逃脫。」

許多研究人員和科學家都支持Musk的看法,如Stephen Hawking。他預測如果AI和ML的研究和實施未能受到嚴格監管,那麼人類將會面對這樣的世界末日。

另一方面,反對陣營則堅持認為AI和ML永遠不可能取代人類的全部智慧,因而人類仍然可以控制它。

AI和ML將帶來哪些風險?

這正是爭議的癥結所在。目前,我們擁有所謂的狹義AI或弱AI (Weak AI),其目標在於完成一系列各自獨立的任務(如駕駛汽車、保護電網、下棋、透過臉部辨識來識別人員等)。

然而,許多人的長期目標是開發所謂的強AI,它可執行認知(思考、推理)任務。想像一下,例如,一套致命的武器系統,可以在沒有任何人為干預或控制的情況下決定部署武器的地點和時間。這樣的系統如果落入一個國家手中,足以使世界上的其他國家陷入癱瘓。

AI + ML

超強AI不像人類一樣感性,本質上也没有善、惡之別...(來源:Pixabay.com)

此外,超強AI並不會有人類的情感,因此在本質上也不會有善意或惡意之分。然而,它極其有效率,知道如何採取「最短路徑」來實現目標,但並不考慮在過程中可能造成的破壞。例如,假設搭載AI的機器被賦予的任務是為新的鐵路系統清理出一大片區域。在執行此任務的過程中,如果它破壞地下輸油管,從而釋放出有毒污泥,而破壞該區的整個生態系統並使當地水系統面臨風險呢?如果未能先將保護生態系統定義為該機器的目標之一,那麼它無論如何都會持續進行而不考慮後果。

擔心未來發生這些情景的人們(認知AI和ML一直在學習且比人類「更聰明」)認為,我們必須弄清楚如何在AI系統成為超強智慧之前先嵌入設定的目標。

...繼續閱讀請連結EDN Taiwan網站