解決AI道德問題 歐盟與美國採取行動
美國與歐盟被數千英里的大西洋分割開來,它們對人工智慧(AI)的監控方式也不同。美國方面的最新變化在1月27日推出——大約是歐盟採取重大舉措後七周的時間…

美國與歐盟被數千英哩的大西洋分割開來,它們對人工智慧(AI)的監控方式也不同。美國方面的最新變化在1月27日推出——大約是歐盟採取重大舉措後七周的時間。
大西洋兩岸的風險都很高,在實踐中產生的影響與決定入獄判決和挑選誰被雇用一樣截然不同。
歐盟的人工智慧法案(AIA)已於去年12月6日獲得歐盟理事會批准,最早將於今年3月由歐洲議會審議,該法案將根據風險等級制度對人工智慧應用、產品與服務進行監控。風險越高,則規定越嚴格。如果通過,歐盟的AIA將是世界上第一個橫向、跨越所有部門與應用的人工智慧監管法案。
相比之下,美國沒有專門監管人工智慧使用的聯邦法律,而是依靠現有的法律、藍圖、架構、標準與法規,可以銜接來引導人工智慧在使用的道德層面問題。然而,雖然企業與政府能有架構可遵循,而這些架構是自願的,當人工智慧被用來與消費者對抗時,並沒有為受到傷害的消費者提供保護。
再新增聯邦行動的補救措施後,地方與州政府頒佈法律,以解決人工智慧在就業方面的偏誤,如紐約市與整個加州,以及保險業在科羅拉多州的法律。沒有任何提議或頒佈的地方法律在新聞媒體上出現,以解決在監獄或監獄判刑中所使用人工智慧的問題。然而,根據《紐約時報》的報導,2016年,威斯康辛州的一名男子Eric Loomis因與人工智慧軟體相關的六年監禁判決而起訴該州,但未獲勝訴。Loomis認為,他程式的正當權利受到侵犯,因為他無法檢查或質疑軟體的演算法。
「我想表達的是,我們仍然需要依靠聯邦政府,」DataRobot全球人工智慧倫理學家Haniyeh Mahmoudian告訴《EE Times》。「涉及隱私的事情,幾乎每個美國人都有權利,這是聯邦政府應該處理的事情。」

NIST資訊技術實驗室參謀長Elham Tabassi (來源:NIST資訊技術實驗室)
最新的國家標準已由美國國家標準與技術研究所(NIST)在今年1月27日發佈。
NIST的自主性架構主要在幫助總部設在美國的組織管理可能影響美國個人、組織與社會的人工智慧風險。該架構透過將可解釋性與減輕有害偏見等可信度考慮納入人工智慧產品、服務與系統。
「在短期內,我們想做的是培養信任,」NIST資訊技術實驗室參謀長Elham Tabassi提到。「而我們透過瞭解與管理人工智慧系統的風險來做到這一點,以便能夠幫助維護公民自由與權利,加強安全『同時』提供創新與創造機會。」
以長遠的眼光來看,「我們所談論的架構是讓人工智慧團隊,無論他們主要是設計、開發還是安排人工智慧的人,都能從考慮到風險與影響的角度來思考人工智慧,」NIST資訊技術實驗室研究科學家Reva Schwartz提到。

NIST資訊技術實驗室研究科學家Reva Schwartz (來源:NIST資訊技術實驗室)
在NIST的架構發佈之前,美國總統Joe Biden領導的白宮在去年10月發佈了「人工智慧權利法案藍圖」。提出了五項原則,以規範人工智慧的使用道德:
- 系統應是安全與有效的;
- 演算法與系統不應該有區別性;
- 人們應該受到保護,不受濫用數據行為的影響,並能控制其資料如何被使用;
- 自動化系統應該是透明的;
- 選擇不使用人工智慧系統而採用人類干預應該是一種選項。
Biden的輕監管方法似乎是直接沿用前任所青睞的輕監管方式。
不要等待立法
律師事務所DLA Piper合夥人Danny Tobey告訴《EE Times》,美國沒有人工智慧法,因為該技術變化太快,立法者無法將其固定夠長的時間,以起草立法。

律師事務所DLA Piper合夥人Danny Tobey (來源:DLA Piper)
「每個人都在提出架構,但很少有人提出實際的規則,你可以圍繞這些規則進行規劃,」Tobey提到。「我們承諾會有人工智慧的權利法案,但我們得到的是一個沒有法律效力的『人工智慧權利法案的藍圖』。」
Tobey認為,全球的監管建議圍繞著第三方審議與影響評估,用以測試人工智慧的應用程式的安全性、非區別性與其他道德人工智慧的關鍵層面。他提到,這些是公司已經可以使用的工具。
他指出:「解決方案是,公司甚至在立法最終確定之前就開始針對這些預期標準來測試人工智慧技術,以建立具未來性、合乎人工智慧系統,並預測未來的法規。」
在歐盟,至少有一家公司與Tobey的想法一致。位於荷蘭的NXP半導體已經制定了自己的人工智慧道德新措施。
美國是否需要特定的人工智慧法律?
難道美國已經有了保護公眾免受人工智慧不道德使用的法律?
2022年9月,美國證券交易委員會主席Gary Gensler在麻省理工學院人工智慧政策論壇峰會上談到了這個問題,以探討部署人工智慧政策的挑戰。
「透過我們的立法機構,我們經由法律來保護公眾,」他提到。「這些法律是安全、健康、投資者保護與促使金融穩定。而這些仍是久經考驗的公共政策。」
Gensler並指出,與其認為我們需要一部新的法律,因為我們有一個新的工具——人工智慧——立法者與其他人應該關注現有法律的適用方式。
美國證券交易委員會參考了現有的投資者保護法,而銀行產業的必然結果是平等信貸機會法案(Equal Credit Opportunity Act);公平住房法(Fair Housing Act)保護人們在申請抵押貸款時不受歧視。
自我監管是答案嗎?
Diveplane的領導者想為Biden的藍圖、歐盟的AIA與更多在商業和國防領域提供人工智慧驅動的軟體開發商。

Diveplane執行長Mike Capps (來源:Diveplane)
「這將有助於保護消費者,」Diveplane法律顧問與法務總監Michael Meehan告訴《EE Times》。「人們認為這與公司可能想要的東西相悖。但事實是,大多數公司,包括Diveplane,都希望得到受到指導。」
Meehan指出,政府在人工智慧法律或法規中都沒有規定「安全港條款」(safe harbors),以減少用戶的風險。
安全港條款是法律中的一項規定,在滿足某些條件的情況下,給予免於懲罰或責任的保護。例如,如果一個正確的實施、基於實例的人工智慧貸款審批系統檢測到的錯誤,可以將此事標記為人工審查。
Diveplane執行長Mike Capps也歡迎監管,但他也是該產業自我監管的支持者。
為了說明原因,他舉美國的患者隱私法(patient-privacy law)為例。1996年的健康保險可攜性與責任法案(HIPAA)為從醫療記錄中清除識別資訊的用戶提供安全港條款,不幸的是,將其已辨識過的資料庫與另一個資料庫交叉比對,可以協助找出那些本該匿名人的身份。
這可能是20世紀立法者沒有預料到的。「如果你對今天的電腦如何工作設定了一些硬性規定,你就沒有能力適應……你寫的時候還不存在的技術,」Capps提到。
這種想法促使Diveplane共同創立了數據與信任聯盟(Data & Trust Alliance),此為非營利性的聯盟,其成員「學習、開發與採用具有信任性的數據與人工智慧實際作法」,據其網站所介紹。Capps是該聯盟領導委員會的成員,其代表來自NFL、CVS Health與IBM等實體企業。
該組織在制定人工智慧的道德標準。「這些規則將繼續改變與發展,因為它們需要這樣。」Capps說到,「我會把它寫入法律嗎?不,我肯定不會,但我肯定會把它作為一個案例,提到如何建立一個靈活的系統來盡量減少偏差。」
Mahmoudian提到,隨著新數據的出現,歐盟的AIA有重新審查分配給申請風險等級的語言。她表示,這對於像Instagram這樣案例是很重要的,例如,Instagram曾經被認為是無害的,但在出現的幾年後被證實對青少年的心理健康有負面影響。
(參考原文:EU, U.S. Making Moves to Address Ethics in AI,by Ilene Wolff)
本文同步刊登於《電子工程專輯》雜誌2023年3月號
從無線連接、更快的處理和運算、網路安全機制、更複雜的虛擬實境(VR)到人工智慧(AI)等技術,都將在未來的每一個嵌入式系統中發揮更關鍵功能。「嵌入式系統設計研討會」將全面涵蓋在電子產業最受熱議的「智慧」、「互連」、「安全」與「運算」等系統之相關硬體和軟體設計。
會中將邀請來自嵌入式設計相關領域的研究人員、代表廠商以及專家,透過專題演講、產品展示與互動交流,從元件、模組到系統,從概念設計到開發工具,深入介紹嵌入式系統設計領域的最新趨勢、創新和關注重點,並深入分享關於嵌入式系統設計的經驗、成果以及遇到的實際挑戰及其解決方案。









訂閱EETimes Taiwan電子報
加入我們官方帳號LINE@,最新消息一手掌握!
登入後即可發表評論。
GOOD