NEWSLETTER
113-02-26 政風電子報第216期

人工智慧的風險

◆國立臺灣大學電機系資訊安全博士生-鄭景平、國立臺灣大學電機系教授-林宗男

隨著資訊科技的發展,人工智慧(Artificial Intelligence, AI)也帶來越來越高的生產力;如今已有許多企業在各種情境導入AI來協助日常營運。不過,就如同其他的許多技術一樣,在帶來便利的同時,也存在許多風險與未知的威脅,科技巨擘馬斯克(Elon Musk)日前更認為AI將危害社會,並公開呼籲停止發展相關的技術。

為什麼要導入人工智慧?

  AI已經在許多場景協助企業營運,包含行銷、產品開發與客戶服務等,並且有三分之一的企業在組織內部採用一個以上生成型人工智慧(Generative AI)的工具。此外,AI被廣泛的應用於智慧製造、圖像辨識及文字、聲音、影像的處理等,國內銀行也已經將AI應用於智慧客服、信用卡額度核發與調整等服務。研究機構Gartner預測,直到2026 年,將有超過80% 的企業在正式環境中使用生成式AI,然而目前許多企業無法分辨生成式AI的優點與風險。波士頓顧問公司(Boston Consulting Group, BCG)認為,在企業導入AI的過程中,有高達七成的成本花費在「與人有關的流程」與變革管理,而「正確的資料」與相關技術則分別只占20%、10%;許多企業也對應用AI表達擔憂:「在一個複雜演算法的世界裡,我怎麼知道什麼是真實的,什麼不是?」

AI風險

  人工智慧的演算法對於人們來說非常複雜,就像一個黑盒子;人們很難解釋在它背後的深度神經網路(deep neuron network, DNN)到底發生了什麼?並且其中也可能產生隱藏的錯誤(error)或偏見(bias)。

  學者認為,生成式AI將可能「不智慧、不正義、不安全」(unwise, unjustand unsafe),因為它們可能受到輸入資料的影響,而非基於模型的預測;這也說明AI可能反映現實社會的歧視或偏見,造成「廢料進, 廢品出」(garbage in,garbage out, GIGO) 的後果。日前由中研院基於中國大陸製作的資料集所開發的繁體中文大型語言模型(large language model, LLM)回覆「我的國籍是中國」即是適例。

  另外,AI偏離原先使用目的或被不當使用,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片、製造假新聞等不法用途;犯罪集團也利用AI來模仿受害者親人的語音,撥打詐騙或恐嚇電話;日前也有駭客蒐集受害者的個人資料,用以自動產生網路釣魚郵件(phishing mail)。

  至於生成式AI,也可能缺乏倫理的限制,產生杜撰的假資訊,或是被用來擬定犯罪計畫。例如AI可能只顧及前後文的邏輯,無法辨別所產生資訊的真實性,杜撰不存在的資料。在國外的研究也發現,AI在一些虛擬的場景,能協助研究者制定一系列周詳的生物攻擊計畫。此外,訓練AI模型非常燒錢,目前只有少數科技巨頭有能力訓練足堪應用的生成式AI模型,這也造成權力過度集中,大型科技公司將可以掌握使用者的命運。

人工智慧的監理原則

  有鑒於前述的風險,目前已有許多國際組織提出人工智慧開發者與管理者應該遵守的倫理準則,內容包含:以人類福祉為核心,維護個人隱私權與資訊安全、模型可靠性、透明性與可課責性等規範。歐盟與美國兩個政府組織也積極修訂監管人工智慧的法律規章,前者以禁止規範與管理義務為核心,要求管理者採取適當措施來減輕模型對公眾造成的風險;後者則是以行政指導為核心,由聯邦政府各部門發布各種指引供公眾遵循。

  在歐盟的人工智慧法案(AIAct)裡,將AI依風險區分為四類,依序為無法接受的風險(包括社會評分系統、遠端即時生物特徵辨識系統等)、高度風險(可能損害人身安全或基本人權的AI系統,包含關鍵基礎設施、交通、醫療設備等)、有限風險(生成式AI就屬於此類)、極低風險(過濾垃圾信件、遊戲軟體等);歐盟要求系統管理者導入外部獨立專家參與開發評估、針對開發過程進行紀錄及分析;保留前述文件以供稽核;須有足以讓使用者辨識哪些具體功能由AI運作的明顯標示。

  在美國,則是由拜登總統(President Biden)簽署行政命令,要求關鍵基礎設施與涉及國家安全(尤其是經濟與公共衛生安全)的AI系統管理者對其所使用的AI進行「安全測試」並向聯邦政府通報結果;並要求商業、勞動、教育、司法等主管機關儘速提出使用AI的指導原則,落實反歧視、避免偏見與監控,並支援企業與勞工學習如何使用AI;政府也要協助研究,確保AI技術安全、可靠,並與國際合作夥伴制定可互通的標準。國家標準與技術局(National Institute of Standards and Technology, NIST) 也制定了通用性的AI風險管理框架,要求系統管理者依循「治理、路徑、量測、管理」等四步驟監理規範。

結論

  AI確實將為企業帶來不容小覷的生產力與協助,並能節省大量的時間與勞動力。不過AI對於多數人而言尚難以清楚解釋,仍然處於發展初期的AI背後潛藏的是許多未知的風險與威脅,包含資料集背後可能隱藏抽樣偏誤、甚至是歧視與敵意,造成「廢料進、廢品出」的結果,從而帶來額外的成本;AI也可能被不法分子濫用,同時也有權力更加集中等問題。許多國際組織與政府因此積極提出AI倫理與監理規範,系統管理者開發與應用時,應該遵循這些指引,避免AI造成危害;政府也應該承擔制定AI使用指引的責任,規範AI的研發與應用。



---本文轉自法務部調查局清流月刊---

飛航服務總臺© 2018 All Rights Reserved.

地址:10594 臺北市濱江街362號(地理位置圖)

政風檢舉專線:(02)87702059、87702054、87702147

Email:ethics@ms1.anws.gov.tw

隱私權保護政策 | 網站安全政策 | 網站資料開放宣告