【文/馮震宇 圖片提供/達志影像、Gettyimages】
當ChatGPT 熱潮以雷霆萬鈞之勢橫掃全球之際,也產生了一個嚴肅的課題。那就是伴隨 AI 運用而產生的各種違法、侵權或不當的行為,到底應該要由誰負責以及應如何規範。其中的一個關鍵問題,就是是否仍由業者透過負責任 AI (Responsible AI, RAI) 的自律方式處理,還是應該由他律的法律層面加入因應,是這波 AI 熱潮下待解決的重要議題。
從 AI 這一觀念誕生以來,人們就對 AI 充滿各種幻想,也擔心 AI 發展的可能威脅。在ChatGPT 引領的熱潮下,生成式 AI 的進展一舉突破過往,甚至在 GPT- 4 和 Google PaLM 2 等新一代大型語言模型的助攻下,正朝著通用人工智慧 (AGI) 的目標邁進。隨著生成式 AI 的技術進展,人們從對 ChatGPT 從最初的擔心(被用來寫報告或論文),逐漸變成擔憂這些新興的 AI工具是否會誤導人類、傳播虛假訊息、侵犯隱私權或智財權、取代部分人類的工作、甚至被用於影響選舉結果。AI 可能導致的各種問題已開始受到各方的關注,國際間甚至出現暫緩 AI 發展的呼聲及行動,這使得原本僅存在企業界層面、屬於自律功能的負責任 AI,提昇到國家、甚至國際的層次,蛻變為法律所強制要求的 AI應負責任,問題是 AI 要如何負責呢?
負責任AI的自律展現
所謂負責任 AI,是一個對機器學習服務的深刻思考,認為各種組織在發展機器學習服務時,應重視服務對象的個體性與特殊性。根據微軟的見解,負責任 AI 是一種以安全、可靠和合乎道德的方式開發、評估和部署 AI 系統的方法,並尊重公平性、可靠性和透明度等持久價值觀。
Google 雖然最初並未使用這一名詞,但其所採行的「AI 最佳推薦實踐 (Recommended best practices for AI)」則認為在設計 AI 系統時應遵循軟體開發最佳做法,並且採用「以人為本」的方法運用機器學習技術,考慮公平性 (Fairness)、可解釋性 (Interpretability)、隱私權 (Privacy)、安全性 (Security) 等基本原則。而 Google 在 2018 年推出此 AI 原則後,TensorFlow 等團隊都依該原則發展產品,也推出負責任 AI 的工具和技巧,成為負責任 AI 的重要推手。
但是這種存在於企業層面的負責任 AI 自律原則,在生成式 AI 的推波助瀾之下,已無法因應 AI 發展所產生的各種問題,導致各界對 AI加以監管的聲量不斷的擴大,各國逐漸開始以法律方式介入,也讓負責任 AI 的自律原則面臨重大的挑戰。
暫緩AI發展的聲浪湧現
首先,由人工智慧和數位政策中心 (CAIDP)在 2023 年 3 月透過公開信以及向美國聯邦貿易委員會 (FTC) 投訴等方式,呼籲 FTC 採行措施暫停先進 AI 實驗和使用。
更受矚目的,則是由未來生命研究所 (FLI)提出的暫緩 AI 發展公開信。該信以 AI 可能會對社會及人類帶來潛在風險為由,呼籲暫緩發展比 GPT-4 更先進的 AI 技術 6 個月,直到獨立專家發展出共通的安全規範並加以實施。這封公開信吸引了特斯拉創辦人馬斯克、蘋果共同創辦人 Steve Wozniak 等千人參與連署,後續有越來越多的人士簽署這封公開信,截至 2023年 5 月 18 日,全球已經超過 27,500 人連署。
就連開發 AI 的學者專家,也對未受規範的AI 發展感到憂慮。像是被尊稱為「AI 教父」的人工智慧專家 Geoffrey Hinton,他認為生成式AI 有著難以預先控管的可能性升高。企業為了在技術上取得領先地位,恐怕會放寬相應的規範與限制,若政府機構、管理單位及科技業者自身都尚未準備好相應規範與有效控制辦法,恐怕會使得 AI 出現更多不可控的情事,甚至影響倫理道德。
出乎意料的是,就連開發 ChatGPT、引爆這一波 AI 熱潮的 OpenAI 執行長 Altman 也在5 月中於美國參議院作證時表示,「隨著 AI 科技的進步,我們明白世人對 AI 將如何改變我們的生活方式感到焦慮。我們也有同感。」他也認為,「如果這項科技出了問題,可能會非常糟糕 」。為此,他建議成立一個美國或全球監管機構,為強大的 AI 系統頒發許可證,以阻止 AI模型「狂妄的自我複製和自我滲透」,並有權「取消許可及確保符合安全標準」。
然而,就在各方對 AI 表達關切之際,微軟又丟出一顆震撼彈。根據《紐約時報》5 月17 日的報導,微軟 AI 研究團隊在 1 篇長達 155頁的論文《人工通用智慧的火花》中,證明GPT-4 展示出對人類概念和技能的理解能力,是向通用人工智慧 (AGI) 邁出的重要一步。這說明了縱使有各方的呼籲,但是仍無法對 AI 技術的快速發展造成阻礙。
為何對AI加以監管的聲量在增加?
雖然國際間已有呼籲聲浪,但是對 AI 加以監管舉措的國家仍然有限,也有許多人認為 AI尚未達到 AGI(或稱強 AI),也不具有感知與行動能力,因此不需要對正在發展中的 AI 技術加以監管。不過這並不表示 AI 不會對人類的社會與文明構成威脅,主要的原因就在於,快速發展的生成式 AI 已經具有自我學習與自我修正的能力,這些能力甚至超過 AI 系統開發人員的預期。
此外,新的 AI 已經能夠掌控語言,並透過和人類不斷的對話及互動,而使人類對 AI 產生信任關係,進而影響到人類的意見與想法。由於語言是人類最重要的溝通與創作工具,透過對語言的掌握,AI 等於取得一把打開人類精神世界的鑰匙,透過對語言的運用並取得人類的信任,可能會對人類的經濟、社會、文化、科技、宗教、甚至政治造成影響,而其影響力甚至會超越現有的各種社群媒體平台。
需要對 AI 加以適當監管的另一個原因,就在於 AI 和傳統媒體或傳播工具的差別。傳統的媒體或工具只能傳遞和散佈人類所創作的資訊或創作,並不能自行創作新的資訊加以散播,但是 AI 卻擁有自行創作的能力,甚至具有創作出一種新文化的可能。
既然 AI 有這麼強大的影響力與功能,卻可以在沒有經過任何政府機關審核與監管的情形之下,不斷的推陳出新、甚至自行公開上市,也凸顯出各國對 AI 監管方面出現的問題。這些問題的出現,使得原本僅存在於企業自律層面的負責任 AI 原則開始受到各國的關切,甚至已有部分國家試圖將此種原則提昇到法律的他律層面,其中最積極的就屬歐盟,特別針對 AI 規劃了一個完整的監管架構,也賦予負責任 AI 一個嶄新的意義。
從自律到他律的AI監管
由於 AI 產業的競爭不斷擴大,除導致 AI技術快速發展、甚至即將跨越通用 AI 的紅線外,還凸顯自律性質負責任 AI 的缺陷,引發各界要求凍結研發更強大 AI 與加強監管的呼籲。
根據史丹福大學在 2023 所發佈的 AI 指數調查顯示,2022 年全球已有 37 項與 AI 相關的法案通過成為法律。美國聯邦政府雖然並未採行積極的作為,但是各州卻帶頭推動,通過了 9 項法律,其次是西班牙的 5 項與菲律賓 4 項。在 AI所可能產生之問題被揭露後,國際間監管 AI 的努力似乎正在加快步伐。
綜觀全球,對 AI 監管架構規劃最完整、也最積極的,非歐盟莫屬了。在 AI 機器學習與深度學習技術獲得突破後,歐盟就開始針對 AI 的監管進行研究,除了公佈 AI 白皮書之外,最重要的就是推動整體立法架構。
歐盟執委會首先在 2021 年提出 AI 法案 (AI Act, AIA),將 AI 工具根據風險程度分成最低(Minimal)、有限 (Limited)、高 (High)、以及無法接受 (Unacceptable) 等 4 個等級進行分類管理。接著在 2022 年 9 月提出 2 項配套法案。首先是修訂「產品責任指令」(Revised Product Liability Directive, PLD),准許對機器人、無人機或智慧居家系統產品,因軟體更新、AI 或數位服務、以及網路安全漏洞所造成的損害進行賠償;其次則是訂定「人工智慧責任指令」(AI Liability Directive, ALD),希望透過制定統一規則,對資訊取得與減輕因 AI 系統所造成損害之相關舉證責任加以規範。
在2023年5月11日,AI監管最關鍵的AIA 獲得歐洲議會內部市場和公平委員會的審議通過,也向催生首部 AI 監管法案邁出重要一步。新修正的草案擴大高風險的範疇,除將對人們身體健康、安全、基本權利或環境危害涵蓋在內,還將會影響政治競選的選民和社群媒體平台(須超過 4,500 萬用戶)納入,並要求提供大型 AI 基礎模型的企業,應建立風險評估流程、說明用來訓練 AI 的著作權內容,確保用戶了解是否正與 AI 互動,並禁止透過 AI 對大眾進行即時的人臉辨識。歐洲議會將於 6 月對該法進行最終的表決。
除了上述的法案外,歐盟執委會還在 2020年底提出《數位治理法案》(DGA)、《數位市場法》(DMA)、和《數位服務法》(DSA) 等 3 個歐洲監管草案,希望藉助保護隱私權的「一般資料保護規則」(GDPR) 的成功經驗,將歐盟數位主權擴大至歐盟以外,使歐盟有望成為在國際間規範企業與消費者互動和監管 AI 與數位科技的領導者。此外,歐洲隱私權監管機構,也就是歐洲資料保護委員會 (EDPB) 在 2023 年 4 月宣佈成立 1 個關於 ChatGPT 的工作小組,朝著制定AI 隱私權規則的共同政策邁出重要的一步。
管制的反思
不具法律性質的原則與指南
反觀美國,由於在 AI 科技發展處於領先地位,故迄今為止,美國並未考慮制定類似於歐盟之聯邦法規來對 AI 加以監管,僅有加州、科羅拉多州、康乃狄克州、維吉尼亞州和紐約市規定,除非用戶同意,否則禁止 AI 進行「個人資料分析」;此外,加州等 6 個州則正在立法,禁止企業使用 AI 來歧視或欺騙消費者和求職者。
在聯邦政府方面,雖然各部會有發佈一些政策文件,但迄今較具體的作為,就是白宮科技政策辦公室在 2022 年 10 月發佈的《AI 權利法案藍圖》,列出 5 項旨在最大程度減少 AI 系統潛在危害的原則,但與歐盟的 AI 法案不同之處,就是該藍圖不具有任何約束力;其次則是2023 年 5 月聯邦貿易委員會發佈之關於如何負責任地構建 AI 和機器學習系統的指南,該指南透過生命周期監控來識別偏見和歧視性結果,這個指南也同樣不具法律性質。
2023 年,在各界發出呼籲後,白宮總算在5 月初召集 Google、微軟、OpenAI 等 AI 企業執行長會面,討論 AI 前景和風險。雖然白宮表示,這場會議就如何讓 AI 系統對政策制定者更加公開透明、如何評估這類產品安全性、以及保護 AI 系統免於受到惡意攻擊等議題進行「坦率且具有建設性的討論」,但並未論及立法監管的目標,而白宮僅宣佈將撥 1.4 億美元擴大 AI研究,並與科技界合作設立評估系統以「解決問題」。
他律的法律規範任重道遠
由於各國正處於發展AI監管的不同階段,也對如何達成監管持不同看法,因此在國際層面,似乎不太可能在短期內就任何監管 AI 措施及限制 AI 潛在不法使用等問題達成共識。但隨著歐盟推動立法取得進展,若能在 6 月獲得歐洲議會的通過,過去自律層面的負責任 AI 將可能搖身一變,成為具法律性質的強制性規定,將引領全球走上 AI 監管的新階段。
回頭檢視台灣,目前政府對是否要對 AI 監管與如何監管,也尚無具體舉措。但隨著歐盟引領各國加強對 AI 的監管,以及面臨 AI 所帶來的負面影響,台灣也勢必要對 AI 可能帶來的風險與如何讓 AI 負責做出決定,而歐盟集中式的規範架構將會是一個主要的參考對象。(本文作者為政治大學法學院暨商學院合聘教授)
【本文出自《能力雜誌》2023年6月號;訂能力電子雜誌;非經同意不得轉載、刊登】