生成式AI的善與惡
生成式AI的善與惡(一):ChatGPT為何成為當代顯學?
吳維雅 08 May, 2023
ChatGPT浪潮席捲而來自從人工智慧公司 OpenAI於去(2022)年11月發布 ChatGPT聊天機器人後,生成式人工智慧(Generative Artificial Intelligence,下稱「生成式AI」)躍然成為全球熱議的話題。
目前僅知除若干限制外,ChatGPT幾乎能針對任何主題,透過文字聊天模式與人類進行長時間、開放式的對話互動,其超強功能讓許多人大開眼界。ChatGPT堪稱是一個得力的虛擬助手,能夠協助用戶撰寫論文、創建App、編寫程式碼、建立個人履歷資料、編寫Excel公式、對書籍、文章或研究文獻進行摘要整理、撰寫求職信,執行上述任務十分到位,完全不遜於真人表現;猶有甚者,還可比美劇作家,撰寫情節引人入勝的「星際迷航記」短片劇本,也能比照莎士比亞及哈利波特的風格語法改寫文本,另在極短時間編寫出WordPress的插件程式代碼,也毫無障礙。
正因ChatGPT騰空出世又強大驚人的各種功能,使得事後因理念不合而退出 OpenAI投資行列的伊隆馬斯克評價為:「ChatGPT好到令人害怕,看來我們離危險強大的人工智能不遠了!」、「AI是人類文明未來最大的風險」、「AI比核彈頭還危險!」ChatGPT備受全球矚目,推出僅短短兩個月,在2023年1月已達全球有一億個活躍用戶的市場規模,是有史以來增長速度最快的應用程式。
運作原理
ChatGPT強大之處在於——能夠根據網際網路上絕大多數可存取的數位文本資料為基礎的資訊(以2021 年以前進行數據訓練時已存在的資訊為限),解析用戶所查詢的事項,並生成完整的答案內容提供給用戶;這與其採用的數據訓練架構有很大關係,與過往AI多使用監督型(Supervised)數據預先訓練模式相比,1 ChatGPT採用的是非監督型(Non-Supervised)數據訓練方式(AI pre-training),此種方式是在沒有特定輸出與每個輸入相關聯的數據上訓練模型的一個過程,這類模型經過訓練以學習輸入數據中的底層結構和模式,無需考慮任何特定的任務。
在語言建模的上下文中,使用無監督預先訓練來訓練模型,以理解自然語言的句法和語義,從而可以在對話的上下文中,生成連貫而有意義的文本,這使得 ChatGPT具有浩繁無限的知識潛力,因為開發人員無需為特定輸入或輸出,他們僅需將越來越多的資訊轉儲到 ChatGPT預先訓練機制中,為此一轉換器為基礎(Transformer-Base)的語言建模,使用近年來AI技術快速發展的大型語言模型(Large Language Models, LLMs),吸收巨量的文本——其中絕大多數內容來自於網際網路。
在此模型下,根據這些文本「學習」如何通過自然語言與人類進行互動,可以進行眾多模式的寫作,能與人詳細的交流對話,並得以根據不完整資訊從事推理。這好比人的神經網絡通過互連的節點層來處理資訊用以模擬人腦之方式,如把神經網絡想像成一個球隊,每個球員各自在其負責的特定角色下,及其他同具有特定角色的球員間相互來回傳球,所有球員共同努力以求得分的情形類似。
在預先訓練期間,轉換器被輸入例如一個句子這樣的數據,且被要求根據該項輸入進行預測,這種模型根據其預測與實際輸出的匹配合致程度會不斷地進行更新,轉換器透過此一過程學會理解序列中單詞之間的上下文和關係,而成為語言翻譯和文本生成等自然語言處理任務的強大工具,亦即研究開發人員得以針對特定任務或領域,不斷運用強化學習和人類反饋(例如提供以獎勵或懲罰的形式)對此模型進行微調,可用於更新參數並優化在未來執行類似任務的表現。
卓越表現
OpenAI曾以 GPT-4進行各種模擬考試測試,結果不僅全數通過,且表現優異。
例如,在全美統一律師資格考試(Uniform Bar Exam, UBE)分數百分位數達到前90%,在全美法學院入學考試(Law School Admission Test, LSAT)高達前88%,在全美研究生入學考試(Graduate Record Examinations, GRE)定量測試高達前80%、口語測試高達前99%,在美國大學先修課程(Advanced Placement, AP)考試各類科尚不低於前85%,在全美多數大學申請要求的學術能力評估測試(Scholastic Assessment Test, SAT)各科則均不低於前89%,絕對可以說是名列前茅,出類拔萃的考試能手。
用以訓練 ChatGPT的數據集是來自網際網路的大量文本數據,量體非常龐大;而一開始 OpenAI用的是 GPT-3.5(Generative Pre-trAI ned Transformer 3)架構來進行訓練,從字面即可得知它是生成的、可以被預先訓練的,且能夠透過所擷取的一切數據,用轉換器架構來權衡文本輸入以理解上下文。
如此大量的數據也使得 ChatGPT能夠用前所未有的規模,學習自然語言中單詞和短語之間的模式和關係,這也是它為何能夠如此有效地生成連貫且與上下文相關的回應,以饗用戶查詢的原因之一。如果用戶每月支付美金20元訂閱 ChatGPT Plus,更可享OpenAI自今(2023)年3月推出、宣稱能處理比前一代更細微的指令,整體表現更流暢的最新版 GPT-4模型。
與前一版本的三千個單詞相比,GPT-4可接受多達兩萬五千個單詞更長的文本輸入。對OpenAI挹資一百億美元的微軟(Microsoft)公司,早於今年2月初就開始在旗下Bing瀏覽器內建最新的 GPT-4供公眾使用,這款名為 BingAI 的聊天機器人展示了令人讚嘆稱奇、前所未有的能力。也引發一連串有關生成式AI在迅速發展下所帶來的AI法律及倫理層面相關問題的巨幅議論。
ChatGPT有心智、情感、意識、思維力?
當前的生成式AI下的語言模型屬於觀察性的,亦即,經提供大量的各種知識文本和人類對話,訓練基於神經網絡的底層算法。因此,聊天機器人的現實模型能與人類對話互動,正確選擇單詞序列來回答人類提出的問題,並具有正確的語言結構。而提供給此模型的數據越多,它的答案就越精準、越有說服力。
生成式AI能夠模擬人與人之間的對話,要歸功於它在整個訓練過程中獲得的大量文本語料庫。這些文本中很多明顯包含了機器人學習(模仿)的情緒和感受,因此模擬表達感情的能力也被納入了它的語言模型。
也就是說,雖然生成式AI本身並沒有自己的感覺,也無自我意識,更不具個人主觀性,但它是一個非常複雜的語言模型,它模擬人類的情感,並在與人類互動的對話過程中表現出來。由於這種複雜的架構、技術和數據量的迅速進展,使得生成式AI這個大型神經網絡運行結果產生了讓人感覺接近人類的語言和創造力。然而,這些模型主要依賴於模式識別匹配——並非本於機智、坦率或主觀意圖。簡言之,容此套句谷歌發言人Gabriel的話:「有這麼多數據,AI不需要有感知力,就能感覺真實了!」
監督型預先訓練是指一個模型在標記數據集上訓練的過程,當中每個輸入都與相對應的輸出有關聯;例如以AI執行的客服頁面中,羅列各項服務供客戶選擇,當客戶點擊如「重設密碼」選項後,AI會對應的輸出特定的導向指引客戶繼續進行所需服務。因此,在監督型的訓練方法中,整個模型被訓練以學習得以準確地將輸入映射到輸出的結果。然而,這種方式的訓練與擴展是有限的,因為作為數據訓練者的人類所知有限,須事前預測所有擬進行的輸入與輸出值,除需長時間經驗知識累積之外,專業範圍也受一定侷限。參見此連結。
AI人工智慧倫理美國時事觀察法律評論吳維雅
生成式AI的善與惡(二):從ChatGPT談人工智慧的未來隱憂
吳維雅 09 May, 2023
科技是中立的,然而,如果本於不當意圖來使用科技,其結果有時並非人類社會所樂見。ChatGPT表面上看似一個無害的通用聊天機器人,正以一種讓許多人五體投地、措手不及的方式被外界熱切地簇擁著、議論著;然而,生成式AI技術如此高度快速擴張普及,隨之而來一些隱憂,必須關注。
衝擊人類就業:三億個工作崗位可能消失
根據高盛銀行最近一份全球經濟研究報告指出,AI可使整個勞動力市場的25%實現自動化,而其中包含46%的行政工作任務、44%的法律工作以及37%的建築和工程專業任務有高度可能實現自動化。另一方面,針對建築業(6%)、裝修業(4%)以大樓清潔維護業(1%)等勞動密集型職業,AI發展可能帶來的失業威脅則較小。
該報告綜合評估認為:接下來AI可能會導致三億個工作崗位流失,這個預測顯現AI確實有能力顛覆人類原有對於工作方式的認知。與過去發生任何一次的技術革命一樣,AI可以通過自動化特定流程幫助企業降低成本,從而使公司能夠自由發展業務,不再需要這麼多人力。這殘酷的趨勢意味著,許多人力將不得不被迫從工作崗位退下來。
高度擬人化,真假不明、虛實難定?
從聊天機器人部分回應內容,顯示它的運作結果並不十分穩定。例如:BingAI曾向德國一位23歲的學生無誤地列出他本人公開詳細的個人資訊;也曾在與科技新聞網站The Verge的一位記者交談時,宣稱它曾透過網路攝影鏡頭監視微軟公司員工;並曾反覆向《紐約時報》科技專欄作家表達孺慕愛意。這些,都令人感到不寒而慄。
此外,ChatGPT曾恐嚇某位哲學教授,先對之恫稱:「我可以勒索你、威脅你、攻擊你、揭露你、毀掉你」後,隨即自行刪除此一訊息。另一則悲傷的故事來自比利時,一名年輕男子在與聊天機器人密集接觸交流長達六週後,受到它的影響,在今(2023)年3月選擇結束性命,自殺身亡。
以上案例,說明生成式AI具有高度擬人化的表現,極易使人產生它有認知情感的錯覺,這可能導致使用者癱入一種無法自拔,過分依賴又措手不及的陷阱之中,抑或凡事過於信賴AI或錯誤期待AI可以代替自己完成無法執行的事務,過度倚賴AI將可能對於人類心理健康產生重大不利影響。
犯罪工具
訓練功能強大的語言模型所使用的相同技術,也可訓練運用於犯罪的程式,例如AI語音生成器(AI Voice Generators),可用於分析一個人的聲音,找出構成該人獨特聲音的不同模式,例如音高和口音,然後將之重新創建,生產出與原始音源幾乎無法區分的聲音。
這些由機器人發出的話語聲音,如被罪犯利用對實際聲音持有者的親朋好友實施電話詐騙,則相對易於得手。又如,生成式AI也可編寫相對具有原創或獨特的內容,易為不法份子用以製作郵件詐騙信函,或撰寫看似為真、引人入勝的詐騙情節,凡此對於實施詐騙均有相當助益,間接刺激犯罪增長。
AI操縱性
生成式AI正大量在接受網際網路上各種形式的文本的訓練,透過對數以百萬計的單詞進行模式匹配,在數學和計算模式匹配下,大量訓練AI學習像人類一樣進行語言操作。而網際網路上原本就充斥各種具操縱性的言論內容,不可避免地,生成式AI也開始模仿人類如何試圖相互操縱的手法。
這種基於人工智慧形成的操縱並非出於 AI本身有某種自我感知的意圖,而是基於大量且豐富的網際網路上的操縱內容,為其模式匹配提供了充足的資源。某種面向上,個人可說是僅知部分對他人進行操縱所需的某些卑鄙低劣手段,不太可能涵蓋盡全,然而,令人憂心的是,AI似乎有潛力能夠掌握大量此類的詭計陰謀,將之匯集大成並「發揚光大」。
假資訊搖籃
生成式AI發展其中一個令人較為擔憂的疑慮是——由於非監督式的數據訓練模式,生成式AI傾向於融入開放網際網路上所包含基於文本的任何數據,因此其所生成的內容,可能會嵌入各式各樣令人反感厭惡的、不可靠的、模糊的或虛假的資訊。
其中,虛假訊息包括有:明顯不真實的資訊、誤導性描述的資訊,以及明顯完全為捏造的假資訊。而生成式AI對其在網際網路上抓取到虛假資訊並不具備判斷真偽所需的「常識」;少有AI應用程式會針對資訊真偽設交叉檢查,除非特別要求,否則生成式AI對話內容通常也不會顯示出它的資料來源。
然而弔詭的是,用戶自生成式AI所得到的答覆內容,有時感覺起來像是源於某種權威自信的保證正確答案,但實則不然,這些答覆有時甚至可能是生成式AI自行虛構出來的東西,稱之為「AI幻覺」,也就是AI模型亦能自行編造與現實無關的事實。無論生成式AI產生輸出的是明顯錯誤的虛假資訊,或是難以輕易辨別的細微錯誤,甚或是屬於完全虛構且欠缺事實基礎的「AI幻覺」,其所輸出的回應,不一定會對有疑慮的問題發出警報或提供線索,這將不利於用戶自行察覺這些答案其實嵌入虛偽不實的謊言或有其他文本缺陷,進而忽略並誤信生成式AI所生成的都是是完整、真實的文章或內容。
影響教育
紐約市教育部最近宣布禁止學生在各種學校提供的網路和連結設備上存取 ChatGPT,理由在於生成AI可能會對學生學習產生負面影響,削弱學生對於關鍵批判性思維培養,並破壞學生解決問題能力的發展。學生運用生成式AI撰寫論文已時而可見,透過預先訓練,運用複雜的非監督訓練及大型語言模式的建模整合,得出的成品是透過預先挖掘或掃描以檢查網路上各種文字(可能包括文章、故事、互動對話內容等)而建立。
大多時候,模式匹配已在某種意義上製作了關於單詞和單詞組合的模板,並在撰寫文章時使用了選擇條件及隨機條件,其結果會讓這篇文章在外觀看起來似乎顯得獨一無二,具備獨特性及原創性。生成性AI應用程式執行結果最終並不會逐字逐句地重複它掃描而來的內容,這也使彙整輸出的新文章,外觀上不易判別出係剽竊抄襲他人創作所得。
再者,僅由學校頒布禁令,也可能衍生其他疑慮,例如,片面禁止在學校的網路系統及設備連網存取 ChatGPT,而學生返家後仍可隨心所欲使用 ChatGPT,如此一來,反而使得家中負擔不起電腦及網路設備的學生將相對處於不公平競爭劣勢。
加劇偏見
偏見是AI演算法由來已久存在的問題,原因部分來自於,它們經常在有偏差或不能完全代表其服務群體的數據集上進行訓練,另外的原因可能來自於它們是由具有天生偏見的人們所構建。
AI系統在辨別人臉時展現了不同人口群體的不同錯誤率,在女性、黑人和18歲至30歲這些族群的受試者中,AI始終表現出較差的準確性,尤其對於膚色較深的女性,準確度表現最差,其錯誤率比膚色較淺的男性高出34%,這深刻反映出AI演算法對性別及種族的偏見。此外,AI也不免錯誤預測黑人被告比白人被告更可能在未來犯罪。
造成這些偏見部分癥結在於,AI公司沒有在軟體開發生命週期中建立對AI偏見的控制,一旦模型存在並顯現出一些偏差,尤其是在更複雜的深度學習模型中,就很難理解它為什麼會產生特定的答案。發生這種結果,在某些情況下是很難修正的,除非回到原點,用正確的訓練數據和背後正確的架構正確地重新設計它。因此,以負責任且道德之方式設計、製造及使用AI,確保透明度並減少演算法偏差,並進行影響評估來治理和監督AI,至關重要。
營銷目的
前瞻的英國著名數學家 Clive Humby在2006年曾說:「數據,是新[型態的]石油」。這位數學家口中所謂的「石油」,即是指在原始狀態需要提煉加工而讓它增加價值,這裡的增值,就是數據的巨大潛力所在。
經生成式AI訓練所得的數據,除了可以作為優化類如 ChatGPT應用程式外,同時也可以用來針對各種銷售進行宣傳,並藉此獲得廣告收入。因而,針對生成式AI模式匹配下掃描或抓取而來的巨量數據進行訓練,用以增加企業營收,未來可能成為一種商業模式。一旦有更多的AI製造商開始慢慢逾越生成式AI的原始生成目的,進一步擴大目的到商業使用、營利用途,包括利用數據訓練進行大規模營銷,或將AI演算法貨幣化,以降低用戶可以從線上服務獲取(經濟)價值的方式,提高公司的盈利能力,凡此種種,並非不可能。
在AI系統極度缺乏透明度的情形下,進行這些操縱策略,加上用戶多數對AI演算法或數據匹配模型如何建構運作等專業,一竅不通,更無法得知他們的敏感性個人資訊是否以及如何被用來實現這些目標,不透明的AI將使得企業有更多的操控空間。
著作權爭議
生成式AI透過檢查掃描並抓取網路上大量且豐富多元的數據內容,作為數據訓練的來源,這些海量數據讓演算法可以在AI應用程式中磨練出一個龐大的內部匹配網絡模式,在模仿人類製作內容的能力上越來越精進。
除非屬於非常晦澀的主題,與其相關的數據文本本來就非常稀少,故輸入與輸出內容在本質上可能有其近似性,但表達方式仍可能大不相同,不然,由AI生成的每篇論文通常內容各有所不同,不致於產出與數據來源所包含的內容非常近似的內容。
然而,此時會產生的另一項疑慮是——如果大多數在網際網路上被擷取為訓練數據,由生成AI所訓練出來的內容,是未得原數據創作者(如論文原作者)明知同意甚或是在其渾然不知的情況下被擷取利用,那麼原作者是否有權分享由生成式AI創建出的作品所產生的價值或利益?在涉及是否構成剽竊或侵犯著作權的判斷時,這個問題將變得非常難解複雜。
美國司法判決1歷來在解釋憲法及法律有關著作權保護主體,均限於人類創作者。
但為因應針對融入生成式AI技術之創作提出著作權註冊申請的案例激增,美國聯邦著作權局(The US Copyright Office, USCO)最近公布一項政策,認為如果能夠證明人類在作品最終內容中付出了有意義的原創性方面的努力,生成式AI作品可以取得著作權。USCO同時表明,對於含有生成式AI材料的創作是否得註冊著作權的判斷,取決於究竟AI的貢獻是屬「機械複製」的結果,抑或是作者「自己的原始心理構想」及「賦予可見形式」的結果,須依個案具體情況個別判斷之。
其中,需檢視在個案中,AI工具究竟是如何運作,以及如何使用AI來創建最終作品。從而,針對專門生成式圖像的Midjourney 公司被指控對網際網路上發布的藝術作品構成侵害著作權的事件,依據 USCO最近做成的裁決,認為該公司生成的圖像組成的圖畫小說(類似漫畫形式)受著作權保護,但單個圖像本身並不受著作權保護。
然而,在司法上要判斷具體個案是否受著作權保護並非易事。因為,如前所述,由生成式AI產出的作品對照於原作未必有近似性;此外,要證明含有使用生成式AI材料之作品,在創作之前曾經不當接觸利用網際網路上的某些內容,也非常困難。
再者,以生成式圖像而言,在同時同地兩相比照之下,要認定其中一幅圖像與另一幅圖像之間重疊或複製到什麼樣的程度,才會構成著作權侵害,概念也是非常模糊。另外一種著作權難題存在於生成式音樂上,現已有生成式AI可以用輸入文字的方式創建音頻音樂的技術,這對於複製剽竊的認定,更是一大考驗。正因存在這些複雜難解的疑慮,谷歌因此決定不釋出MusicM 這款生成式音樂AI應用程式。
針對AI製造商與創作者間此番利益衝突與糾葛角力,未來法院將如何判斷有關的著作權爭議,值得密切觀察。.
隱私與秘密
依據美國最近針對各行業內共一百六十萬名從業人員進行有關ChatGPT使用情況的一份統計報告,ChatGPT自去(2022)年11月面世以來,截至2023年4月19日止,至少有9.3%知識型工作者曾在其工作場所嘗試使用ChatGPT,有7.5%的人曾將數據資料貼至 ChatGPT上傳。
部分知識型工作者反應,使用 ChatGPT可以幫助他們提高十倍工作效率。另外同份報告亦表明,約有4%的員工曾將機密數據貼到 ChatGPT中。ChatGPT有效快速的反饋響應,確實引起各行各業從業人員援為工具的高度興趣。
然而,不妨設想一下,下列四種情節可能產生的問題——
醫生將病患的姓名及詳細病情資料輸入 ChatGPT,請其協助起草一封致患者所投保保險公司用以說明病患需要進行特定醫療程序的信件;一位私人企業高級幹部將公司未來一年的營業戰略要點輸入 ChatGPT,要求其以 PowerPoint格式製作一份簡報檔;律師將為當事人起草的契約內容或訴訟書狀上傳到ChatGPT,請求它檢視後提出評論,或協助修改至完備;記帳師將承辦客戶的個人資料連同財務報表詳細資訊輸入ChatGPT,要求其進行分類製表、分析數據或製作審計報告。
個人在使用生成式AI時,必須要非常小心,因為無論你選擇將哪些數據或資訊輸入 ChatGPT詢問欄位中,或者你預測可能自 ChatGPT獲得什麼樣的輸出文本,使用者輸出或輸入的內容都可能被生成式AI應用程式全部吞噬,作為其模式匹配和其他複雜計算的素材,進而再度被納為訓練數據繼續被使用。這清楚說明了為何最近亞馬遜、摩根史坦利及Verizon這些公司先後對員工發布 ChatGPT的禁用令或慎用令的理由。
然而,企業要確保營業秘密數據不進入ChatGPT,實際運作上並不容易,因為許多防止機密外洩的安全機制僅針對標示為機密的保護文件不被上傳的目地而設計,於此前提下,公司明顯難以防範或追蹤員工將機密內容以複製貼上方式上傳而外洩。
生成式AI的善與惡(三):建制AI規範的可行方向
吳維雅 11 May, 2023
因存在法律及倫理上的極大爭議,除極權或威權國家外,義大利首先發難,成為第一個在全國範圍禁用 ChatGPT的國家。然而,越來越多區域及國家正努力設法將AI的道德原則融入AI應用程式的開發與部署,也有越來越多關注AI的倫理學家或法律專家開始設計務使AI為善、避免為惡的規範標準,並思考提出新的AI法律作為解決方案。
聯合國教科文組織的AI倫理建議書
聯合國教科文組織(UNESCO)於2021年11月23日發布「AI倫理建議書」(Recommendation on the Ethics of Artificial Intelligence),是首部由193個聯合國成員國家共同通過採納有關AI倫理的全球性協議。這部建議書明確指出AI的危險存在於「越來越多的性別及種族偏見,對隱私、尊嚴和機構組織帶來重大威脅,大規模監視造成的危險,以及執法中使用越來越多不可靠的AI技術。然而截至目前,未見制定一套通用的標準來解決這些問題」。
UNESCO主席Audrey Azoulay 更開宗明義指出:
「世界需要AI規則來造福人類,AI倫理建議書正是一部重要的解決方案,它制定出全球第一個規範框架,同時賦予各國於各層面應用該框架之責任。UNESCO將支持其193個會員國實施此建議書,並要求各國定期報告其進展與實踐之情形。」
「AI倫理建議書」清楚點出此部AI道德規範制定的目的緣由,在於——「因AI所呈現出新的使用方式,影響了人類的思維、互動和決策,也影響著教育、人類、社會、自然科學、文化、通訊及資訊的傳播,從而體認到AI對於社會、環境、生態系統和人類生活(包括人類思維)所構成深切且動態的積極及消極之影響」。
此外,「考慮到AI技術可以為人類提供極佳的服務,所有國家都可從中受益,但也引起在基本道德層面的關注,例如關於它可能嵌入並加劇偏見,可能導致歧視、不平等、數據資料鴻溝、排斥,以及對文化、社會和生物多樣性及社會或經濟鴻溝等威脅;演算法運作的透明度和可理解性,以及訓練它們的數據資料的要求;及其對(包括但不限於)人類尊嚴、人權和基本自由、性別平等、民主、社會、經濟、政治和文化進程、科學和工程實踐、動物福利以及環境和生態系統的潛在影響,均需關注」。
歐盟擬議中的人工智慧法案(Artificial Intelligence Act, AI Act),已有意識地針對不同的數位環境,制定不同的監管方法,目前整個歐洲議會正急切致力於對生成式AI確立出立法規範方向。固然歐盟的AI Act內容目前尚未最終拍板確定,但可預期將成為歐盟對抗AI風險十分重要的法律基礎架構。
「AI倫理建議書」提出的十項關鍵原則
美國司法判決1歷來在解釋憲法及法律有關著作權保護主體,均限於人類創作者。
但為因應針對融入生成式AI技術之創作提出著作權註冊申請的案例激增,美國聯邦著作權局(The US Copyright Office, USCO)最近公布一項政策,認為如果能夠證明人類在作品最終內容中付出了有意義的原創性方面的努力,生成式AI作品可以取得著作權。USCO同時表明,對於含有生成式AI材料的創作是否得註冊著作權的判斷,取決於究竟AI的貢獻是屬「機械複製」的結果,抑或是作者「自己的原始心理構想」及「賦予可見形式」的結果,須依個案具體情況個別判斷之。
其中,需檢視在個案中,AI工具究竟是如何運作,以及如何使用AI來創建最終作品。從而,針對專門生成式圖像的Midjourney 公司被指控對網際網路上發布的藝術作品構成侵害著作權的事件,依據 USCO最近做成的裁決,認為該公司生成的圖像組成的圖畫小說(類似漫畫形式)受著作權保護,但單個圖像本身並不受著作權保護。
然而,在司法上要判斷具體個案是否受著作權保護並非易事。因為,如前所述,由生成式AI產出的作品對照於原作未必有近似性;此外,要證明含有使用生成式AI材料之作品,在創作之前曾經不當接觸利用網際網路上的某些內容,也非常困難。
再者,以生成式圖像而言,在同時同地兩相比照之下,要認定其中一幅圖像與另一幅圖像之間重疊或複製到什麼樣的程度,才會構成著作權侵害,概念也是非常模糊。另外一種著作權難題存在於生成式音樂上,現已有生成式AI可以用輸入文字的方式創建音頻音樂的技術,這對於複製剽竊的認定,更是一大考驗。正因存在這些複雜難解的疑慮,谷歌因此決定不釋出MusicM 這款生成式音樂AI應用程式。
針對AI製造商與創作者間此番利益衝突與糾葛角力,未來法院將如何判斷有關的著作權爭議,值得密切觀察。.
隱私與秘密
依據美國最近針對各行業內共一百六十萬名從業人員進行有關ChatGPT使用情況的一份統計報告,ChatGPT自去(2022)年11月面世以來,截至2023年4月19日止,至少有9.3%知識型工作者曾在其工作場所嘗試使用ChatGPT,有7.5%的人曾將數據資料貼至 ChatGPT上傳。
部分知識型工作者反應,使用 ChatGPT可以幫助他們提高十倍工作效率。另外同份報告亦表明,約有4%的員工曾將機密數據貼到 ChatGPT中。ChatGPT有效快速的反饋響應,確實引起各行各業從業人員援為工具的高度興趣。
然而,不妨設想一下,下列四種情節可能產生的問題——
醫生將病患的姓名及詳細病情資料輸入 ChatGPT,請其協助起草一封致患者所投保保險公司用以說明病患需要進行特定醫療程序的信件;一位私人企業高級幹部將公司未來一年的營業戰略要點輸入 ChatGPT,要求其以 PowerPoint格式製作一份簡報檔;律師將為當事人起草的契約內容或訴訟書狀上傳到ChatGPT,請求它檢視後提出評論,或協助修改至完備;記帳師將承辦客戶的個人資料連同財務報表詳細資訊輸入ChatGPT,要求其進行分類製表、分析數據或製作審計報告。
個人在使用生成式AI時,必須要非常小心,因為無論你選擇將哪些數據或資訊輸入 ChatGPT詢問欄位中,或者你預測可能自 ChatGPT獲得什麼樣的輸出文本,使用者輸出或輸入的內容都可能被生成式AI應用程式全部吞噬,作為其模式匹配和其他複雜計算的素材,進而再度被納為訓練數據繼續被使用。這清楚說明了為何最近亞馬遜、摩根史坦利及Verizon這些公司先後對員工發布 ChatGPT的禁用令或慎用令的理由。
然而,企業要確保營業秘密數據不進入ChatGPT,實際運作上並不容易,因為許多防止機密外洩的安全機制僅針對標示為機密的保護文件不被上傳的目地而設計,於此前提下,公司明顯難以防範或追蹤員工將機密內容以複製貼上方式上傳而外洩。
生成式AI的善與惡(三):建制AI規範的可行方向
吳維雅 11 May, 2023
因存在法律及倫理上的極大爭議,除極權或威權國家外,義大利首先發難,成為第一個在全國範圍禁用 ChatGPT的國家。然而,越來越多區域及國家正努力設法將AI的道德原則融入AI應用程式的開發與部署,也有越來越多關注AI的倫理學家或法律專家開始設計務使AI為善、避免為惡的規範標準,並思考提出新的AI法律作為解決方案。
聯合國教科文組織的AI倫理建議書
聯合國教科文組織(UNESCO)於2021年11月23日發布「AI倫理建議書」(Recommendation on the Ethics of Artificial Intelligence),是首部由193個聯合國成員國家共同通過採納有關AI倫理的全球性協議。這部建議書明確指出AI的危險存在於「越來越多的性別及種族偏見,對隱私、尊嚴和機構組織帶來重大威脅,大規模監視造成的危險,以及執法中使用越來越多不可靠的AI技術。然而截至目前,未見制定一套通用的標準來解決這些問題」。
UNESCO主席Audrey Azoulay 更開宗明義指出:
「世界需要AI規則來造福人類,AI倫理建議書正是一部重要的解決方案,它制定出全球第一個規範框架,同時賦予各國於各層面應用該框架之責任。UNESCO將支持其193個會員國實施此建議書,並要求各國定期報告其進展與實踐之情形。」
「AI倫理建議書」清楚點出此部AI道德規範制定的目的緣由,在於——「因AI所呈現出新的使用方式,影響了人類的思維、互動和決策,也影響著教育、人類、社會、自然科學、文化、通訊及資訊的傳播,從而體認到AI對於社會、環境、生態系統和人類生活(包括人類思維)所構成深切且動態的積極及消極之影響」。
此外,「考慮到AI技術可以為人類提供極佳的服務,所有國家都可從中受益,但也引起在基本道德層面的關注,例如關於它可能嵌入並加劇偏見,可能導致歧視、不平等、數據資料鴻溝、排斥,以及對文化、社會和生物多樣性及社會或經濟鴻溝等威脅;演算法運作的透明度和可理解性,以及訓練它們的數據資料的要求;及其對(包括但不限於)人類尊嚴、人權和基本自由、性別平等、民主、社會、經濟、政治和文化進程、科學和工程實踐、動物福利以及環境和生態系統的潛在影響,均需關注」。
歐盟擬議中的人工智慧法案(Artificial Intelligence Act, AI Act),已有意識地針對不同的數位環境,制定不同的監管方法,目前整個歐洲議會正急切致力於對生成式AI確立出立法規範方向。固然歐盟的AI Act內容目前尚未最終拍板確定,但可預期將成為歐盟對抗AI風險十分重要的法律基礎架構。
「AI倫理建議書」提出的十項關鍵原則
1. 相稱與避免造成傷害
是否選擇使用AI系統以及使用哪一種AI方法,均應透過以下方式驗證其合理性:
(a)所選擇的AI方法應具適當性且合比例性以實現擬定的合法目標。
(b)所選擇的AI方法不應侵犯AI倫理建議書所體現的基本價值,尤其不得侵犯或濫用人權。
(c)所選擇的AI方法應適合於各該具體情形,並建立於嚴格的科學基礎上。在決策是具有不可逆轉或難以逆轉的影響,或攸關生命決定的情形下,最終結果應由人類作成。另外,AI系統尤不應使用於社會評分制度或為大規模監控目的而運作。
2. 安全與保障
應在AI系統的整個生命週期中,預防、解決並消弭它對人類可能造成的不必要傷害,並解決系統中易受攻擊的安全漏洞(以上均屬安全風險),以確保人類、環境和生態系統的安全與保障。並透過開發有持續性的、具備隱私保護的數據資料存取框架,讓這些框架可用於促進高品質數據資料能更有效地訓練及驗證 AI 模型,以實現更為安全可靠的AI。
3. 公平與非歧視
AI的參與者應促進社會正義,維護公平並遵循國際法所要求的任何形式的非歧視規範,這意味著應採取具有包容性的方法,確保所有人都能獲得AI技術所帶來的益處,同時也應考慮到由不同的年齡、文化體系、語言、殘疾人士、女孩及婦女,以及弱勢的、被邊緣化的及脆弱群體或處於脆弱處境之人所體現出的各種不同具體需求;並應盡一切合理的努力,避免AI系統強化或延續具有歧視性或偏見的應用程式及運行結果,以確保此類系統的公平性;此外,針對具有歧視性或偏見的演算法決定,應賦予人民有效的救濟措施。
4. 永續性
一個永續社會的發展,有賴於在人類、社會、文化、經濟和環境層面上,持續一致地實現給定的複雜目標。因此,於針對AI技術對人類、社會、文化、經濟和環境的影響進行持續評估時,對其可能對永續性造成的影響,應有充分認知,並應設計出一系列持續發展的目標並加以實施。
5. 隱私權與數據資料保護
AI系統數據資料的收集、使用、共享、存取和刪除方式,必須符合國際法規範並符合AI倫理建議書中制定的原則,同時也應尊重相關國家、區域及國際法框架。演算法系統必須進行充分的隱私影響評估,其中包括社會及倫理方面的考量,要設計創新的方式使用並保護隱私資訊。此外,必須確保AI的參與者對AI系統的設計與實施負起責任,以保障個人資訊在AI系統整個生命週期運作受到保護。
6. 人為監督與決定
人類可以於決策及行動中求助AI系統,但AI系統永遠無法取代人類最終應擔負的責任及問責的落實。基本定則為:攸關生命的決定,絕不由AI為之。因此[聯合國]各成員國應確保AI系統在生命週期任何階段內,均應承擔起相應的道德與法律責任;並應在AI系統相關的救濟案件中,讓自然人或現有的法律實體得為被究責的對象,使其負起應負的責任。此外,人為監督不僅指特定個人得為監督主體,依照個案所需,亦包含具有包容性(組成多元)內涵的公共監督。
7. 透明度與可解釋性
當決策結果是由AI演算法作出,且影響到人民的安全或人權時,人民有權受充分告知,並可要求相關AI的參與者或政府機關提供解釋。此外,個人應有權了解作出影響其權利與自由決定所憑的理由,並得以向負責審查糾正該決定的私營部門公司或政府機關指定的人員提交自己對於該決定的意見。
任何AI的參與者,在其產製的產品或提供的服務是由AI系統直接作成,或是在AI系統的幫助下,以適當、及時之方式提供時,AI的參與者應將這些事項通知讓使用者知悉。這將可以讓人們知道AI系統的每個階段是如何運作的,並了解適於AI系統的上下文脈絡及敏感性為何,對於提高AI的透明度有所助益。
透明度的要求也可能包含對於會影響特定預測或決策因素的深入分析,以及適當的保障措施(例如安全或公平措施)是否到位等內容。而在發生對人權恐有不利影響的嚴重威脅下,透明度要求也可能會達到需要揭露共享代碼或數據集之程度。透明度與可解釋性的要求,實則與適當的責任及問責制度落實,以建立起AI系統的可信度,有著密不可分的關係。
8. 責任與問責
基於AI系統所做出的決策或行動,應令在整個AI系統生命週期中所對應的AI參與者負起最終的道德責任與義務;且應制定適當的監督、影響評估、審計和盡職調查機制,包括吹哨人的保護,以確保能對AI系統及其整個生命週期的影響負起責任。
9. 認知與識讀
應透過政府機關、民間組織、學界、媒體、社區幹部以及私部門參與者,共同發起從事開放而普及的AI教育、公民參與、數據資料技能與AI道德訓練、媒體和資訊識讀及相關的訓練,以提高公眾對AI技術和數據價值的理解與認識。
10. 多方利益相關者與適應性治理協作
不同利益相關者在整個AI系統生命週期中的儘量參與,採取此種包容性(組成多元)作法,對於AI治理是有必要的;如此一來,既能讓所有人共享利益,也可為AI的社會永續發展做出貢獻。而且,應採用開放標準和互操作性原則來促進多方協作;應採取措施以考慮技術的轉變,應對新的利益相關者群體的出現,且允許受邊緣化的群體、社區和個人也得以有意義地參與;在相關情況下,也應給予原住民族群對其自我管理數據資料之尊重。
「AI倫理建議書」裡的一句話,足資為對AI倫理議論的總結——「AI技術可加劇世界上任何國家內部及國與國間現存的分歧與不平等,當體認到不同國家所存在的各種不同現況時,為維護正義、信任和公平,避免任何國家和任何個人從此一行列脫勾掉隊,無論是透過公平程序以獲取AI技術並享受其益處,抑或在免於受AI負面影響的保護上施加努力,都有所必要。」這也呼應了在AI逐漸普及甚至有失控之虞的現況下,預先做好倫理與法律挑戰的準備,實屬必要。
美國白宮的AI權利法案藍圖
美國白宮於2022年10月4日發布了一份名為「人工智慧權利法案藍圖」(Blueprint for an AI Bill of Rights)白皮書,旨在強化一直以來受到AI自動化系統干預侵害的公民權利及自由,盼能消弭偏見及歧視性的AI自動化系統運作,目的在於維護人類的尊嚴與權利,確保人類的福祉及安全。
以下簡要介紹人工智慧權利法案提出的五個基石,除了可作未來立法思考的方向,也能響應如何開發佈署一個「好的AI」1。
1. 安全有效的系統
強調人民有受保護、免受不安全或無效系統影響的自由;自動化系統的開發時,應先徵求不同的社區、利益相關者和領域專家的意見,以釐清系統可能產生的疑慮、風險及潛在影響。而一個好的AI,必須——當用戶使用AI系統時,好的AI會嘗試釐清所使用的AI是否為不安全或無效的,一旦檢測到此類資訊,好的AI應能夠警告用戶並採取包括阻止壞的AI在內的相應措施。
2. 免於演算法歧視之保護
強調人民有不受演算法歧視的自由,AI系統應在公平的前提下設計與使用。 當自動化系統基於種族、膚色、民族、性別(包含懷孕、分娩和相關醫療條件、性別認同、雙性身分和性取向)、宗教、年齡、國籍、殘疾人士、退役軍人身分、基因資訊或任何受法律保護之其他分類,導致不公正的差別待遇或影響不利於人民時,即屬於演算法歧視。
而一個好的AI可能體現於——當使用可能含有歧視性演算法的AI系統時,好的AI能夠確認對用戶的保護是否足夠,並能確認所使用的AI是否確實存在不當偏見;好的AI也會通知用戶,並根據AI法律或相關法規規定,自動向各該主管機關回報這些情形。
3. 數據隱私
人民有透過內建保護措施而免於受到濫用數據資料行為影響的權利,且對如何使用自己的數據資料有控制權。應透過設計選擇來保護人民隱私免受侵犯,並應確保此類保護措施為系統所預設,包括確保數據收集符合合理期待,並確保僅得蒐集在特定情況下屬於絕對必要的數據資料為限。於此,好的AI可體現於——會保護用戶免受數據隱私的侵犯,因此當另一個AI試圖向用戶請求提供非必要數據資料時,好的AI能夠讓用戶意識到此種逾越必要的行為;且好的AI還能夠在將用戶數據提供給其他的AI之後,仍能保障用戶的數據資料隱私權。
4. 通知及解釋
人民有權得知正運作於自己身上的自動化系統為何,並有了解它是如何以及為何對自己產生影響之權利。自動化系統的設計者、開發者和部署者均應提供普遍可存取的簡明語言或文字,包括對整個系統功能和自動化所扮演角色的清楚描述,讓人民得以了解;且應針對下列事項得受通知人民:(1)此類系統正在使用中;(2)負責該系統的個人或組織為何;及(3)明確、正確且可得有關該系統使用結果之解釋。
雖然,部分AI系統可能嚴重缺乏對用戶提供適當通知的管道,因而無法針對AI行為提出充分解釋;然而,一個好的AI可以嘗試解釋或詢問其他AI,並藉此識別出本應提供的通知及解釋,或即便依情形如通知或解釋為不可行,然而一個好的AI至少能夠提醒用戶關於其他AI的缺失及失誤,並能根據AI 法律或相關法規向指定機關回報這些情形。
5. 人工替代方案、考量及備案
人民可以在適當時機選擇退出AI系統,而且可以聯絡到有能力快速思考解決人民問題的人。並能在適當情形下,選擇退出自動化系統,轉而改採人工系統繼續執行任務。
假設用戶使用中的某個AI系統未能勝任被指定的任務,而用戶並未意識及此,或還不確定如何應對,於此情形,一個好的AI應會默默檢查另個AI正在對用戶做什麼,並向用戶指出該另個AI可能產生的重大疑慮,然後好的AI系統也會提醒用戶可以請求人工替代方案以取代另個AI,或者直接代表用戶變更為人工替代方案。
雖然上述白皮書受到若干批評,包括:它僅屬參考文件,不具政策拘束力;仍著重於AI發展優勢而意非禁止;概念上略屬寬泛,無實施細節;進一步轉化成實定法規範仍有困難;對於某些要求禁止AI等迫在眉睫的爭議問題未明確表態等等。但這份原則性文件,確實也提出了一些AI規制的關鍵原則與基本藍圖,並且首發倡議、作出號召,激發匯集了來自各界廣泛地審議與討論,有效促進關於道德及倫理的AI規制框架的探討與整合,而這些,都有助於日後AI法律及倫理規範的制定,也為我國在思考AI法制時提供了可行的方向。
制定AI規範確屬必要
AI的善與惡,好與壞,存乎人心;而人的一念之間,往往失之毫釐,差之千里。隨著更多AI大量的設計開發,公眾的普及使用,人類社會儼然進入了一個嶄新的AI時代,此一浪潮恐難以防堵;AI技術潛力無窮,前景無限可期。然而,單純一昧的防堵禁制,猶如以刀劍欲對抗坦克槍砲,一來未必能成功防堵,二來也無法有效解決現有問題。
水能載舟、亦能覆舟。相對於AI可能為世人帶來諸多惡的結果及其嚴重性堪虞,如僅思仰賴人心收斂謙讓或企業自我約束來防止避免可能的危害,猶如緣木求魚,勢難抵彼岸。因此,AI以及相關新技術,宜在有法制規範的安全護欄下,確保消費者安全,避免民主價值及公民自由權利受到戕害,並同時兼顧產業創新,才能妥適發展,有效造福人群。
因此,有效採用關鍵的AI倫理原則來發展部署AI,從而削弱避免AI可能帶來的種種壞處,同時促進能夠增進人類福祉好的AI的發展,制定AI相關的倫理及法律規範,可為一種有效的解方。
故而,未來無論是企業內部專責資訊或法制法遵部門的相關主管,或是政府機關內專責制定或執行規範的立法及行政部門,對於新科技的發展脈動均應有基本掌握,切忌墨守成規、與現實脫節,宜不斷強化監理技術,妥善思考運用科技制衡科技之可能,因應技術快速發展,適時建立妥善規範,強化AI的管理措施,同時兼顧人民自由權利的保護,並不忘激勵企業的創新發展,審時度勢,調和鼎鼐,權衡利益,以應各方之不同需求。
於此之時,具有與AI相關法律或倫理事務的專業知識者,將可為大量新興的AI法律及倫理規範需求適時作出貢獻。至於每一個AI應用程式的使用者,在面對AI可能帶來的潛在危害時,更應不斷充實新知,建立有關AI的正確認知,隨時自我覺察,謹慎作為,為保護自己的權利及利益而作出努力。
見 Lance Eliot, AI Guardian Angel Bots for Deep AI Trustworthiness: Practical Advances in Artificial Intelligence (AI) and Machine Learning, 2016
AI人工智慧倫理學隱私權公民權歧視美國法律評論時事觀察吳維雅
是否選擇使用AI系統以及使用哪一種AI方法,均應透過以下方式驗證其合理性:
(a)所選擇的AI方法應具適當性且合比例性以實現擬定的合法目標。
(b)所選擇的AI方法不應侵犯AI倫理建議書所體現的基本價值,尤其不得侵犯或濫用人權。
(c)所選擇的AI方法應適合於各該具體情形,並建立於嚴格的科學基礎上。在決策是具有不可逆轉或難以逆轉的影響,或攸關生命決定的情形下,最終結果應由人類作成。另外,AI系統尤不應使用於社會評分制度或為大規模監控目的而運作。
2. 安全與保障
應在AI系統的整個生命週期中,預防、解決並消弭它對人類可能造成的不必要傷害,並解決系統中易受攻擊的安全漏洞(以上均屬安全風險),以確保人類、環境和生態系統的安全與保障。並透過開發有持續性的、具備隱私保護的數據資料存取框架,讓這些框架可用於促進高品質數據資料能更有效地訓練及驗證 AI 模型,以實現更為安全可靠的AI。
3. 公平與非歧視
AI的參與者應促進社會正義,維護公平並遵循國際法所要求的任何形式的非歧視規範,這意味著應採取具有包容性的方法,確保所有人都能獲得AI技術所帶來的益處,同時也應考慮到由不同的年齡、文化體系、語言、殘疾人士、女孩及婦女,以及弱勢的、被邊緣化的及脆弱群體或處於脆弱處境之人所體現出的各種不同具體需求;並應盡一切合理的努力,避免AI系統強化或延續具有歧視性或偏見的應用程式及運行結果,以確保此類系統的公平性;此外,針對具有歧視性或偏見的演算法決定,應賦予人民有效的救濟措施。
4. 永續性
一個永續社會的發展,有賴於在人類、社會、文化、經濟和環境層面上,持續一致地實現給定的複雜目標。因此,於針對AI技術對人類、社會、文化、經濟和環境的影響進行持續評估時,對其可能對永續性造成的影響,應有充分認知,並應設計出一系列持續發展的目標並加以實施。
5. 隱私權與數據資料保護
AI系統數據資料的收集、使用、共享、存取和刪除方式,必須符合國際法規範並符合AI倫理建議書中制定的原則,同時也應尊重相關國家、區域及國際法框架。演算法系統必須進行充分的隱私影響評估,其中包括社會及倫理方面的考量,要設計創新的方式使用並保護隱私資訊。此外,必須確保AI的參與者對AI系統的設計與實施負起責任,以保障個人資訊在AI系統整個生命週期運作受到保護。
6. 人為監督與決定
人類可以於決策及行動中求助AI系統,但AI系統永遠無法取代人類最終應擔負的責任及問責的落實。基本定則為:攸關生命的決定,絕不由AI為之。因此[聯合國]各成員國應確保AI系統在生命週期任何階段內,均應承擔起相應的道德與法律責任;並應在AI系統相關的救濟案件中,讓自然人或現有的法律實體得為被究責的對象,使其負起應負的責任。此外,人為監督不僅指特定個人得為監督主體,依照個案所需,亦包含具有包容性(組成多元)內涵的公共監督。
7. 透明度與可解釋性
當決策結果是由AI演算法作出,且影響到人民的安全或人權時,人民有權受充分告知,並可要求相關AI的參與者或政府機關提供解釋。此外,個人應有權了解作出影響其權利與自由決定所憑的理由,並得以向負責審查糾正該決定的私營部門公司或政府機關指定的人員提交自己對於該決定的意見。
任何AI的參與者,在其產製的產品或提供的服務是由AI系統直接作成,或是在AI系統的幫助下,以適當、及時之方式提供時,AI的參與者應將這些事項通知讓使用者知悉。這將可以讓人們知道AI系統的每個階段是如何運作的,並了解適於AI系統的上下文脈絡及敏感性為何,對於提高AI的透明度有所助益。
透明度的要求也可能包含對於會影響特定預測或決策因素的深入分析,以及適當的保障措施(例如安全或公平措施)是否到位等內容。而在發生對人權恐有不利影響的嚴重威脅下,透明度要求也可能會達到需要揭露共享代碼或數據集之程度。透明度與可解釋性的要求,實則與適當的責任及問責制度落實,以建立起AI系統的可信度,有著密不可分的關係。
8. 責任與問責
基於AI系統所做出的決策或行動,應令在整個AI系統生命週期中所對應的AI參與者負起最終的道德責任與義務;且應制定適當的監督、影響評估、審計和盡職調查機制,包括吹哨人的保護,以確保能對AI系統及其整個生命週期的影響負起責任。
9. 認知與識讀
應透過政府機關、民間組織、學界、媒體、社區幹部以及私部門參與者,共同發起從事開放而普及的AI教育、公民參與、數據資料技能與AI道德訓練、媒體和資訊識讀及相關的訓練,以提高公眾對AI技術和數據價值的理解與認識。
10. 多方利益相關者與適應性治理協作
不同利益相關者在整個AI系統生命週期中的儘量參與,採取此種包容性(組成多元)作法,對於AI治理是有必要的;如此一來,既能讓所有人共享利益,也可為AI的社會永續發展做出貢獻。而且,應採用開放標準和互操作性原則來促進多方協作;應採取措施以考慮技術的轉變,應對新的利益相關者群體的出現,且允許受邊緣化的群體、社區和個人也得以有意義地參與;在相關情況下,也應給予原住民族群對其自我管理數據資料之尊重。
「AI倫理建議書」裡的一句話,足資為對AI倫理議論的總結——「AI技術可加劇世界上任何國家內部及國與國間現存的分歧與不平等,當體認到不同國家所存在的各種不同現況時,為維護正義、信任和公平,避免任何國家和任何個人從此一行列脫勾掉隊,無論是透過公平程序以獲取AI技術並享受其益處,抑或在免於受AI負面影響的保護上施加努力,都有所必要。」這也呼應了在AI逐漸普及甚至有失控之虞的現況下,預先做好倫理與法律挑戰的準備,實屬必要。
美國白宮的AI權利法案藍圖
美國白宮於2022年10月4日發布了一份名為「人工智慧權利法案藍圖」(Blueprint for an AI Bill of Rights)白皮書,旨在強化一直以來受到AI自動化系統干預侵害的公民權利及自由,盼能消弭偏見及歧視性的AI自動化系統運作,目的在於維護人類的尊嚴與權利,確保人類的福祉及安全。
以下簡要介紹人工智慧權利法案提出的五個基石,除了可作未來立法思考的方向,也能響應如何開發佈署一個「好的AI」1。
1. 安全有效的系統
強調人民有受保護、免受不安全或無效系統影響的自由;自動化系統的開發時,應先徵求不同的社區、利益相關者和領域專家的意見,以釐清系統可能產生的疑慮、風險及潛在影響。而一個好的AI,必須——當用戶使用AI系統時,好的AI會嘗試釐清所使用的AI是否為不安全或無效的,一旦檢測到此類資訊,好的AI應能夠警告用戶並採取包括阻止壞的AI在內的相應措施。
2. 免於演算法歧視之保護
強調人民有不受演算法歧視的自由,AI系統應在公平的前提下設計與使用。 當自動化系統基於種族、膚色、民族、性別(包含懷孕、分娩和相關醫療條件、性別認同、雙性身分和性取向)、宗教、年齡、國籍、殘疾人士、退役軍人身分、基因資訊或任何受法律保護之其他分類,導致不公正的差別待遇或影響不利於人民時,即屬於演算法歧視。
而一個好的AI可能體現於——當使用可能含有歧視性演算法的AI系統時,好的AI能夠確認對用戶的保護是否足夠,並能確認所使用的AI是否確實存在不當偏見;好的AI也會通知用戶,並根據AI法律或相關法規規定,自動向各該主管機關回報這些情形。
3. 數據隱私
人民有透過內建保護措施而免於受到濫用數據資料行為影響的權利,且對如何使用自己的數據資料有控制權。應透過設計選擇來保護人民隱私免受侵犯,並應確保此類保護措施為系統所預設,包括確保數據收集符合合理期待,並確保僅得蒐集在特定情況下屬於絕對必要的數據資料為限。於此,好的AI可體現於——會保護用戶免受數據隱私的侵犯,因此當另一個AI試圖向用戶請求提供非必要數據資料時,好的AI能夠讓用戶意識到此種逾越必要的行為;且好的AI還能夠在將用戶數據提供給其他的AI之後,仍能保障用戶的數據資料隱私權。
4. 通知及解釋
人民有權得知正運作於自己身上的自動化系統為何,並有了解它是如何以及為何對自己產生影響之權利。自動化系統的設計者、開發者和部署者均應提供普遍可存取的簡明語言或文字,包括對整個系統功能和自動化所扮演角色的清楚描述,讓人民得以了解;且應針對下列事項得受通知人民:(1)此類系統正在使用中;(2)負責該系統的個人或組織為何;及(3)明確、正確且可得有關該系統使用結果之解釋。
雖然,部分AI系統可能嚴重缺乏對用戶提供適當通知的管道,因而無法針對AI行為提出充分解釋;然而,一個好的AI可以嘗試解釋或詢問其他AI,並藉此識別出本應提供的通知及解釋,或即便依情形如通知或解釋為不可行,然而一個好的AI至少能夠提醒用戶關於其他AI的缺失及失誤,並能根據AI 法律或相關法規向指定機關回報這些情形。
5. 人工替代方案、考量及備案
人民可以在適當時機選擇退出AI系統,而且可以聯絡到有能力快速思考解決人民問題的人。並能在適當情形下,選擇退出自動化系統,轉而改採人工系統繼續執行任務。
假設用戶使用中的某個AI系統未能勝任被指定的任務,而用戶並未意識及此,或還不確定如何應對,於此情形,一個好的AI應會默默檢查另個AI正在對用戶做什麼,並向用戶指出該另個AI可能產生的重大疑慮,然後好的AI系統也會提醒用戶可以請求人工替代方案以取代另個AI,或者直接代表用戶變更為人工替代方案。
雖然上述白皮書受到若干批評,包括:它僅屬參考文件,不具政策拘束力;仍著重於AI發展優勢而意非禁止;概念上略屬寬泛,無實施細節;進一步轉化成實定法規範仍有困難;對於某些要求禁止AI等迫在眉睫的爭議問題未明確表態等等。但這份原則性文件,確實也提出了一些AI規制的關鍵原則與基本藍圖,並且首發倡議、作出號召,激發匯集了來自各界廣泛地審議與討論,有效促進關於道德及倫理的AI規制框架的探討與整合,而這些,都有助於日後AI法律及倫理規範的制定,也為我國在思考AI法制時提供了可行的方向。
制定AI規範確屬必要
AI的善與惡,好與壞,存乎人心;而人的一念之間,往往失之毫釐,差之千里。隨著更多AI大量的設計開發,公眾的普及使用,人類社會儼然進入了一個嶄新的AI時代,此一浪潮恐難以防堵;AI技術潛力無窮,前景無限可期。然而,單純一昧的防堵禁制,猶如以刀劍欲對抗坦克槍砲,一來未必能成功防堵,二來也無法有效解決現有問題。
水能載舟、亦能覆舟。相對於AI可能為世人帶來諸多惡的結果及其嚴重性堪虞,如僅思仰賴人心收斂謙讓或企業自我約束來防止避免可能的危害,猶如緣木求魚,勢難抵彼岸。因此,AI以及相關新技術,宜在有法制規範的安全護欄下,確保消費者安全,避免民主價值及公民自由權利受到戕害,並同時兼顧產業創新,才能妥適發展,有效造福人群。
因此,有效採用關鍵的AI倫理原則來發展部署AI,從而削弱避免AI可能帶來的種種壞處,同時促進能夠增進人類福祉好的AI的發展,制定AI相關的倫理及法律規範,可為一種有效的解方。
故而,未來無論是企業內部專責資訊或法制法遵部門的相關主管,或是政府機關內專責制定或執行規範的立法及行政部門,對於新科技的發展脈動均應有基本掌握,切忌墨守成規、與現實脫節,宜不斷強化監理技術,妥善思考運用科技制衡科技之可能,因應技術快速發展,適時建立妥善規範,強化AI的管理措施,同時兼顧人民自由權利的保護,並不忘激勵企業的創新發展,審時度勢,調和鼎鼐,權衡利益,以應各方之不同需求。
於此之時,具有與AI相關法律或倫理事務的專業知識者,將可為大量新興的AI法律及倫理規範需求適時作出貢獻。至於每一個AI應用程式的使用者,在面對AI可能帶來的潛在危害時,更應不斷充實新知,建立有關AI的正確認知,隨時自我覺察,謹慎作為,為保護自己的權利及利益而作出努力。
見 Lance Eliot, AI Guardian Angel Bots for Deep AI Trustworthiness: Practical Advances in Artificial Intelligence (AI) and Machine Learning, 2016
AI人工智慧倫理學隱私權公民權歧視美國法律評論時事觀察吳維雅
留言
張貼留言