【側記】預見人權風險的AI發展環境:從資料治理到風險評估

本座談會由台權會投稿提案,參與台灣網路治理論壇 (TWIGF),台權會提案內容:

開發AI或演算法,需要經過蒐集資料、訓練模型、部署系統三大階段。除了應用產生的衝擊,如何從開發的不同階段預見人權風險,強化研究倫理與法治環境,是在各國逐漸加入管制行列下,打造AI的關鍵。國際上,美國企業Clearview AI未經個人同意蒐集社群網站照片,開發人臉辨識工具販售給執法部分,遭英法等國開罰。政府方面,丹麥等國家用來偵測濫用社會福利的預測性演算法,也被WIRED與Lighthouse Reports的聯合調查報導,指出此類演算法的歧視問題,以及串聯過多政府資料庫,形成侵害隱私的監控系統。回到台灣,憲法法庭已於去年的健保資料庫案判決確認,個人具有要求資料控制者「停止利用其個資」的控制權。判決中更進一步表示,現行缺乏明確立法、逕行將人民健康資料從事目的外利用的作法違憲。當歐盟議會已通過AI法案的表決,確立禁止部分產品,並依風險分級管制(儘管仍受諮詢意見批評,管制仰賴標準制定機構及企業自我評估、缺乏有效執法措施、限制項目無法反映基本權侵害情形等等),台灣如何填補資料治理的落差,營造以人為本的AI發展環境? 台權會邀請到四位專家,從基本權利、大型資料庫治理、技術開發,到現行數位廣告應用的問題,反思未來該如何面對AI的挑戰。

側記作者:張維媖   編輯:周冠汝

AI發展必須正視大型資料庫治理

吳全峰 –中研院法律所副研究員 資訊法中心主任–

吳全峰老師談到,未來在AI高度發展的環境下,人民的資訊自主權將更容易受到政府或企業侵擾。以去年做成憲法判決的健保資料庫案(111年憲判13)為例,民眾儲存在健保署、衛福部的身體資訊如何使用、給誰使用都缺乏明確法源。除了全民健康保險法之外,癌症資料、家暴資料來源都受不同法條規範,也都需要依據憲法判決調整。

在資訊自主權上,吳全峰提到「事後退出」(Opt-out)與「事前同意」(Opt-in)保障資訊自主權的程度不同。兩種資料控制權都需要建立完整的執行機制,退出權也要搭配傳達如何實踐的資訊給資料主體。健保資料庫憲法判決中,大法官雖認為公共利益可做為限縮資訊自主權的理由,但對於何謂公共利益則意見分歧。吳全峰認為,法規必須給予「公共利益」明確的範圍與定義,規範何種學術研究有助公益。近期的「數據公益指引」問題,也面臨產業利用是否算公益,以及回饋民眾就算公益嗎,等問題。

此外,健保資料庫判決內的「獨立監督機制」無法補足法規的空白。首先遇到的問題是,如何判斷獨立性以及避免利益衝突。更根本的問題是,若法規本身規範不清,監督機制將無法有效運行。

吳全峰總結,歐盟要求資料生命週期的每個環節都要有法律基礎,回到台灣,大法官也認為資料後續利用,以及跨機關、跨資料庫的串接,在資料提供與接收兩端都必須有明確法律規範。然而目前在資料自主權踐行、公共利益、去識別化仍未有明確定義。歐盟已有指引界定,只要資料可達到識別、連結或推論出個人,即是未達到匿名化。縱使去識別化技術持續發展,每項工具都有其侷限,且需要法規完善以消彌執行上的不確定性。

技術人如何面對AI發展求好求快的陷阱 

許永真 –臺大人工智慧與機器人研究中心教授–

許永真引用Sheila  Jasanoff的一段話,指出科技人才長年的訓練以純技術為主,並不會主動考慮資料來源與誤用的可能性,常掉入越快越好的陷阱,因此近年許多AI的應用,可見好壞參半的結果。AI除了被有心人士利用外,有些傷害是在不知不覺間發生,因此許永真希望推動技術同儕在研發過程多思考相關議題,避免科技可能帶來的傷害。除了誤用之外,更糟的是當AI被應用在行政體系,利益受損的人民經常無從救濟,造成人權侵害事件。

要改良AI,最關鍵的就是背後「訓練」它的程式,許永真提到,由於人工訓練將導致AI複製人類既有的偏見與歧視,造成上述負面利用,因此近年政府與機構都在苦思,如何規劃、規範一套最為良善的訓練法。目前最新的進展是使人工智慧間相互訓練,並在事前輸入既有的一套規則。舉例來說,合憲AI (Constitutional AI ) 便是以世界人權宣言訓練,使AI決策不違背人權宣言。然而,許永真也提醒,以AI訓練AI的方法漏洞在於,若起初設定的規則有問題,則後續訓練的AI也同樣會有問題,仍然需要一套政府規範以期釜底抽薪。

許永真分享美國國家衛生院(NIH)要求所有接受資助的計畫都要把資料貢獻回政府,以確保公益性與使用目的。雖然該規則相對其他已開發國家較為寬鬆,但至少有實踐的可能,台灣政府或可參考。最後許永真也提到在AI的風險管理上,可借鏡美國國家標準暨技術研究院(NIST)的風險管理框架。

人工智慧與基本權利

蘇慧婕 –臺大法律系教授–

蘇慧婕分享AI對基本權利帶來的衝擊。法治社會下無論是自然人、法人、或政府機構,都會透過法律解決各種「決定」之間的摩擦或問題,然而,AI的介入卻導致「決定」的過程不透明、難以公開,導致人的基本權利容易在AI的發展中受到忽視與侵害。蘇慧婕以四個面向討論之:資訊隱私權、正當法律程序、平等權,與個人自主。

首先,誠如前面兩位講者重複提及的,AI使得資料蒐用的需求與規模更加龐大,資訊一旦受到濫用或誤用,更缺乏救濟管道,導致個人資訊隱私權的破口。第二,過去的法律透過正當法律程序,來保留利害關係人救濟的空間。然而,由於AI的演算法與決策過程不透明,對非專業者而言如同黑盒子般難以解讀,導致個人無法參與決定做成的程序。這使得過去希望捍衛的「近用權」形同虛設,救濟程序也近乎崩潰。第三,人為訓練的AI會繼續複製社會既有的偏見,同時對目標群體產生實質的負面影響。蘇慧婕解釋,可能有歧視意涵的分類(如性別、種族)雖然在法律上相對敏感,但科技領域卻未必,但也因此歧視的意圖、後果難以證明,法律若想處理相關問題,尚需更多研究。

最後,蘇慧婕提到過去的法律假設人本身具有理智,因此司法不應過度干涉。但考量AI的特殊性之後,則傾向認為人的自主意識值得「積極保護」。其理論認為,人受限於所擁有的資訊與空間監控,而做出不同的行為與決策。而脆弱群體,如未成年或身心障礙者,更容易被影響,因此必須針對「個人自主」積極的保護。

結尾蘇慧婕提到,目前主要的因應措施多朝向「正當法律程序」與「個人自主」兩項。前者肯認人為介入的必要性,透過在開發初期就對AI設立規範與風險管理,試圖補足個人近用權的失去;後者則有歐盟直接禁用的例子。然而,台灣目前相關的規範還停留在基本法草案,或行政院的「生成式AI參考指引」,雖然有對應到目前人們看見的憂慮,但尚無實際、有效的規範措施。

平台經濟中AI應用於數位行銷的人權風險

湯家碩 –開放文化基金會–

點開軟體、輸入帳號密碼,自己的資料被各大平台追蹤,幾乎是現代人生活不可或缺的一部分,這些「全自動化的競價機制」透過大量搜集個人資料,並精準投放所謂的「指向性廣告」,最終形成被認為富含大量商機的串流經濟。在上述監控資本主義的影響下,人的每個點擊、滑動,都成為商品、被標上價格。

面對這種近乎失控的資訊侵擾,各國是怎麼做的?開放文化基金會的湯家碩介紹到,以德國為例,該國的反壟斷機構FCO就用GDPR隱私保護框架,來規範臉書不可任意串接旗下各平台使用者的資料,即便是為了提高服務品質也不行。以避免使用者的資訊進入後台後被任意彙整、傳送,成為虛擬世界的搖錢樹。FCO更強調臉書強迫式的同意(不同意就不能用),並沒有「知情同意」的正當性。

面對人權威脅,台灣並沒有獨善其身,可惜的是台灣到目前為止並沒有有效、完整的應對措施。從《 數位人權在台灣:2022企業責信報告》中能看到,在臺灣二十家主要數位服務業者中,大部分公司雖然有相關政策卻不完整,從演算法系統的開發過程、使用者資訊搜集推論,到廣告投放的機制,都沒有明確解釋,可說是「虛有其表」的資訊公開。對此,湯家碩呼籲政府應加速相關的修法作業,以保護人民搖搖欲墜的基本權利。

綜合討論

台灣尚未提出如同歐盟的AI法,如何從改善國內現行法規(例如:個資法)或相關研究或產業倫理,協助管控人工智慧發展階段可能產生的人權風險?

許永真以技術人的角度,期待有法律,但也擔心隨著技術變遷,法律只能跟在技術後面。所以期待技術圈能建立對內的要求跟管理。蘇慧婕回應,企業能透過產業自律是最理想的情況,問題在於營利模式。以社群媒體來說,因其難改變收入來源,自律效果有限,就需要他律介入。本次討論聽到許永真的分享也瞭解到未必必須以法律規定作為第一步,部分問題可以用技術解決。湯家碩則強調多方利害關係人參與。吳全峰總結,AI影響到法律的基本概念,法律的確跟在技術後頭 ; 面對AI的衝擊,法律需要訂出重要的原則與要求,避免讓產業與技術發展無所適從,法律也能協助完善AI的發展環境。

 

延伸閱讀