台灣NGO,TAHR在國際數位人權大會chhòng-siáⁿ(創啥)?

每年投稿前,我總會想,參加國際會議能對這項議題有什麼幫助?猶豫掙扎間,想想各國政策的交互影響,以及網路的特性,我還是默默按下「送出」鍵。不知不覺間,台權會已在RightsCon分享過eID、防疫疫情監控等治理與隱私倡議,收穫來自不同國家、專業的參與者回饋與建議。今年台權會參與2項議程,並在開放文化基金會的協助下,實體參加。

▍台灣在地議題:在政府與企業的夾縫中撐起公民空間

無論公私部門,使用個人的健康資料做研究利用,必須建立在以隱私保障為基礎的治理之上。台權會分享健保資料庫退出權的倡議經驗,整理台灣憲法判決的未竟事項,提醒公私部門以群體信賴感取代公民資料自主權的危險。即使各國健保制度不同,我們在議程中分享的檢視點,同樣適用於「大型資料庫」的串接與利用。當對資料的需求隨著AI發展而攀升,為確保資料取得合乎倫理,以及防範人格剖繪與追蹤等風險,民主國家更應留意大型資料庫的治理。

第二場議程,台權會分享撰寫台灣網路透明報告的策略,以及後續觀察。準備過程,我留意到過去倡議接觸國家人權行動計畫、企業與人權行動計畫、立委、電信業者、網購平台,但並未面向台灣的投資人提過倡議。

▍投資人在意的人權風險

本次大會也有數間投資公司參與的議程,其中提到非金融風險不只是ESG(環境、社會責任、公司治理),投資人也在意科技公司對用戶造成的隱私權、言論自由等人權風險。公民團體與投資人合作,可以促成股東大會提案,指出平台在追蹤廣告、內容管制、不透明政策/演算法等問題,並提出改善決議。即使未必能經股東大會表決通過,也能促成輿論壓力,促使企業尋求改變。

▍透明報告的未來

今年英國通訊管理局(Ofcom)、美國電子前線基金會(EFF)各有一場關於透明報告的議程。EFF與拉丁美洲多國在地公民團體合作的透明報告倡議,部分電信業者開始在提供資料給第三方(政府個資調取)時會通知用戶。當透明報告由企業自發,轉向政府規範,反映及潛在哪些問題,就是Ofcom的場次「反思透明報告」討論的焦點。

去年台灣的數位中介法草案中,出現要求業者發布透明報告,揭露內容管制透明度的義務。長久以來,台權會倡議政府與企業各自定期揭露「調取個資/分享給第三方」、「請求限制網路內容」等統計、法律依據與政策。但台權會並未提出以法律的方式硬性規範。英國政府因網路安全法案(Online Safety Bill)引起的爭議,邀請公民團體組成議程展開對話。與談提到透明報告被詬病為,企業抵擋管制的擋箭牌,資料難以驗證,將風險轉嫁給用戶。但是透明是問責的前提。透明度應是手段,而非目標。因此,當公民團體、政府在討論透明報告應該涵蓋哪些資訊時,應考量哪些資訊對保障基本權利是必要的。對於平台的內容管制,以及政府的法律管制,也須留意濫用與誤用的風險。

***

雖說RightsCon是討論數位人權的會議,但實際跨海跑到中美洲參加,不會只遇到科技相關的問題。首先遇到的問題,是哥斯大黎加拒簽了許多參與者。我也在其中,好在能以落地簽入境,但很多人因此無法參加。開幕場邊,傳出與會者怒吼國境問題 ; 通往會場的天橋也在隨後被噴上「No Border」字樣。台灣沒有在陸地上接壤的國家,很難想像哥國的邊境政策。

會場擺攤時,我跟附近攤位的組織聊天。我注意到攤位上的食譜,他們提到除了科技相關的議題外,也協助土耳其的移民。這讓我想起土耳其是世界上接收難民數量最多的國家,以及土耳其因政治因素排斥特定族群,台灣也曾有土耳其人因此必須轉往他國申請難民庇護。為何是「轉往他國」呢?因為台灣並沒有難民法,當在台灣的外國人發生母國武裝衝突,變會產生「卡住」的現象。

▍演算法、AI人工智慧的風險評估

AI是近年各種討論的顯學,但討論起來總是卡卡的。人臉或影像辨識、自動化演算法內容審查、大語言模型、預測性評估工具、生成式AI的應用衝擊,都在討論範圍 ; 如何從中抓住從資料蒐集、訓練調校、部署應用的基本流程梳理意見與判斷準則,讓討論聚焦非常困難。美國公民自由聯盟ACLU主持的工作坊,整理出機器學習的過程中,可能產生的7種偏差。我覺得很適合倡議工作者快速判斷演算法存在的問題,ACLU也使用再犯率預測、招募面試評估的案例,讓參與者演練評估工具。簡易來說,可檢視的偏差有 :

  • 產製資料集 :
    • 資料形成的「歷史性偏差」
    • 母體定義及取樣的「代表性偏差」
    • 將樣本整理為資料集「計算偏差」
  • 訓練模型與部署 :
    • 訓練模型的「學習偏差」
    • 以測試資料或特定基準評估模型的「評估偏差」
    • 定義模型的「加總偏差」
    • 產出模型後,整合進系統的「部署偏差」

ACLU分享對賓州阿利根尼郡使用的家庭評分工具的分析。政府用該工具來判斷需要調查哪些疏於照顧兒童的報案(不含身體虐待等重度情形)。ACLU發現該工具複製兒福系統既存的偏見,使不同膚色、家庭成員是否有身障人士的風險分數出現偏差。往上追發現工具的資料來源,源自非隨機抽樣的政府資料庫。這意味更多的資料,未必有更好的結果,重點是取樣是否有代表性。會後在ACLU的文章中,讀到使用家庭難以改變的要素當預測因子,讓家庭難以擺脫過去。文章最後迫切提到此類決策性驗算法,需要提升透明度,進行獨立監督,以及讓受影響的人可以取得有意義的協助。

▍如何破除監控科技的網羅

不只是中國的監控設備,以及由身分證字號與sim卡實名制層層堆疊、交叉比對身分的監控體系,全球都應提升個資保護規範,以及制訂對監控科技的標準,防止傷害擴大。我在不同的議程中,聽到同樣的見解。原因是出口限制及制裁無法解決問題,且特定國家將此視為其他國家獨厚本國企業的藉口。即便是原先目的合理的應用,我也聽到其他國家的參與者分享監控科技如何功能蠕變,從特定犯罪偵查,外擴到寄罰單到參與集會遊行的人住家。民主國家也會使用監控科技,公民社會、政府、企業如何守住靠向極權的底線,在疫情之後更顯急迫。

延伸閱讀