【Q&A:遠端生物辨識科技與人權問題 】你的臉孔不是你的臉孔

文/台權會志工 張庭翊

圖/台權會志工 黃郁紋

校訂/ 周冠汝、廖欣宜


你的臉孔不是你的臉孔

Q&A:遠端生物辨識科技與人權問題

 

無論是喬治.歐威爾名著1984中充滿反烏托邦色彩的監視者「老大哥」,還是電影銀翼殺手中可藉由肢體語言、情緒與生理反應來鑒定人性的測驗系統,一直以來,臉部與生物辨識科技都是科幻作品常見的題材。然而,在「臉部辨識(facial recognition)」與「遠端生物辨識(remote biometric recognition)」快速發展的今天,這些技術所帶來的傷害與人權疑慮已不再是想像。大規模、帶有歧視性的監控也可能悄悄潛入一般民眾的生活中。

 

近日,台權會與全球逾200個社會組織、社運人士、科技人與其他技術專家共同簽署了由數位人權組織AccessNow主筆的公開信,呼籲全面禁止臉部辨識與遠端生物辨識科技。跟著這篇Q&A一起來認識這封公開信背後所關注的數位人權問題:

 

 

Q1: 遠端辨識技術的危險是什麼?

A1: 所謂的遠端臉部或生物辨識技術,指的是可利用臉孔、姿態、人聲、外型或其他生物特徵,將個人從群體中識別或區分出來的技術,它們「一對多」的特性更可助長大規模並帶有歧視性監控與追蹤。

 

以人權的觀點,這類技術主要帶來兩種威脅:第一、許多拿來訓練演算法的生物特徵數據經常是在本人不知情、未同意或不符真實意願的情況下所蒐集的。其二、 一旦這些可用來識別、挑揀或追蹤個人的科技被用在公共場所或公眾得近用的空間(如,校園、辦公場所、住宅社區、交通運輸地點等),便可侵犯人民的隱私權與公民自由。就算系統沒有在運作,民眾在得知這些場所具備監控科技的同時,也可能有意識或不自主的對言行進行自我審查。

 

臉部辨識與遠端生物辨識技術的研發與濫用不僅威脅民眾的權利與公民自由,許多用來推斷或預測性別、情感和其他個人特性的應用目前仍存在技術缺陷。使用這些技術所導致的誤判、誤導,更是對被監視的人們帶來多一層的風險與傷害。國際上許多研究也顯示,這些科技所仰賴的演算法在準確度上對於非強勢族群特別容易產生誤判或甚至是帶有歧視或偏見性質的推斷。這對於早已在社會上飽受不平等對待的族群(如,低收入戶、少數民族等)更是雪上加霜。

 

Q2:身在台灣的我需要擔心嗎?

A2: 目前有在使用臉部/遠端生物辨識科技,並已被人權組織點名的國家中並不乏標榜自由民主的國家。美國底特律的警方去年(2020)在臉部辨識系統的比對下,將一名非裔市民誤判為通緝中的偷竊犯(同為非裔美國人)並加以逮捕。雖然之後解開了誤會,但對當事人的名譽、家人、心理以及人身自由已經造成傷害,也引起社會檢視這類科技在非白人族群上的應用與影響。同年六月,在美國首都華盛頓特區的抗議活動中,警方利用「國都區人臉識別調查線索系統」(NCRFRILS) 找出並逮捕一名曾與警方發生肢體衝突的抗議人士,引起群眾譁然,該系統在事件後已遭到停用。

 

類似的技術也不一定用在執法上,在英國,公私部門合作之下的臉部辨識系統可結合各種公、私部門數據 (如社群媒體資訊或移民紀錄),並挪用來做不同的研究與應用。這代表臉部辨識數據不只可用來比對身分,更可能被衍生來做風險分析或行為推斷等用途。 

 

台灣,人臉辨識技術也已經出現在校園中。許多學校以打造智慧校園的名義,引入人臉辨識技術,雖然這些技術可用於課堂簽到、學習監測、校園門禁、治安維護,但這樣的長期追蹤已對師生的隱私造成侵犯。校園生活是青少年人格發展的重要階段,人權、個資與公民自由等議題自然不可忽視,而這些技術在校園以外的應用也應受到全民的重視。

 

 

Q3: 有需要全面禁止嗎?

A3: 目前種種證據都顯示這些技術被濫用的可能性與範圍過大,沒有任何法律保障或審查機制能徹底消弭它的威脅。縱然有論述主張這些技術有助於維護公共安全,在利與弊的權衡之下,我們認為這些科技在設計上就已經對人權造成威脅,它所帶來的危害也遠高於利益。

 

再者,當這些科技被用來執行警務、入出境管制與掌握人流時,研究顯示低收入戶與邊緣化社群(包含各種非主流族群)更常會被貼上犯罪標籤,加深歧視、偏見與差別待遇。這些充滿缺陷的技術就算再「進步」,它們對人權、平等和公民自由所構成的威脅仍舊無法完全抹除,反而可能淪為更有效監視並侵犯人權的工具。因此,我們堅持無論是政府與私部門都應徹底禁止該科技用於公共空間或公眾得近用的空間。

 

 

Q4: 有哪些資源可以讓我們更瞭解人臉辨識對人權的衝擊?

A4: 想要更了解針對臉部辨識與遠端生物辨識科技的施政監督與人權倡議,歡迎閱讀AccessNow公開信。有關演算法如何放大歧視與偏見的效應,可以參考相關紀錄片編碼偏見或書籍大數據的傲慢與偏見:一個「圈內數學家」對演算法霸權的警告與揭發

 

 

 

【摘要】全面禁止臉部辨識與遠端生物辨識科技

公開信中譯版

起草團體: Access Now, Amnesty International, European Digital Rights (EDRi), Human Rights Watch, Internet Freedom Foundation (IFF), and Instituto Brasileiro de Defesa do Consumidor (IDEC)

當臉部辨識與遠端生物辨識科技帶來的傷害與人權疑慮大於利益,在大規模、帶有歧視性的監控之下生活已不再只是帶有科幻色彩的想像。由國際數位人權組織AccessNow主筆,台權會與全球逾200個社會組織、社運人士、科技人與其他技術專家共同簽署公開信,呼籲全球性地禁止臉部辨識與遠端生物辨識科技。

 

為什麼我們需要在意生物特徵辨識技術?

從已經被廣泛利用的臉孔解鎖,到宣稱可以辨別情緒的人體姿態辨識技術,「臉部辨識(facial recognition)」與「遠端生物辨識(remote biometric recognition)」所涵蓋的科技十分廣泛。

 

生物特徵辨識技術可略分為「一對多」的比對技術和「一對一」的核對技術。前者是利用臉孔、姿態、人聲、外型或其他生物特徵,將個人從群體中識別或區分出來,足以促成大規模或帶有歧視性監控與追蹤。而後者,雖然較常被用在個人的身分認證,但一旦所蒐集生物特徵資料被組合為龐大地生物特徵資料庫,照樣能助長大規模或帶有歧視性監控與追蹤。

 

有些辨識系統的供應者宣稱只要不綁定使用者的真實姓名、身分, 即可保護個人隱私。然而事實上,一旦辨識技術具備篩選特定目標或推斷使用者的特徵及行為的功能。就算供應者聲明有匿名化處理或只在使用者端進行資料分析,這些技術在結構設計上仍與隱私權保障相悖。 再加上許多引用臉孔與生物特徵資料來推斷或預測性別、情感和其他個人特性的應用仍缺乏科學實證並存在技術缺陷。使用這些技術所導致的誤判、誤導、或甚至是帶有歧視或偏見性質的邏輯推斷,更是對被監視的人們帶來多一層的傷害。

 

當前問題與人權疑慮

以人權的觀點,這類技術主要帶來兩種威脅:第一、在訓練系統的過程中,生物特徵資料的蒐集經常是在本人不知情、未同意或不符真實意願的情況下發生的。其二、 在公共場所或公眾得近用的空間架設可用來識別、挑揀或追蹤個人的應用系統,勢必會抑制人民的表意自由並限縮公民空間。因為就算這些系統沒有在運作,「我正在被監視」的認知本身,足以埋下自我審查的種子。

 

在中國、美國、 俄羅斯、英國、烏干達、肯亞、斯洛維尼亞、緬甸、阿拉伯聯合大公國、以色列以及印度等國,這些技術已被利用來監控民眾、抗議者、甚至是少數族群或其他被邊緣化的群體。臉部辨識與遠端生物辨識技術的研發與濫用不僅威脅民眾權利,資料分析過程中的誤判也帶來一定的風險。而這些風險以及人權侵害,更往往是加諸於已經早已飽受不平等與歧視對待的族群。

 

除了政府與公家機關在執法上可能存在的濫用,公私部門之間的合作關係也能形成私營組織透過合約提供監視資料給當局,或甚至直接受公部門委託,對人民執行監視。國際上,私營組織之間也曾發生過技術供應商恣意彙編未經證實的「可疑人士」資料庫,並將這些資料庫分享給其他企業。無論濫用技術的一方隸屬於公家或私營企業,這些案例都已經對人民的權利與隱私構成極大威脅。

 

今天無論是公家機關或私營企業扮演監控者的角色,當這些科技出現在公園、校區、辦公場所、交通運輸地點、住宅社區,甚至是線上平台這些我們生活中難以避免的公共場所或公眾得近用空間,我們的人權、平等與公民自由(包含隱私與資料保護相關權利、表意自由、集會結社自由)都將面臨危機。

 

為什麼要直接「全面禁止」?

這些科技在設計上即隱含對人權的威脅,並且在現實社會中也已導致顯著傷害。種種證據都顯示這些技術被濫用的可能性與範圍過大,沒有任何法律保障或任何形式的審查能徹底消弭其所構成的威脅。縱然有論述主張這些技術有助於維護公共安全,在利與弊的權衡之下,我們認為它所帶來的危險遠遠凌駕於利益。

 

種種分析更顯示,實驗上使用這些科技來施行警務、維護公共秩序時,低收入與邊緣化社群(包含非強勢種族)時常會被貼上犯罪標籤;而這些社群正是一直以來就飽受系統性歧視與差別待遇的族群。這些充滿缺陷的技術就算再「進步」,它們對人權、平等和公民自由所構成的威脅仍舊無法完全抹除,反而可能淪為更有效監視並侵犯人權的工具。因此,我們堅持無論是政府與私部門都應徹底禁止該科技用於公共空間或公眾得近用的空間。

 

 

我們的訴求

為了保障人權與公民自由,台權會與全球二百多個連署組織及連署人共同在此呼籲,徹底禁止在公眾得近用空間(或人們難以迴避的地點)施用足以助長大規模、歧視性監控的臉部辨識與遠端生物辨識科技。

 

政府機關應全面禁止施用此等技術在公眾得以出入的場所施行監控、識別、歸類與追縱等行為。世界各國的政府與各級機關應在法律或政策上找到因地制宜的解決方案,停止投資此類技術、落實這些技術在公共或公眾得以近用的空間的全面禁用、禁止公家機關取得技術用來執行監控、停止對政治異議者或被邊緣化的群體實行大規模或具歧視性地鎖定監控、強制施用者對利害關係人的告知義務、以及適當補償權利受損的人士。

 

法院與司法人員應承認並積極預防該等技術對人權所造成的根本性威脅, 並救濟相關行為造成的損害。而行政機關(包含資料保護與消費者保護機關)也應善盡職權保護民眾隱私權與消費者權益,督促企業停止使用這類技術。 國際組織(如聯合國人權事務高級專員辦公室),更應挺身而出,對臉部辨識與遠端生物特徵辨識技術的現行發展以及援用發表譴責。

 

對於發展或應用臉部辨識與遠端生物特徵辨識技術的私人機構,我們強力呼籲公開承諾終止製造、研發、銷售與使用這些促進大規模歧視性鎖定監控的科技。這也包括立即停止生產、刪除任何經由非正當手法所建立的資料庫、模型或產品、 發布透明報告、並不加以報復曾抗議或抵制該技術的工作者,進行實質溝通。相關的科技人員也應於能力範圍內及工會的支援下,在工作場域聯合抗衡臉部辨識與遠端生物特徵辨識技術的發展或銷售。

 

投資人與金融機構應履行義務,檢視其現行與未來將投資的公司是否牴觸人權與助長大規模或歧視性的鎖定監控。投資人與金融機構也應呼籲其所投資的公司終止這些技術的發明、發展、銷售與施用。而捐款組織應確保尋求救濟者、倡議組織與公民團體有足夠的資源,積極貢獻於地方、各級政府與國際體系間的相關政策制定。

 

 

總結

我們訴請全球的公民社會、社運人士、學者與其他利害關係人,為捍衛我們的人權與公民自由,連署這份公開信並加入抗爭行列,以確保上述科技的永久、全面性禁用。

 

更多詳細資料請參考AccessNow官方資訊

下載【公開信原文】點此

下載【中譯版全文】點此

延伸閱讀