人工智慧基本法是沒有階梯的空中樓閣

自科技部2019年制定「人工智慧科研發展指引」後,國科會今年公布「人工智慧基本法」草案,試圖趕上國際管控人工智慧風險與保障基本人權的立法趨勢。然而,現行的草案版本,不但缺乏研發及部署人工智慧可遵循的治理路徑,甚至在第五條要求其他法規之解釋與適用「以不妨礙新技術」為原則,若通過將把本法拉抬至個資法與金融監管、醫療器材等法規之上,將剝除既有可用來確保人工智慧資料來源、應用安全性的法律工具,形同自廢武功。台權會建議,政府應盤點國內相關法規,釐清不同法律的關係,以及需要調整的範圍,如此才能有效因應人工智慧帶來的挑戰。

本次條文大部分聚焦於政府推動人工智慧發展應扮演的角色,但對於政府單位發展與應用人工智慧應遵循的程序要件卻不清不楚。台灣政府機關從事人工智慧發展應用已累積不少問題。司法院發展生成式AI用於草擬刑事案件判決已出現爭議;法務部再犯風險評估AI透明度與使用情況有待進一步資訊揭露;健保署今年宣布與Google合作研發糖尿病風險評估AI(從公開文件中,我們無法得知訓練模型之資料來源,但須注意規範健保資料利用的「衛福資料管理條例」尚未通過)。

歐盟人工智慧法依不同風險程序,採取禁止、從事基本權評估等不同程度的監管,而我國本次草案的實質內容,僅存在第十條要求數發部制定的「風險框架」,甚至沒有載明本法主管機關與跨機關之關係。面對問責單位、救濟措施、基本權評估、法律授權與規範的空缺,試問如何能期待本法能發揮保障隱私與安全、避免歧視與不平等的功能?

原則必須落實,才能發揮功用。本法羅列七項原則,卻沒有相應的執行說明,在「隱私保護與資料治理」原則中,甚至偷渡開放及再利用非敏感資料(病歷、醫療、基因、性生活、健康檢查及犯罪前科以外的個資),有牴觸個資法之疑慮。強烈建議政府先行釐清我國其他法律與本草案的關係,修正架構以確保實際落實各項安全與保障人權之措施,讓研發與應用之公私部門得以遵循。短期內,機關應盤點人工智慧、自動化演算法在公部門之研發與使用情況;長程也應定期追蹤新興技術研發與應用符合相關法規與國際原則之情形。

新聞聯絡人:台灣人權促進會副秘書長 周冠汝

 

延伸閱讀