2025.12.29

新聞

CIEL楊岳平副主任專題演講|AI 治理與可解釋人工智慧

2025年12月29日, CIEL副主任 楊岳平教授,於臺灣大學人工智慧研究中心(AINTU)主辦的「2025新世紀AI應用法律研討會」,此次研討會匯聚產官學界多元背景的專家學者,從AI相關法律議題、個資隱私議題、科技治理議題等不同面向,全面檢視AI法制的最新趨勢。
楊副主任以「AI治理與可解釋人工智慧」為題發表專題演講,以金融歧視與金管會金融業運用人工智慧指引為對象,深入剖析 AI 技術應用於金融服務時引發的金融歧視疑慮,介紹金管會金融業運用人工智慧指引針對人工智慧金融歧視的規範,以及「可解釋人工智慧」可發揮的金融歧視緩解作用,以及剩餘待解的法制議題,期待透過提出以可解釋人工智慧為基礎的解決方案,刺激更多對於可解釋人工智慧的應用與討論。
在AI技術持續先行、法律追趕的情境下,AI 治理已不再只是回應風險的被動調整,如何讓法制成為引導技術走向負責任發展的力量,正是當前各國共同面臨的關鍵課題。CIEL也將持續站在科技與法治交會的前線,透過研究、政策對話與公共參與,為我國在AI時代下的法制創新與制度建構,提供更具前瞻性的思考與建議。

2025.12.20

新聞

CIEL楊岳平副主任 受邀出席|AI 時代憲法面對的主要挑戰研討會

2025年12月20日,CIEL 副主任 #楊岳平教授 受邀出席由中華民國憲法學會主辦之「AI 時代憲法面對的主要挑戰」研討會。楊副主任以「人工智慧歧視與可解釋人工智慧——以人工智慧金融信貸為例」為題發表專題演講,深度剖析 AI 決策如何影響金融公平性,以及法律與技術如何協作應對。

 

 

楊副主任首先介紹金管會《金融業運用人工智慧指引》內容中關於人工智慧公平性的規範,指出所謂的「公平性」不是追求齊頭式的平等與無差別待遇,而是有正當理由的差別待遇,關鍵在於差別待遇是否有合理性基礎,如對特定群體造成系統性不利影響,亦應有正當理由。

 

楊副主任指出AI雖然存在歧視風險,但更客觀的理解是AI「可能比人更公平,也可能更歧視」。AI的根本風險來自於其「決策黑盒子」困境,而可解釋人工智慧(XAI)技術可扮演關鍵角色。透過如SHAP、LIME或反事實解釋等技術,金融機構可有效分析其人工智慧決策使用的主要變數,以及個別變數對決策的影響,進而判斷 AI 是否使用了受保護特徵,並比對其使用該受保護特徵是否具備正當理由。

 

楊副主任最後提出「相對黑盒子理論」,認為AI結合XAI技術不必然加劇歧視,反而有助於引入更客觀的解決方案。然而這仍需法律配套支持,包括在相關法案中明確受保護群體、允許在測試目的下使用敏感特徵,並由監理者訂定差別待遇的容忍基準。

 

CIEL將持續關注AI技術演進與法治秩序的互動,推動數位時代下的金融公平正義,協助我國建立更具韌性且透明的AI監理框架。

 
scroll_fix_img_mobile