2026.03.31

新聞

CIEL 楊岳平副主任 研究成果發表|金融科技之發展與問責──論去中心化與智能化金融下的責任法制

CIEL 副主任 #楊岳平教授 於2026年3月出版的《數位社會的智慧治理》專書中,發表〈金融科技之發展與問責──論去中心化與智能化金融下的責任法制〉一文,從責任法制視角深入剖析金融科技對既有監理架構的衝擊,並提出制度調適方向。

 

本文以「去中心化」與「智能化」兩大金融科技的核心發展趨勢為分析主軸,聚焦兩項關鍵問題:其一,在區塊鏈、分散式帳本技術與去中心化金融(DeFi)興起下,金融服務逐步去機構化,使傳統以金融機構作為監理中介與責任承載核心的制度基礎受到動搖;其二,在人工智慧與演算法廣泛應用於金融服務提供的情境下,金融決策與服務逐漸由人轉向系統,使責任主體的認定與歸責基礎產生結構性變化。

 

在去中心化金融情境中,責任法制面臨「責任主體難以特定」與「共同責任可能過度擴張」的雙重困境。為回應此一挑戰,本文提出可由「共同危險責任」的理論延伸,以及「無權利能力社團」的法理建構,重新理解去中心化生態系中的責任歸屬與監理可能性。

 

另一方面,在智能化的金融情境中,當金融服務由演算法或人工智慧直接驅動時,傳統以主觀故意或過失為核心的歸責模式受到挑戰。本文指出,人工智慧責任追究的重心可能需由「行為」層面轉向「監督」層面,例如強化要求人工智慧開發者或使用者的事前檢測與事後監督義務,此外將人工智慧擬人化解釋,以銜接既有責任法制架構,也是國際研究有提出的觀點。

 

金融科技不僅是技術創新,更對現行以責任主體為核心的金融監理模式構成結構性挑戰。未來制度發展的關鍵,在於如何在不抑制去中心化與智能化潛力的前提下,建構兼顧創新與問責的法制架構。

 

本文收錄於《數位社會的智慧治理》https://www.angle.com.tw/book.asp?BKID=18549&bkid_1=&KindID3=&KindID4=

2026.03.11

新聞

CIEL 黃種甲執行長 出席國際學術交流|AI輔助人類決策之責任

2026年3月11日,CIEL 執行長 黃種甲助理教授 受邀出席臺灣大學與京都大學共同舉辦的學術交流會,並於「人工智慧與法律」場次中,以「AI輔助人類決策之責任」(The Liability of AI-Assisted Human Decision-Making) 為題,深入探討人工智慧參與人類決策時所衍生的責任分配問題。

 

隨著AI廣泛應用於金融、醫療與司法領域,其雖具有效率與成本優勢,但仍存在誤判風險,可能導致實質損害並引發責任爭議。黃執行長指出,在責任歸屬上相較於開發者,使用者掌握是否採納AI建議的最終決定權,對風險發生具有直接控制力。

 

 

使用者通常會在AI所提供的訊息基礎上動態調整決策,以最大化整體效益。因此黃執行長強調,AI責任制度並非一體適用,應綜合考量不同應用場景下之錯誤成本以及AI準確性等因素,並靈活調整責任規則。例如,在反洗錢應用上,考慮到合法交易數量遠遠多於洗錢交易,為避免過度通報,制度設計上可思考人類介入經AI判斷為洗錢之交易,但對於AI認為安全者,則介入需求較低。至於,在AI具高度準確性的應用場景中,則可提高對AI的依賴程度,節省人力成本。

 

AI時代下,如何在人機協作中,建立一套兼顧效率與公平的責任分配機制,將是未來重要課題。CIEL亦將持續投入研究,促進學術對話與制度發展。

 

2026.01.07

新聞

CIEL 副主任楊岳平教授演講|人工智慧金融法制的發展與架構

2026年1月7日,CIEL 副主任楊岳平教授受邀至理律學堂,以「人工智慧金融法制的發展與架構」為題進行專題演講,從技術演進、立法脈絡到金融監理實務,系統性梳理 AI 於金融領域的我國法律規範現況。

 

 

人工智慧的定義

AI 的特性在於機器學習與自主運行能力,與預設規則的程式有別,也因此帶來決策黑盒子的風險,而有監理的必要。

 

共通事項與風險導向的AI金融管理

楊副主任分析金管會發布之金融機構運用人工智慧指引當中共通事項的重點,特別著重建立風險評估框架以及以風險為基礎的差異化管理強度。

 

核心原則與可解釋性人工智慧

楊副主任分析金管會發布之金融機構運用人工智慧指引當中六大核心原則的重點,特別著重「公平性」、「透明性」及「可解釋性」。

 

 

隨著 AI 技術成熟,金融從業人員的角色正從「服務提供者」轉向「監督者」。未來的法律挑戰不在於禁止 AI,而是在於如何建立完善的審核、問責與透明機制。CIEL 將持續關注金融法制與科技創新的制度演進,透過學術研究與實務觀察的結合,協助政府與產業建構更透明、穩健且具前瞻性的 AI 金融法制環境。

2025.12.29

新聞

CIEL楊岳平副主任專題演講|AI 治理與可解釋人工智慧

2025年12月29日, CIEL副主任楊岳平教授,於臺灣大學人工智慧研究中心(AINTU)主辦的「2025新世紀AI應用法律研討會」,此次研討會匯聚產官學界多元背景的專家學者,從AI相關法律議題、個資隱私議題、科技治理議題等不同面向,全面檢視AI法制的最新趨勢。
楊副主任以「AI治理與可解釋人工智慧」為題發表專題演講,以金融歧視與金管會金融業運用人工智慧指引為對象,深入剖析 AI 技術應用於金融服務時引發的金融歧視疑慮,介紹金管會金融業運用人工智慧指引針對人工智慧金融歧視的規範,以及「可解釋人工智慧」可發揮的金融歧視緩解作用,以及剩餘待解的法制議題,期待透過提出以可解釋人工智慧為基礎的解決方案,刺激更多對於可解釋人工智慧的應用與討論。
在AI技術持續先行、法律追趕的情境下,AI 治理已不再只是回應風險的被動調整,如何讓法制成為引導技術走向負責任發展的力量,正是當前各國共同面臨的關鍵課題。CIEL也將持續站在科技與法治交會的前線,透過研究、政策對話與公共參與,為我國在AI時代下的法制創新與制度建構,提供更具前瞻性的思考與建議。

2025.12.20

新聞

CIEL楊岳平副主任 受邀出席|AI 時代憲法面對的主要挑戰研討會

2025年12月20日,CIEL 副主任楊岳平教授受邀出席由中華民國憲法學會主辦之「AI 時代憲法面對的主要挑戰」研討會。楊副主任以「人工智慧歧視與可解釋人工智慧——以人工智慧金融信貸為例」為題發表專題演講,深度剖析 AI 決策如何影響金融公平性,以及法律與技術如何協作應對。

 

 

楊副主任首先介紹金管會《金融業運用人工智慧指引》內容中關於人工智慧公平性的規範,指出所謂的「公平性」不是追求齊頭式的平等與無差別待遇,而是有正當理由的差別待遇,關鍵在於差別待遇是否有合理性基礎,如對特定群體造成系統性不利影響,亦應有正當理由。

 

楊副主任指出AI雖然存在歧視風險,但更客觀的理解是AI「可能比人更公平,也可能更歧視」。AI的根本風險來自於其「決策黑盒子」困境,而可解釋人工智慧(XAI)技術可扮演關鍵角色。透過如SHAP、LIME或反事實解釋等技術,金融機構可有效分析其人工智慧決策使用的主要變數,以及個別變數對決策的影響,進而判斷 AI 是否使用了受保護特徵,並比對其使用該受保護特徵是否具備正當理由。

 

楊副主任最後提出「相對黑盒子理論」,認為AI結合XAI技術不必然加劇歧視,反而有助於引入更客觀的解決方案。然而這仍需法律配套支持,包括在相關法案中明確受保護群體、允許在測試目的下使用敏感特徵,並由監理者訂定差別待遇的容忍基準。

 

CIEL將持續關注AI技術演進與法治秩序的互動,推動數位時代下的金融公平正義,協助我國建立更具韌性且透明的AI監理框架。

2025.11.03

活動

國際學術交流|Florence G’Sell教授蒞臨CIEL探討虛擬資產監管與AI結合趨勢

2025年11月3日,CIEL 很榮幸迎來史丹佛大學法學院的 Florence G’Sell教授蒞臨交流,與CIEL副主任 楊岳平教授 及 陳肇鴻教授 就虛擬資產、人工智慧以及其他數位法制的現況與發展,從歐洲、美國與亞洲的比較視角出發展開深入對談:

 

🔹 亞洲虛擬資產監管趨勢
亞洲各國在虛擬資產監管上呈現多元樣貌,日本率先建立穩定幣相關規範,新加坡採原則導向模式,香港監管相對全面且嚴謹,韓國也對虛擬資產監管有高度的關注。臺灣目前正推動《虛擬資產服務法》立法,涵蓋虛擬資產服務商、穩定幣等議題,預計送交立法院審議。

 

🔹 歐、美、亞監管文化的差異
歐洲強調規則導向,對包括虛擬資產與人工智慧提出完善的監管架構,但具體實施受限於各會員國而相對緩慢;美國則以市場導向為基礎,相對屬於去監管或輕監管;亞洲可被認為是歐美當中的中間路線,監管內容相對務實折衷,兼具靈活與效率,為比較法研究值得關注的區域。

 

🔹 區塊鏈與AI的結合前景
區塊鏈與AI的結合應用,可以被認為是目前區塊鏈與智慧合約結合應用的進階版本,可能更加發揮區塊鏈與AI的特性,但也可能帶來更多的不確定性、不可解釋性以及相關法律責任的挑戰。

 

CIEL 將持續關注科技創新與法制治理等相關議題,推動國際學術交流合作,共同推動前瞻性的研究與政策思考。

 

  • 2025 年 11 月 3 日

  • 企業法制創新研究中心

 
scroll_fix_img_mobile