亚洲欧美中文日韩在线v日本,亚洲精品永久在线观看,亚洲av日韩av永久无码色欲,亚洲成a人片777777,亚洲人成网站在线播放942

交大AI MBA項目主任李春曉及團隊研究XAI在金融領域中的應用實踐

上海交通大學安泰經(jīng)濟與管理學院
2022-01-05 17:40 瀏覽量: 4407
?智能總結

交大AI MBA項目主任李春曉及團隊研究XAI在金融領域中的應用實踐

當今的許多人工智能(AI)算法實際上是“黑箱”,缺乏“解釋”其背后的推理邏輯和機理。

在傳統(tǒng)規(guī)則型專家系統(tǒng)/邏輯回歸向全面AI算法升級的過程中,具有可解釋性的AI將更好地將“人”納入整個決策回路(human-in-the-loop,HITL),填補決策解析、提供說明支持、幫助業(yè)務人員/客戶更好地做出明智的選擇。

嚴格的監(jiān)管才能保障金融的穩(wěn)定和體系的安全,具有可解釋性的AI應用既能更好地輔助金融機構方的管理工作,又對監(jiān)管方的審查工作提供便利。

根據(jù)上海交通大學-中銀金科合作的可解釋人工智能(XAI)項目的探索,XAI可以成功應用在金融領域的強監(jiān)管場景中。

作者簡介PROFILE

李春曉

上海交通大學安泰經(jīng)濟與管理學院

交大安泰AI MBA項目主任

研究領域:

金融科技、用戶行為、社會網(wǎng)絡

什么是可解釋人工智能 ?

近年來,人工智能已被逐漸應用到各個領域——金融業(yè)、醫(yī)療行業(yè)、建筑業(yè)、服務業(yè)等等,憑借其在諸多傳統(tǒng)復雜問題中的優(yōu)越表現(xiàn),AI技術獲得了廣泛的認可。同時,人們對人工智能有了越來越高的期待,關于AI的討論在社會輿論、政策研討中頻繁出現(xiàn)并不斷延展。在科幻電影《HER》中斯嘉麗.約翰遜扮演的AI甚至能對人的行為做出解釋,幫助人做出決策、與人產生深度交流,甚至戀愛沖突,而這一幕遲早會在現(xiàn)實生活中出現(xiàn)。

“學習”是人工智能的核心,即讓機器代替人來學習數(shù)據(jù),利用其一定程度上超越人類的學習、分析、推理能力,做出復雜的邏輯判斷。隨著人工智能技術的不斷發(fā)展,機器學習的模型越來越復雜、模型精度越來越高,但模型的可解釋性,即其透明度,卻越來越低。換言之,以人類的常識去理解機器學習模型的判斷邏輯變得愈發(fā)困難。因而,機器學習模型的精度和可解釋性,形成了一對此消彼長的矛盾。比如在反洗錢、反欺詐等領域,為了達到較高的預測精度要求,銀行里逐步使用復雜的黑盒模型(如XGBoost、DNN等),更替了傳統(tǒng)規(guī)則型算法,取代原有的評分卡、邏輯回歸等白盒模型。黑盒模型雖然實現(xiàn)了精度的提升,卻又在另一方面妨礙了業(yè)務人員和監(jiān)管機構對其的理解。不僅如此,復雜模型所依賴的各個組件之間也會相互影響,使得模型的預測結果可能存在著未知的風險,在遭遇攻擊時也不易被察覺,更有可能造成算法歧視和不公平等倫理問題……這些因素反而形成了新的決策、治理和監(jiān)管的難題。

可解釋性人工智能出現(xiàn)的原因

在越來越多的日常使用場景中,往往是AI做出了決策,大眾就必須接受結果。例如,你去銀行申請貸款,如果銀行基于復雜算法的風控系統(tǒng)建議將你(借款人)的申請拒絕,那么很可能你就沒有辦法最終獲得貸款。在這種情況下,即使你要求銀行的柜臺業(yè)務人員解釋為什么你會被拒絕,對方往往也只能表示無可奈何,無法提供具體的解釋。而在更普遍的線上人機互動場景中,你得到的“解釋”可能更加單薄,例如銀行APP可能只是告訴你,你被拒絕是因為你沒有達標,但卻沒有告訴你銀行是否有其他更適合你的信貸產品。

在金融反洗錢的專業(yè)領域中,人類的反洗錢專家每天可以審核有限數(shù)量的可疑交易。但在相同或更短時間內,人工智能的復雜黑盒模型卻可以審核成千上萬份可疑交易和潛在的犯罪網(wǎng)絡。那么問題來了,如果不構建可解釋人工智能,也即是XAI,那么反洗錢專家們如何去處理那些由黑盒模型找出的、但和人類主觀判斷不一致的可疑交易,這時候究竟應該是依照專家經(jīng)驗還是直接采信AI的判斷結果?這些人機判斷不一致的問題一般來說會轉交給算法技術開發(fā)人員來進行詳細解釋,這無疑是極其耗時的。而且,因為隨著銀行業(yè)務的擴大,反洗錢的篩查范圍也隨之擴大,可疑交易的數(shù)量逐年增加,那么寄希望于讓“程序員”來解釋每一樁存疑交易毫無疑問將是不可接受的。

與此同時,隨著我國金融行業(yè)的國際化程度越來越高,金融業(yè)務越來越深入老百姓的日常生活,而監(jiān)管政策也日趨審慎,監(jiān)管標準日漸提高,因此,各方對常見AI黑盒模型的透明度、模型可解釋性的需求變得極其迫切——金融業(yè)務不僅需要AI提供準確的預測結果,更要打開“黑盒”,向人類展示出其中的數(shù)據(jù)要素、神經(jīng)網(wǎng)絡的推理邏輯和決策原因,讓人類做出更準確的選擇——這需要的正是具有可解釋性的、能提供充分信息的有效決策輔助的AI系統(tǒng)。因此,如何實現(xiàn)黑盒模型的可解釋、從而使AI同時具備精度和可解釋性,成為金融行業(yè)能否廣泛采用AI技術的重中之重。

上海交通大學與中銀金融科技有限公司強強合作,一起啟動了‘AI算法與業(yè)務模型可解釋性研究’創(chuàng)新研發(fā)項目。核心研究人員是來自上海交通大學安泰經(jīng)管學院的李春曉博士(AI-MBA項目學術主任,信息技術與創(chuàng)新系助理教授)及其團隊,上海交通大學寧波人工智能學院的王冠博士(智慧金融實驗室主任,可之科技 learnable.ai創(chuàng)始人)及其團隊,以及中銀金科創(chuàng)新研究中心郭朝陽總經(jīng)理帶領的數(shù)字智能服務團隊。研究團隊采用以可解釋性為中心的分析方法幫助業(yè)務人員深入了解各種影響模型輸出結果的參數(shù),這些深入的洞察有助于分析“可疑交易”之間的潛在關系,了解“可疑”點出現(xiàn)的原因,從而節(jié)省了大量時間并做出最終的可解釋的精準決策。

可解釋人工智能的解釋方法

可解釋的人工智能(XAI)的核心能力就是它必須能夠向人類解釋人工智能算法是如何得出結論的。那么XAI究竟是如何解釋各種輸入數(shù)據(jù)對結果產生影響的呢?

一方面,在簡單的分類模型中,我們可以解釋每個變量如何對預測結果做出的貢獻。例如,在預測某個借款人的違約幾率時,輸入變量可能是年齡、學歷、當前的工作和收入水平,以及是否有房產和車輛等等。決策樹類的算法能夠表示出各種變量之間明確的“如果-那么”的關系,因此容易被人類理解。

另一方面,在深度學習模型中,尤其是計算機視覺領域,研究者使用“注意力層”來突出圖像中對分類影響最大的區(qū)域。這讓人們可以確定如果某AI算法將圖像分類為“馬”時,是否搜索了“尾巴”這個特征,或者是否搜索了“草地”或“馬鞍”等與“馬”相關的其他特征。另一類算法如LIME,則通過局部線性擬合,可以在任何模型上給出圖像各區(qū)域對預測結果的影響。

為了實現(xiàn)更進一步的解釋,研究者采用事實擾動的方法,即對輸入數(shù)據(jù)故意的加以擾動,用于改變可以導致不同結果的條件,然后解釋需要改變哪些因素才能實現(xiàn)不同的結果。

探索可解釋人工智能在銀行業(yè)的應用實踐

“AI算法與業(yè)務模型可解釋性研究”創(chuàng)新研究項目通過對可解釋人工智能(XAI)的探索,論證對銀行業(yè)各類常見的風險控制場景中(如反欺詐、反洗錢、信貸風控等)使用的不同機器學習模型進行可解釋分析的業(yè)務價值與技術可行性,給出一套在銀行系統(tǒng)中機器學習模型上實現(xiàn)可解釋算法的完整方法論及技術方案,達到了以下目標:

1)幫助銀行業(yè)務人員加深對于日常的業(yè)務流程中使用機器學習模型的信任,清晰的解釋使用機器學習模型不會在實際業(yè)務場景中產生算法歧視,即使偶爾出現(xiàn)偏差也在監(jiān)管的允許范圍內。

2)幫助銀行優(yōu)化使用的機器學習模型的性能,準確識別出模型異常和被攻擊的情況并發(fā)出警告,從而減少模型使用時不可預知的風險,提高銀行在風控場景的攻防能力,從而最終提升銀行業(yè)務的安全性。

3)幫助銀行的法規(guī)部快速定位可疑客戶的可疑特征,從而提高排查效率、提升排查精確性。

局部可解釋性:人工智能算法模型的局部可解釋方法,即在單個樣本的預測結果中,解釋各項影響結果的特征重要性占比,有助于用戶了解在預測結果中,到底是哪幾項特征影響最為關鍵。上海交大-中銀金科的算法研究團隊通過特征構造目標的辦法,使用了包括線性構造、非線性構造、特征交互等多種構造方法,可以在實驗之前知道局部可解釋應該導出哪些特征(即解釋真值,Ground Truth)。研究團隊使用三種典型局部可解釋算法(LIME算法、SHAP算法、EBM Boosting算法)同時進行實驗,然后將每個實驗結果與解釋真值進行比較,以此評價各種局部可解釋算法的解釋準確性。

全局可解釋性:如果說局部可解釋性對應的業(yè)務場景是貸款申請被拒絕后,銀行業(yè)務人員可以看出是是哪一項貸款條件沒有達標,那么全局可解釋性就是在為借款人辦理申請之前,為銀行的業(yè)務部門全體人員提供一個整體的貸款指標定性要求以及重要性占比,幫助業(yè)務人員更好地理解哪些特征對于幫助客戶成功的申請貸款更為重要,從而更為精準的篩選目標人群,在提高貸款通過率的同時也確保銀行風控管理的準確性,進一步促進業(yè)務人員理解并信任黑盒模型。

具有全局可解釋性的經(jīng)典算法包括SHAP算法,XGBoost算法等。在實踐中研究團隊使用了SHAP算法解釋模型,并且為了提高解釋結果的有效性,研究團隊對強相關交互特征做了篩選濾波、PCA分解及特征工程處理。

可解釋平臺:可解釋平臺的核心功能是展示不同樣本(比如客戶和交易信息)的預測結果及評判標準,便于業(yè)務人員深入理解黑盒機器學習模型、并據(jù)此作出業(yè)務判斷。

中銀金科和上海交大的聯(lián)合研究團隊在構建可解釋性人工智能系統(tǒng)的實踐過程中發(fā)現(xiàn),“可解釋性人工智能”和“建立具有人類感知認同和可信任的解釋性結果”是完全不同的目標。一套具有實踐價值的可解釋人工智能系統(tǒng)其實是機器學習過程與人類用戶不停的交互,最終實現(xiàn)高度的互相理解的整體——也就是說,這其實是一個“人機互動共生”的問題,而不僅是一個算法技術問題。

研究團隊深信,隨著人機共生(Human-in-the-loop)的概念進一步被人們所接受,可解釋人工智能將大大增強各個行業(yè)業(yè)務人員的判斷能力,企業(yè)的治理能力和相應監(jiān)管部門的管理工作也將獲得極大的收益。

人工智能MBA項目(AI MBA)

培養(yǎng)目標

AI MBA項目致力于培養(yǎng)理論與實踐兼?zhèn)洌哂袊H視野和創(chuàng)新精神的人工智能領域的高層次、復合型管理人才。

項目特色

(1). 對接國家戰(zhàn)略,支撐上海打造具有全球影響力的人工智能發(fā)展高地

(2). 安泰經(jīng)管學院與人工智能研究院合作開辦,匯聚兩者師資力量及行業(yè)資源

(3). 課程設置側重于人工智能行業(yè)的知識學習和綜合能力培養(yǎng)

(4). 配備一支精通理論又熟悉行業(yè)的專業(yè)教師隊伍

(5). 人工智能論壇定期邀請業(yè)界資深與成功人士與學員交流

關于項目

學習方式:非全日制

授課語言:中文

學  制:學習年限一般為2年半

編輯:凌墨

(本文轉載自上海交通大學安泰經(jīng)濟與管理學院 ,如有侵權請電話聯(lián)系13810995524)

* 文章為作者獨立觀點,不代表MBAChina立場。采編部郵箱:news@mbachina.com,歡迎交流與合作。

收藏
訂閱

備考交流

  • 2024考研英語二備考群: 678595048
  • 2024管理類聯(lián)考復試調劑②群: 814776983
  • 2024海外碩士交流群: 895560072
  • 2024年MBA/MEM/MPAcc聯(lián)考備考群: 769561411
  • 免聯(lián)考調劑咨詢①群: 796631901
  • 2024考研政治沖刺群: 863373153
  • 海外碩士咨詢③群: 850595383
  • 免聯(lián)考碩士入學咨詢群: 711046255
  • 2024考研復試調劑交流群: 902176003
免費領取價值5000元MBA備考學習包 購買管理類聯(lián)考MBA/MPAcc/MEM/MPA大綱配套新教材

掃碼關注我們

  • 獲取報考資訊
  • 了解院校活動
  • 學習備考干貨
  • 研究上岸攻略

最新動態(tài)