人工智能算法真能給出公平的結(jié)果么?


不久前,職業(yè)社交平臺領(lǐng)英(LinkedIn)發(fā)布了一個(gè)公平性檢測工具包(LiFT),這是一個(gè)開源軟件庫,可供企業(yè)檢驗(yàn)自己的人工智能模型是否公平。這對一直希望把控人工智能使用公平性的企業(yè)和政府來說,無疑...
不久前,職業(yè)社交平臺領(lǐng)英(LinkedIn)發(fā)布了一個(gè)公平性檢測工具包(LiFT),這是一個(gè)開源軟件庫,可供企業(yè)檢驗(yàn)自己的人工智能模型是否公平。這對一直希望把控人工智能使用公平性的企業(yè)和政府來說,無疑增添了助力。
谷歌也在網(wǎng)站上列出了檢測不公平偏見的技巧,以及自身關(guān)于這一主題的研究論文鏈接。
新加坡設(shè)有人工智能治理框架模型,就如何將公平性和透明度轉(zhuǎn)化為實(shí)踐提供建議。例如,讓利益相關(guān)者了解人工智能政策。歐盟也制定了“值得信賴的人工智能倫理指南”。
教授簡介
掃碼查看
英文簡歷
David De Cremer
新加坡國立大學(xué)商學(xué)院
管理與組織系教務(wù)長講席教授
人工智能技術(shù)與人性化管理研究中心(AiTH)主任
英國·南安普敦大學(xué)博士
教研領(lǐng)域:21世紀(jì)領(lǐng)導(dǎo)力、商業(yè)資產(chǎn)信用、國際商業(yè)環(huán)境的行為方式、組織正義、商業(yè)倫理行為、數(shù)字經(jīng)濟(jì)和人工智能時(shí)代領(lǐng)導(dǎo)力等
時(shí)至今日,仍有人對人工智能的日益廣泛普及感到不安。
在英國,算法可以根據(jù)中學(xué)歷史打分情況來推測A等級的優(yōu)等生成績。許多學(xué)生的預(yù)測成績都有所下降——尤其是那些來自貧困學(xué)校的學(xué)生。人工智能的使用本來是為了減少教師在預(yù)測學(xué)生成績時(shí)的偏見,但如今卻產(chǎn)生了新的偏見。
算法從輸入機(jī)器的數(shù)據(jù)中自我學(xué)習(xí)。因此,如果數(shù)據(jù)帶有偏見,結(jié)果也會產(chǎn)生偏見。
今年,底特律警方錯(cuò)誤逮捕了一名非洲裔美國人,只因人工智能面部識別誤將他識別為搶劫嫌疑人。
在這些事件中,最終用戶相信算法給出的結(jié)果嗎?使用人工智能的公司因此需要建立信任。
研究表明,當(dāng)人們感覺受到公平對待時(shí),會產(chǎn)生更高的合作意愿,并且表現(xiàn)得更好。同樣,如果人們認(rèn)可人工智能的公平性,他們對于算法的建議也會傾向于接受。
推動人工智能發(fā)展的政府和正在使用人工智能的企業(yè)要如何向用戶證明它的公平?這不單單是一個(gè)技術(shù)問題,比如在找到正確的自動化流程時(shí)考慮某些特性,比如問責(zé)性和可解釋性。
不僅如此,公平是一個(gè)社會概念,人類以此決定如何與他人互動,從而使各方都變得更好。這里所關(guān)注的是更廣泛意義上的問題。因此,想要了解算法的公平性,就必須超越技術(shù)層面,思考社會力量。
其中一項(xiàng)重要力量在于,當(dāng)人們?yōu)榱烁咭粚哟蔚娜蝿?wù)合作時(shí),人工智能所提供的幫助有多大。
每個(gè)人息息相關(guān)
因此,人工智能系統(tǒng)的公平性不應(yīng)只由數(shù)據(jù)工程師和科學(xué)家團(tuán)隊(duì)來決定。政府、公司和機(jī)構(gòu)也需要考慮利益相關(guān)者以及最終用戶的看法。他們是否感覺受到了公平對待?他們對于公平的期望是什么?
由于人工智能不具備道德品質(zhì),需要人們在特定社會背景下,評估人工智能推薦的解決方案是否公平。因此我們需要那些了解社會規(guī)范并且具有較高道德價(jià)值觀的人。
當(dāng)然,人都有自己的偏見,但研究表明,在評估他人決定時(shí),他們會更加客觀。由此可見,無論在學(xué)校還是在工作場所,都必須重視道德準(zhǔn)則規(guī)范。
要記住“人性化”
由于人工智能的公平性比簡單尋找技術(shù)解決方案更復(fù)雜,算法的開發(fā)也需要有更人性化的方法。我們必須在追求效用和人性關(guān)懷之間尋求平衡,這樣才能使其公平性得到認(rèn)可和接受,而不是簡單地尋找優(yōu)化合理的算法。
人類沒有固定的生產(chǎn)率,我們的生產(chǎn)力爆發(fā)期時(shí)間很短,我們在某些環(huán)境中的表現(xiàn)比其他環(huán)境要好一些。因家庭變故感到悲傷,或者遇到個(gè)人生活中的新變化,這些我們都需要花點(diǎn)時(shí)間來適應(yīng)。
由于疫情的蔓延,許多家庭不得不適應(yīng)與親人長時(shí)間分離的生活。一些父母還在為居家工作的同時(shí)還要照顧孩子學(xué)業(yè)而煩惱;一些醫(yī)護(hù)人員也在糾結(jié),是要把孩子托付給親戚,還是冒著傳染的風(fēng)險(xiǎn)將孩子留在身邊。
雖然人工智能可以做出最優(yōu)化的資源分配和工作管理流程決策,但我們也需要一些緩沖,因?yàn)槿祟悤r(shí)不時(shí)需要幫助。作為社會中的一員,我們需要記住這一點(diǎn)。
最終,人工智能系統(tǒng)是否公平取決于最終用戶。系統(tǒng)是否具有先進(jìn)的技術(shù)并不那么重要,人們主要會根據(jù)自身對算法用于解決問題的看法、結(jié)果能否符合自身價(jià)值觀來判斷其公平性。這意味著數(shù)據(jù)科學(xué)家和工程師在構(gòu)建系統(tǒng)時(shí),必須牢記這些價(jià)值。
例如,如果一家公司重視少數(shù)群體的包容性,那么這些群體的數(shù)據(jù)就應(yīng)該列入考量范圍,而不是被視為異常數(shù)據(jù)。
出于這一原因,人們最終評判的其實(shí)是公司而非算法的公平性。的確,在大眾眼中,算法無法感知道德——它只是機(jī)器!因此,它無法對計(jì)算結(jié)果負(fù)責(zé)。
相反,機(jī)構(gòu)和政府是由人領(lǐng)導(dǎo)的,它們被視為有能力對自己的決策(包括人工智能的使用)負(fù)責(zé)。因此,要建立一個(gè)公平的人工智能系統(tǒng),承擔(dān)責(zé)任者就會受到更多的審視,他使用人工智能是否能夠得到信任也會受此影響。
領(lǐng)導(dǎo)者必須清楚自己的價(jià)值觀,考慮最終用戶對計(jì)算結(jié)果的信息需求和期望。只有這樣,人類才會更加信任人工智能。
文章英文版刊發(fā)于新加坡國立大學(xué)商學(xué)院官網(wǎng)BizBeat
原文標(biāo)題為Build trust, build AI fairness
點(diǎn)擊左下角閱讀原文查看
作者:David De Cremer,新加坡國立大學(xué)商學(xué)院管理與組織系教務(wù)長講席教授、人工智能技術(shù)與人性化管理研究中心(AiTH)主任
▼
推薦閱讀
(點(diǎn)擊圖片閱讀)
(本文轉(zhuǎn)載自 ,如有侵權(quán)請電話聯(lián)系13810995524)
* 文章為作者獨(dú)立觀點(diǎn),不代表MBAChina立場。采編部郵箱:news@mbachina.com,歡迎交流與合作。
備考交流

掃碼關(guān)注我們
- 獲取報(bào)考資訊
- 了解院校活動
- 學(xué)習(xí)備考干貨
- 研究上岸攻略
最新動態(tài)
推薦項(xiàng)目
活動日歷
- 01月
- 02月
- 03月
- 04月
- 05月
- 06月
- 07月
- 08月
- 09月
- 10月
- 11月
- 12月
- 10/05 金融MBA考生請注意 | 2026中央財(cái)經(jīng)大學(xué)金融學(xué)院金融MBA招生說明會(第二場)線上開啟
- 10/11 重磅活動上新 |從理性角度解碼經(jīng)濟(jì)現(xiàn)象!交大安泰MBA授課師資于冷教授全真試聽課堂,帶你打開經(jīng)濟(jì)學(xué)的視界!
- 10/12 報(bào)名丨邂逅南航南通站——MBA/MEM/MPAcc公開課暨項(xiàng)目交流會
- 10/16 聯(lián)考沖刺必備 | 10月16日交大安泰MBA網(wǎng)報(bào)填寫指導(dǎo)暨筆試技巧分享會開啟報(bào)名,沖刺經(jīng)驗(yàn)+填報(bào)指導(dǎo)為你的聯(lián)考保駕護(hù)航
- 10/18 【預(yù)告| 10.18北大國發(fā)院EMBA體驗(yàn)日】鄧子梁:中國企業(yè)出海形勢與戰(zhàn)略分析
- 10/19 10月19日最后一期 | 2026中央財(cái)經(jīng)大學(xué)金融學(xué)院第七期“金融MBA體驗(yàn)營”暨專家會客廳報(bào)名開啟