算法中的偏差比你想象的更常見。
2012年的一篇學(xué)術(shù)論文顯示,Cognitec公司的面部識(shí)別系統(tǒng)在非裔美國人身上的表現(xiàn)比在白種人身上差5%到10%。2011年,研究人員發(fā)現(xiàn),在中國、日本和韓國開發(fā)的模型難以區(qū)分白種人和東亞人。
在最近的另一項(xiàng)研究中,谷歌和亞馬遜(Amazon)生產(chǎn)的受歡迎的智能音箱被發(fā)現(xiàn),它們聽懂非美國口音的可能性比聽懂那些土生土長(zhǎng)的用戶要低30%。
2016年的一篇論文得出的結(jié)論是,在谷歌的新聞文章中嵌入的單詞往往表現(xiàn)出女性和男性的性別刻板印象。
這是一個(gè)問題。
好消息是,麻省理工學(xué)院計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(MIT CSAIL)的研究人員正在努力尋找解決方案。
一篇文章《通過了解潛在結(jié)構(gòu)揭露和減輕算法偏見》計(jì)劃于本周在檀香山舉行的人工智能發(fā)展協(xié)會(huì)人工智能、倫理和社會(huì)會(huì)議上發(fā)表。
麻省理工學(xué)院CSAIL的科學(xué)家描述了一種人工智能系統(tǒng),它可以通過重新采樣使數(shù)據(jù)更加平衡,從而自動(dòng)“去偏”數(shù)據(jù)。
他們聲稱,在一個(gè)專門用于測(cè)試計(jì)算機(jī)視覺系統(tǒng)偏差的數(shù)據(jù)集上進(jìn)行評(píng)估時(shí),它顯示出了優(yōu)越的性能和“減少了分類偏差”。
一篇相關(guān)論文的共同作者、博士生亞歷山大·阿米尼(Alexander Amini)在一份聲明中說,“尤其是面部分類技術(shù),人們通常認(rèn)為這是一項(xiàng)已經(jīng)解決了問題的技術(shù),盡管很明顯,人們使用的數(shù)據(jù)集往往沒有經(jīng)過適當(dāng)?shù)膶彶??!?/p>
“隨著我們開始看到這類算法在安全、執(zhí)法和其他領(lǐng)域的應(yīng)用,糾正這些問題尤為重要。”
Amini和他的博士生Ava Soleimany以及研究生Wilko Schwarting以及MIT教授Sangeeta Bhatia和Daniela Rus對(duì)這篇新論文做出了貢獻(xiàn)。
這并不是麻省理工學(xué)院的CSAIL第一次發(fā)現(xiàn)這個(gè)問題——在2018年的一篇論文中,David Sontag教授和他的同事描述了一種在不降低預(yù)測(cè)結(jié)果準(zhǔn)確性的前提下減少人工智能偏見的方法。
但這種方法的特點(diǎn)是一種新穎的、半監(jiān)督的端到端深度學(xué)習(xí)算法,它可以同時(shí)學(xué)習(xí)所需的任務(wù)(例如面部檢測(cè))及訓(xùn)練數(shù)據(jù)的底層潛在結(jié)構(gòu)。
后者使它能夠發(fā)現(xiàn)訓(xùn)練數(shù)據(jù)中隱藏的或隱式的偏差,并在訓(xùn)練過程中自動(dòng)消除這種偏差,而不需要數(shù)據(jù)預(yù)處理或注釋。
為了在一個(gè)具有“重大社會(huì)影響”的真實(shí)問題上驗(yàn)證去偏算法,研究人員使用40萬張圖像的數(shù)據(jù)集對(duì)DB-VAE模型進(jìn)行了訓(xùn)練,分別將80%和20%的圖像分成訓(xùn)練集和驗(yàn)證集。
然后他們?cè)赑PB測(cè)試數(shù)據(jù)集上對(duì)其進(jìn)行評(píng)估,該數(shù)據(jù)集包含來自非洲和歐洲各國的1270名男性和女性議員的圖像。
結(jié)果真的很有希望。
根據(jù)研究人員的說法,DB-VAE不僅能夠?qū)W習(xí)諸如膚色和毛發(fā)等面部特征,還能學(xué)習(xí)諸如性別和年齡等其他特征。
與在個(gè)人人口統(tǒng)計(jì)數(shù)據(jù)(種族/性別)和PPB數(shù)據(jù)集上訓(xùn)練或不訓(xùn)練偏倚的模型相比,DB-VAE顯示出更高的分類準(zhǔn)確性,并減少了跨種族和性別的分類偏倚——該團(tuán)隊(duì)表示,這是朝著開發(fā)公平和無偏倚的人工智能系統(tǒng)邁出的重要一步。
“公平的開發(fā)和部署……系統(tǒng)對(duì)于防止無意識(shí)的歧視和確保這些算法的長(zhǎng)期接受度至關(guān)重要,”合著者寫道。
“我們預(yù)計(jì),擬議中的方法將成為促進(jìn)現(xiàn)代人工智能系統(tǒng)系統(tǒng)性、算法公平性的額外工具?!?/p>
過去十年中,人工智能犯下的許多錯(cuò)誤令人沮喪地描繪了一幅潛在偏見的圖景。
但這并不是說在更精確、更少偏見的系統(tǒng)方面人們沒有取得進(jìn)展。
今年6月,微軟與人工智能(AI)公平方面的專家合作,修訂并擴(kuò)展了用于培訓(xùn)Face API的數(shù)據(jù)集。Face API是微軟Azure API,提供用于檢測(cè)、識(shí)別和分析圖像中的人臉的算法。
通過研究膚色、性別和年齡的新數(shù)據(jù),研究人員能夠?qū)⒛w色較深的男性和女性的辨認(rèn)錯(cuò)誤率分別降低20倍和9倍。
與此同時(shí),一種新興的減少算法偏差的工具有望加速朝著更公正的人工智能方向發(fā)展。
今年5月,F(xiàn)acebook宣布了Fairness Flow,如果算法根據(jù)一個(gè)人的種族、性別或年齡對(duì)他或她做出不公平的判斷,它會(huì)自動(dòng)發(fā)出警告。
初創(chuàng)企業(yè)Pymetrics開源了其偏差檢測(cè)工具Audit AI。
埃森哲發(fā)布了一個(gè)工具包,可以自動(dòng)檢測(cè)人工智能算法中的偏差,并幫助數(shù)據(jù)科學(xué)家減輕這種偏差。
在今年5月微軟(Microsoft)推出了自己的解決方案后,今年9月,谷歌推出了What-If工具,這是TensorBoard web dashboard在其TensorFlow機(jī)器學(xué)習(xí)框架上的一個(gè)偏誤檢測(cè)功能。
IBM也不遜色,今年秋季發(fā)布了AI Fairness 360,這是一款基于云計(jì)算的全自動(dòng)套件,“持續(xù)提供關(guān)于人工智能系統(tǒng)如何做出決策,并建議進(jìn)行調(diào)整的意見”——比如算法調(diào)整或數(shù)據(jù)平衡——以減輕偏見的影響。
最近,Watson and Cloud Platforms小組的研究重點(diǎn)是減輕人工智能模型的偏見,尤其是與人臉識(shí)別相關(guān)的模型。
如果運(yùn)氣好的話,這些努力——再加上麻省理工學(xué)院CSAIL的新算法等開創(chuàng)性工作——將使情況變得更好。
聯(lián)系客服