国产熟女一区二区五月婷-又爽又黄又无遮挡网站-亚洲国产精品视频在线播放-国内偷拍国内精品网999

當(dāng)前位置:首頁(yè) > 最新資訊 > 行業(yè)資訊

人工智能和大數(shù)據(jù)是我們一直在尋找的經(jīng)濟(jì)平衡器嗎?

盡管開明的美國(guó)人認(rèn)為所有的“主義”都被推翻了,但美國(guó)經(jīng)濟(jì)仍然非常不公平。

以種族主義為例。一方面,自愛(ài)訴弗吉尼亞州將這種做法合法化以來(lái)的50年里,跨種族婚姻增長(zhǎng)了五倍。另一方面,根據(jù)政策研究所的一份報(bào)告,1983年至2013年間,非裔美國(guó)人的平均家庭財(cái)富中位數(shù)下降了75%。西北大學(xué)、哈佛大學(xué)和社會(huì)研究所的一項(xiàng)聯(lián)合研究發(fā)現(xiàn),自1989年以來(lái),雇主對(duì)非裔美國(guó)人的歧視一直沒(méi)有改變。

性別歧視也呈現(xiàn)出類似的趨勢(shì)。盡管“我也是”運(yùn)動(dòng)在追究性侵犯者責(zé)任方面取得了成功,但女性的收入仍然僅為男性的82%——皮尤研究中心稱,這一數(shù)字在過(guò)去15年中保持相對(duì)穩(wěn)定。

事實(shí)是,美國(guó)人并沒(méi)有靠自己建立一個(gè)公平的經(jīng)濟(jì)。偏見根深蒂固,在許多情況下,體制障礙太大。然而,機(jī)器或許能夠通過(guò)開辟更多經(jīng)濟(jì)機(jī)會(huì)來(lái)彌合貧富差距。

人工智能和大數(shù)據(jù)是我們一直在尋找的經(jīng)濟(jì)平衡器嗎

計(jì)算正義

盡管人工智能和大數(shù)據(jù)技術(shù)還很年輕,但它們已經(jīng)在一系列領(lǐng)域顯示出讓商業(yè)決策更加公平的前景。

例如,與白人男性相比,女性和少數(shù)族裔獲得資本仍然困難得多。驚人的98%的風(fēng)險(xiǎn)投資來(lái)自一個(gè)82%為男性的行業(yè)。不到1%的風(fēng)投支持的創(chuàng)始人是黑人,而在風(fēng)險(xiǎn)投資高級(jí)職位的創(chuàng)始人中也只有2%的比例相對(duì)較小。

一家金融科技公司和借貸平臺(tái)Kabbage正在努力改變這種狀況。自動(dòng)貸款平臺(tái)有意從其貸款過(guò)程中去除種族和性別偏見。由于Kabbage的算法將這些主觀因素排除在資金決策之外,因此少數(shù)族裔和女性在其貸款中獲得的份額比女性和少數(shù)族裔擁有的小企業(yè)的全國(guó)數(shù)據(jù)所顯示的要大。

人工智能和大數(shù)據(jù)也開始在另一個(gè)傳統(tǒng)上阻礙女性和少數(shù)族裔經(jīng)濟(jì)繁榮的領(lǐng)域留下印記。即使采取了平權(quán)行動(dòng),事實(shí)是黑人和西班牙裔在頂尖大學(xué)的代表人數(shù)比35年前更嚴(yán)重。盡管15%的美國(guó)大學(xué)生是黑人,但只有6%的精英大學(xué)錄取者是非裔美國(guó)人。

至少在公開場(chǎng)合,大學(xué)還沒(méi)有使用人工智能算法來(lái)做出錄取決定。但據(jù)《連線》創(chuàng)始人兼《不可避免》一書作者凱文·凱利(Kevin Kelly)所說(shuō),在大學(xué)招生中使用人工智能是不可避免的。多年來(lái),大學(xué)一直使用算法根據(jù)平均成績(jī)和入學(xué)考試成績(jī)將申請(qǐng)人分類為“是”、“否”和“可能”,然后接受人工審查。

在學(xué)生方面,SchoolWise等平臺(tái)正在利用人工智能和機(jī)器學(xué)習(xí)技術(shù)將學(xué)生與推薦的學(xué)校進(jìn)行匹配。“雖然數(shù)據(jù)分析和機(jī)器學(xué)習(xí)[已經(jīng)]改變了許多行業(yè),但[他們沒(méi)有]在大學(xué)招生領(lǐng)域幫助學(xué)生,”SchoolWise創(chuàng)始人和麻省理工學(xué)院畢業(yè)生Salil Sethi在一份準(zhǔn)備好的聲明中說(shuō)。除了將申請(qǐng)人的個(gè)性與大學(xué)文化聯(lián)系起來(lái),SchoolWise還提供其他資源,如經(jīng)濟(jì)援助計(jì)算器和招生顧問(wèn)。

除了獲得資本和教育之外,經(jīng)濟(jì)歧視還以更有害的方式表現(xiàn)出來(lái)。例如,以少數(shù)族裔為主的社區(qū)支付的汽車保險(xiǎn)費(fèi)高于處于相同風(fēng)險(xiǎn)水平的白人地區(qū)。ProPublica報(bào)告發(fā)現(xiàn),像Allstate、Geico和Liberty Mutual這樣的保險(xiǎn)公司在大多數(shù)居民是少數(shù)族裔的郵政編碼地區(qū)收取的保費(fèi)平均高出30%。

希望使更多保費(fèi)更加客觀的保險(xiǎn)公司正在轉(zhuǎn)向分析和人工智能尋求幫助。當(dāng)好事達(dá)從主要的個(gè)人保險(xiǎn)產(chǎn)品轉(zhuǎn)向商業(yè)產(chǎn)品時(shí),它借此機(jī)會(huì)開發(fā)了一個(gè)名為ABIe的人工智能助手,即好事達(dá)商業(yè)保險(xiǎn)專家,以幫助代理人報(bào)價(jià)和發(fā)行保險(xiǎn)產(chǎn)品。盡管Allstate沒(méi)有提及其投保人的種族或性別構(gòu)成如何發(fā)生變化,但ABIe至少?gòu)牡仁街邢艘欢〝?shù)量的代理人主觀性。

數(shù)據(jù)困境

人工智能無(wú)疑有助于使教育、金融服務(wù)和保險(xiǎn)等經(jīng)濟(jì)支柱更加公平,但它會(huì)自動(dòng)將歧視排除在經(jīng)濟(jì)之外嗎?如果人類繼續(xù)向其提供受偏見污染的數(shù)據(jù),則不會(huì)。在根深蒂固的“主義”的數(shù)據(jù)集上訓(xùn)練的算法在做出客觀決策方面并不比人類處理者好。

但至少與社會(huì)層面人類決策的復(fù)雜性相比,有偏見的數(shù)據(jù)集是一個(gè)需要解決的小問(wèn)題。在算法決策方面,進(jìn)步會(huì)帶來(lái)進(jìn)步。當(dāng)機(jī)器處理更客觀的數(shù)據(jù)時(shí),它們會(huì)做出更少的主觀決定。當(dāng)他們做出更公平的決定時(shí),他們會(huì)生成更客觀的數(shù)據(jù),以此為未來(lái)的決策建模。

因此,雖然機(jī)器可能無(wú)法單獨(dú)建立一個(gè)更公平的經(jīng)濟(jì),但它們至少能夠比人類更好地客觀地看待他們提供的數(shù)據(jù)。這聽起來(lái)可能不多,但這是向前邁出的一步:美國(guó)人自己必須邁出的一步。

猜你喜歡