與2018年生效的歐洲強(qiáng)有力的數(shù)據(jù)保護(hù)和隱私規(guī)則GDPR相比,如今的公司對(duì)即將出臺(tái)的人工智能法規(guī)更加了解。但根據(jù)埃森哲的一份新報(bào)告,他們還遠(yuǎn)遠(yuǎn)沒有做好準(zhǔn)備。
盡管大多數(shù)接受調(diào)查的公司都非常清楚負(fù)責(zé)任地使用人工智能的重要性,但“他們中的大多數(shù)人已經(jīng)建立了一套原則,但還沒有設(shè)法在整個(gè)企業(yè)中實(shí)施,”Ray說埃森哲負(fù)責(zé)任人工智能全球負(fù)責(zé)人Eitel-Porter在接受AIBusiness采訪時(shí)表示。
他說,現(xiàn)在是采取行動(dòng)的時(shí)候了,因?yàn)樵谡麄€(gè)企業(yè)中建立一個(gè)有效的框架可能需要數(shù)年而不是數(shù)月。
好消息是,根據(jù)對(duì)20個(gè)行業(yè)17個(gè)地區(qū)的850名高管的調(diào)查,80%的公司表示他們已將10%的人工智能技術(shù)預(yù)算用于負(fù)責(zé)任的人工智能,而45%的公司已預(yù)留20%。“這是一個(gè)非常嚴(yán)肅的承諾,”Eitel-Porter說。
他說,重要的是,已經(jīng)建立風(fēng)險(xiǎn)管理結(jié)構(gòu)的公司不必從頭開始構(gòu)建負(fù)責(zé)任的人工智能。
負(fù)責(zé)任的人工智能是設(shè)計(jì)和開發(fā)符合道德并支持組織和社會(huì)所珍視的原則的人工智能模型的實(shí)踐。Eitel-Porter說,雖然不同的實(shí)體可能在核心價(jià)值觀上存在差異,但社會(huì)普遍對(duì)什么是使用人工智能的道德和以人為本的方式有“相當(dāng)強(qiáng)烈的”共同看法。
值得注意的是,負(fù)責(zé)任的人工智能需要整個(gè)企業(yè)的參與。這不僅適用于技術(shù)人員。為什么?Eitel-Porter解釋說,雖然數(shù)據(jù)科學(xué)家確實(shí)為準(zhǔn)備好訓(xùn)練數(shù)據(jù)做了繁重的工作,但有些問題只有業(yè)務(wù)方才能回答。
一個(gè)例子是設(shè)置可以容忍的最小偏差閾值:是10%?15%?20%?在哪里設(shè)置偏差(或錯(cuò)誤)閾值是一項(xiàng)業(yè)務(wù)決策。
大多數(shù)人的直覺反應(yīng)是根本不應(yīng)該有偏見。但這可能會(huì)導(dǎo)致結(jié)果不準(zhǔn)確。“在大多數(shù)情況下,都會(huì)在準(zhǔn)確性和偏差之間進(jìn)行權(quán)衡,”Eitel-Porter說。“如果我們消除所有偏見,我們經(jīng)常會(huì)做出不準(zhǔn)確的預(yù)測。”
讓我們考慮一下吉爾,她的信用評(píng)分很低,因?yàn)樗袃斶€貸款或按時(shí)付款的麻煩。她申請了貸款,在所有其他條件相同的情況下,這意味著她有更高的可能性會(huì)再次違約或延遲還款。將吉爾與信用評(píng)分高的瑪麗置于同等地位——零偏見,所有其他條件相同——可能會(huì)導(dǎo)致對(duì)吉爾是否會(huì)償還貸款的錯(cuò)誤預(yù)測。
一旦設(shè)置了錯(cuò)誤閾值,人工智能模型就會(huì)使用歷史數(shù)據(jù)進(jìn)行測試。包含所有公司客戶的數(shù)據(jù)集被分成組并應(yīng)用模型。所有組的錯(cuò)誤率應(yīng)該相當(dāng)一致。如果一組高于其他組,“從數(shù)學(xué)上講,我們的模型在這組中效果不佳,”Eitel-Porter說。
但是,測試AI模型是否存在偏差的挑戰(zhàn)之一是數(shù)據(jù)集中的差距。例如,一家銀行可能想要測試其AI模型是否歧視某個(gè)種族。但它的內(nèi)部數(shù)據(jù)庫中沒有種族信息,因?yàn)樗鼪]有向賬戶持有人詢問。因此,銀行無法使用自己的數(shù)據(jù)集檢查偏差。
Eitel-Porter表示,英國的金融服務(wù)監(jiān)管機(jī)構(gòu)和學(xué)術(shù)團(tuán)體正在合作開發(fā)一個(gè)公開可用的數(shù)據(jù)集,其中包括種族和性別等所謂的“受保護(hù)”特征,并將提供給公司測試他們的人工智能模型。所有個(gè)人身份信息(PII)都將被刪除,因此數(shù)據(jù)無法追蹤到個(gè)人。
許多公司可以闡明他們的核心原則并在他們的網(wǎng)站上列出它們,但“這并不意味著任何人對(duì)它們采取任何行動(dòng),”Eitel-Porter說。治理框架可確保人們尊重這些原則。
這是埃森哲基于與客戶互動(dòng)開發(fā)負(fù)責(zé)任人工智能的框架。Eitel-Porter表示,橫向類別是應(yīng)該成為實(shí)施負(fù)責(zé)任人工智能核心要素的四大支柱:原則和治理、風(fēng)險(xiǎn)、政策和控制、技術(shù)和促成因素、培訓(xùn)和文化。
從原則和治理開始。為了使人們堅(jiān)持這些核心信念,在確定檢查點(diǎn)并確保合規(guī)性時(shí),請參閱第二列“風(fēng)險(xiǎn)、政策和控制”。要使實(shí)施成功,請閱讀第三列“技術(shù)和推動(dòng)因素”。Eitel-Porter說,該公司的數(shù)據(jù)科學(xué)家應(yīng)該在與負(fù)責(zé)任的人工智能相關(guān)的主題方面擁有經(jīng)驗(yàn)和培訓(xùn),例如避免偏見。
第三方工具也可從超大規(guī)模企業(yè)或數(shù)據(jù)中心巨頭(如AWS和Azure)以及專有和開源中獲得。
第四個(gè)支柱是培訓(xùn)和文化,公司確保跨部門的人員了解他們是解決方案的一部分,無論他們是在客戶服務(wù)、法律、人力資源還是其他部門。
垂直類別——審計(jì)和評(píng)估、定義、工業(yè)化、維持——幫助公司弄清楚他們在流程中的位置、仍然需要什么、如何填補(bǔ)這些空白以及如何維持系統(tǒng)。