伴隨數(shù)據(jù)科學(xué)變得越來(lái)越復(fù)雜,消費(fèi)者漸漸要求更個(gè)性化的客戶(hù)體驗(yàn),AI是幫助企業(yè)更好地了解客戶(hù)和受眾的工具。不過(guò),即使AI擁有世界上所有的潛力,假如我們無(wú)法弄清楚怎樣解決仍然存在的道德挑戰(zhàn),那么這種全部潛力可能永遠(yuǎn)無(wú)法實(shí)現(xiàn)。
伴隨這項(xiàng)技術(shù)的發(fā)展,所有尋求實(shí)施AI戰(zhàn)略的領(lǐng)導(dǎo)者都應(yīng)該牢記一個(gè)問(wèn)題,就是怎樣在合乎道德和負(fù)責(zé)任的情況下在企業(yè)內(nèi)最大限度地運(yùn)用AI。
為了實(shí)施和擴(kuò)展能夠帶來(lái)正投資回報(bào)的AI功能,同時(shí)最大限度地降低風(fēng)險(xiǎn)、減少偏見(jiàn)并推動(dòng)AI實(shí)現(xiàn)價(jià)值,企業(yè)應(yīng)遵循以下四項(xiàng)原則:
1.了解目標(biāo)、目的和風(fēng)險(xiǎn)
大約七年前,某組織發(fā)布了他們所謂的“新興技術(shù)的炒作周期”,預(yù)測(cè)了將在未來(lái)十年改變社會(huì)和商業(yè)的技術(shù)。AI是這些技術(shù)中的一項(xiàng)。
這份報(bào)告的發(fā)布,促使企業(yè)爭(zhēng)相向分析師和投資者證明自己精通AI,很多企業(yè)開(kāi)始將AI戰(zhàn)略應(yīng)用到自己的商業(yè)模式中。然則,有時(shí)候這些策略被證明執(zhí)行不力,只能作為現(xiàn)有分析或數(shù)字目標(biāo)的事后補(bǔ)充。這是因?yàn)槠髽I(yè)沒(méi)有清楚地了解他們正在尋找AI來(lái)解決的業(yè)務(wù)問(wèn)題。
企業(yè)開(kāi)發(fā)的AI和ML模型只有10%被實(shí)施。有問(wèn)題的企業(yè)與可以使用AI解決該問(wèn)題的數(shù)據(jù)科學(xué)家之間的歷史性脫節(jié)使AI滯后。然則,伴隨數(shù)據(jù)成熟度的提高,企業(yè)已經(jīng)開(kāi)始將數(shù)據(jù)翻譯器集成到不同的價(jià)值鏈中,譬如以發(fā)現(xiàn)和轉(zhuǎn)換結(jié)果的市場(chǎng)營(yíng)銷(xiāo)業(yè)務(wù)需求。
這就是為什么制定道德AI戰(zhàn)略的首要原則是了解所有目標(biāo)、目的和風(fēng)險(xiǎn),然后在企業(yè)內(nèi)建立一種分散的AI方法。
2.解決偏見(jiàn)歧視問(wèn)題
由于從未恰當(dāng)?shù)亻_(kāi)發(fā)出AI解決方案來(lái)解決偏見(jiàn)問(wèn)題,招致大小企業(yè)的聲譽(yù)都受到了損害,客戶(hù)也不信任它們。所以建立AI模型的企業(yè)必須采取先發(fā)制人的措施,以確保他們的解決方案不會(huì)導(dǎo)致傷害。做到這一點(diǎn)的方法是,建立一個(gè)框架來(lái)防止任何對(duì)算法預(yù)測(cè)的負(fù)面影響。
比如,假如一家公司希望通過(guò)調(diào)查更好地了解客戶(hù)的情緒,譬如代表性不足的社區(qū)怎樣看待他們的服務(wù),他們可能會(huì)使用數(shù)據(jù)科學(xué)來(lái)分析這些客戶(hù)調(diào)查,并認(rèn)識(shí)到所發(fā)布的調(diào)查中有一定比例的答復(fù)是非英語(yǔ)語(yǔ)言,這是AI算法可能理解的唯一語(yǔ)言。
為了解決這個(gè)問(wèn)題,數(shù)據(jù)科學(xué)家們不僅可以修改算法,還可以結(jié)合語(yǔ)言的復(fù)雜細(xì)微差別。假如能夠理解這些語(yǔ)言上的細(xì)微差別,并將AI與更流暢的語(yǔ)言相結(jié)合,使這些結(jié)論更可行,企業(yè)將能夠了解代表性不足的社區(qū)需求,以改善他們的客戶(hù)體驗(yàn)。
3.開(kāi)發(fā)全方位的基礎(chǔ)數(shù)據(jù)
AI算法能夠分析大量數(shù)據(jù)集,企業(yè)應(yīng)優(yōu)先考慮為其AI模型使用和攝取的數(shù)據(jù)標(biāo)準(zhǔn)開(kāi)發(fā)框架。為了成功實(shí)現(xiàn)AI,一個(gè)整體的、透明的和可追蹤的數(shù)據(jù)集是必不可少的。
AI必須考慮到人類(lèi)的干擾。譬如俚語(yǔ)、縮寫(xiě)、代碼詞,以及更多人類(lèi)在不斷進(jìn)化的基礎(chǔ)上發(fā)展出來(lái)的詞匯,每一種都可能讓高度技術(shù)的AI算法出錯(cuò)。無(wú)法處理這些人類(lèi)細(xì)微差別的AI模型最終會(huì)缺乏整體數(shù)據(jù)集。就像試著在沒(méi)有后視鏡的情況下駕駛一樣,雖說(shuō)擁有一些需要的信息,但缺少關(guān)鍵盲點(diǎn)。
企業(yè)必須找到歷史數(shù)據(jù)和人為干預(yù)之間的平衡,以便讓AI模型了解這些復(fù)雜的區(qū)別。通過(guò)將結(jié)構(gòu)化數(shù)據(jù)與非結(jié)構(gòu)化數(shù)據(jù)相結(jié)合,并訓(xùn)練AI識(shí)別兩者,可以生成更全面的數(shù)據(jù)集,并提高預(yù)測(cè)的準(zhǔn)確性。進(jìn)一步說(shuō),第三方對(duì)數(shù)據(jù)集的審計(jì)可以是一個(gè)額外的好處,沒(méi)有偏見(jiàn)和差異。
4.避免算法開(kāi)發(fā)的“黑匣子”方法
要讓AI合乎道德,就需要完全透明。為了制定同時(shí)透明、可解釋和可解釋的AI策略,企業(yè)必須打開(kāi)代碼的“黑匣子”,以了解算法中的每個(gè)節(jié)點(diǎn)是怎樣得出結(jié)論和解釋結(jié)果的。
雖說(shuō)這聽(tīng)起來(lái)很簡(jiǎn)單,但要實(shí)現(xiàn)這一點(diǎn)需要一個(gè)強(qiáng)大的技術(shù)框架,該框架可以通過(guò)查看底層代碼來(lái)解釋模型和算法行為,以顯示正在生成的不同子預(yù)測(cè)。
企業(yè)可以依靠開(kāi)源框架跨多個(gè)維度評(píng)估AI和ML模型,囊括:
AI是一項(xiàng)復(fù)雜的技術(shù),假如企業(yè)不小心的話,它會(huì)有許多潛在的陷阱。一個(gè)成功的AI模型應(yīng)該從第一天開(kāi)始就優(yōu)先考慮道德問(wèn)題,而不是事后才考慮。在各個(gè)行業(yè)和企業(yè)中,AI不是一刀切的,但應(yīng)該取得突破的一個(gè)共同點(diǎn)是致力于透明和公正的預(yù)測(cè)。