以下是應(yīng)用嚴(yán)格的人工智能信任、風(fēng)險(xiǎn)和安全管理(AI TRiSM)的組織如何以及為何將更有價(jià)值的AI模型投入生產(chǎn)。
你準(zhǔn)備好接受人工智能權(quán)利法案了嗎?最近的美國藍(lán)圖旨在保護(hù)社會(huì)免受有害人工智能的侵害,提醒所有人工智能模型的開發(fā)者和用戶,他們需要在他們的人工智能模型和戰(zhàn)略中建立保障措施。需要對(duì)AI TRiSM采取嚴(yán)格的方法。
Gartner將AI TRiSM定義為支持AI模型治理、可信賴性、公平性、可靠性、穩(wěn)健性、功效和隱私的框架。它包括針對(duì)其客戶和企業(yè)的模型可解釋性和可解釋性、隱私、模型操作和對(duì)抗性攻擊抵抗的解決方案、技術(shù)和流程。
“IT領(lǐng)導(dǎo)者必須花費(fèi)時(shí)間和資源來支持AI TRiSM。Gartner杰出副總裁分析師Avivah Litan表示,那些這樣做的人將在采用、業(yè)務(wù)目標(biāo)以及內(nèi)部和外部用戶接受度方面取得更好的人工智能成果。“人工智能威脅和妥協(xié)(惡意或良性)是持續(xù)不斷的,并且不斷演變,因此人工智能TRiSM必須是一種持續(xù)的努力,而不是一次性的練習(xí)。”
為什么AI TRiSM是一種趨勢技術(shù)
Gartner預(yù)計(jì),到2026年,實(shí)施AI透明度、信任和安全性的組織將看到他們的AI模型在采用、業(yè)務(wù)目標(biāo)和用戶接受度方面實(shí)現(xiàn)50%的結(jié)果改進(jìn)。
人工智能變得越來越普遍。Gartner調(diào)查結(jié)果表明,組織已經(jīng)部署了成百上千個(gè)一些IT領(lǐng)導(dǎo)者無法解釋或解釋的AI模型。缺乏知識(shí)和理解可能會(huì)產(chǎn)生嚴(yán)重的后果。當(dāng)依賴增加時(shí),人工智能模型表現(xiàn)不佳的影響會(huì)被放大。
不管理AI風(fēng)險(xiǎn)的組織更有可能遇到負(fù)面的AI結(jié)果和違規(guī)行為。模型不會(huì)按預(yù)期運(yùn)行,并且會(huì)出現(xiàn)安全和隱私故障、財(cái)務(wù)和聲譽(yù)損失以及對(duì)個(gè)人的傷害。錯(cuò)誤執(zhí)行的人工智能也可能導(dǎo)致組織做出糟糕的業(yè)務(wù)決策。
AI TRiSM影響和操作
人工智能法規(guī)正在增加,但即使在強(qiáng)制實(shí)施保護(hù)措施之前,實(shí)施確保信任、透明度和消費(fèi)者保護(hù)的做法也很重要。IT領(lǐng)導(dǎo)者需要應(yīng)用新的AI TRiSM功能來確保模型的可靠性、可信度、隱私和安全性。
不要等到模型投入生產(chǎn)后再應(yīng)用AI TRiSM。它只是打開了潛在風(fēng)險(xiǎn)的過程。IT領(lǐng)導(dǎo)者應(yīng)熟悉妥協(xié)形式并使用AI TRiSM解決方案集,以便他們能夠正確保護(hù)AI。
AI TRiSM需要跨職能團(tuán)隊(duì)一起工作。這包括來自法律、合規(guī)、安全、IT和數(shù)據(jù)分析團(tuán)隊(duì)的員工。如果可能,建立一個(gè)專門的團(tuán)隊(duì),或者如果沒有,則建立一個(gè)工作組,以獲得最佳結(jié)果。確保為每個(gè)AI項(xiàng)目提供適當(dāng)?shù)臉I(yè)務(wù)代表。
好處包括改善他們的組織從使用人工智能中獲得的業(yè)務(wù)成果,而不是簡單地遵守法規(guī)。
簡而言之:
AI TRiSM功能可確保模型的可靠性、可信度、安全性和隱私性。
為了在AI采用、實(shí)現(xiàn)業(yè)務(wù)目標(biāo)和用戶接受方面取得更好的成果,組織需要管理AI信任、風(fēng)險(xiǎn)和安全性。
將AI TRiSM視為一套適當(dāng)保護(hù)AI的解決方案。
Avivah Litan是Gartner Research的杰出副總裁分析師,目前是ITL AI團(tuán)隊(duì)的成員,該團(tuán)隊(duì)涵蓋人工智能和區(qū)塊鏈。她專注于區(qū)塊鏈創(chuàng)新的各個(gè)方面,以及人工智能信任、風(fēng)險(xiǎn)和安全管理。Avivah在網(wǎng)絡(luò)安全和欺詐的許多方面擁有強(qiáng)大的背景,包括人工智能與這些領(lǐng)域的集成。