理解AI決策對科研人員、決策者和廣大人民來說十分重要。幸運(yùn)的是,有一些方法能確保我們了解更多。前沿AI企業(yè)和學(xué)術(shù)屆使用的深度學(xué)習(xí)模型已經(jīng)變得非常復(fù)雜,以至于即使是構(gòu)建模型的科研人員也難以理解正在做出的決策。
這一點(diǎn)在某錦標(biāo)賽上得到了最明顯的體現(xiàn)。在這場比賽中,數(shù)據(jù)科學(xué)家和職業(yè)圍棋選手經(jīng)常被AI在比賽中的決策所迷惑,因?yàn)樗龀隽朔钦降挠螒?,而這并不被認(rèn)為是最強(qiáng)的一步。
為了更好地理解他們構(gòu)建的模型,AI科研人員開發(fā)了三種主要的解釋方法。這些是局部解釋方法,只解釋一個具體的決定,而不是整個模型的決定,考慮到規(guī)模,這可能具有挑戰(zhàn)性。
科研人員正確理解AI決策的三種方法
特征歸因
通過特征歸因,AI模型將識別輸入的哪些部分對特定決策是重要的。對于X射線,科研人員可以看到熱圖或模型認(rèn)為對其決策最重要的單個像素。
使用這種特征歸因解釋,可以檢查是否存在虛假相關(guān)性。例如,它會顯示水印中的像素是否被突出顯示,或者實(shí)際腫瘤中的像素是否被突出顯示。
反事實(shí)解釋
當(dāng)做出決定時,我們可能會感到困惑,不知道為什么AI會做出這樣或那樣的決定。由于AI被部署在高風(fēng)險的環(huán)境中,如監(jiān)獄、保險或抵押貸款,了解AI拒絕因素或上訴的原因應(yīng)該有助于他們在下次申請時獲得批準(zhǔn)。
反事實(shí)解釋方法的好處是,它確切地告訴你需要如何更改輸入來翻轉(zhuǎn)決策,這可能具有實(shí)際用途。對于那些申請抵押貸款卻沒有得到的人來說,這個解釋會告訴他們需要做些什么來達(dá)到他們想要的結(jié)果。
樣本重要性
樣本重要性解釋需要訪問模型背后的基礎(chǔ)數(shù)據(jù)。如果科研人員注意到他們認(rèn)為是錯誤的,他們可以運(yùn)行一個樣本重要性解釋,以查看AI是否輸入了它無法計算的數(shù)據(jù),從而導(dǎo)致判斷錯誤。?