麻省理工AI實驗室的科研人員近期發(fā)表了一篇論文,意在詰責(zé)在某些場景下應(yīng)用選擇性回歸的行為,原因是這種技術(shù)會降低數(shù)據(jù)集中代表性不足的群體模型的整體性能。
這些代表性不足的群體通常是女性和有色人種,這種對他們的忽視招致了一些有關(guān)AI種族主義和性別歧視的報道。在一個賬戶中,用于風(fēng)險評估的AI錯誤地將黑人囚犯標(biāo)記為白人囚犯的兩倍。在另一個案例中,沒有任何背景的男性照片被認(rèn)定為醫(yī)生和家庭主婦的比例高于女性。
通過選擇性回歸,AI模型能對每個輸入做出兩個選擇:預(yù)測或棄權(quán)。只有在對決策有信心的情況下,該模型才會做出預(yù)測,在幾次測試中,通過排除無法正確評估的輸入來提高模型的性能。
然則,當(dāng)輸入被刪除時,它會放大數(shù)據(jù)集中已經(jīng)存在的偏見。一旦人工智能模型被部署到現(xiàn)實生活中,這將招致代表性不足的群體進一步不準(zhǔn)確,原因是它無法像在開發(fā)過程中那樣刪除或拒絕代表性不足的群體。最終希望確保以明智的方式考慮跨組的錯誤率,而不是單單最小化模型的一些廣泛的錯誤率。
麻省理工學(xué)院的科研人員還引入了一種新技術(shù),意在提高模型在每個子組中的模型性能。這種技術(shù)被稱為單調(diào)選擇性風(fēng)險,一種模型沒有棄權(quán),而是包括種族和性別等敏感屬性,而另一種則不包括。同時,兩個模型都做出決策,沒有敏感數(shù)據(jù)的模型被用作數(shù)據(jù)集中偏差的校準(zhǔn)。
為這個特定問題提出正確的公平概念是一項挑戰(zhàn)。不過通過執(zhí)行這個標(biāo)準(zhǔn),單調(diào)的選擇風(fēng)險,我們可以確保當(dāng)減少覆蓋范圍時,模型性能事實上在所有子組中都變得更好。
當(dāng)使用醫(yī)療保險數(shù)據(jù)集和犯罪數(shù)據(jù)集進行測試時,新技術(shù)能夠降低代表不足的群體的錯誤率,同時不明顯影響模型的整體性能。科研人員打算將這項技術(shù)應(yīng)用到新的應(yīng)用中,譬如房價、學(xué)生平均學(xué)分績點和貸款利率,看看它能否用于其他任務(wù)。?