AI(人工智能)的最糟糕應用場景在好萊塢電影大片中屢見不鮮:機器學會了類似人類的智慧,具備了感知能力,免不了變成邪惡的霸主,并企圖摧毀人類。這種敘事技巧利用了我們對未知領(lǐng)域的先天恐懼,反映出伴隨新事物出現(xiàn)的深刻變化。
不過,就像ML工程師,同時也是小說《量子價格》作者的馬爾科姆•默多克所說的那樣:“AI要想殺死我們,不一定要有感情。在有感情的AI成為問題之前,就有很多可能消滅我們的場景。”
通過對AI專家的采訪,本刊揭示了真實世界中的6個最糟糕的AI場景,這些場景遠比電影中描繪的平淡,但它們依然是反烏托邦的。大多數(shù)這些場景都不需要惡毒的獨裁者來實現(xiàn)。相反,如果不采取措施進行阻止,這些可能會輕易成為默許場景并自然地呈現(xiàn)出來。為了防止這些最糟糕的場景發(fā)生,我們必須摒棄對AI的流行文化看法,謹慎對待其意外后果。
1.當虛構(gòu)來定義我們的現(xiàn)實
如果讓虛構(gòu)來定義我們的現(xiàn)實,那么就可能發(fā)生不必要的悲劇。然而,在數(shù)字世界中我們無法分辨真假,如何進行選擇呢?
在可怕的場景中,不斷增多的深度偽造(高級ML工具產(chǎn)生的偽造圖像、視頻、音頻和文本等)有一天可能會導致國家安全決策者根據(jù)錯誤信息在真實世界中采取行動,從而造成重大危機,甚至更嚴重地引發(fā)戰(zhàn)爭。
喬治敦大學安全和新興技術(shù)中心(CSET)的高級研究員安德魯•洛恩(Andrew Lohn)說:“現(xiàn)在,采用AI的系統(tǒng)能夠(大規(guī)模)生成虛假信息。”通過產(chǎn)生大量、多變的虛假信息,這些系統(tǒng)能夠混淆其本質(zhì),進行優(yōu)化并獲取成功,隨著時間的推移,提高其預期影響。
在緊要關(guān)頭,如果無法及時地確認信息的真實性,深度偽造的概念就足以導致領(lǐng)導者行動時猶豫不決。
德國漢堡研究和安全政策研究所的研究員瑪麗娜•法瓦羅(Marina Favaro)指出:“深度偽造損害了我們對信息流的信任。”深度偽造導致的作為和不作為都可能會給世界帶來災難性的后果。
2.逼近底線的危險競爭
涉及AI和國家安全時,速度是重點也是難點。采用AI的系統(tǒng)能夠給用戶帶來更大的速度效益,發(fā)展軍事應用領(lǐng)先的國家將具備戰(zhàn)略優(yōu)勢。不過,在這個過程中,可能會犧牲哪些設計原則呢?
系統(tǒng)的微小缺陷和被黑客利用會造成形勢崩潰。喬治敦大學安全和新興技術(shù)中心的戰(zhàn)略總監(jiān)海倫•托納(Helen Toner)表示,危機可能會“從一次無惡意的單點故障開始,故障導致所有通信中斷,引發(fā)人們的恐慌并造成經(jīng)濟活動停滯。信息持續(xù)缺失,伴隨其他誤判,可能會造成事態(tài)急劇失控。”
瑞典斯德哥爾摩國際和平研究所(SIPRI)的高級研究員文森特•博拉寧(Vincent Boulanin)警告說,重大災難可能會導致“大國為了搶占先機而搶先走上捷徑。如果一個國家將速度優(yōu)先于安全、檢測或人類監(jiān)督,那就會形成逼近底線的危險競爭。”
例如,為了獲得速度優(yōu)勢,國家安全負責人可能會被誘惑下放指揮和控制權(quán),去除對我們并未充分了解的ML模型的人工監(jiān)督。在這種場景中,無需人類授權(quán)便可啟動的導彈防御系統(tǒng),可能會導致事件意外升級并引發(fā)核戰(zhàn)爭。
3.隱私和自由意志的終結(jié)
每一次數(shù)字行為都會產(chǎn)生新的數(shù)據(jù),如電子郵件、文本、下載、采購、信息發(fā)布、自拍和GPS定位等。在允許企業(yè)和政府不受限制地訪問這些數(shù)據(jù)的過程中,我們拱手交出了監(jiān)督和控制的工具。
再加上面部識別、生物特征提取、基因組數(shù)據(jù),以及采用AI的預測分析,喬治敦大學安全和新興技術(shù)中心的洛恩很擔心:“隨著通過數(shù)據(jù)進行監(jiān)管和跟蹤的增多,我們進入了一個未知的危險領(lǐng)域,我們對潛在影響幾乎一無所知。”
賓夕法尼亞大學全球事務研究中心“佩里世界大廈”(Perry World House)的負責人邁克爾•C. 霍洛維茨(Michael C. Horowitz)提出了警告:“要注意有關(guān)AI的邏輯及其對國內(nèi)的壓制意味著什么。過去,獨裁者鎮(zhèn)壓群眾依靠的是大量軍隊,但有的軍人可能支持社會群體并可能發(fā)動政變,而AI則會減少這種約束。”
經(jīng)過收集和分析的數(shù)據(jù)力量遠遠不止檢查和監(jiān)督等預測性控制功能。如今,采用AI的系統(tǒng)能夠預測我們購買什么商品、觀看什么娛樂節(jié)目,以及會點擊哪些鏈接。如果這些平臺比我們更了解我們自己,我們可能無法注意到自己的自由意志逐漸被剝奪,并受到外部力量的控制。
4.人類行為實驗
孩子延遲即時滿足的能力,等待第二塊棉花糖,曾被認為是預測人生成功的重要指標。很快,即便是獲得第二塊棉花糖的孩子也會屈服于撩人的參與算法。
社交媒體用戶已經(jīng)成為了實驗室里的小白鼠,生活在人類的斯金納箱中,緊盯著智能手機屏幕,被迫犧牲珍貴的時間和精力,貢獻給從中贏利的平臺。
喬治敦大學安全和新興技術(shù)中心的海倫•托納說:“算法被優(yōu)化,盡可能讓用戶長時間停留在平臺。”馬爾科姆•默多克解釋道,通過點贊、評論和關(guān)注等形式提供獎勵,“算法讓我們大腦的工作短路,讓我們無法抗拒地繼續(xù)參與。”
為了最大限度地追求廣告利潤,企業(yè)在我們的工作、家庭和朋友、責任,甚至業(yè)余愛好中,偷走我們的精力。更可怕的是,平臺的內(nèi)容讓我們感覺比以前更痛苦、更糟糕。托納警告道:“在這些平臺上花的時間越多,我們在追求積極、豐富、有意義的生活上花的時間就越少。”
5.AI設計的專制
每天,我們把更多的日常生活交給采用AI的機器。這很成問題,正如霍洛維茨所說:“我們還沒有充分認識到AI的偏見問題。即便是出于善意,采用AI的系統(tǒng)設計(包括訓練數(shù)據(jù)和數(shù)學模型)也反映了設計者有偏見的狹隘經(jīng)驗和利益。我們每個人都有偏見。”
因此,美國佛羅里達州克利爾沃特IT安全公司KnowBe4的新興技術(shù)分析高級副總裁莉迪亞•科斯托普洛斯(Lydia Kostopoulos)表示:“許多采用AI的系統(tǒng)未能考慮不同人的不同經(jīng)驗和特征。”由于AI解決問題的根據(jù)是有偏見的觀點和數(shù)據(jù),而不是每一個個體的獨特需求,因此這種系統(tǒng)產(chǎn)生的某種程度的一致性,在人類社會是不存在的。
甚至在AI興起之前,我們?nèi)粘I钪谐R娢锲返脑O計也往往是迎合特定類型的人群而設計的。例如,研究表明,汽車、手機等手持型工具,甚至是辦公環(huán)境中的溫度設定都是針對中等身材的男性而設計的,這給身材和體型不同的人群(包括女性)帶來了諸多不便,有時甚至會給他們的生活帶來很大風險。
當處于偏見常態(tài)之外的個體被忽略、被邊緣化、被排斥時,AI就成為了卡夫卡式的“看門人”,導致這些人無法享受客戶服務、獲得工作、享受醫(yī)療衛(wèi)生服務,等等。AI設計的決策會限制人們,而不是將其從日常問題中解放出來。此外,這些選擇會將有些不好的人類偏見轉(zhuǎn)化成為種族和性別的歧視和風險實踐,以及有嚴重缺陷和偏見的判決結(jié)果。
6.對AI的恐懼使人類不再受益
隨著計算能力和運行硬件復雜性的提高,AI的功能一定會增強,社會對AI的恐懼似乎只會隨著時間而增強。“人工神經(jīng)網(wǎng)絡可以做出非常瘋狂的事。”默多克說,“我們需要謹慎對待相關(guān)風險。”不過,如果人們過于害怕AI,以至于政府對AI進行嚴格管控,使得人類不再受益,那又會怎樣呢?例如,DeepMind的AlphaFold程序?qū)崿F(xiàn)重大突破,能夠預測氨基酸是如何折疊形成蛋白質(zhì)的,科學家因此有可能確定人類98.5%的蛋白質(zhì)結(jié)構(gòu)。這一里程碑將為生命科學的快速發(fā)展建立富有成效的基礎(chǔ)。再比如,AI通過各種人類語言組合的流暢翻譯,使推進跨文化交流和理解成為可能;采用AI的系統(tǒng)可以識別新的疾病治療和護理方法等。為了防止發(fā)生AI的最壞結(jié)果,政府的本能性監(jiān)管行為也可能帶來事與愿違的效果,產(chǎn)生意外的負面影響,導致我們害怕這種強大技術(shù)的威力,抵制利用它真正為世界造福。