人工智能(AI)無疑是我們這個時代的流行語。特別是隨著ChatGPT等生成式AI應(yīng)用程序的出現(xiàn),AI大受歡迎,成為了技術(shù)大辯論的核心話題。
所有人都在談?wù)撓馛hatGPT這樣的生成式AI應(yīng)用程序的影響以及利用它們的能力是否公正。然而,面對這場完美風(fēng)暴,圍繞AI一詞的種種謊言和誤解突然隨之激增。您可能已經(jīng)聽過很多這樣的謊言和誤解了。
不妨深入研究這些謊言,戳穿它們,以了解AI的真正本質(zhì)。
1. AI是智能的
與普遍的看法相反,AI一點(diǎn)也不智能?,F(xiàn)在大多數(shù)人確實(shí)認(rèn)為基于AI的模型很智能。這可能是由于“人工智能”這個名稱中含有“智能”一詞。
但是智能是什么意思呢?智能是生物體獨(dú)有的一種特征,其定義是獲取并運(yùn)用知識和技能的一種能力。這意味著智能使生物體能夠與周圍環(huán)境相互作用,從而學(xué)會如何生存。
另一方面,AI是一種機(jī)器模擬,旨在模仿這種自然智能的某些方面。我們接觸的大多數(shù)AI應(yīng)用程序(尤其是在商業(yè)和在線平臺領(lǐng)域)都依賴機(jī)器學(xué)習(xí)。
這些是專門的AI系統(tǒng),使用大量數(shù)據(jù)進(jìn)行特定任務(wù)的訓(xùn)練。它們擅長完成指定的任務(wù),無論是玩游戲、翻譯語言還是識別圖像。
然而一旦超出其預(yù)期范圍,它們通常是無用的……在一系列任務(wù)中擁有類似人類智能的AI這個概念被稱為通用AI,我們離實(shí)現(xiàn)這個里程碑事件還很遙遠(yuǎn)。
2. 始終越大越好
科技巨頭們常常競相吹噓自家的AI模型的規(guī)模有多龐大。
Llama 2開源LLM以強(qiáng)大的700億參數(shù)版本讓世人感到驚訝,而谷歌的Palma擁有5400億參數(shù),OpenAI最近發(fā)布的ChatGPT4更是擁有1.8萬億參數(shù)。
然而,LLM的成百上千億個參數(shù)不一定意味著有更好的性能。數(shù)據(jù)的質(zhì)量和訓(xùn)練方法常常是決定模型性能和準(zhǔn)確性的更關(guān)鍵因素。斯坦福大學(xué)的Alpaca實(shí)驗(yàn)已經(jīng)證明了這點(diǎn),一個簡單的使用70億參數(shù)的基于Llama的LLM其性能可以與多達(dá)1760億參數(shù)的ChatGPT 3.5相媲美。
所以并非始終是越大就越好!優(yōu)化LLM的大小及其相應(yīng)性能將使這些模型在本地得到更廣泛的使用,并讓我們可以將它們集成到日常設(shè)備中。
3. AI毫無透明度和問責(zé)制可言
一個常見的誤解是,AI是神秘的黑盒子,缺乏任何透明度。實(shí)際上,雖然AI系統(tǒng)可能很復(fù)雜,仍然相當(dāng)不透明,但業(yè)界正在努力提高其透明度和問責(zé)制。
監(jiān)管機(jī)構(gòu)要求有道德、負(fù)責(zé)任地使用AI?!端固垢H斯ぶ悄芡该鞫葓蟾妗泛汀稓W洲人工智能法案》等重要舉措旨在促使企業(yè)提高AI透明度,并為各國政府在這個新興領(lǐng)域制定法規(guī)提供基礎(chǔ)。
透明AI已成為AI社區(qū)的一個核心討論話題,涵蓋眾多問題,比如允許個人確定AI模型全面測試的流程和理解AI決策背后基本原理的流程。
這就是為什么全球各地的數(shù)據(jù)專業(yè)人士已經(jīng)在研究使AI模型更加透明的方法。
所以雖然這個謊言可能部分正確,但顯然不能作為常識。
4. AI一貫正確
許多人認(rèn)為AI系統(tǒng)是完美的,不會出錯。事實(shí)絕非如此。與任何系統(tǒng)一樣,AI的表現(xiàn)取決于其訓(xùn)練數(shù)據(jù)的質(zhì)量。這些數(shù)據(jù)常常是由人類創(chuàng)建或管理的。如果這些數(shù)據(jù)含有偏見,AI系統(tǒng)會在不經(jīng)意間將偏見固化下來。
麻省理工學(xué)院(MIT)的一個團(tuán)隊(duì)分析了多個廣泛使用的預(yù)訓(xùn)練語言模型后發(fā)現(xiàn),將性別與某些職業(yè)和情緒關(guān)聯(lián)時存在明顯的偏見。比如說,空姐或秘書等角色主要與女性特質(zhì)聯(lián)系在一起,而律師和法官與男性特質(zhì)聯(lián)系在一起。該團(tuán)隊(duì)在情感方面觀察到了同樣的行為。
其他發(fā)現(xiàn)的偏見與種族有關(guān)。隨著LLM進(jìn)入醫(yī)療保健領(lǐng)域,有人開始擔(dān)心,它們可能會承襲基于種族的有害的醫(yī)療實(shí)踐,反映出訓(xùn)練數(shù)據(jù)中固有的偏見。
人工干預(yù)至關(guān)重要,需要監(jiān)督和糾正這些缺點(diǎn),確保AI的可靠性。關(guān)鍵在于使用具有代表性、無偏見的數(shù)據(jù),并進(jìn)行算法審計(jì)以消除這些偏見。
5. AI嚴(yán)重沖擊就業(yè)市場
最普遍的擔(dān)憂之一是,AI將導(dǎo)致大規(guī)模失業(yè)。
然而歷史表明,雖然技術(shù)可能會淘汰某些工作,但同時也會造就新的行業(yè)和機(jī)會。
比如說,世界經(jīng)濟(jì)論壇預(yù)測,雖然到2025年AI可能會取代8500萬個工作崗位,但也將創(chuàng)造9700萬個新崗位。
6. AI主宰人類
最后一個謊言也是最反烏托邦的。以《黑客帝國》和《終結(jié)者》等電影為代表的流行文化描繪了AI可能奴役人類的可怕場景。
盡管Elon Musk和Stephen Hawking等頗有影響力的人物表達(dá)了擔(dān)憂,但AI的現(xiàn)狀遠(yuǎn)非這種反烏托邦的形象。今天的AI模型(比如ChatGPT)是為了協(xié)助完成特定的任務(wù)而設(shè)計(jì)的,不具備科幻作品中描述的能力或動機(jī)。
所以現(xiàn)在,我們?nèi)允前踩模?/p>
主要結(jié)論
總之,隨著AI不斷發(fā)展并融入到我們的日常生活中,辨別真?zhèn)沃陵P(guān)重要。
只有有了清晰的認(rèn)識,我們才能充分利用AI的潛力,負(fù)責(zé)任地應(yīng)對其挑戰(zhàn)。
謊言會影響判斷,阻礙進(jìn)步。
只有對AI的實(shí)際范圍有清晰的了解,我們才可以向前邁進(jìn),確保這項(xiàng)技術(shù)服務(wù)于人類。