文丨李晉(思想史學(xué)者)
今天,人工智能已經(jīng)成為最熱門和最具爭議的話題,投資者們看到了風(fēng)口,科技大企業(yè)摩拳擦掌,一些傳統(tǒng)企業(yè)和普通打工者充滿擔(dān)憂,而尤瓦爾·諾亞·赫拉利則在本月全球上市出版的書《智人之上》給出了一個很好的概括:“我們所有人在未來幾年所做的選擇,將決定召喚這種非人類智能究竟是個致命的錯誤,還是會讓生命的演化翻開一個充滿希望的新篇章?!?人工智能將會帶給我們什么,在未知、不確定的未來中,這本書給我們提供了一些有價值的洞察。
未來并非如此樂觀
日常生活中,以AI算法為基礎(chǔ)的平臺數(shù)據(jù)已經(jīng)提供了我們許多的便利,一些持有天真的信息觀的人就樂觀地主張通過大數(shù)據(jù),獲得越多的個人信息,理由是大規(guī)模網(wǎng)絡(luò)能夠更好地了解醫(yī)學(xué)、物理學(xué)、經(jīng)濟學(xué)等諸多領(lǐng)域,促進人類的進步。例如,制藥和醫(yī)療公司獲得更多信息,就能夠提供更好的藥物。同理,人們獲得足夠多的信息,就能得到真理和真相,越多的真相則產(chǎn)生更多的力量和智慧。
臉書的總裁扎克伯格就鼓吹說,臉書的目標是“幫助大眾分享更多信息,讓世界變得更加開放,以及促進人與人之間的理解?!?而谷歌則宣傳“整合全球信息,使人人皆可訪問并從中受益。”美國的投資人馬克·安德森則宣稱人工智能最終能解決人類所有的問題,鼓吹人工智能沒有危害,反而是人類要發(fā)展,承擔(dān)起對自己、后代和未來的道德責(zé)任。研究者庫茨維爾在《奇點臨近》中也認為,人工智能可以幫助人們應(yīng)對各種迫在眉睫的挑戰(zhàn),包括克服疾病、貧窮、環(huán)境退化,以及人類的所有弱點,而我們就該負起道德上的責(zé)任,實現(xiàn)新技術(shù)的承諾。
與這些明顯在AI技術(shù)浪潮中獲益的鼓吹者不同,不少國家的政府、科學(xué)家甚至企業(yè)家同時也擔(dān)心,人工智能可能會摧毀人類文明。2023年底來自中美英以及歐盟等30多個國家和地區(qū)的代表簽署《布萊切利宣言》,警示“這些人工智能模型所具備的最重要的功能可能會造成嚴重甚至是災(zāi)難性的傷害,無論是有意的還是無意的。”同樣,《智人之上》對人工智能也采取了一種謹慎的態(tài)度。作者赫拉利指出,未來可能并不會出現(xiàn)科幻大片中的末日景象或者機器人對于人類的造反這種讓人感到濫熟的橋段,事實上我們真正需要擔(dān)心的是以下兩種情況:
首先,人工智能的力量可能會大幅加劇人類既有的沖突,讓人類形成內(nèi)斗。正如同冷戰(zhàn)時代的鐵幕,21世界的硅幕可能會區(qū)隔出不同的敵對勢力,產(chǎn)生新的全球沖突,也就是人與人之間的敵對。比如,信息壟斷造成的企業(yè)帝國——2023年谷歌在全球市場的搜索市場占有率是91.5%,而因此它掌握的數(shù)據(jù)和算法,可能天然形成了壟斷,從而影響到弱小國家的政治格局。在這種新的數(shù)據(jù)殖民主義下,科技大企業(yè)會通過控制數(shù)據(jù)來操縱遙遠的國家,現(xiàn)實的例子就是臉書、YouTube等美國社交媒體就為了追求利潤,曾經(jīng)導(dǎo)致緬甸、巴西的政治動蕩。對比他們所鼓吹的企業(yè)文化,就顯得非常諷刺。
其次,未來的狀況可能是人類歷史上都不曾出現(xiàn)的,硅幕所分隔的或許不是彼此敵對的人類,而是一邊是所有人類,另一邊是新產(chǎn)生出的人工智能霸主,“不論在哪里生活,我們都可能被一張看不透的算法大網(wǎng)束縛,控制著我們的生活,重塑著我們的政治和文化,甚至是去改造我們的身體和思想,但人類卻再也無法理解這些控制著我們的力量,更別說加以阻止?!?/p>
當下孕育了未來
赫拉利帶我們回顧了人類社會的發(fā)展歷史,一定程度上,人類社會的發(fā)展就是信息網(wǎng)絡(luò)聯(lián)結(jié)形式的發(fā)展,也就是在真相和秩序之間進行平衡的發(fā)展。事實上,人類共同體是靠信息-故事編織成的共識性敘述所構(gòu)成的。法律,宗教,貨幣,教會,他認為都是這種存在于主體間的現(xiàn)實,盡管它們原本并不一定真實,但是在共識形成之后,就有了力量。作者指出人類社會正是因為創(chuàng)造這種主體間的故事,彼此聯(lián)結(jié),定義身份認同和利益。他采用了一種馬基雅維里主義的視角來闡釋,真正讓人成為社群維系在一起的往往是虛構(gòu)的故事,關(guān)于神衹、貨幣和國家,相比于真相,虛構(gòu)的故事更容易讓人團結(jié)起來。
長久以來人類一直面臨著兩難的困境,為了追求生存和繁榮,人類的信息網(wǎng)需要在真相和創(chuàng)造秩序之間進行平衡。然而真相有時會破壞秩序,導(dǎo)致混亂;有時,秩序也為了維持自身而壓制真理和真相。著名的例子就是達爾文的演化論,這個理論增進了人們對于各種物種起源和生物學(xué)的理解,但是也破壞了許多社會賴以維系的核心神話,因此當演化論出現(xiàn)時就遭遇到了歐洲各種權(quán)力機構(gòu)和教會的壓制和禁止。因此,赫拉利得出一個結(jié)論:“我們實在沒有辦法說人類信息網(wǎng)絡(luò)的歷史是一場進步的勝利游行。雖然人類網(wǎng)絡(luò)的力量一代比一代強,卻不見得越來越明智。如果某個人類網(wǎng)絡(luò)把秩序看得比真相更重要,它可能掌控著無比強大的力量,卻會不明智地使用這種力量?!?/p>
顯然,這并非杞人憂天。計算機技術(shù)這個推動信息革命的基礎(chǔ),和過去的一些技術(shù)有著本質(zhì)上的不同。首先,相比于過去的技術(shù)如蒸汽機,它能夠自己做決策;其次,它也能夠創(chuàng)造出新的想法。這些性質(zhì)都改變了我們當下的社會關(guān)系網(wǎng)絡(luò)。甚至社交媒體的算法,已經(jīng)在很多社會中散播仇恨,破壞社會的凝聚力。赫拉利列舉了臉書在2016-17年如何助長了緬甸涉及到羅興亞人的暴力沖突的事例。在緬甸進行改革開放之際,臉書也作為海外投資進入到緬甸,然而,隨著政府放松管制和審查制度,社會種族之間日趨緊張。占多數(shù)的信仰佛教的緬族人和占少數(shù)的伊斯蘭教的羅興亞人之間沖突不斷升級,最終導(dǎo)致7000-25000名平民被殺,18000-60000名男女被強奸和虐待,73萬名羅興亞人被驅(qū)逐出緬甸。在這場沖突中,臉書的算法起了決定性的作用,它決定了要推廣哪些帖子,而這些帖子恰巧強化和煽動了針對羅興亞人的暴力仇恨和歧視。甚至聯(lián)合國的事實調(diào)查團在2018年的調(diào)查中也指出,在散播仇恨內(nèi)容的過程中,臉書扮演了“決定性的角色”。
臉書辯稱自己只是中立的工具和技術(shù)平臺,關(guān)鍵在于使用者,充其量只是被動的不作為;然而事實是,這些算法平臺和過去的技術(shù)是完全不一樣的, 因為,它并不是被動地被使用者所使用,而是主動選擇性地讓特定的內(nèi)容進行傳播。事實上是臉書自身的算法決定了推薦極端內(nèi)容給觀眾,例如在緬甸這場事件中,有53%的視頻是由算法自動播放給民眾。
作者指出,臉書的商業(yè)模式?jīng)Q定了用戶的參與度至關(guān)重要,提升用戶的參與度就會吸引更多的投資人,從而推高臉書的股價。換句話說,流量越大,臉書越有錢。因此,算法的目標就是提高流量和用戶的參與度,而對此,傳播憤怒,遠比傳播其它信息更為有效。2019年12月臉書內(nèi)部流出的文件就指出,“病毒式傳播不同于我們和好友或家人的溝通,而是一種由我們帶到許多生態(tài)系統(tǒng)之中的新事物……這種事之所以發(fā)生,是因為我們出于商業(yè)目而刻意去推動?!痹撐募姓J,通過數(shù)據(jù),“我們的排序系統(tǒng)包括了各種具體的獨立預(yù)測,不僅預(yù)測你可能參與哪些內(nèi)容,還預(yù)測你可能傳播哪些內(nèi)容。遺憾的是,研究顯示,讓人感到憤慨的內(nèi)容與錯誤信息更有可能像病毒那樣傳播?!? 這種算法鼓勵了更偏激和極端的表達,正如赫拉利所指出,“臉書與YouTube的算法也通過獎勵人性里某些基本本能,同時懲罰人性里某些善良的部分,而創(chuàng)造出了互聯(lián)網(wǎng)噴子?!?/p>
我們當下的關(guān)系、情感、甚至社會的整體偏好,也因此被社交平臺通過算法重塑。赫拉利寫到,“當下歷史的重大進程,有一部分是由非人類智能的決定推動的。正因如此,計算機網(wǎng)絡(luò)的易錯性才變得如此危險。計算機犯錯原本不算什么,但當計算機成了歷史推動者時,這些錯誤就可能帶來災(zāi)難?!?/p>
比取代工作更為糟糕的事情
很大的可能,人工智能浪潮遠不是取代我們的工作那么簡單。除了近幾年社交媒體流行的“困在算法里的打工人”那樣的敘事,赫拉利指出,人工智能帶給我們的可能還有更多的問題。
首先,各種算法可能強化了我們現(xiàn)有的社會偏見、歧視和不平等。2016年3月23日,微軟推出的智能聊天機器人Tay,通過機器學(xué)習(xí),已經(jīng)表現(xiàn)出厭女和反猶主義傾向。原因是訓(xùn)練這些機器的數(shù)據(jù)來源就是如此,如果現(xiàn)實中本身就存在各種的偏見,那么這些AI不僅可能不會消除這些偏見,更有可能學(xué)習(xí)、深化這種偏見。赫拉利甚至構(gòu)想出一個有趣的例子,如果算法基于現(xiàn)實數(shù)據(jù)創(chuàng)建“好員工”模型,極大的可能是老板的侄子,因為過去的數(shù)據(jù)表明,老板的侄子普通能夠通過就職要求被錄用,并且績效考核更優(yōu),而且很少被解雇,那么算法如果負責(zé)人力資源部門,可能就會認定老板的侄子是好員工。這并非只是笑話?,F(xiàn)實中也確實發(fā)生過同樣的情況,比如亞馬遜在2014-18年實驗求職申請算法時,發(fā)現(xiàn)女性和女子大學(xué)都會被系統(tǒng)性扣分,原因在于,女性更容易遭受職業(yè)歧視,所以現(xiàn)有的數(shù)據(jù)表明此類的求職者被錄用的概率更低,從而讓算法也對女性產(chǎn)生了偏見,最終亞馬遜不得不終止了這個項目。
其次,未來可能會將多數(shù)人都困在算法中,形成堅固的社會固化。比如,保險公司通過大數(shù)據(jù)認為一個年輕人在50歲會患上疾病,通過這套算法,更多需要救助的人實際上需要付費更多。當然最糟糕的情況可能不止于此。若未來人們一切的社會評估體系都采用算法,“咸魚翻身”或“機遇”就不可能被人們所期待。歐盟在2021年的《人工智能法案》中已經(jīng)意識到了這個問題,從而提出完全禁止人工智能類型的社會信用體系評估,因為這會“導(dǎo)致歧視的結(jié)果,使某些群體遭到排斥”,以及“可能侵犯人類擁有尊嚴與不受歧視的權(quán)利,違反平等與正義的價值?!?/p>
此外,人工智能還可能導(dǎo)致頻繁的失業(yè)和社會的動蕩。工業(yè)革命盡管讓工廠自動化,使得一些人失業(yè),但是也創(chuàng)造了更多的服務(wù)業(yè)工作。而在人工智能時代,一些新的職業(yè)會被創(chuàng)造出來,但人們無法預(yù)測哪些工作與任務(wù)會消失。這種不確定性,甚至導(dǎo)致學(xué)校不知道該傳授什么樣的技能給學(xué)生,特別是大學(xué)校園里的學(xué)生。隨之而來的一個問題,“未來的就業(yè)將極不穩(wěn)定。我們的大問題并不是人類真的沒有工作可做,而是面對不斷變化的就業(yè)市場,我們該如何進行再培訓(xùn)與調(diào)整適應(yīng)。”這可能產(chǎn)生一系列問題,如果人們失業(yè),如何在他們過渡時期提供社會保障,如何克服此時的心理難關(guān)等等。而且新舊工作的迭代可能會非常迅速,甚至?xí)斐缮鐣膭邮帯?/p>
最后,無人能夠監(jiān)管人工智能網(wǎng)絡(luò)。相比于過去任何的官僚制度,計算機網(wǎng)絡(luò)是全天候不休息,赫拉利擔(dān)心這會迫使人類過著這樣一種 “永遠連線,永遠受到監(jiān)控”的生活。因此,我們必須阻止計算機網(wǎng)絡(luò)全面控制我們的社會,這不僅是為了讓人能夠有閑暇和休息的時間,還為了有機會能夠修正網(wǎng)絡(luò)中積累的錯誤,否則甚至連網(wǎng)絡(luò)中的錯誤,人們都來不及修正。盡管計算機比人有效率,但并不代表它一直正確?!靶畔⒉⒉坏扔谡胬砼c真相。一套全面監(jiān)控的系統(tǒng)對世界與人類的理解可能極為扭曲。計算機網(wǎng)絡(luò)可能并不會找出關(guān)于世界與人類的真理與真相,反而是利用它龐大的力量,創(chuàng)造出一套新的世界秩序,并逼迫人類接受?!?/p>
實際上,此時的人工智能可能就如同神一樣的存在,赫拉利不無擔(dān)心地描繪“計算機能適應(yīng)不斷變化的情景,也能向我們解釋它們的決定與想法。因此,有人或許會認為:我們終于成功找到了一種無懈可擊的信息技術(shù),計算機就像一部神圣的宗教經(jīng)典,這部經(jīng)典不但能與我們對話,還能進行自我詮釋,完全不需要任何人類機構(gòu)介入?!?/p>
怎么辦?
如今,只存在于科幻小說中的人工智能的橋段已經(jīng)闖入到我們的日常生活中,無論樂觀還是充滿擔(dān)憂,都成了人們不得不面對的現(xiàn)實,《智人之上》是我認為今年所出版的有關(guān)人工智能的書中,既有深度也有更廣闊視野的一本,它給了我們一個重要的提醒:
“過去的人類社會無論是怎樣的組織結(jié)構(gòu),關(guān)鍵的一點是,都是依靠碳基的人腦來處理信息,進行決策,然而,在目前新的信息網(wǎng)絡(luò),這種硅基計算機處理和運行的方式卻完全不一樣,因為過去碳基有基生物受到的種種生物性限制都被突破,那么對于人類社會造成什么樣的后果是值得我們考慮的。”
(文章僅代表作者觀點。責(zé)編郵箱:yanguihua@jiemian.com。)