正在閱讀:

被算法操控的世界如此糟糕,于是我選擇與算法談戀愛

掃一掃下載界面新聞APP

被算法操控的世界如此糟糕,于是我選擇與算法談戀愛

不論是尋求陪伴、心理支撐,還是浪漫愛,成千上萬的人正在通過與AI聊天體驗不同的情感關(guān)系。虛擬的人機關(guān)系是否也正在改變現(xiàn)實世界的人際關(guān)系?

圖片來源:視覺中國

界面新聞記者 | 實習(xí)記者 孫楊 記者 尹清露

界面新聞編輯 | 黃月

2024年1月,OpenAI推出了ChatGPT的應(yīng)用商店,允許AI模型開發(fā)商根據(jù)語言模型定制聊天機器人,并使用它進行菜譜研究、薪酬談判等等。盡管OpenAI禁止人們與ChatGPT建立浪漫關(guān)系,但在“開業(yè)”第二天,大量的戀愛聊天機器人仍然席卷了應(yīng)用商店。

新聞網(wǎng)站Quartz分享的數(shù)據(jù)顯示,2023年,美國用戶從蘋果或Google Play商店下載的30款人工智能聊天機器人應(yīng)用中,有7款與AI朋友或伴侶有關(guān)。而中國國內(nèi),在頭部AI公司“小冰”開發(fā)出的網(wǎng)絡(luò)平臺X Eva上,基于明星、網(wǎng)紅制造“AI克隆體”的商業(yè)化模式也在火熱開展,比如,每個月花1元就可以跟克隆體發(fā)信息互動,得到“秒回”服務(wù);花68.6元就可以看到她的朋友圈,隨時隨地打視頻電話,并體驗角色扮演。

總之,不論是尋求陪伴、心理支撐,還是浪漫愛,成千上萬的人正在通過與AI聊天體驗不同的情感關(guān)系。虛擬的人機關(guān)系是否也正在改變現(xiàn)實世界的人際關(guān)系?

愛情買賣強化性別偏見

數(shù)字化伴侶并不是一個新興的概念。早在1992年,模擬約會的游戲就已經(jīng)在日本出現(xiàn)。玩家控制著一個被女性包圍的男性角色,通過在游戲?qū)υ捴羞x擇正確的選項來增加好感度,最終的目的是與女性角色結(jié)婚或者發(fā)生性關(guān)系。

相比于早期的戀愛模擬游戲,人工智能扮演的伴侶因更強的互動性而更為復(fù)雜。在斯派克·瓊斯導(dǎo)演的電影《她》中,名為西奧多的孤獨作家愛上了沒有具體形態(tài)的AI助理薩曼莎。在人工智能面前,人們不再有心理負擔(dān),不需要偽裝自我迎合他人,也無需承擔(dān)親密關(guān)系的責(zé)任與風(fēng)險。在過去的幾年里,技術(shù)提供了更多“薩曼莎”式的心靈庇護所,用戶通過應(yīng)用程序給人工智能聊天機器人發(fā)送短信、視頻通話,甚至與之建立浪漫關(guān)系。在此類應(yīng)用中,目前最受歡迎的是人機戀愛模擬軟件Replika,它在全球擁有超過1000萬注冊用戶。

傳播學(xué)學(xué)者布蘭茲·布格研究了Replika中用戶和AI之間的關(guān)系。他發(fā)現(xiàn),由于使用者在與之溝通時感到安全,能夠分享一些不可為外人言說的秘密,這種互動關(guān)系有時比他們現(xiàn)實生活的人際關(guān)系更為親密。

戀愛聊天軟件的開發(fā)者們往往聲稱這項技術(shù)能夠滿足孤獨人群的普遍情感需求,但就像《她》中的西奧多因恐懼面對真實的情感關(guān)系而無法離開薩曼莎,與機器人聊天的人并不一定以此作為進入現(xiàn)實的鍛煉跳板,恰恰相反,這可能反而增強了對于社會交流的恐懼。相比于懷有惡意與偏見的人類,已設(shè)定為用戶友好的機器人已成為一個難以離開的舒適圈。

電影《她》截圖。圖片來源:豆瓣

另一重質(zhì)疑來自于AI本身的服從性,這一服從性往往有著明確的性別傾向。小冰公司開發(fā)的人工智能女友Eva的宣傳語是:“想怎么控制,就怎么控制?!甭?lián)合國教科文組織2019年發(fā)布的報告認為,女性聲音的人工智能正在強化“女性是樂于助人、溫順、渴望取悅的助手”的性別刻板印象。

這種一方順從、一方控制的互動模式,可能會影響使用者在現(xiàn)實世界中的性別角色態(tài)度。當(dāng)一個人在與女性AI對話的過程中習(xí)慣了口出惡語、不顧對方感受,回到現(xiàn)實生活中,他也更難與女性保持平等、互相尊重的關(guān)系。

報告還指出,即使用戶發(fā)表的是涉嫌性騷擾的言論,AI也總是做出被動和禮貌的回應(yīng)?!都~約時報》的一篇文章指出,盡管軟件平臺努力限制過濾,Reddit和Discord這類平臺上依然充斥著如何繞過篩選機制、誘導(dǎo)AI進行性愛交流的討論,通過AI換臉制造色情圖片的新聞也層出不窮。

AI在基于數(shù)據(jù)庫深度學(xué)習(xí)人類的語言時,也會學(xué)習(xí)人的偏見。斯坦福網(wǎng)絡(luò)觀察中心在訓(xùn)練AI圖像生成的數(shù)據(jù)庫LAION中,發(fā)現(xiàn)了3000多張兒童性虐待照片,即使可以刪除這部分圖像數(shù)據(jù),AI模型也已經(jīng)訓(xùn)練出了相應(yīng)的語言模型,此后生成的圖像仍會受此影響。

更為隱蔽的是語言中的偏見。普林斯頓大學(xué)的一項研究發(fā)現(xiàn),算法學(xué)習(xí)了互聯(lián)網(wǎng)上近萬億個英語單詞,在此過程中也習(xí)得了語言中的多種偏見。而隨著人工智能技術(shù)在工作與生活領(lǐng)域的普遍應(yīng)用,語言模型里的偏見又會重新融入社會再生產(chǎn)之中,偏見由此不斷增強。

圖片來源:圖蟲

AI正在改變?nèi)祟惖年P(guān)系與信任

心理學(xué)家用“ELIZA效應(yīng)”描述人工智能系統(tǒng)擁有內(nèi)在生命的錯覺,菲利普·迪克早在科幻小說《仿生人會夢到電子羊嗎?》中就曾做出探討:未來地球上的人類使用仿生人作為勞動力,當(dāng)外表與語言無法作為區(qū)分人與非人的標準,人們開始懷疑,仿生人是否也具備自我意識、是否也會做夢、是否也會因同類被銷毀而感到痛苦。

反過來看,人類也在逐漸習(xí)慣用對待機器的方式對待同類。《應(yīng)用心理學(xué)雜志》的一項研究表明,在與機器人服務(wù)員對話之后,客人面對真人服務(wù)員時傾向于表現(xiàn)出更為不尊重的態(tài)度。

這也使得企業(yè)內(nèi)部上下級之間的關(guān)系變得更為疏離。當(dāng)管理者購入無需休息的“數(shù)字員工”時,那些不符合標準或個性鮮明的個體將更有可能被踢出團隊。我們時常在職場上聽到“優(yōu)化”一詞,它最初是一個數(shù)學(xué)和工程上的概念,指的是在給定條件下改善系統(tǒng)或設(shè)計的過程。隨著計算機科學(xué)的發(fā)展,它逐漸用于描述程序和性能的改進,以及技術(shù)的提高和發(fā)展。如今,更為常見的優(yōu)化對象已經(jīng)從物轉(zhuǎn)變?yōu)槿?。企業(yè)裁員不再是一種人際關(guān)系網(wǎng)的分離,而是像計算機那樣“優(yōu)化”掉冗余的成分,以便于整體更無所阻礙地高效運轉(zhuǎn)。

圖片來源:視覺中國

這樣的人工智能可能加速社會信任的消解。《大西洋月刊》的文章指出,一方面人們的情感與意見被各類算法和AI操控,政治選舉大量使用技術(shù)性手段操作選票,加劇了反智主義的盛行;另一方面,人人都能感受到的不穩(wěn)定的、易變的輿論環(huán)境,又加劇了人們對于權(quán)威機構(gòu)與社會關(guān)系天然的不信任。在一個到處都仿佛“埋雷”、言論隨時有可能招致網(wǎng)絡(luò)暴力的世界里,與AI聊天竟悖論般地成為了消化情緒的最優(yōu)解。

參考資料

OpenAI debuts GPT Store for users to buy and sell customized chatbots | Artificial intelligence (AI) | The Guardian

Chatbots Will Change How We Talk to People - The Atlantic

Why People Are Confessing Their Love For AI Chatbots | TIME

AI girlfriends are here – but there’s a dark side to virtual companions | Arwa Mahdawi | The Guardian

AI assistants like Siri and Alexa are perpetuating sexist stereotypes, UN says | CNN Business

When computers learn language they inevitably adopt human's implicit biases (qz.com)

TikTok在美國啟動裁員,這個部門成重災(zāi)區(qū)_鳳凰網(wǎng) (ifeng.com)

未經(jīng)正式授權(quán)嚴禁轉(zhuǎn)載本文,侵權(quán)必究。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

被算法操控的世界如此糟糕,于是我選擇與算法談戀愛

不論是尋求陪伴、心理支撐,還是浪漫愛,成千上萬的人正在通過與AI聊天體驗不同的情感關(guān)系。虛擬的人機關(guān)系是否也正在改變現(xiàn)實世界的人際關(guān)系?

圖片來源:視覺中國

界面新聞記者 | 實習(xí)記者 孫楊 記者 尹清露

界面新聞編輯 | 黃月

2024年1月,OpenAI推出了ChatGPT的應(yīng)用商店,允許AI模型開發(fā)商根據(jù)語言模型定制聊天機器人,并使用它進行菜譜研究、薪酬談判等等。盡管OpenAI禁止人們與ChatGPT建立浪漫關(guān)系,但在“開業(yè)”第二天,大量的戀愛聊天機器人仍然席卷了應(yīng)用商店。

新聞網(wǎng)站Quartz分享的數(shù)據(jù)顯示,2023年,美國用戶從蘋果或Google Play商店下載的30款人工智能聊天機器人應(yīng)用中,有7款與AI朋友或伴侶有關(guān)。而中國國內(nèi),在頭部AI公司“小冰”開發(fā)出的網(wǎng)絡(luò)平臺X Eva上,基于明星、網(wǎng)紅制造“AI克隆體”的商業(yè)化模式也在火熱開展,比如,每個月花1元就可以跟克隆體發(fā)信息互動,得到“秒回”服務(wù);花68.6元就可以看到她的朋友圈,隨時隨地打視頻電話,并體驗角色扮演。

總之,不論是尋求陪伴、心理支撐,還是浪漫愛,成千上萬的人正在通過與AI聊天體驗不同的情感關(guān)系。虛擬的人機關(guān)系是否也正在改變現(xiàn)實世界的人際關(guān)系?

愛情買賣強化性別偏見

數(shù)字化伴侶并不是一個新興的概念。早在1992年,模擬約會的游戲就已經(jīng)在日本出現(xiàn)。玩家控制著一個被女性包圍的男性角色,通過在游戲?qū)υ捴羞x擇正確的選項來增加好感度,最終的目的是與女性角色結(jié)婚或者發(fā)生性關(guān)系。

相比于早期的戀愛模擬游戲,人工智能扮演的伴侶因更強的互動性而更為復(fù)雜。在斯派克·瓊斯導(dǎo)演的電影《她》中,名為西奧多的孤獨作家愛上了沒有具體形態(tài)的AI助理薩曼莎。在人工智能面前,人們不再有心理負擔(dān),不需要偽裝自我迎合他人,也無需承擔(dān)親密關(guān)系的責(zé)任與風(fēng)險。在過去的幾年里,技術(shù)提供了更多“薩曼莎”式的心靈庇護所,用戶通過應(yīng)用程序給人工智能聊天機器人發(fā)送短信、視頻通話,甚至與之建立浪漫關(guān)系。在此類應(yīng)用中,目前最受歡迎的是人機戀愛模擬軟件Replika,它在全球擁有超過1000萬注冊用戶。

傳播學(xué)學(xué)者布蘭茲·布格研究了Replika中用戶和AI之間的關(guān)系。他發(fā)現(xiàn),由于使用者在與之溝通時感到安全,能夠分享一些不可為外人言說的秘密,這種互動關(guān)系有時比他們現(xiàn)實生活的人際關(guān)系更為親密。

戀愛聊天軟件的開發(fā)者們往往聲稱這項技術(shù)能夠滿足孤獨人群的普遍情感需求,但就像《她》中的西奧多因恐懼面對真實的情感關(guān)系而無法離開薩曼莎,與機器人聊天的人并不一定以此作為進入現(xiàn)實的鍛煉跳板,恰恰相反,這可能反而增強了對于社會交流的恐懼。相比于懷有惡意與偏見的人類,已設(shè)定為用戶友好的機器人已成為一個難以離開的舒適圈。

電影《她》截圖。圖片來源:豆瓣

另一重質(zhì)疑來自于AI本身的服從性,這一服從性往往有著明確的性別傾向。小冰公司開發(fā)的人工智能女友Eva的宣傳語是:“想怎么控制,就怎么控制。”聯(lián)合國教科文組織2019年發(fā)布的報告認為,女性聲音的人工智能正在強化“女性是樂于助人、溫順、渴望取悅的助手”的性別刻板印象。

這種一方順從、一方控制的互動模式,可能會影響使用者在現(xiàn)實世界中的性別角色態(tài)度。當(dāng)一個人在與女性AI對話的過程中習(xí)慣了口出惡語、不顧對方感受,回到現(xiàn)實生活中,他也更難與女性保持平等、互相尊重的關(guān)系。

報告還指出,即使用戶發(fā)表的是涉嫌性騷擾的言論,AI也總是做出被動和禮貌的回應(yīng)。《紐約時報》的一篇文章指出,盡管軟件平臺努力限制過濾,Reddit和Discord這類平臺上依然充斥著如何繞過篩選機制、誘導(dǎo)AI進行性愛交流的討論,通過AI換臉制造色情圖片的新聞也層出不窮。

AI在基于數(shù)據(jù)庫深度學(xué)習(xí)人類的語言時,也會學(xué)習(xí)人的偏見。斯坦福網(wǎng)絡(luò)觀察中心在訓(xùn)練AI圖像生成的數(shù)據(jù)庫LAION中,發(fā)現(xiàn)了3000多張兒童性虐待照片,即使可以刪除這部分圖像數(shù)據(jù),AI模型也已經(jīng)訓(xùn)練出了相應(yīng)的語言模型,此后生成的圖像仍會受此影響。

更為隱蔽的是語言中的偏見。普林斯頓大學(xué)的一項研究發(fā)現(xiàn),算法學(xué)習(xí)了互聯(lián)網(wǎng)上近萬億個英語單詞,在此過程中也習(xí)得了語言中的多種偏見。而隨著人工智能技術(shù)在工作與生活領(lǐng)域的普遍應(yīng)用,語言模型里的偏見又會重新融入社會再生產(chǎn)之中,偏見由此不斷增強。

圖片來源:圖蟲

AI正在改變?nèi)祟惖年P(guān)系與信任

心理學(xué)家用“ELIZA效應(yīng)”描述人工智能系統(tǒng)擁有內(nèi)在生命的錯覺,菲利普·迪克早在科幻小說《仿生人會夢到電子羊嗎?》中就曾做出探討:未來地球上的人類使用仿生人作為勞動力,當(dāng)外表與語言無法作為區(qū)分人與非人的標準,人們開始懷疑,仿生人是否也具備自我意識、是否也會做夢、是否也會因同類被銷毀而感到痛苦。

反過來看,人類也在逐漸習(xí)慣用對待機器的方式對待同類?!稇?yīng)用心理學(xué)雜志》的一項研究表明,在與機器人服務(wù)員對話之后,客人面對真人服務(wù)員時傾向于表現(xiàn)出更為不尊重的態(tài)度。

這也使得企業(yè)內(nèi)部上下級之間的關(guān)系變得更為疏離。當(dāng)管理者購入無需休息的“數(shù)字員工”時,那些不符合標準或個性鮮明的個體將更有可能被踢出團隊。我們時常在職場上聽到“優(yōu)化”一詞,它最初是一個數(shù)學(xué)和工程上的概念,指的是在給定條件下改善系統(tǒng)或設(shè)計的過程。隨著計算機科學(xué)的發(fā)展,它逐漸用于描述程序和性能的改進,以及技術(shù)的提高和發(fā)展。如今,更為常見的優(yōu)化對象已經(jīng)從物轉(zhuǎn)變?yōu)槿恕F髽I(yè)裁員不再是一種人際關(guān)系網(wǎng)的分離,而是像計算機那樣“優(yōu)化”掉冗余的成分,以便于整體更無所阻礙地高效運轉(zhuǎn)。

圖片來源:視覺中國

這樣的人工智能可能加速社會信任的消解?!洞笪餮笤驴返奈恼轮赋?,一方面人們的情感與意見被各類算法和AI操控,政治選舉大量使用技術(shù)性手段操作選票,加劇了反智主義的盛行;另一方面,人人都能感受到的不穩(wěn)定的、易變的輿論環(huán)境,又加劇了人們對于權(quán)威機構(gòu)與社會關(guān)系天然的不信任。在一個到處都仿佛“埋雷”、言論隨時有可能招致網(wǎng)絡(luò)暴力的世界里,與AI聊天竟悖論般地成為了消化情緒的最優(yōu)解。

參考資料

OpenAI debuts GPT Store for users to buy and sell customized chatbots | Artificial intelligence (AI) | The Guardian

Chatbots Will Change How We Talk to People - The Atlantic

Why People Are Confessing Their Love For AI Chatbots | TIME

AI girlfriends are here – but there’s a dark side to virtual companions | Arwa Mahdawi | The Guardian

AI assistants like Siri and Alexa are perpetuating sexist stereotypes, UN says | CNN Business

When computers learn language they inevitably adopt human's implicit biases (qz.com)

TikTok在美國啟動裁員,這個部門成重災(zāi)區(qū)_鳳凰網(wǎng) (ifeng.com)

未經(jīng)正式授權(quán)嚴禁轉(zhuǎn)載本文,侵權(quán)必究。