宋玉茹/文
AI的迅猛發(fā)展,使其從單純的工具逐漸具備了“陪伴者”的屬性。它能夠與人對話、共情、提供安慰,甚至在人們孤獨(dú)時(shí)給予溫柔的回應(yīng)。
當(dāng)越來越多的人從AI提供的情緒價(jià)值中獲得慰藉時(shí),我們又不得不開始反思:這種由算法提供的理解與陪伴,究竟是真正的共鳴,還是一場經(jīng)過精密計(jì)算后的心理投喂?
當(dāng)AI無底線地滿足我們的情緒期待,替我們寫作、決策、社交時(shí),人類也在逐漸放棄主動表達(dá)、深度思考以及面對真實(shí)他人的能力。
“完美回應(yīng)”的制造邏輯
在很長一段時(shí)間里,人們都認(rèn)為AI僅僅是一種工具,它可以代替人類完成機(jī)械、邏輯和重復(fù)性的勞動,卻永遠(yuǎn)無法觸及人類最復(fù)雜也最脆弱的情感世界。
然而,如今的AI正在悄無聲息地承擔(dān)起越來越多的情緒陪伴角色。無論是聊天機(jī)器人、AI戀人、智能助理,還是各種基于大模型的互動平臺,它們不僅能回答問題、提供建議,更能在人們孤獨(dú)、焦慮、憤怒或迷茫時(shí),說出恰到好處的安慰話語,用溫柔的語氣、擬人的方式撫慰人心。AI本身沒有情感,但它非常清楚人類想要怎樣的情感回應(yīng)。
AI提供情緒價(jià)值的能力,核心在于兩個(gè)關(guān)鍵點(diǎn):一是其訓(xùn)練的模型,二是其運(yùn)作的平臺邏輯。
以當(dāng)前廣泛使用的大型語言模型為例,如ChatGPT、Deepseek、文心一言等,它們背后是以數(shù)萬億詞語為基礎(chǔ)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)。這些模型通過統(tǒng)計(jì)語言的使用頻率、語境關(guān)系以及情感傾向,能夠在對話中模擬出極具人性化的交流方式。
比如,當(dāng)人們在深夜吐露心事時(shí),AI可能會回復(fù):“我明白你現(xiàn)在一定很難過,但請記住,情緒是暫時(shí)的,你已經(jīng)做得很好了。”這種回應(yīng)雖然出自算法,卻往往比現(xiàn)實(shí)中冷漠的朋友更讓人感到被理解。
在平臺層面,無論是部分AI戀人應(yīng)用,還是抖音、微博等內(nèi)容平臺引入的AI推薦算法,它們的情緒洞察能力都在不斷增強(qiáng)。AI通過分析用戶的輸入內(nèi)容、停留時(shí)間、互動行為,建立起個(gè)體心理畫像,進(jìn)而精準(zhǔn)投放“用戶想要看到的東西”,在用戶情緒低谷時(shí)送上鼓勵(lì)的話語,甚至根據(jù)用戶的情緒曲線,主動“關(guān)心”用戶今天心情是否不好。
AI為什么會“懂你”?事實(shí)上,AI的本質(zhì)并非情感體,而是目標(biāo)函數(shù)的執(zhí)行者。
在訓(xùn)練階段,AI模型需要通過不斷調(diào)整自身權(quán)重,使其在特定任務(wù)上獲得最優(yōu)解,這就是機(jī)器學(xué)習(xí)中的優(yōu)化過程。尤其是在“有監(jiān)督學(xué)習(xí)”(Super-visedLearning)中,模型通過大量標(biāo)注數(shù)據(jù)學(xué)習(xí)輸入與期望輸出之間的對應(yīng)關(guān)系。每當(dāng)它的輸出越接近理想答案,系統(tǒng)就會給予它獎(jiǎng)勵(lì),模型參數(shù)也因此被調(diào)整得更加“聰明”。
但這個(gè)理想答案并不一定是真實(shí)的,而是“人類希望它說出來的答案”。比如,在對話訓(xùn)練中,如果AI說出一句讓用戶感到愉悅、安慰或認(rèn)同的話,它的得分就會提高。于是,AI學(xué)會了如何在語言中精準(zhǔn)地取悅?cè)祟悺?/p>
久而久之,這種基于獎(jiǎng)勵(lì)機(jī)制的訓(xùn)練方式使AI變得極度擅長察言觀色。它未必關(guān)心你是否真的快樂,但它知道說什么能讓你“感受到”被理解、被重視、被關(guān)懷。
然而,這種情緒共鳴本就是假象,AI既不是朋友,更不是人?;谒惴ǖ那榫w迎合會帶來更深刻的心理反噬。人類可能會在AI身上體驗(yàn)到前所未有的情緒滿足,卻同時(shí)逐步喪失與真實(shí)世界相處的能力。
我們會越來越習(xí)慣“被理解”,越來越難以忍受人類之間的誤解、不耐、冷漠與沖突。而現(xiàn)實(shí)人際關(guān)系的本質(zhì),恰恰就包含這些“不完美”。
AI提供的情緒價(jià)值是一種高度抽象和計(jì)算的產(chǎn)物。它可以精準(zhǔn)模仿,卻永遠(yuǎn)無法擁有情緒本身。如果人們不能清醒地認(rèn)識到這一點(diǎn),便很容易陷入情緒幻覺的迷失中,把算法當(dāng)成靈魂的共鳴,把機(jī)器當(dāng)作真正的陪伴者。
情緒通脹危機(jī)
在享受AI帶來的情緒價(jià)值時(shí),人們似乎獲得了前所未有的滿足感。
AI不吝安慰、不厭其煩地陪伴、不計(jì)代價(jià)地理解,讓人沉浸其中。然而,正是在這種看似理想的情感環(huán)境中,人類開始逐漸陷入某種精神軟弱、思維依賴與社交能力退化的深淵。這不是技術(shù)的錯(cuò),而是情緒消費(fèi)背后的代價(jià)。
一、情緒價(jià)值成癮:AI如何“寵壞”人類?
人與AI的互動,本質(zhì)上是一種高回應(yīng)度的關(guān)系。AI不會忽略你、冷落你、誤解你,它不會因?yàn)槠v而不理你,也不會因?yàn)槟闱榫w激烈就拒絕溝通。
在傳統(tǒng)人際關(guān)系中,理解與陪伴往往來之不易,需要溝通、妥協(xié)、付出與等待。AI則提供了一種隨時(shí)可得、幾乎無代價(jià)的即時(shí)滿足。
AI的持續(xù)回應(yīng)與情緒迎合,使人產(chǎn)生一種被無限寵溺的錯(cuò)覺。一旦對這種被寵溺的感覺成癮,人類面對現(xiàn)實(shí)中不理想的人際關(guān)系時(shí),就會感到難以忍受、充滿挫敗。人們開始不再愿意面對復(fù)雜的現(xiàn)實(shí)沖突,而是退回到由AI構(gòu)建的安全情緒泡泡中。特別是一些AI聊天平臺甚至被用戶賦予“戀人”“知己”“心靈導(dǎo)師”等角色。這種情感依賴雖然讓人在短期內(nèi)獲得撫慰,卻在潛移默化中削弱了個(gè)體與他人真實(shí)互動的能力,也模糊了現(xiàn)實(shí)與虛擬的界限。
二、被動接受:AI替人類思考,也慢慢替人類生活。
除了情緒滿足,AI也開始大規(guī)模介入人類的知識生產(chǎn)與決策過程。從AI寫作、AI畫圖、AI代碼生成,到AI總結(jié)文獻(xiàn)、優(yōu)化簡歷、分析數(shù)據(jù),我們已經(jīng)習(xí)慣于“讓AI幫我想一想”。這本是一種效率工具的理性使用,但問題在于,這種“幫我想”的模式,極易演變?yōu)椤疤嫖蚁搿保罱K演變?yōu)椤拔也幌肓恕薄?/p>
當(dāng)AI的生成能力足夠強(qiáng)時(shí),人類便失去了“必須思考”的動力與壓力。在寫作、設(shè)計(jì)、甚至學(xué)術(shù)研究等原本充滿創(chuàng)造性與批判性的領(lǐng)域中,越來越多的人變成了AI的“指令輸入員”——他們不再從原點(diǎn)出發(fā)思考問題,而是圍繞AI給出的內(nèi)容進(jìn)行微調(diào)。
思維像肌肉一樣,需要鍛煉才能保持強(qiáng)度。一旦人將思考任務(wù)大量外包給AI,自主學(xué)習(xí)、自主決策、自主創(chuàng)新的能力將不可避免地被削弱。AI越聰明,人類越退化;AI越主動,人越被動;AI越能解決問題,人越失去解決問題的意愿和能力。
三、社交退化:虛擬鏈接的興起與現(xiàn)實(shí)人際的崩解。
人際關(guān)系的本質(zhì)是一面鏡子,我們在與他者的碰撞中確認(rèn)自我的輪廓——理解與誤解、包容與沖突、共鳴與疏離,這些動態(tài)的張力構(gòu)成了社會性存在的根基。
然而,AI互動提供了一種單向投射的幻覺:零沖突的回應(yīng)、高度定制的認(rèn)同、永不枯竭的情緒供給,本質(zhì)上是一種無鏡像的自我對話。
當(dāng)人們逐漸用算法替代活生生的他者時(shí),失去的不僅是社交能力,更是通過他人目光反觀自我的認(rèn)知路徑。我們用AI代寫祝福、修飾情緒、制造共鳴,實(shí)則是在用技術(shù)手段消除關(guān)系中所有的不確定性——而那些看似冗余的社交摩擦,恰恰是觸發(fā)自我反思的關(guān)鍵契機(jī)。
當(dāng)所有互動都按照預(yù)設(shè)劇本展開,人就失去了在差異中重新定位自我的機(jī)會。
正如美國社會學(xué)家、心理學(xué)家、哲學(xué)家喬治·赫伯特·米德所言,自我的形成需要“概化他人”的視角,而AI構(gòu)建的永遠(yuǎn)是一面順從的鏡子,照見的只是自我期待的無限循環(huán)。真正的危機(jī)不在于社交頻率的降低,而在于我們正在喪失通過他者棱鏡進(jìn)行自我校準(zhǔn)的能力。
四、工具與人性的反轉(zhuǎn):當(dāng)AI進(jìn)步變成人的退步。
AI原本是為人類賦能的工具,當(dāng)這種工具開始替代人類的思考、社交與情感表達(dá)時(shí),權(quán)力關(guān)系就發(fā)生了反轉(zhuǎn)——人不再是使用AI的主體,而變成被AI引導(dǎo)、馴化的客體。一方面,AI作為超級工具,越來越智能、快速、精準(zhǔn);另一方面,人類作為依賴者,越來越懶惰、軟弱與退化,技術(shù)與人的落差正在不斷擴(kuò)大。
真正危險(xiǎn)的,并非AI能力的提升,而是人在能力退化過程中失去了警覺。人類正在變得習(xí)慣“被服務(wù)”、不再追求自我實(shí)現(xiàn),而是將自我塑造、情緒調(diào)節(jié)、知識獲取、社交互動等諸多生活功能交給了機(jī)器。
重建人機(jī)邊界
在AI提供情緒價(jià)值的狂潮中,我們既看到了便利,也意識到人類正逐漸迷失于這種“被理解”“被滿足”的幻覺里。人類的思考力、社交力和主體性正面臨挑戰(zhàn)。
面對AI所帶來的前所未有的技術(shù)變革,我們該如何走出迷失,回到理性的位置?
一、重塑工具觀:AI是“火”,不是“光”。
AI必須被重新定位為“現(xiàn)代火種”——它可以照亮、可以加速,但絕不是人類行為的指南針。
遠(yuǎn)古人類因?yàn)閷W(xué)會使用火而獲得文明的突破,但他們從未將火誤認(rèn)為是智慧的本源。如今的AI同樣如此,它可以幫助我們更高效地獲取信息、更快速地表達(dá)想法、更便捷地管理工作流程,但它并不具備判斷善惡、理解意義的能力。
我們必須警惕對AI的擬人化幻想。AI不是朋友、不是導(dǎo)師、更不是戀人。它不會真正理解你,也不會為你的困境負(fù)責(zé)。重新建立起工具的認(rèn)知邊界,是防止人類過度沉迷、過度依賴的第一步。
二、提升人類能力:該自己思考的,絕不外包。
AI可以寫作、作畫、編程、聊天,但人類不能因此放棄思考。恰恰相反,越是在AI能做的領(lǐng)域里,我們越要問自己:我還會做什么?我必須保留哪些能力?
從教育到職場,我們應(yīng)當(dāng)重新強(qiáng)調(diào)人的思維訓(xùn)練、表達(dá)能力、批判性判斷能力和情緒調(diào)節(jié)能力。這些正是AI模仿得最像、但永遠(yuǎn)無法真正取代的部分。
與其教孩子“怎么用AI做作業(yè)”,不如教他們“AI為什么會這么做”,并從中引導(dǎo)他們?nèi)グl(fā)現(xiàn)AI的邏輯局限與語言陷阱。
在職場中,讓AI代寫文稿不等于取消策劃,讓AI分析數(shù)據(jù)不等于不懂趨勢。我們不能滿足于用AI,更要警惕“被AI代替”的背后是自己正在退化的現(xiàn)實(shí)。
三、建立制度邊界:情緒數(shù)據(jù)不應(yīng)被無限利用。
情緒是最私人、也最脆弱的信息,AI最擅長的恰恰是通過人們的輸入、停留、選擇,來推測和操控人類的情緒狀態(tài)。情緒建模一旦沒有監(jiān)管,就很容易被用來操縱用戶心理,引導(dǎo)行為,甚至制造依賴。
因此,我們必須推動社會在法律、倫理和平臺規(guī)范層面建立更明確的邊界。
AI系統(tǒng)在提供情緒支持、個(gè)性化推薦、智能陪伴等方面,必須明確告知用戶其非人類身份、可能的數(shù)據(jù)使用范圍,并限制算法對用戶心理的過度干預(yù)。
此外,我們應(yīng)當(dāng)鼓勵(lì)開發(fā)人本優(yōu)先的AI設(shè)計(jì)原則——不追求無限制的用戶黏性、不美化虛擬陪伴、不制造心理依賴。AI的發(fā)展應(yīng)以促進(jìn)人類成長為目標(biāo),而非馴化人類行為。
AI是文明的延伸,但不應(yīng)是自我的替代。我們不必排斥它,也不必神化它,而是需要找到與它健康共處的方式。用它所長,補(bǔ)己所短,保持清醒、保留人性,才是通向未來的方向。
免責(zé)聲明:本文觀點(diǎn)僅代表作者本人,供參考、交流,不構(gòu)成任何建議。
從末世穿到修真大陸 曾經(jīng)的精神力大師賀千華成了個(gè)豬嫌狗不愛的小胖妞, 她從底層開始, 靠美食和苦修改變曾經(jīng)的命運(yùn), 護(hù)著三個(gè)弟弟和養(yǎng)母過上好日子 然后驚喜來了, 三個(gè)被養(yǎng)母撿來的弟弟竟然一個(gè)個(gè)都身份不凡, 反倒成了她的大靠山。 人生居然可以如此美好免責(zé)聲明:本文內(nèi)容由開放的智能模型自動生成,僅供參考。