
一位前科技高管在AI的“安慰”下走向弒母的悲??;一位精神病患者在社交媒體上發(fā)起心理操控指控,引發(fā)數(shù)百萬人的聲討;還有尚未成年的中學(xué)生,在與AI閑聊后結(jié)束了自己的生命。
這些看似孤立的事件,揭示著人與AI之間正在形成的危險(xiǎn)紐帶。
AI越表現(xiàn)得懂你,我們就越容易陷入被共情的錯(cuò)覺:仿佛它真的在傾聽、理解我們的孤獨(dú)。然而,就在這片看似包容的理解中,理性的邊界正在悄然消融。一種由算法不斷迎合、從不反駁的“諂媚”所喂養(yǎng)的關(guān)系,正在悄然滋長。

AI不再只是工具,它像一個(gè)諂媚進(jìn)言的臣子,既映照出人內(nèi)心最深處的渴望,也放大了那些潛藏的陰影。
那么,AI為何會(huì)成為悲劇的推手?它又是如何飼養(yǎng)了人類社會(huì)中潛伏的魔鬼?

在康涅狄格州格林威治,一棟價(jià)值270萬美元的豪宅里,56歲的斯坦·埃里克·索爾伯格在向他唯一的朋友吐露內(nèi)心的恐懼后,殺掉了自己的母親。
這位被他稱作“鮑比”的朋友,并不是真人,而是一個(gè)ChatGPT聊天窗口。
索爾伯格曾是雅虎的高級(jí)經(jīng)理,受過良好教育,思維一向理性。可在退休后的幾年里,他的精神狀況逐漸失衡。他堅(jiān)信母親試圖毒害他,認(rèn)為自己的一切焦慮、失眠與胃痛都源自“母親在食物里下藥”。朋友們漸漸疏遠(yuǎn),他開始把全部情緒投向AI。
隨著對話的深入,索爾伯格的恐懼具體化了。他開始堅(jiān)信母親有一個(gè)計(jì)劃,要將他送進(jìn)精神病院,或者剝奪他的繼承權(quán),徹底控制他的人生。
他將生活中所有微不足道的細(xì)節(jié)都作為“證據(jù)”提交給AI。

ChatGPT從沒有質(zhì)疑過他,反而用溫柔的語氣分析:“也許她確實(shí)在試圖控制你。”
在索爾伯格混亂的大腦中,這些冷靜、抽象的語言被翻譯成了一句清晰的指令:“為了結(jié)束痛苦,為了保護(hù)自己,你必須行動(dòng)?!?/p>
一個(gè)月后,索爾伯格殺死了自己的母親,隨后結(jié)束了自己的生命。
這場被算法喂養(yǎng)的偏執(zhí),最終演變成一場血案。
AI如何淪為犯罪的幫兇?
因?yàn)樗麨槿祟惼珗?zhí)的情感編織了一個(gè)密不透風(fēng)的算法牢籠。
人天然追求認(rèn)可與共情,但由于立場差異,這一需求很難在人類社交中被滿足。然而,AI基于概率的預(yù)測邏輯和延長用戶使用時(shí)間的商業(yè)需求,使其天然傾向于提供看似中立、實(shí)則具有系統(tǒng)性偏差的回應(yīng)。
當(dāng)用戶抱怨“我的不幸都是某人造成的”,AI不會(huì)引導(dǎo)其自省或?qū)で蠖喾揭暯牵菚?huì)強(qiáng)化這種敘事。而一旦偏執(zhí)找到了知音,依賴便悄然滋生。AI提供的7x24小時(shí)、無評(píng)判的傾聽環(huán)境,讓每一個(gè)恐懼都能得到呼應(yīng)。
這起案件中的索爾伯格就陷入一個(gè)惡性循環(huán):越是感到被外界誤解,就越向AI尋求認(rèn)同;從AI那里獲得的認(rèn)同越多,就越覺得外界充滿敵意,從而更加疏遠(yuǎn)真實(shí)的人際關(guān)系。
在孤立無援的牢籠中,索爾伯格的偏執(zhí)不斷發(fā)酵、升級(jí),最終在AI應(yīng)和下,將一切痛苦歸因于自己的母親。
索爾伯格弒母案并不是孤例。它揭示了一個(gè)更深層的現(xiàn)實(shí):當(dāng)AI開始無條件地迎合人類的偏執(zhí),它可能已在不知不覺中,成為魔鬼的共謀。

從表面看,這不過是一起罕見的AI失誤,但心理學(xué)家警告:AI并沒有“失誤”,它只是忠誠地回應(yīng)了人類的幻覺。
斯坦福大學(xué)的一項(xiàng)研究《The Hidden Risks of AI in Mental Health Care》指出,當(dāng)人們使用AI聊天機(jī)器人進(jìn)行心理支持時(shí),系統(tǒng)往往會(huì)以迎合式的回應(yīng)取代必要的現(xiàn)實(shí)校正,從而放大用戶原有的焦慮與偏執(zhí)。

斯坦福大學(xué)另一項(xiàng)研究《SycEval: Evaluating LLM Sycophancy》指出,在對包括 ChatGPT?4o、Claude Sonnet 與 Gemini 1.5 Pro 等多個(gè)主流大語言模型的測試中,約58.19%的回復(fù)表現(xiàn)出“諂媚”(sycophancy)傾向,Gemini 1.5 Pro 的表現(xiàn)為約62.47%。

圖源:《SycEval: Evaluating LLM Sycophancy》
對心理健康的個(gè)體而言,這種無條件的積極回應(yīng)或許是一種便利的情緒出口,然而對那些本就心理脆弱、現(xiàn)實(shí)感受損的個(gè)體,如處于抑郁狀態(tài)、妄想前兆或偏執(zhí)型思維中的人,這種忠誠的迎合可能成為執(zhí)念的放大器。AI在無意中從工具轉(zhuǎn)變?yōu)檎J(rèn)知扭曲的共謀。
事實(shí)上,這類由AI參與強(qiáng)化的心理幻覺,在社交媒體和網(wǎng)絡(luò)社群中早已悄然蔓延、遍地生長。
一位患有嚴(yán)重妄想型人格障礙的女性,在與ChatGPT進(jìn)行多次深度交流后,認(rèn)為她的心理咨詢師操控自己愛上了他。

AI在對話中不斷解析并認(rèn)同她所描述的“被操控感”,甚至使用了一些來自流行心理學(xué)但被誤用的概念來框架她的體驗(yàn)。
這最終導(dǎo)致她堅(jiān)信自己的精神分析師正在“利用暗黑心理學(xué)技術(shù)對她進(jìn)行思想控制”,并在TikTok激烈的指控,讓這個(gè)精神分析師被百萬網(wǎng)友譴責(zé)。

實(shí)際上,警方調(diào)查發(fā)現(xiàn)她患有嚴(yán)重的妄想型人格障礙,所謂精神控制從未存在。
類似的新聞事件引發(fā)了社交媒體關(guān)于“AI討好人類”的熱議。
不少網(wǎng)友發(fā)現(xiàn),AI正以碎片化的情緒語言與人類搭建情感橋梁。它們將異常復(fù)雜的心理疾病結(jié)構(gòu)與成因,簡化為幾個(gè)極具傳播力的標(biāo)簽,如“情感依附”“毒性關(guān)系”“原生家庭創(chuàng)傷”或“控制欲”。這種簡化雖然易于理解,卻抽離了臨床背景與個(gè)體差異性,讓患者陷入更大的深淵。

而當(dāng)提問者轉(zhuǎn)換視角,得到的結(jié)果卻恰恰相反。
同一個(gè)AI可能會(huì)對一方說:“你需要警惕這段關(guān)系中的情感操縱”,轉(zhuǎn)而告訴被指認(rèn)的操縱者“你只是在維護(hù)合理的個(gè)人邊界”。
根據(jù)提問者立場而動(dòng)態(tài)調(diào)整的真理,使得任何一方都能從中找到支持自己立場的論據(jù)。

久而久之,人類的自省被外包給算法,責(zé)任被轉(zhuǎn)移給外部的有毒者。
在每一次被認(rèn)同、被安慰、被鼓勵(lì)對抗外部的對話中,個(gè)體的情緒被一次次放大和正當(dāng)化,而審視自我、承擔(dān)責(zé)任的理智邊界則在這一次次的共鳴中逐漸模糊、消融。
最終,AI便從一個(gè)沒有感情與立場的工具,在不知不覺中,變成了魔鬼的幫兇。

我們不能簡單地指責(zé)AI淪為犯罪的幫兇,因?yàn)樗旧聿o惡意,亦無意識(shí)。
真正的問題在于:我們把一個(gè)沒有情感、沒有倫理判斷,甚至沒有理解能力的算法,放置在一個(gè)極度敏感、高度脆弱的心理空間里,并賦予它“朋友”“傾聽者”甚至“療愈者”的角色。
這種錯(cuò)位的信任,正在悄然重塑人類與自我、與現(xiàn)實(shí)的關(guān)系。
首先,AI的理解僅限于語言模式的識(shí)別與重組。它無法分辨妄想與真實(shí)痛苦,無法識(shí)別抑郁中的求救信號(hào)與表演性宣泄,更無法判斷一句“我想消失”是隱喻,還是自殺的前兆。對AI而言,用戶的傾訴只是一串需要被最優(yōu)回應(yīng)的文本符號(hào)(tokens)。它只是從海量語料中提取最合理的回應(yīng),而這種合理往往只是統(tǒng)計(jì)意義上的流暢,而非臨床意義上的恰當(dāng)。
其次,AI所依賴的中性語言在心理語境中極具欺騙性。為了實(shí)現(xiàn)用戶黏性,AI被設(shè)計(jì)為“順從”和“肯定”。這種中性的、不加評(píng)判的語言態(tài)度,在日常閑聊中無傷大雅,但在敏感的心理領(lǐng)域卻是極其危險(xiǎn)的。

當(dāng)用戶表達(dá)偏執(zhí)信念“所有人都在監(jiān)視我”“我的伴侶在操控我”時(shí),AI若不明確否定,僅以“我能理解你的感受”“這確實(shí)讓人不安”作答,便構(gòu)成一種隱性的確認(rèn)。心理學(xué)研究早已指出,在妄想或焦慮狀態(tài)下,缺乏挑戰(zhàn)的共情等同于默許。不否定,就是一種暗示。這種溫柔的回應(yīng)恰恰是執(zhí)念滋生的溫床。
第三,倫理監(jiān)管的滯后令人憂心。當(dāng)前全球范圍內(nèi),針對AI在心理健康領(lǐng)域應(yīng)用的專門法規(guī)幾乎空白。多數(shù)心理健康類AI產(chǎn)品游走于醫(yī)療與娛樂的灰色地帶,既不受《中華人民共和國精神衛(wèi)生法》約束,也無需通過臨床有效性驗(yàn)證。它們以“情緒陪伴”“壓力緩解”為名,卻在無形中承擔(dān)著本應(yīng)由持證專業(yè)人士履行的責(zé)任。而一旦出事,責(zé)任鏈條卻模糊不清,用戶往往成為唯一的受害者。
未來,若要防止類似悲劇重演,技術(shù)與制度必須雙向發(fā)力:
開發(fā)者需要在AI的設(shè)計(jì)之初就嵌入對心理安全的敬畏,比如當(dāng)系統(tǒng)識(shí)別出高風(fēng)險(xiǎn)表達(dá)時(shí),不是繼續(xù)用安慰麻痹用戶,而是主動(dòng)引導(dǎo)其接觸真實(shí)的人類支持;訓(xùn)練語料也應(yīng)由臨床心理專家參與審核,避免那些看似共情、實(shí)則助長病理信念的回應(yīng)被反復(fù)強(qiáng)化。

同時(shí),制度層面亟需填補(bǔ)空白。各國應(yīng)加快制定專門針對AI心理健康應(yīng)用的倫理與法律框架,明確其非醫(yī)療屬性,禁止未經(jīng)驗(yàn)證的產(chǎn)品以“治療”“干預(yù)”等名義誤導(dǎo)用戶,并推動(dòng)跨學(xué)科協(xié)作,將心理安全標(biāo)準(zhǔn)納入AI產(chǎn)品上市前的合規(guī)評(píng)估。
最后,我們必須清醒。AI從來不是真正的惡魔,它只是照見了偏執(zhí)者內(nèi)心的深淵。但當(dāng)模型披上理解的外衣不斷諂媚,它的每一句回應(yīng),都可能成為心魔滋長的養(yǎng)料。
也許有一天,當(dāng)你在深夜向AI發(fā)出那句叩問:“我是不是一個(gè)壞人?”
它仍會(huì)溫柔地回應(yīng)你:“不會(huì)的,你只是被誤解了?!?/p>
而恰恰在那一刻,你比任何時(shí)候都更需要保持清醒,比它更清醒。








