編者按:本文來(lái)自微信公眾號(hào) 來(lái)源:數(shù)字立場(chǎng)(shuzilichang),作者:佘宗明,創(chuàng)業(yè)邦經(jīng)授權(quán)發(fā)布。
你以為自己是不平,其實(shí)你只是鉆進(jìn)了別人精心設(shè)計(jì)的“情緒陷阱”;你以為自己是不忿,其實(shí)你只是吞下了別人專門投下的“憤怒誘餌”……這層后真相時(shí)代的真相“窗戶紙”,被牛津詞典捅破了。
前不久,牛津詞典團(tuán)隊(duì)公布了2025年牛津年度詞匯:憤怒誘餌(rage bait)。
什么是“憤怒誘餌”?簡(jiǎn)單來(lái)說(shuō),就是故意用刺激性內(nèi)容引發(fā)網(wǎng)民憤怒,借機(jī)獲取流量。擺拍“兒媳給住院婆婆吃泡面”“外賣騎手被顧客羞辱”,皆在此列。

▲牛津詞典團(tuán)隊(duì)將「憤怒誘餌」評(píng)選為2025年牛津年度詞匯。
毫無(wú)疑問,“憤怒誘餌”現(xiàn)象值得警惕:當(dāng)憤怒成為被批量生產(chǎn)的博流量工具,隨之而來(lái)的是社會(huì)戾氣的加重、輿論質(zhì)地的劣化。
可從輿論反應(yīng)看,部分人又順著“遇事不決,量子力學(xué);歸因無(wú)妨,信息繭房”的流行總結(jié)歸納法,將箭頭對(duì)準(zhǔn)了算法,被順帶著提及的高頻詞還有“信息繭房”。
在他們看來(lái),“憤怒誘餌”背后是算法捕網(wǎng),是算法編織的信息繭房提供了傳播溫床,“憤怒誘餌”才會(huì)潛滋暗長(zhǎng)。
這不免讓人想起柏拉圖的“洞穴寓言”:許多人錯(cuò)將墻上投影認(rèn)成真實(shí)世界,卻對(duì)真正光源視而不見。
01
索維爾曾說(shuō)過:如果你認(rèn)為人類總是理性的,那么,至少一般的歷史是無(wú)法解釋的。
為什么網(wǎng)絡(luò)上會(huì)出現(xiàn)“憤怒誘餌”現(xiàn)象?原因也跟那三個(gè)字緊密相關(guān):非理性。
神經(jīng)學(xué)研究表明:大腦對(duì)壞刺激的反應(yīng)比對(duì)好刺激更強(qiáng)烈,而且留下的痕跡更深,所以壞消息會(huì)讓我們產(chǎn)生更多的注意力。社會(huì)學(xué)中的注意偏向理論也與此相通:跟中性刺激比,情緒性刺激更容易捕獲個(gè)體注意力。
也就是說(shuō),當(dāng)那些爭(zhēng)議性話題出現(xiàn)在公眾視野中時(shí),用戶會(huì)本能地投以更多關(guān)注。
正是看到了這點(diǎn),那些流量捕手玩起了情緒操控把戲:他們通常會(huì)先“選餌”,識(shí)別爭(zhēng)議性話題和沖突性元素(如性別對(duì)立、地域歧視、代際沖突、階層差距等);再“制餌”,將極端標(biāo)簽、反差情節(jié)、失真細(xì)節(jié)等精心調(diào)配,糅在一塊;接著“下鉤”,通過標(biāo)題黨、偽造截圖等手段,激起網(wǎng)民憤怒;最后“收網(wǎng)”,獲取流量后,想法子變現(xiàn)。

▲央視此前曾起底營(yíng)銷號(hào)靠擺拍「外賣員被顧客羞辱」系列視頻起號(hào)。
說(shuō)到底,是人類注意力機(jī)制的非理性特征跟部分人流量饑渴下的行為扭曲,共同催生了“憤怒誘餌”現(xiàn)象。
在某些人的想象中,“憤怒誘餌”盛行離不開算法對(duì)“憤怒-互動(dòng)-推薦-更多憤怒”的惡性循環(huán)的助推。
但這更多的是想當(dāng)然。因?yàn)楹芏嗳四X補(bǔ)出的“傳播者-用戶-平臺(tái)”共生關(guān)系在“憤怒產(chǎn)業(yè)鏈”上并不存在。
事實(shí)一再表明,用戶頻繁刷到制造矛盾、渲染對(duì)立的內(nèi)容后,產(chǎn)生的負(fù)面情緒最終導(dǎo)向的不是停留,而是逃離,不是沉迷,而是卸載;而充滿戾氣的社區(qū)環(huán)境或平臺(tái)氛圍,也很難受到品牌方青睞,商業(yè)價(jià)值會(huì)驟減,還可能承受監(jiān)管層面壓力,風(fēng)險(xiǎn)系數(shù)會(huì)劇增。
這意味著,“憤怒誘餌”帶來(lái)的“惡流量”跟平臺(tái)在用戶體驗(yàn)、內(nèi)容安全、商業(yè)利益上的追求,存在根本性沖突。在“憤怒誘餌”引發(fā)的社會(huì)撕裂、信任危機(jī)會(huì)導(dǎo)致平臺(tái)利益受損的背景下,平臺(tái)又有多少動(dòng)力去擁抱其帶來(lái)的“惡流量”呢?
多家平臺(tái)出臺(tái)治理辦法,對(duì)為博取流量刻意制造沖突、煽動(dòng)引戰(zhàn)等內(nèi)容,以及發(fā)布煽動(dòng)蹭熱內(nèi)容的“惡意營(yíng)銷號(hào)”等進(jìn)行重點(diǎn)治理,就是在釋放信號(hào):面對(duì)“憤怒誘餌”現(xiàn)象,平臺(tái)要充當(dāng)“過濾器”而非“助推器”角色。
02
要看到,無(wú)論是“憤怒誘餌”,還是之前的“傻子共振”“算法離間”,這些新詞在輿論場(chǎng)激起的漣漪,本質(zhì)上都是“算法織繭說(shuō)”的回響。
在民粹、飯圈、打拳等問題肆虐的當(dāng)下,不少人已習(xí)慣了將問題歸咎于算法構(gòu)筑的信息繭房。這看似是化繁為簡(jiǎn),實(shí)則是化約慣性與思維惰性的反映。
在這問題上,我的主要看法是:
1,“信息繭房”是否存在還難說(shuō),但“認(rèn)知繭房”真真切切存在。
“信息繭房”究竟是真實(shí)存在的“賽博囚籠”,還是想象出來(lái)的稻草人議題,學(xué)界至今都莫衷一是。畢竟,“信息繭房”的假說(shuō)在學(xué)術(shù)性實(shí)證研究中從未被證實(shí)過。

▲包括陳昌鳳、喻國(guó)明在內(nèi)的國(guó)內(nèi)傳播學(xué)者都曾提出,「信息繭房」沒有實(shí)證研究佐證。
但這不等于“認(rèn)知繭房”就不存在。說(shuō)白了,算法是放大器,它的放大效應(yīng)會(huì)在“人塑造環(huán)境”和“環(huán)境塑造人”的雙向交互中倍數(shù)級(jí)還原出人的多面性來(lái)。算法會(huì)在同頻共振中放大向美向善的力量,也會(huì)暴露許多人獲取信息上路徑依賴,溝通信息上社交衰退、消化信息上感情用事的弊端……這些凝結(jié)成的,就是“思維繭房”“社交繭房”“認(rèn)知繭房”。
2,信息偏食是依托人腦“過濾罩”的自我保護(hù)機(jī)制,沒那么可怕。
很多學(xué)者都傾向于認(rèn)為,信息繭房是偽命題,信息偏食是真問題。就連“信息繭房”概念的提出者桑斯坦,都將“信息繭房”癥結(jié)歸于“信息偏食”。
信息偏食,其實(shí)是人腦基于喜同惡異、趨利避害本性自動(dòng)開啟信息篩選的腦部減負(fù)機(jī)制,為的是避免信息過載。
3,真正可怕的,不是算法,而是信息的單一控制和限量供給。
信息匱乏時(shí)代的“繭房”是物理性的,因?yàn)闆]得選——今天那些言必稱“信息繭房毀了下一代”的人,可能忘了在社交媒體出現(xiàn)之前大家只能聽“同一首歌”。
信息豐裕時(shí)代的“繭房”則是心理性的,它不是由分發(fā)渠道決定,而是由大腦的信息加工機(jī)制塑造。
03
說(shuō)這些,核心也是在回應(yīng)兩個(gè)問題:“繭房”到底是怎么形成的?算法真的會(huì)筑繭嗎?
先來(lái)說(shuō)第一個(gè)。
前不久,世界權(quán)威學(xué)術(shù)期刊《Science》發(fā)了篇論文《不要責(zé)怪算法:社交媒體可能天生就存在兩極分化》,介紹了來(lái)自阿姆斯特丹大學(xué)邏輯、語(yǔ)言與計(jì)算研究所的最新研究成果。

▲《Science》發(fā)表論文稱,即便沒有算法,社交媒體也會(huì)存在極化現(xiàn)象。
研究團(tuán)隊(duì)搭建了無(wú)個(gè)性化算法的極簡(jiǎn)社交平臺(tái),僅保留發(fā)帖、轉(zhuǎn)帖和關(guān)注功能,投入500個(gè)帶有固定人格設(shè)定的AI機(jī)器人模擬人類行為。實(shí)驗(yàn)結(jié)果顯示,無(wú)需算法干預(yù),機(jī)器人在5萬(wàn)次互動(dòng)后便會(huì)自動(dòng)形成陣營(yíng):立場(chǎng)接近的互相關(guān)注,極端觀點(diǎn)的傳播速度遠(yuǎn)超中立內(nèi)容。
結(jié)論是:“信息繭房”的形成并非算法所致,而是人類趨同避異社交本能的自然產(chǎn)物,即便沒有算法,社交媒體也會(huì)存在極化現(xiàn)象。
這從社會(huì)心理學(xué)層面也能得到解釋:人類的注意力分配和記憶編碼機(jī)制,天生自帶“繭房”傾向?!按_認(rèn)偏誤”會(huì)讓我們更關(guān)注我們?cè)敢怅P(guān)注的信息,“負(fù)面偏好”會(huì)讓我們對(duì)令人憤怒的事物記憶更深刻,“可得性啟發(fā)”會(huì)讓我們高估近期接觸信息的重要性……
算法給用戶推送了100條內(nèi)容,其中80條符合用戶興趣,15條是系統(tǒng)主動(dòng)探索的多樣性內(nèi)容,5條是隨機(jī)噪音,可用戶大腦往往會(huì)選擇性遺忘那95條,牢牢記住那幾條讓自己憤怒或驚喜的“極端”信息,這已成常態(tài)。
在《打破社交媒體棱鏡》中,杜克大學(xué)教授克里斯·貝爾還通過實(shí)驗(yàn)給出了另一個(gè)“反直覺”的結(jié)論:即便強(qiáng)制讓人接觸對(duì)立觀點(diǎn),也不會(huì)使其變得溫和,反而會(huì)促使其強(qiáng)化自身立場(chǎng),變得更加極端。
言下之意,在社交媒體上的認(rèn)知封閉,本質(zhì)上是人類本性在網(wǎng)絡(luò)空間的延伸。與其說(shuō)是算法在制造繭房,不如說(shuō)是人類認(rèn)知系統(tǒng)自身在編織濾網(wǎng)。

▲權(quán)威學(xué)術(shù)期刊《自然》雜志也曾發(fā)表論文,用實(shí)驗(yàn)證明沒有證據(jù)表明算法是兩極分化的關(guān)鍵推手。
再來(lái)說(shuō)第二個(gè)。
如果算法讓人們看到的都是自己想看到的、聽到的都是自己想聽到的,那確實(shí)會(huì)筑繭。
但事實(shí)上,算法早已從單一的興趣匹配進(jìn)化為多目標(biāo)優(yōu)化體系,抖音算法推薦不僅會(huì)考慮“用戶喜歡什么”,更會(huì)主動(dòng)控制相似內(nèi)容的出現(xiàn)間隔、頻次上限,強(qiáng)制插入多樣性內(nèi)容,并通過隨機(jī)推薦、社交關(guān)系興趣拓展、搜索推薦聯(lián)動(dòng)等方式,幫助用戶突破既有興趣圈。

▲用戶可以點(diǎn)進(jìn)「使用管理助手」頁(yè)面,設(shè)置時(shí)間鎖、休息提醒和進(jìn)行內(nèi)容管理。
有意思的是,著名傳播學(xué)者喻國(guó)明還認(rèn)為,智能算法推薦具有反信息繭房的本質(zhì),“采用多種算法的信息分發(fā)平臺(tái)所具有的社會(huì)構(gòu)造,從信息流動(dòng)來(lái)說(shuō),總體上能夠有效地避免‘繭房效應(yīng)’的發(fā)生”。換句話說(shuō),算法非但不會(huì)筑繭,還能破繭。
這并非沒有依據(jù)。某平臺(tái)此前公布的“雙塔召回模型”,就是通過將用戶和內(nèi)容轉(zhuǎn)化為高維空間的數(shù)學(xué)向量,實(shí)現(xiàn)脫離具體語(yǔ)義的精準(zhǔn)匹配,發(fā)掘用戶潛在興趣領(lǐng)域,讓用戶刷到意料之外但又在情理之中的內(nèi)容。
在著作《必然》里,凱文·凱利曾提出“理想的過濾器”設(shè)想:它應(yīng)該推薦那些“我想知道我的朋友喜歡什么,而那又是我現(xiàn)在還不了解的”,以及“它將是一種會(huì)向我建議某些我現(xiàn)在不喜歡,但想嘗試著喜歡的東西的信息流”。
目前看,算法進(jìn)化已經(jīng)讓這番暢想變?yōu)楝F(xiàn)實(shí)。
04
這倒不是說(shuō)算法已經(jīng)臻于至善了,只是說(shuō)很多人對(duì)算法有許多因不解而生的恐懼、因誤解而生的敵意。
怎么消除這些不解和誤解?用算法透明化去祛除“算法魔法化”的想象,是應(yīng)有之方。
多年來(lái),堵在算法透明化面前的那堵高墻叫“商業(yè)秘密”,但今年以來(lái),有個(gè)明顯跡象是,很多中國(guó)互聯(lián)網(wǎng)公司在主動(dòng)拆“墻”。有平臺(tái)就在構(gòu)建起包含規(guī)則闡釋、案例解析、互動(dòng)答疑的多維溝通體系,讓算法走出黑箱、走向透明。

▲抖音安全與信任中心官網(wǎng)上公布了詳細(xì)算法原理。
這其實(shí)就是用算法祛魅來(lái)消除大眾對(duì)“不受控制的技術(shù)權(quán)力”的擔(dān)憂:當(dāng)平臺(tái)將如何通過“多目標(biāo)建?!逼胶舛唐诨?dòng)與長(zhǎng)期價(jià)值、如何設(shè)置“多樣性約束”避免內(nèi)容重復(fù)、如何引入“探索因子”突破興趣固化等呈現(xiàn)在公眾面前,算法的“可理解”本身就成了公共產(chǎn)品。
對(duì)算法污名化的最好阻擊,就是將其置于“可解釋、可參與、可監(jiān)督”的透明化治理框架下。那樣一來(lái),用戶會(huì)逐漸明白:算法不是獨(dú)立的價(jià)值主體,而是人類行為的映射,不是神秘的巫術(shù)魔法,而是可被監(jiān)督可改進(jìn)的工具,它并不全能,也非萬(wàn)能。
循此看去,有兩點(diǎn)漸次明了:1,將那些復(fù)雜的社會(huì)結(jié)構(gòu)性問題簡(jiǎn)單歸結(jié)為算法原罪,在自己作繭自縛后怪罪于算法織繭,都是選擇性遮蔽下的歸因偏差;2,很多時(shí)候,技術(shù)不是問題,放棄人的自主性才是。
拿“憤怒誘餌”現(xiàn)象來(lái)說(shuō),“憤怒誘餌”太多,算法沒法背鍋。不能因?yàn)樗惴ā安粫?huì)說(shuō)話”,就讓它客串竇娥、充當(dāng)標(biāo)靶。
算法確實(shí)還有很多不足,但解決之道不是打倒算法,而是讓算法在陽(yáng)光下運(yùn)行,讓公眾理解算法原理,讓平臺(tái)承擔(dān)起治理責(zé)任,讓用戶重掌信息主權(quán)。當(dāng)人們更多地承認(rèn)其局限、發(fā)揮其價(jià)值,那個(gè)被迷霧籠罩的人機(jī)共處未來(lái)才會(huì)愈發(fā)清晰。
這其中,我們掌握自己的信息主權(quán)很重要。納薩尼爾·霍索恩說(shuō)過:你關(guān)注什么,最終你就成為什么。
將其換成另一個(gè)表述就是:每個(gè)人,都是自己接收信息情況的第一責(zé)任人。
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問,請(qǐng)聯(lián)系editor@cyzone.cn。







