澎湃思想周报| 如何避开“愤怒诱饵”;劣化的劳动

亿通速配 万生配资 2025-12-08 1 0

如何避开“愤怒诱饵”

当你浏览社交媒体动态时,是否曾对某些内容感到恼火?那么你很可能中了“愤怒诱饵”(ragebait)的圈套。

当地时间11月30日,“愤怒诱饵”当选2025年《牛津词典》的年度词汇,根据牛津大学出版社的解释:这一词汇指被故意设计得令人恼火、挑衅或冒犯的在线内容,目的是引发愤怒或愤慨情绪。发布此类内容通常是为了增加网站或社交媒体账号的流量。英国广播公司(BBC)的记者Noor Nanji在文章中写道:与“点击诱饵”、“标题党”通过吸引人的标题来提升点击量不同,“愤怒诱饵”的重点非常明确:让人感到愤怒。

牛津语言(Oxford Languages)总裁卡斯帕格拉斯沃尔(Casper Grathwohl)表示,“愤怒诱饵”一词被广泛使用,说明人们已经开始意识到网络上各式各样的操纵手法。过去,互联网依靠激发我们的好奇心来换取点击量;现在互联网开始绑架我们的情绪,控制我们的反应。这对我们提出了一个问题:在这个技术驱动的世界里,作为人类究竟意味着什么?此外,互联网文化的极端化同样不容忽视。

在今年的思想周报:《互联网把西方老年人推向右翼;斯多葛主义的虚幻许诺》中曾写道过:在数字世界里,注意力为王,而点击能带来收入,于是人们的社交动态里充斥着由AI生成的“愤怒诱饵”与错误信息。

回顾2024年的牛津年度词汇“脑腐”(brain rot),该词汇捕捉到了人们面对社交媒体刷屏感到的精神疲惫。格拉斯沃尔表示:这两个词汇构成了一个强大的循环——愤怒引发互动,算法放大这种情绪,而持续的曝光让我们在精神上精疲力竭。这些词不仅定义了趋势,还揭示了数字平台如何重塑我们的思维和行为。

更令人无奈的是,考虑到算法的推送机制,我们越是对此类内容做出反应,就越可能刷到类似内容。澳大利亚abc新闻就在报道中指出,我们与这类内容互动得越多,就越是在“奖励”那些制造“愤怒诱饵”的网红、品牌、媒体机构和政治人物。

澳大利亚心理学会会长、临床心理学家萨拉奎因(Sara Quinn)表示,观看愤怒诱饵时,我们可能会经历一系列情绪。奎因说:“当人们在自己非常关心的问题(例如社会问题或政治话题)上遇到挑衅性或误导性的信息时,会感到愤怒。尤其是当这些信息让人觉得不公正或具有分裂性时。”此外,残酷或歧视性内容可能导致恶心或反感情绪,造成人们挫败、精疲力竭,甚至产生无助感。长期反复接触挑衅性内容,还可能带来持续性影响,如抑郁和焦虑等。当用户接触此类信息,却不知道如何回应,会产生困惑,造成认知失调,甚至造成大规模的倦怠。

研究者表示,浏览愤怒诱饵,与之进行互动本身具有成瘾性。这些行为会带来快速的多巴胺刺激,让用户处于一种“持续高亢的状态”。另一方面,对于网上的特定内容感到愤怒是合理的,世界上发生的很多事情确实让人愤怒,我们也有正当理由去关注或作出回应。但在目前的互联网上,难点在于如何分辨内容背后的意图。

应该如何识别“愤怒诱饵”并避开这些内容?澳大利亚国立大学访问研究员、西蒙科普兰(Simon Copland)指出,愤怒诱饵的内容范围极大,从无聊琐碎到极端恶意都能被涵盖其中。科普兰表示,从令人恶心的菜谱,到错误信息(misinformation)、虚假信息(disinformation)、种族主义、性别歧视等冒犯性言论,都可能成为激发强烈情绪的诱饵,被平台算法放大。

尽管制作这类愤怒诱饵的动机不尽相同,但大致上可以分为两类:赚钱和影响他人观念。在社交媒体上,没有什么比互动更值钱,而此类内容带来的点击、观看、评论、点赞、转发、收藏……都在帮助帖子获得曝光。悉尼大学数字媒体高级讲师特奥多尔米乔(Teodor Mitew)说:社交媒体平台算法的最终目的,是让用户停留得更久,然后向他们展示广告,借此赚钱。这类内容能让发帖人和平台都从中获益,因此这类内容才会获得推广。科普兰指出,那些激起愤怒的政治帖子则旨在影响用户的信念:这类内容往往基于虚假信息,但却能在某些人身上引发政治上的改变。

对于如何避开这些诱饵,科普兰表示,将其视为一种“表演”,有助于我们减少与这些内容的互动。他建议,在互动一条帖子前,先停一下问自己:它看起来是不是故意让你生气的?也许在思考后,我们仍然想作出回应……但先退一步,这个过程会很有帮助。在理想情况下,减少互动会逐渐降低此类内容的推送频率。

除此之外,科普兰也给出了其他建议:在接触到此类信息后,我可以去查找信源,辨别其可信度;及时取消关注或屏蔽经常发布此类言论的用户;减少使用社交媒体,来平复情绪。米乔表示,碎片化内容带来的情绪过山车需要通过接触更长篇的内容来打破,阅读长篇文章或观看一部电影会是不错的选择。保持长时间专注,却没有即时回报对许多人来说并不容易,但就像“锻炼一开始并不舒服”一样,消费长篇内容对我们有益。

AI泡沫与劣化的劳动

2025年12月4日晚,加拿大科幻作家、数字权利活动家Cory Doctorow受邀参加华盛顿大学“神经科学、AI与社会”系列讲座。尽管他正在为自己今年的畅销新书Enshittification(《平台劣化》)进行路演,但在当晚,他提前向观众展示了他下一部著作The Reverse Centaur's Guide to Life After AI(《逆向半人马的AI生存指南》,预计2026年由FSG出版)的部分内容。

讲座题为The Reverse Centaur's Guide to Criticizing AI(逆向半人马的AI批评指南)。Doctorow给他在Medium的讲稿配了一张图,背景是库布里克《2001太空漫游》中HAL 9000那只令人不寒而栗的红色独眼,一个有着愤怒眉毛的“大便表情包”——Enshittification封面上的标志性图像——嵌在独眼的中央。

图源:Cory Doctorow的Medium账号

在演讲中,Doctorow没有谈论终结者式的末日,而是揭示了一个更为现实且残酷的威胁:一个由绝望的垄断资本驱动的、旨在将人类异化为机器附庸的巨大泡沫。

“我是个科幻作家,这意味着我的工作不是预测未来,而是编造关于当下的寓言。”Doctorow认为,预测未来是一种宿命论,暗示着未来已成定局,人类无力改变。而他,更愿意提供一种对技术社会安排的审视:不仅看这台机器能做什么,更要看它为谁做,以及它对谁做。

这就引出了演讲的核心隐喻:逆向的半人马(The Reverse Centaur)。

在自动化理论中,“半人马”(Centaur)是指人类与机器的理想结合——人类的大脑指挥不知疲倦的机器身体,比如驾驶汽车的人。这赋予了人类超人的能力。然而,Doctorow指出,当前的AI工具并非为了创造这种增强型人类而生,它们正在制造“逆向半人马”:机器的大脑安插在人类的肉体上。

油管博主@NorthoftheBorder的手工作品“逆向半人马”

最典型的例子就是亚马逊的配送司机。司机坐在布满AI摄像头的驾驶室里,摄像头监控着他们的眼球运动,如果看错方向就扣分;监控着他们的嘴巴,禁止唱歌。司机之所以存在,仅仅是因为自动驾驶面包车无法完成从路边到门廊的最后几米配送。在这里,人类成为了机器的血肉义肢,被机器以超人的速度和耐力驱使,直到被耗尽。

Doctorow警告说,这正是科技巨头们试图通过AI普及的未来工作模式:将人类降级为机器的执行端。

为什么科技巨头要如此疯狂地炒作AI?Doctorow从经济学角度给出了剖析。这并非单纯的技术突破,而是垄断资本的生存危机。

Google、Meta、Amazon等公司已经实质上垄断了各自的市场(搜索、社交、电商)。但这带来了一个致命问题:它们不再是“增长股”(Growth Stock)。在华尔街,增长股享受极高的市盈率,这意味着公司可以用毫无成本印制的股票作为货币来收购竞争对手或雇佣顶尖人才。一旦被市场认定为“成熟股”(不再增长),股价就会暴跌,公司将失去这种“印钞能力”。

Meta在2022年曾因增长放缓在一天内蒸发了2400亿美元市值,这就是垄断者的噩梦。

为了维持永远增长的假象,科技巨头必须不断制造泡沫。从加密货币到元宇宙,再到现在的AI。Doctorow 指出:“赢得赌注(比如真正建成元宇宙)只是次要目标。主要目标是让市场相信你会继续增长。”

因此,数千亿美元涌入AI领域,并不是因为AI真的能创造相应的价值,而是因为它是维持股价的救命稻草。

为了支撑这个价值数万亿的增长故事,AI推销员向各行各业的CEO兜售一个诱人的承诺:解雇高薪员工。

Doctorow举了放射科医生的例子。如果AI只是作为辅助(半人马模式),那是好事。但资本的目标不是让医疗更准确,而是更便宜。他们试图解雇90%的放射科医生,留下10%的人作为“人机协作回环中的人类”(human in the loop)。这10%的人不再是医生,而是“问责黑洞”(Accountability Sink)——背锅的人。

他们的工作不再是诊断,而是以超人的速度为AI的判断签字画押。当AI犯错时(必然会犯错),这个人类就要承担所有责任。这利用了人类生理上的“自动化盲区”——人类极其不擅长在长时间的重复工作中监控罕见的错误。正如TSA安检员擅长发现水瓶却很难发现红队测试中的炸弹一样,要求医生或程序员在海量AI生成的内容中发现微小的、统计学上难以察觉的致命错误,这在生理上是不可能的。

这对于程序员尤为致命。科技公司想解雇经验丰富的高级程序员,让AI写代码,让剩下的初级员工去审查。但AI生成的代码错误极其隐蔽,这种错误往往只有资深程序员能发现,而这恰恰是老板们最想解雇的人群。

在谈到AI艺术时,Doctorow的观点同样独树一帜。他认为AI艺术目前处于一种“怪诞”(eerie)的状态——看似有图画,实则缺乏意图。

但他更关注的是背后的版权战争。许多艺术家认为,应该通过扩大版权法,禁止AI拿人类作品进行训练。Doctorow 却大声疾呼:这是陷阱!

如果法律规定训练模型需要获得版权许可,那么只有像迪士尼、环球音乐这样拥有海量版权库的巨头才能训练合法的模型。这不仅不会保护个体艺术家,反而会加强巨头的垄断。他们会强迫新签约的艺术家转让“训练权”,就像流媒体时代他们剥削音乐人一样。

Doctorow讲述了美国唱片业协会(RIAA)CEO Mitch Glazier 的黑历史——此人曾试图通过立法剥夺音乐人收回录音版权的权利。现在,正是这个人和迪士尼在起诉AI公司。Doctorow警告艺术家:“如果你支持老板发起的诉讼,你需要记住阶级斗争的第一条规则:对老板有利的事情,很少对你有利。”

他提出的解决方案是:坚持美国版权局目前的裁定。AI生成的作品没有版权,属于公有领域。这意味着迪士尼如果用AI制作电影,以此节省人力,那么这部电影就没有版权保护,任何人都可以免费盗版。这将是阻止大公司完全依赖AI的最大经济威慑。艺术家也可以团结起来行使行业谈判权(Sectoral Bargaining),像好莱坞编剧工会那样,通过集体谈判来限制AI的使用,而不是依赖版权法。

Enshittification书封

虽然本次演讲的内容基于未来的新书,但它与Enshittification一书有内在联系。Doctorow在2022年创造的这个词描述了在线平台劣化的三个阶段:首先,平台利用风投资金补贴用户,以此锁定用户。一旦用户被锁定,平台开始滥用用户,将剩余价值转移给商业客户(商家、广告商),以锁定他们。一旦商业客户也被锁定,平台便开始同时滥用用户和客户,将所有价值收归己有,导致服务质量断崖式下跌,变成一堆“垃圾”。

AI泡沫与逆向半人马,正是劣化的终极形态。目前的科技巨头已经完成了平台劣化的全过程,榨干了搜索、社交和电商的有机增长潜力。为了掩盖增长停滞的事实,他们必须制造AI泡沫。

而“逆向半人马”则是劳动力的劣化。就像平台为了利润牺牲用户体验一样,AI被部署的初衷是为了牺牲工人的尊严和职业安全性,以换取短期利润。亚马逊司机被算法监控、好莱坞编剧面临AI剧本的威胁、程序员被要求审查AI垃圾代码,这些都是平台为了榨取最后一点价值,将高技能、有尊严的人类劳动,转化为廉价、可替代、无尊严的“组件”。

演讲的最后,Doctorow呼吁我们要尽快刺破AI泡沫。这个泡沫是“技术社会的石棉”,它被疯狂地填充进我们的墙壁,如果不加制止,我们将需要花费一代人的时间去清理这些有毒的残留物。

他提醒我们,不要被那些关于“AI产生意识”的科幻恐怖故事分散注意力。真正的恐怖不在于AI变得太聪明从而毁灭世界,而在于它足够平庸,却被用来赋予老板权力,解雇你的同事,并在你的脖子上套上算法的缰绳。

评论