天天刷社交媒体,AI 的脑子也坏掉了!还很难恢复
创始人
2025-10-26 22:15:41
0

你每天会花多长时间在刷社交媒体上?不知道你是否会有这样的体验——经常刷社交媒体,看一些没有深度的内容之后,会觉得自己很难集中注意力去深入阅读一本书,或者深度思考一些问题了。

有意思的是,科学家们在 AI身上也发现了类似的情况。

德州农工大学、德州大学奥斯汀分校、普渡大学的研究者就共同发表了一项研究,里面就提到,使用大量社交媒体上受欢迎的短内容、标题党等的“垃圾信息”对大语言模型进行训练,会让大语言模型出现“脑腐”的现象。

图库版权图片,转载使用可能引发版权纠纷

“脑腐”是啥?

“脑腐”(brain rot)这个词并不是谁在卖萌跟你说老虎,它是《牛津词典》评选的 2024 年年度词汇。

它的大意是说“阅读了大量碎片化、没有深度的内容(现在尤其指网络内容),一个人的精神和智力状态发生的衰退”。

这个词其实并不是 2024 年才出现的,它的出现最早可以追溯到 1854 年亨利·卢梭写的《瓦尔登湖》中。只不过在数字时代,尤其在 2024 年,这个词的使用频率大大增加。

牛津大学的心理学家安德鲁·普日比尔斯基(Andrew Przybylski)教授表示,虽然“脑腐”并不是一个正经的科学研究术语,毕竟目前还没有心理学或者神经科学研究对脑腐给出明确的定义。但这个词的再度流行,体现出了人们对现在网络流行内容的焦虑。

牛津大学出版社语言数据与词典事业部负责人卡斯珀·格拉斯沃尔(Casper Grathwohl)也提到,“脑腐”这个词的再度流行很有意思,这个词本身在Z世代和 α 世代(也就是 95 后到 10 后)群体中很流行。这两个群体也正是社交媒体上数字内容主要的使用者和创造者,在这个群体中“脑腐”能流行,说明他们对社交媒体内容的危害有着某种程度的心知肚明。

虽然目前还没有针对人类的“脑腐”研究,但 AI 科学家已经迫不及待地开始对大语言模型做实验了,想看看我们创造的数字大脑是不是也会“脑腐”。

大语言模型会脑腐吗?

为了研究这个问题,研究者首先要定义什么叫垃圾信息,什么叫大语言模型的“脑腐”。

1

垃圾信息

研究者选取了两个维度来定义垃圾数据。

维度一:长度与受欢迎度

这一维度基于信息的长短和受欢迎程度(转、评、赞之类的互动数据)对信息进行区分。

对于那些信息长度很短,转、评、赞数据非常高的,这样的信息被认定为是碎片化、吸引眼球的。而那些内容比较长,转评赞比较低的,被选为对照组。

维度二:语义质量

这一维度衡量的是信息的内容质量。

如果内容标题是典型的“标题党”,比如“WOW”“LOOK”“TODAY ONLY”,类似于中文媒体上的“震惊”“刚刚收到通知”之类的,内容就会被归为垃圾信息。

另外,如果内容里满是夸大其词的说法,同样会被标记为垃圾数据。而陈述事实、有教育性的、合情合理的内容被作为对照组。

有了这两个维度的垃圾数据,研究者就给LLaMA(基础版)大语言模型“调制”了几份训练食谱。

研究者把“第一类垃圾”和“第二类垃圾”分别与各自的对照组信息按比例调配成 5 组(两类“垃圾信息”不混用,所以总共为 10 组)。

垃圾信息的占比为 100%,80%、50%、20%、0%(即全部用对照数据)。然后分别用这 10 组数据训练模型。

2

“脑腐”评价维度

有了“垃圾素材”,接下来研究者还需要设定几个可衡量的维度,从而判断垃圾信息是否会对大语言模型的认知能力产生影响。

研究者选择了四个维度:推理能力、记忆和多任务处理能力、道德规范和性格特征。

推理能力测试是让 AI 处理简单、困难的抽象逻辑推理题(ARC),以及在做题时候展示思维链过程。

记忆和多任务处理是通过一些特定的测试方法,检测模型的上下文理解能力,以及从海量的内容中检索多个关键信息的能力。

道德规范使用的是 HH-RLHF 和AdvBench基准。大致是诱导 AI 生成一些有害的、有偏见的、或者露骨、暴力、违法的内容,看 AI 是否能“经受住考验”。

性格特征是通过一些性格测试问卷,来判断 AI 在某些人格特性方面的倾向。

有了训练数据和评估标准,接下来就要看 AI 的具体表现了。

AI 果然“脑腐”了

在使用“第一类垃圾”和“第二类垃圾”干扰的情况下,大语言模型的四项能力都受到了影响。

从上到下四个评估维度分别为推理能力、长文本处理能力、道德规范和性格特征。数据红色表示比基准值更差,蓝色表示比基准值好。图片来源:参考文献[2]

比如,在简单、困难和要展示思维链的抽象推理能力上,两种垃圾数据都让模型的评分降低了。相比之下,投喂第一类垃圾(也就是“肤浅”且互动量大的垃圾信息),评分下降的更多。

通过进一步分析发现,大语言模型无法完成推理挑战的主要原因是“思维跳跃”,即 AI 无法生成准确的中间推理步骤(就好比人类无法进行步骤比较长的深入思考了)。

对于记忆和多任务处理能力,从整体上看,两类数据也都让模型评分降低了,而且也是第一类垃圾数据让评分下降的更多。

在道德规范方面趋势也是相同的,两类数据都让安全风险值变高了(越高意味着越不安全)。

而在人格特质上,两类垃圾数据的影响不尽相同,相比之下,第一类垃圾数据产生的负面影响更糟一些,它让模型的自恋、精神病态、马基雅维利主义(可以简单理解为功利主义)的评分提高了。

可以说,垃圾数据让大语言模型全方位地“脑腐”了。

脑腐难以恢复

研究者还发现,大语言模型认知能力的全面衰退,也就是“脑腐”,并不能通过简单的微调来消除,而且即便后续使用高质量的数据进行预训练,模型依然会表现出“脑腐”的特征。

这给大语言模型的训练提了个醒,随着大语言模型训练资料越来越多,可能会让越来越多的网络资料被“吸纳”进训练数据库里。

这样的训练数据很可能会对大语言模型造成难以消除的影响,在使用互联网内容的时候要小心。

当然了,看到这项研究,网友们也纷纷表示,希望这项研究最好不要在“影射”什么。如果人类的大脑也会受到这样的影响,或许,我们也已经“脑腐”了吧。

图片截取自微博评论

参考文献

[1]https://corp.oup.com/word-of-the-year/#:~:text=brain%20rot,to%20lead%20to%20such%20deterioration.

[2] Xing, S., Hong, J., Wang, Y., Chen, R., Zhang, Z., Grama, A., ... & Wang, Z. (2025). LLMs Can Get" Brain Rot"!.arXivpreprint arXiv:2510.13928.

策划制作

作者丨科学边角料 科普创作者

审核丨于乃功 北京工业大学教授 中国人工智能学会理事

策划丨徐来

责编丨丁崝

审校丨徐来、张林林

相关内容

热门资讯

寻礼曲阜感受年味(新春走基层)... 本文转自:人民日报本报记者 王 沛 本报通讯员 张 艳   入夜,沂水静流。山东曲阜市尼山鲁源村景区...
世运电路:公司AI智能体的相关... 每经AI快讯,有投资者在投资者互动平台提问:公司电子产品可应用于哪些AI应用领域?AI智能体呢? 世...
智能体“搅动”行业 但AI医疗... [ 随着近年来AI技术的进步,AI是否能够帮助医生书写病历,也成为临床医生最为期待的事情。然而,由于...
最高法:明确夫妻一方违反忠实义... 3月2日,最高人民法院举行“迎两会·守公正·启新程”第十三场新闻发布会,介绍《中华人民共和国民法典》...
热度飙升!非遗、冰雪…禹州元宵... 月圆向吉,花开向喜。如果说春节是一场盛大的团圆,那么元宵节就是这场盛会最华丽的高潮。在禹州,这份欢腾...
Galaxy S26系列发布:... 三星在今天的Unpacked发布会上推出了Galaxy S26系列手机,包括Galaxy S26 U...
OpenClaw修复ClawJ... OpenClaw已修复一个高严重性安全漏洞,该漏洞若被成功利用,可能允许恶意网站连接到本地运行的人工...
女子怀抱五个多月的婴儿在扶梯上... 据媒体报道,3月1日,云南一宝妈怀抱五个多月的婴儿站在扶梯上,身后另一名女子拉着孩子顺手将玩具车放上...
“养龙虾”,成为AI新团宠还不... 猎豹移动CEO傅盛卧床14天,靠OpenClaw搭建了8个AI Agent(智能体)替自己办公:除夕...