别小看表情符号!研究发现:大脑把它们当真脸处理

你可能会觉得,屏幕上的笑脸😊和真实的人类笑容完全是两码事——就像火柴人和高清照片的差别。但一项新研究给出了令人意外的结论:人类大脑在处理表情符号(emoji)的情绪时,其方式与处理真人面孔惊人地相似,至少在最初几分之一秒内是这样。

这项由英国伯恩茅斯大学Géza Gergely Ambrus团队主导的研究,发表于《心理生理学》期刊。科学家们发现,当人们观看表情符号和真实照片时,大脑产生的脑电波模式高度重叠,甚至到了一个程度:一个基于真实面孔反应训练出来的计算机算法,能够成功识别出受试者观看表情符号时的情绪信号——反之亦然。

实验怎么做的?

研究包含两个设计几乎相同的独立实验:

  • 第一组:24名参与者观看8位真人(4男4女)的照片,照片中的表情包括:快乐、愤怒、悲伤、中性
  • 第二组:25名不同参与者观看来自苹果、Facebook等6个平台的同款表情符号,也是相同的四种情绪。

两组参与者都佩戴了带有64个传感器的帽子来记录脑电活动。每次试验流程是:注视点 → 显示人脸/表情符号1秒 → 要求参与者从两个选项中选出正确情绪。只分析回答正确的试验数据。

与传统的单点分析不同,研究团队使用了一种多传感器协同读脑模式的方法,能够捕捉到被忽略的微弱信号。

大脑信号透露了什么?

1. 情绪解码速度快

  • 表情符号:刺激出现后约70毫秒开始产生可识别的情绪信号,155毫秒左右达到峰值。
  • 真人面孔:信号约在120毫秒出现,160毫秒达到峰值。
  • 两者信号峰值都出现在大脑后部区域——这个区域长期被认为专门负责面孔处理

2. 交叉识别成功——最关键的发现

  • 用真人面孔数据训练的算法,去分析表情符号组的数据(不同人、不同刺激),仍然能够成功解码出受试者看到的是哪种情绪(时间窗口在115–200毫秒之间)。
  • 反过来也一样:用表情符号数据训练,再去识别真人面孔反应,也得到了类似结果。
  • 这表明:无论面孔是真是假,大脑使用了共享的神经编码机制
  • 此外,在较晚的时间窗口(350–500毫秒),还出现了第二波共享活动,说明重叠不仅发生在最初的“快速判断”阶段,也延伸到了大脑赋予情绪意义的后续阶段。

3. 哪些情绪最容易被识别?

  • 愤怒 vs. 中性:跨面孔类型解码最可靠。
  • 快乐 vs. 中性:解码效果也很好。
  • 愤怒 vs. 悲伤(两种负面情绪):大脑最难区分——无论是对真人面孔还是表情符号。

意外发现:表情符号的信号有时比真人面孔更“干净”

研究者推测,这可能是因为表情符号被设计为特征夸张化(比如超大号的撇嘴、灿烂的笑容),使得不同情绪类别之间的边界变得格外清晰。而真人面孔的情绪表达更加微妙,且个体差异会模糊这些情绪边界。

这意味着什么?

在过去,学界对大脑是把表情符号当作真正的情绪信号,还是更像抽象符号来处理,所知甚少。早期研究发现表情符号可以引发类似真实表情的面部肌肉反应和皮肤电反应,但那些研究主要关注差异,而非共性

本研究则直接证明了:在特定的早期时间窗口内,大脑对这两种视觉输入存在共享的神经编码。这对于数字时代的沟通很有解释力——如今人类大量的情绪交流发生在屏幕上,这项发现可能正是那些小黄脸图标为什么“感觉像真的一样”的神经科学原因。

⚠️ 研究者明确指出的局限性

  • 样本量小且单一:均来自同一所大学的年轻成年人,两个实验使用不同的参与者组,而不是同一批人看两种刺激,限制了对个体差异的控制。
  • 刺激类型有限:采用的是标准化的摆拍表情和风格化的表情符号,不能覆盖日常自发的、情境嵌入的情绪表达的全部变异性。
  • 女性占多数:两组参与者均以女性为主,研究未设计评估性别相关差异。
  • 试验数量不一致:真人面孔实验每个情绪呈现96次(共384次),表情符号实验每个情绪72次(共288次),可能轻微降低表情符号条件的分类型器稳定性。
  • 不泛化到所有情境:研究者明确表示,他们并未声称解决语义或目标等社会认知影响,也未断言结果可以推广到所有自然主义表达处理的情境。

一句话总结

你的大脑并没有把😂纯粹当成一个符号——至少在最初一瞬间,它动用了处理真人情绪面孔的那套古老神经回路。

本文译自:studyfinds(编译 / 整理:olaola

封面图片:unsplash/Domingo Alvarez E