文献:Leppanen, J. M., Hietanen, J. K., & Koskinen, K. (2008). Differential early ERPs to fearful versus neutral facial expressions: A response to the salience of the eyes? Biological Psychology, 78, 150-158. https://doi.org/10.1016/j.biopsycho.2008.02.002
1.背景介绍 ¶
人们认为存在专门的神经机制,来识别与我们将危险最小化和愉悦最大化的核心动机相关的刺激。事件相关电位 (ERP)的记录进一步表明,与从早期视觉处理开始,与积极/中性面部表情相比,威胁相关(恐惧/愤怒)的面部表情会引发相关成分(P100,N170)的不同激活模式。相对于中性表情,恐惧或愤怒表情引发的ERP激活从N170成分的延迟开始会出现持续100ms甚至更长时间的负向偏转。在使用非情感材料(如颜色或几何形状)的研究中,任务相关的目标刺激相对于任务无关的干扰物观察到了类似的负向偏转。因此,负向偏转的开始可用作情绪/动机相关和中性(或与任务无关)刺激被区分并在皮层视觉系统中进行差异处理的时间标记。杏仁核被认为在快速检测威胁信息方面发挥着关键作用,它不仅被恐惧的面孔激活,而且被嵌入中性面孔的恐惧眼睛和孤立呈现的恐惧眼睛激活。还有证据表明,与面部相关的早期ERP(N170)对眼睛特别敏感,但是,在皮层处理的早期阶段(即N170成分及以上水平),恐惧和中性表情的不同处理是否由眼睛区域的线索驱动仍是未知的。
为了直接检验恐惧和中性表情的快速辨别是由眼睛区域的线索驱动的假设,进行了三个实验。
2.假设 ¶
如果对恐惧和中性表情的区分是基于眼睛区域的线索,那么恐惧和中性表情的早期ERP差异差异(即,恐惧表情引发的ERP 负向偏转约发生在刺激后200-300ms) 应该被观察到,即使 面部的眼睛区域是单独呈现的,恐惧和中性的表情也应该在行为上被区分;假设遮住眼睛会阻碍对恐惧表情的识别,导致恐惧和中性面孔的早期 ERP 分化减弱/消除,以及对恐惧 表情的识别行为延迟和不太准确。
3.实验一 ¶
3.1被试: ¶
18名志愿者(11名女性,平均年龄=27岁,范围:18-50岁)。
3.2刺激: ¶
刺激是来自 MacBrain Face Stimulus Set1 (Tottenham et al., 2002) 的两名男性和两名女性模特的恐惧和中性面部表情的彩色图片。通过在原始面孔上绘制“墨镜”,创建了遮住眼睛的恐惧和中性面部表情(见图 1)。
3.3程序: ¶
眼睛可见的面孔、眼睛被遮住的面孔和单独的眼睛分别在三个模块中单独呈现,每个模块包含128个面孔刺激(恐惧和中性各64个)。刺激呈现500ms,然后是2000ms的刺激间隔(ISI),两种面孔随机呈现,没有给被试是被表情的指令(被动任务),为了确保被试在整个过程中都关注屏幕,当屏幕上出现汽车图片时要求被试按下按钮。
3.4 ERPs的获取和分析: ¶
使用电极帽 (Electrocap) 记录连续 EEG,其中 21 个电极根据 10-20 系统定位,左侧乳突作为参考,垂直 (VEOG) 和水平 (HEOG) 眼电图从左眼中点上方和下方以及每只眼睛的外眦旁的位置进行双极监测,带通滤波0.1-100Hz,在刺激前100ms开始对600ms的片段使用30Hz的低通滤波进行离线数字滤波,排除眨眼和眼球运动的伪迹,计算每个实验条件下每个被试的平均波形。
分析检查了面部表情对P100和N170成分的影响,P100的峰值幅度是通过确定80-120 ms 时间窗口内的最大正峰值来测量的,而 N170 的峰值幅度是通过确定 120-200 ms 时间窗口内的最小幅度来测量的。通过重复测量方差分析 (ANOVA) 对面部表情(恐惧、中性)、刺激类型(眼睛可见的面孔、眼睛被遮住的面孔、单独的眼睛)、半球(左、右)以及振幅分数进行被试内因素分析。本研究中特别感兴趣的是面部表情和潜在面部表情 × 刺激类型相互作用的主要影响。3.5 结果: ¶
每个刺激条件下恐惧和中性面孔刺激的枕颞头皮外侧的ERP如图2所示。所有面部刺激均在101 ± 8 ms 的平均潜伏期引发正偏转 (P100),然后在 153 ± 7 ms 的平均潜伏期出现显著的负偏转 (N170)。 恐惧和中性面孔的P100成分没有显著差异;与左半球相比右侧N170负偏转幅度更大,但两种面孔之间的N170没有显著差异;从 N170 成分的峰值开始持续大约 100 ms(图 2),观察到恐惧相对于中性表情的轻微负偏转;没有观察到面部表情与刺激类型或面部表情与半球之间的显著交互作用;160ms-260ms之间出现了面部表情的显著主效应。3.6 讨论: ¶
实验一的结果表明,恐惧和中性面部表情之间 P100 和 N170 成分的峰值幅度没有差异。在刺激后 160-260 ms 观察到恐惧相对于中性表情在颞侧头皮上的 ERP 振幅负向偏转的预期模式。眼睛可见和单独的眼睛刺激条件下,都观察到恐惧表情的ERP的负向偏转,这一发现支持了这样一种假设,即可以仅根据眼睛区域(即眼睛和/或眉毛)的线索来区分恐惧和中性面部表情。然而,目前的结果还表明,眼睛本身的可见性并不重要,因为当眼睛被覆盖时发现了 ERP 分化。
4.实验二 ¶
假设仅根据眼睛区域的线索,恐惧和中性表情就可以在高于偶然水平上被区分;检查了遮住眼睛是否会降低区分恐惧和中性表情的准确性,并导致更长的区分时间;进一步检查当眼睛被遮住时,恐惧和中性表情的 ERP 差异没有减弱的原因,一个可能的解释是,提前告知被试眼睛遮挡的情况,被试会策略性的将注意力转移到了眼睛以外的区域,利用这些区域的信息进行判断,为了检验这种可能性,实验二以两种不同的方式呈现刺激:单独呈现刺激和在同一个模块内混合呈现刺激。当被试无法预测眼睛的可见性时,关注眼睛区域的趋势会更加明显。
4.1被试: ¶
十二名志愿者(10 名女性,年龄 M = 27 岁,范围 19-46 岁)。
4.2刺激和程序: ¶
刺激同实验一。刺激呈现、时间和响应记录(response registration)由 E-Prime 程序和 E-Prime 按钮框面板控制。要试被求确定屏幕上呈现的表情是恐惧还是非恐惧,并按下相应标记的响应键。进行了两个系列的各 96 次测试试验,在一个系列中,全脸、遮挡眼睛面孔和单独的眼睛被呈现在由短暂中断(32 个刺激/块)分隔的单独模块中;在另一个系列中,不同的刺激类型以不间断的混合方式呈现,两个系列的顺序在被试之间是平衡的。
4.3数据分析: ¶
通过计算每种刺激条件下恐惧和中性面孔的正确反应百分比和平均反应时间 (RT) 来分析行为数据。
4.4 结果: ¶
关于正确响应百分比的2(面部表情)×3(刺激类型)×2(条件:模块、混合)方差分析产生了刺激类型的显著主效应,以及刺激类型×面部表情交互的趋势。对恐惧表情和中性表情的单独分析表明:对于恐惧表情,在“眼睛可见”条件下的准确度得分最高,在眼睛覆盖条件中,准确度分数略低,在单独眼睛条件中显著较低;对于中性面孔,眼睛可见条件下的准确度分数 略低于眼睛遮挡条件下的准确度分数,单独眼条件下的准确度得分与眼睛可见条件下的准确度得分显著不同。 对 RT 数据的 2 × 3 × 2 方差分析显示条件的主效应显著。与单独模块相比,混合条件 (642 ms) 中的总体 RT 更慢。在单独模块(blocked)条件下,眼睛可见(582 毫秒)和眼睛覆盖(551 毫秒)条件下的 RT 没有差异,但单独眼睛中的 RT 显著慢于眼睛覆盖条件下的 RT;在混合条件下,与眼睛覆盖 (633 毫秒) 条件和单独眼睛 (683 毫秒) 条件相比,眼睛可见 (611 毫秒) 中的 RT 明显更快,这种模式在恐惧和中性表达中都可见。
4.5 讨论: ¶
实验 2 的结果表明,即使仅呈现表情的眼睛区域,恐惧和中性表情的分类也远高于偶然水平 (50%),支持眼睛区域为将面孔分类为恐惧与非恐惧提供足够信息的假设。结果还表明,与显示整个面孔的刺激相比,当仅呈现眼睛区域时,分类不太准确且速度较慢。这表明仅眼睛中的信息不用于分类决策,并且整个面部表情中存在的附加线索允许更快和更准确的分类。在混合条件下,观察到眼睛可见的面孔与眼睛被遮挡的面孔相比具有微小但显著的速度优势。
5.实验三 ¶
进一步检查眼睛区域对于恐惧和非恐惧面部表情的ERP和识别的重要性。实验 1 和 2 中的单独眼睛刺激除了眼睛之外还包括眉毛,因此很难确定这些实验中的发现是反映了眼睛和眉毛中视觉信息的作用,还是仅反映了眼睛中的视觉信息。为了解决这个问题,实验 3 包括描绘眼睛和眉毛的刺激以及仅显示眼睛的刺激。同样,创建了两种类型的眼睛被遮住的面孔:眼睛和眉毛被遮住的面孔和只有眼睛被遮住的面孔。使用混合刺激增加检测 ERP 和行为表现中的条件差异的可能性,要求被试将面部表情分类为恐惧和非恐惧。
5.1被试: ¶
12 名女性志愿者参加了实验 3(年龄 M = 20 岁,范围 18-22 岁)。
5.2刺激: ¶
刺激是来自 MacBrain Face Stimulus Set(见脚注 1)(Tottenham 等,2002)的五名男性和五名女性模特的恐惧和中性面部表情的彩色图片。绘制了两种不同大小的“墨镜”叠加在面孔,形成了遮住眼睛和眉毛和只遮住眼睛的面孔。此外,还创建了两种类型的“letter box”图像,一种显示眼睛和眉毛,另一种仅显示眼睛。
5.3程序: ¶
刺激呈现 500 ms,然后呈现一个问号,它会一直停留在屏幕上,直到被试做出反应。要求被试识别屏幕上呈现的表情是恐惧还是非恐惧,并在屏幕上出现问号时按下相应标记的响应键。在响应之后,在下一次试验开始之前有 1000 ms的刺激间隔 (ISI),总共运行 500 次试验(每个条件 50 次试验),每 100 次试验后有短暂的休息。
5.4 ERPs的获取和数据分析: ¶
使用与实验 1 中相同的记录设置记录连续 EEG 和 HEOG/VEOG,鼻尖作为在线参考。
5.5 结果: ¶
5.5.1 行为结果: ¶
2(面部表情)×5(刺激类型)重复测量方差分析产生了面部表情的显著主效应,面部表情×刺激类型交互作用。对于恐惧表情,正确反应的百分比在眼睛可见的条件中最高;在单独的眼睛和单独的眉毛和眼睛条件下,正确响应的百分比略低,但差异不显著;在遮挡眼睛条件和遮挡眼睛和眉毛条件 (73%) 中,正确响应的百分比显著较低。对于中性表情,未发现刺激类型之间的显著差异。
5.5.2 ERP: ¶
图 4 显示了在每个刺激条件下,在枕颞部外侧的恐惧和中性表情的 ERP。P100成分的峰值幅度对于恐惧和中性面部表情没有差异,但面部表情的主效应显著,并且面部表情 × 刺激类型交互作用显著。N170在眼睛可见和眼睛被遮挡条件下的恐惧表情比中性表情的峰值幅度要大。对 N170 成分以外的 ERP 振幅的分析揭示了面部表情的显著主效应,以及在160到210ms的间隔内,面部表情×刺激类型的交互作用显著。在全部面孔可见条件和遮挡眼睛条件的刺激后160-260ms、单独眉毛和眼睛和单独眼睛条件的刺激后160-260ms,相对于中性面孔恐惧面孔的ERP有显著的负向偏转。
5.6 讨论: ¶
实验 3 的结果显示,在刺激开始后大约 160 ms开始,相对于中性表情,恐惧表情侧颞电极部位的ERP负向偏转。眼睛本身的信息足以引起恐惧和中性表情的 ERP 区分,因为即使仅呈现眼睛时也观察到负向偏转,然而,当眼睛被遮挡时也观察到了负向偏转。眼睛区域(眼睛和眉毛)的可见性似乎更为关键,因为当眼睛和眉毛被遮挡时,没有观察到恐惧和中性表情的ERP差异。与单独的眼睛和眉毛相比,可以更快地在整个面孔条件中对恐惧和中性表情进行分类。
6.总结 ¶
与之前的 ERP 研究一致,目前的结果显示,相对于中性面部表情,恐惧表情的枕颞头皮区域的 ERP 发生了负向偏转。这种负向偏转始于 N170 成分的延迟(实验 3)或稍晚(实验 1)。后验 ERP 负性被认为反映了对被标记为具有动机意义(或与任务相关)的刺激的选择性处理,并且在知觉表征区域受到增强的处理。尽管是推测性的,但杏仁核可能在情绪突出和中性面部表情之间的早期 ERP 区分中发挥重要作用。
总之,目前的结果表明,眼部区域对于恐惧和中性面部表情之间的快速 ERP 区分至关重要。眼睛区域的重要线索可能与眉毛的形状、眉毛之间的空间关系以及眼睛中的信息(黑色虹膜和瞳孔上方和两侧的白色巩膜的大小)有关。结果还表明,虽然眼睛区域的信息为 ERP 和恐惧和中性面部表情之间的行为区分提供了足够的判断信息,但当整个面部可见时,区分速度更快、更准确。这些发现共同表明面部表情处理的神经系统使用可用面部信息的方式具有灵活性。也就是说,面部表情分类背后的神经系统可能会响应并利用来自多个来源的信息,以确保快速准确的分类,而不是以固定方式响应眼睛区域中的线索。