首页 | 本学科首页   官方微博 | 高级检索  
     

面孔表情和声音情绪信息整合加工的脑机制
作者姓名:李萍  张明明  李帅霞  张火垠  罗文波
作者单位:辽宁师范大学脑与认知神经科学研究中心, 大连 116029
基金项目:* 国家自然科学基金项目资助(31871106)
摘    要:在现实生活中, 有效的情绪识别往往依赖于不同通道间的信息整合(如, 面孔、声音)。本文梳理相关研究认为, 面孔表情和声音情绪信息在早期知觉阶段即产生交互作用, 且初级感知觉皮层负责两者信息的编码; 而在晚期决策阶段, 杏仁核、颞叶等高级脑区完成对情绪信息内容的认知评估整合; 此外, 神经振荡活动在多个频段上的功能耦合促进了跨通道情绪信息整合。未来研究需要进一步探究两者整合是否与情绪冲突有关, 以及不一致的情绪信息在整合中是否有优势, 探明不同频段的神经振荡如何促进面孔表情和声音情绪信息整合, 以便更深入地了解面孔表情和声音情绪信息整合的神经动力学基础。

关 键 词:情绪  整合效应  ERP  神经振荡  fMRI  
收稿时间:2018-05-17
本文献已被 CNKI 等数据库收录!
点击此处可从《心理科学进展》浏览原始摘要信息
点击此处可从《心理科学进展》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号