aoi学院

Aisaka's Blog, School of Aoi, Aisaka University

CSIG云上微表情-第39期-多模态情感计算方法与应用研究初探

微表情是一种短暂的、微弱的、无意识的面部微表情,持续时间往往在0.5s内,能够揭示人类试图隐藏的真实情绪。微表情识别的研究旨在让机器有足够的智能,能够从人脸视频序列中识别人类的真实情绪。然而由于微表情持续时间短、面部肌肉运动强度低,对其进行准确的表征与识别是一项极具挑战性的任务。为了促进心理学领域和计算机视觉领域针对微表情的进一步研究,由中国图象图形学学会(CSIG)和中国科学院心理研究所举办、CSIG机器视觉专业委员会、CSIG情感计算与理解专业委员会和中科院青促会心理所小组联合承办,中国科学院心理研究所的王甦菁博士组织一系列云上微表情的学术活动。

第三十九期云上微表情于2023年05月04日晚上7点进行,由中国科学院心理研究所王甦菁老师团队的李婧婷博士主持。此次讲座邀请到来自北京科技大学的邹博超博士做主题为“多模态情感计算方法与应用研究初探”的学术报告。

讲者简介

邹博超博士,本硕博毕业于北京理工大学,现就职于北京科技大学计算机与通信工程学院,曾在哈佛大学医学院联合培养两年,曾任中国电科电子科学研究院高级工程师,主要从事视觉认知与情感计算等领域研究,发表论文20余篇,授权发明专利4项,主持国自然青年基金、博士后面上等项目,作为子课题负责人承担科技创新2030重大项目、国自然联合基金重点项目,作为项目骨干参与国自然重大仪器研制项目。入选2023年度北京市科协青年人才托举工程,获得2021年中国电子科技集团科学技术一等奖,ICMAI 2020国际会议优秀报告奖,是IEEE Transactions on Affective Computing、Scientific Reports等多个国际SCI期刊的审稿人及IGTA2022国际会议组委会主席,兼任北京物联网学会青年专委会副秘书长、北京图像图形学学会青年工委委员。

报告题目:
多模态情感计算方法与应用研究初探

报告内容:
情感是人类体验的基础,影响着人类生活中认知、感知等多项日常任务。在人工智能的研究中,拥有对情感的识别、分析、理解、表达的能力是必不可少的智能之一。相较于计算机视觉与自然语言理解等其他人工智能领域的研究,情感计算的研究还处于相对未成熟阶段,即对情感信息的获取及情感的识别,这是情感计算研究的前提,为进一步分析和理解提供条件。情感可通过生理信号等多维度信息体现,而接触式信号采集面临限制应用场景的瓶颈,非接触式无感测量有着更大的潜在应用价值。本报告中将探讨非接触多模态情感计算的基础理论与方法,介绍课题组在非接触生理信号提取、微弱表情检测、跨模态融合与时序建模等方法上的研究进展,及其面向公共安全与医疗心理领域的应用。