aoi学院

Aisaka's Blog, School of Aoi, Aisaka University

CSIG云上微表情-第70期-微表情国际挑战赛 - MEGC@ACMMM25

微表情是一种短暂的、微弱的、无意识的面部微表情,持续时间往往在0.5s内,能够揭示人类试图隐藏的真实情绪。微表情识别的研究旨在让机器有足够的智能,能够从人脸视频序列中识别人类的真实情绪。然而由于微表情持续时间短、面部肌肉运动强度低,对其进行准确的表征与识别是一项极具挑战性的任务。为了促进心理学领域和计算机视觉领域针对微表情的进一步研究,由中国图象图形学学会(CSIG)和中国科学院心理研究所举办、CSIG机器视觉专业委员会、CSIG情感计算与理解专业委员会、CSIG生物特征识别专委会和中科院青促会心理所小组联合承办,中国科学院心理研究所的王甦菁博士和李婧婷博士组织一系列云上微表情的学术活动。
第七十期云上微表情于2025年10月29日晚7点进行。此次讲座主题为“MEGC@ ACM MM2025”,分别邀请了2025微表情国际挑战赛中两个赛道获胜者介绍相关研究工作,欢迎大家关注!

微表情是指个体在试图隐藏真实情绪时无意中显露的短暂面部表情,在国家安全、医疗护理、金融投资等多个领域展现出广阔的应用前景。微表情检测作为现实场景下智能微表情分析的关键步骤,具有不可替代的重要性。然而,由于微表情具有幅度小、持续时间短的特点,现有模型往往难以将其与其他面部动作有效区分。因此,在长视频中实现精准的微表情检测仍然是一项挑战性任务,当前的技术性能尚无法满足实际应用需求。
另一方面,尽管大模型在各类推理与语义理解任务中表现优异,它们对于微表情这类微妙情绪线索的识别能力仍有待验证。微表情通过面部肌肉的瞬时变化泄露被压抑的情绪,这促使我们思考大模型是否能有效捕捉这类细微信号。通过融合视觉语言模型(VLMs)与多模态大语言模型(LLMs),并借助多样化的提示工程技术和输入格式,为微表情识别提供了新的可能路径。同时,在大规模面部表情数据上对模型进行微调,也有助于提升其对细微情绪变化的感知能力。
将大模型引入微表情分析领域,不仅能实现自然语言交互,还可发挥其零样本学习的优势,从而克服传统分析方法的局限性。尽管VLMs与多模态LLMs在推理任务中表现出色,它们是否具备捕捉细粒度微表情线索的能力,目前尚不明确。有效的提示工程与模型微调依赖于精心设计的架构和高质量的标注数据。更为关键的是,如何确保这些模型实现真正的微表情语义理解,而非仅停留在表层特征匹配,仍是当前亟待解决的核心问题。
本届挑战赛面向微表情的实际应用以及基于大模型的微表情识别设置相关任务:
赛道一:
Spot-then-Recognize(STR) Task: 微表情检测与识别,在视频中首先检测微表情发生时刻,然后对检测到的微表情片段进行情绪类型识别。
赛道二:
Visual Question Answering (VQA) Task:基于视觉大模型和多模态大模型的视觉问答任务,用于推断微表情的特性,实现情绪识别和自然语言交互。
挑战赛官方网站: https://megc2025.github.io