首页 > 天际云想 > 基于持续学习的多模态情绪感知系统
基于持续学习的多模态情绪感知系统
40软件学院
作品介绍

基于持续学习的多模态情绪感知系统

 

作者:骆炳君 邵璟之 软件学院

指导老师:赵曦滨 软件学院

 

关键词:情绪感知、持续学习、多模态

 

摘要

情绪是人类认知、思考与行为过程中所产生的复杂心理和生理状态。情绪感知技术在人机交互、工业控制、医疗教育等领域取得了广泛的应用,是分析用户行为、评估心理状态、监控病情发展等任务的重要工具,具有极高的研究和应用价值。实际应用中的情绪具有表达通道多样化和种类精细化的特点:情绪的表达通道丰富多样,例如面部表情、动作等视觉信号以及心电(ECG)、脑电(EEG)等生理信号;情绪分类日趋精细化,越来越多的复杂情绪类型开始被公众所创造、关注和使用。针对上述特点所带来的挑战,本作品充分利用视觉信息与生理信号等多模态的数据,探索多模态数据在情绪感知中的复杂关联,深度融合多模态学习和持续学习的理论方法,提出了更加准确可靠的精细化情绪感知方法,在此基础上设计搭建了面向真实场景的司乘人员情绪监测系统。

 

精细化情绪的动态建模方法

传统的持续学习研究多局限于图像分类任务,在情绪感知领域还处于一片空白。本作品首次将持续学习的理论方法应用于情绪感知任务中,针对情绪多样性和个体差异性的特点提出了新的训练损失函数,构建了类型可动态增加的情绪感知模型。与传统的固定分类情绪感知模型相比,我们的模型不仅能灵活地适应情绪类型的动态变化,还能在保持较高准确率的前提下,大大减少模型增量训练过程中的时间和空间开销。相关成果已发表于ACM MM 2020会议,正在申请专利1项。

图1 人类智能与机器智能在不断学习新类别情绪时的对比

图2 动态情绪感知模型框架

 

多模态生理信号的情绪预测方法

为了能够利用多模态生理信号对个体情绪状态进行监测,形成心理素质的个性化客观量化评估,本作品提出了用超图对样本之间的复杂关联进行统一建模,通过多模态之间的信息融合,联合学习端到端的特征表示方法,充分利用不同模态的信息,对比个体间的生理属性,最终实现对于情绪状态的精确识别。相关成果已发表于ICIP 2019会议。

图3 多模态情绪预测模型框架

 

司乘人员情绪检测原型系统

本作品在前述两项成果的基础上,充分利用已有研究的知识和技术积累,基于人脸表情数据实现了对公共交通司乘人员的情绪监测与分析。未来将融合多模态学习和持续学习方法,充分利用多模态的视觉信息和生理信号数据,进一步提高分析的准确性和可靠性。相关工作已搭建原型系统,预期与交通运输企业合作使产品落地应用。

图4 情绪监测原型系统演示

 

作品PPT

文件异常,暂时无法浏览。

评论 文明上网理性发言,请遵守评论服务协议
登录  登录后可以发言~
全部评论
主办方
承办方