CN110755092A - 具有跨媒体信息融合功能的非接触式情绪监测方法 - Google Patents
具有跨媒体信息融合功能的非接触式情绪监测方法 Download PDFInfo
- Publication number
- CN110755092A CN110755092A CN201910823150.5A CN201910823150A CN110755092A CN 110755092 A CN110755092 A CN 110755092A CN 201910823150 A CN201910823150 A CN 201910823150A CN 110755092 A CN110755092 A CN 110755092A
- Authority
- CN
- China
- Prior art keywords
- matrix
- emotion
- shared
- modality
- modal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Data Mining & Analysis (AREA)
- Animal Behavior & Ethology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Heart & Thoracic Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Social Psychology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本申请提供一种具有跨媒体信息融合功能的非接触式情绪监测方法,其中,本方法基于包括监测目标个体面部可见光视频、面部红外热图视频、音频数据在内的非接触式数据,分别确定第一情绪特征向量矩阵、第二情绪特征向量矩阵和第三情绪特征向量矩阵,之后利用可调节的多模态特征融合机制对上述三个情绪特征向量矩阵进行降维和特征提取,从而得到共享模态矩阵和私有模态矩阵,最后基于得到的模态矩阵确定监测目标个体对于每种预设情绪状态的概率分布。上述方案不仅全面增加了用于分析情绪状态的监测数据类型,将多种类型的监测数据进行跨媒体融合,并且能够充分利用有效数据分析情绪状态,在有效提高情绪状态监测准确度的同时增进分析效率。
Description
技术领域
本申请涉及心理和数据处理领域,具体涉及一种具有跨媒体信息融合功能的非接触式情绪监测方法。
背景技术
情绪,是对一系列主观认知经验的通称,是多种感觉、思想和行为综合产生的心理和生理状态。最普遍、通俗的情绪有喜、怒、哀、惊、恐、爱等,也有一些细腻微妙的情绪,例如嫉妒、惭愧、羞耻、自豪等。情绪常和心情、性格、脾气、目的等因素互相作用,也受到荷尔蒙和神经递质影响。无论正面还是负面的情绪,都是引发人们行动的动机。尽管一些情绪引发的行为看上去没有经过思考,但实际上意识是产生情绪重要的一环。可见关注个体的情绪特征对于进行情绪引导和人们的安全能够起到非常重要的作用。
目前,分析个体的情绪特征的技术方案中,使用的数据类型单一,不同类型的数据无法有效结合,并且一些无效的数据可能会被多次利用,导致确定的个体的情绪特征不够准确,效率低下。
发明内容
(一)解决的技术问题
针对现有技术的不足,本申请提供了一种具有跨媒体信息融合功能的非接触式情绪监测方法,解决了现有技术中用来分析情绪特征的数据类型单一、无法有效结合不同类型的数据来分析目标个体的情绪的缺陷,提高了确定的情绪特征的准确度,提高了确定情绪特征的效率。
(二)技术方案
为实现以上目的,本申请通过以下技术方案予以实现:
本申请提供了一种具有跨媒体信息融合功能的非接触式情绪监测方法,包括:
获取目标个体的面部可见光图像、目标个体的面部红外图像、目标个体的音频信息;
获取面部可见光图相中多个预定特征点的图像特征信息,和多个预定面部区域的图像特征信息,并基于所述多个预定特征点的图像特征信息和多个预定面部区域的图像特征信息,确定目标个体的第一情绪特征向量矩阵;
对所述音频信息依次进行预加重处理、分帧处理、加窗处理,并将处理后的音频信息输入LSTM中,利用LSTM提取输入的音频信息的的MFCC特征和LPCC特征,并基于所述MFCC特征和LPCC特征生成目标个体的第二情绪特征向量矩阵;
基于所述面部红外图像,确定目标个体的额头部位的平均温度信息,基于所述平均温度信息,确定血液灌注值;利用python中的opencv模块对血液灌注值进行处理,得到血液灌注伪彩色图,并利用双向GRU神经网络提取血液灌注伪彩色图中的图像特征,得到目标个体的第三情绪特征向量矩阵;
利用结构化稀疏投影矩阵U1和U2对第一情绪特征向量矩阵进行处理,得到第一情绪特征向量矩阵对应的第一私有模态矩阵、第一情绪特征向量矩阵对应的第一共享模态矩阵;
利用结构化稀疏投影矩阵U1和U2对第二情绪特征向量矩阵进行处理,得到第二情绪特征向量矩阵对应的第二私有模态矩阵、第二情绪特征向量矩阵对应的第二共享模态矩阵;
利用结构化稀疏投影矩阵U1和U2对第三情绪特征向量矩阵进行处理,得到第三情绪特征向量矩阵对应的第三私有模态矩阵、第三情绪特征向量矩阵对应的第三共享模态矩阵;
基于第一共享模态矩阵、第二共享模态矩阵、第三共享模态矩阵确定目标共享模态矩阵;
基于目标共享模态矩阵、第一私有模态矩阵、第二私有模态矩阵、第三私有模态矩阵,确定多模态特征矩阵;
利用神经网络的sorfmax层对多模态特征矩阵进行处理,得到目标个体针对每种预设情绪的概率特征信息;
将所述概率特征信息发送给客户端和显示端进行显示。
在一种可能的实施方式中,所述基于所述平均温度信息,确定血液灌注值,包括:
利用SHT传热模型,对平均温度信息进行处理,得到血液灌注值。
在一种可能的实施方式中,所述利用结构化稀疏投影矩阵U1和U2对第一情绪特征向量矩阵进行处理,得到第一情绪特征向量矩阵对应的第一私有模态矩阵、第一情绪特征向量矩阵对应的第一共享模态矩阵,包括:
利用如下公式计算所述第一私有模态矩阵、第一共享模态矩阵:
式中,A表示第一情绪特征向量矩阵,MA表示第一私有模态矩阵,VA表示第一共享模态矩阵。
在一种可能的实施方式中,所述基于第一共享模态矩阵、第二共享模态矩阵、第三共享模态矩阵确定目标共享模态矩阵,包括:
利用如下公式计算所述目标共享模态矩阵:
Vx=VA+VB+VC
式中,Vx表示目标共享模态矩阵,VA表示第一共享模态矩阵,VB表示第二共享模态矩阵,VC表示第三共享模态矩阵。
在一种可能的实施方式中,所述基于目标共享模态矩阵、第一私有模态矩阵、第二私有模态矩阵、第三私有模态矩阵,确定多模态特征矩阵,包括:
利用如下公式确定所述多模态特征矩阵:
在一种可能的实施方式中,所述预设权重系数满足如下关系:
α+β+γ+η=1。
(三)有益效果
本申请提供了一种具有跨媒体信息融合功能的非接触式情绪监测方法,具备以下有益效果:
本申请利用非接触式数据面部可见光图像、目标个体的面部红外图像、目标个体的音频信息,分别确定第一情绪特征向量矩阵、第二情绪特征向量矩阵和第三情绪特征向量矩阵,之后利用可调节的多模态特征融合机制对上述三个情绪特征向量矩阵进行处理,得到共享模态矩阵和私有模态矩阵,最后基于得到的模态矩阵确定目标个体针对每种预设情绪的概率特征信息。上述方案不仅增加了用于分析情绪特征的数据的类型,将多种类型的数据进行合理的融合,并且能够充分利用有效数据分析情绪特征,有效提高了确定的情绪特征的准确度,并且提高了确定情绪特征的效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性的示出了本申请一实施例的具有跨媒体信息融合功能的非接触式情绪监测方法的流程图;
图2示意性的示出了本申请另一实施例的具有跨媒体信息融合功能的非接触式情绪监测方法中跨模态特征融合机制示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
现有技术中,在分析目标个体的情绪特征的时候,使用的数据类型单一、无法有效结合不同类型的数据来分析目标个体的情绪,并且使用了大量的无效数据来确定标个体的情绪,造成了确定的情绪特征的准确度低,确定情绪特征的效率低下的缺陷。针对该技术确定,本申请提供了一种具有跨媒体信息融合功能的非接触式情绪监测方法,该方法首先利用非接触式数据面部可见光图像、目标个体的面部红外图像、目标个体的音频信息,分别确定第一情绪特征向量矩阵、第二情绪特征向量矩阵和第三情绪特征向量矩阵,之后利用可调节的多模态特征融合机制对上述三个情绪特征向量矩阵进行处理,得到共享模态矩阵和私有模态矩阵,最后基于得到的模态矩阵确定目标个体针对每种预设情绪的概率特征信息。该方法不仅增加了用于分析情绪特征的数据的类型,将多种类型的数据进行合理的融合,并且能够充分利用有效数据分析情绪特征,有效提高了确定的情绪特征的准确度,并且提高了确定情绪特征的效率。
具体的,如图1所示,上述具有跨媒体信息融合功能的非接触式情绪监测方法包括如下步骤:
S110、获取目标个体的面部可见光图像、目标个体的面部红外图像、目标个体的音频信息。
这里,可以利用可见光摄像头获取目标个体的面部可见光图像,利用红外热像仪获取目标个体的面部红外图像,利用麦克风等拾音器获取目标个体的音频信息。
本步骤获取的数据为非接触式数据,相较于获取接触式数据,本步骤具有非干扰性、采集速度快、操作方便等特点。
另外,接触式设备在采集接触式数据的时候,可能影响目标个体的情绪,因此本步骤采集的是非接触式数据,在影响目标个体最小化的情况下,利用采集到的数据去分理情绪特征会更为准确。
S120、获取面部可见光图相中多个预定特征点的图像特征信息,和多个预定面部区域的图像特征信息,并基于所述多个预定特征点的图像特征信息和多个预定面部区域的图像特征信息,确定目标个体的第一情绪特征向量矩阵。
本步骤可以采用dlib预定义68个面部特征点及其相关位置关系构造目标个体对应各个预定情绪类型的概率分布,再使用卷积神经网络生成第一情绪特征向量矩阵。
S130、对所述音频信息依次进行预加重处理、分帧处理、加窗处理,并将处理后的音频信息输入LSTM中,利用LSTM提取输入的音频信息的的MFCC特征和LPCC特征,并基于所述MFCC特征和LPCC特征生成目标个体的第二情绪特征向量矩阵。
本步骤首先对音频信息进行预加重、分帧、加窗等预处理操作,以消除因为人类发声器官本身和由于采集语音信号的设备所带来的混叠、高次谐波失真、高频等因素,对音频信息质量的影响,保证后续音频处理得到的信号更均匀、平滑,为信号参数提取提供优质的参数,提高音频处理质量。
S140、基于所述面部红外图像,确定目标个体的额头部位的平均温度信息,基于所述平均温度信息,确定血液灌注值;利用python中的opencv模块对血液灌注值进行处理,得到血液灌注伪彩色图,并利用双向GRU神经网络提取血液灌注伪彩色图中的图像特征,得到目标个体的第三情绪特征向量矩阵。
本步骤中,基于所述平均温度信息,确定血液灌注值,包括:
利用SHT传热模型,对平均温度信息进行处理,得到血液灌注值。
S150、利用结构化稀疏投影矩阵U1和U2对第一情绪特征向量矩阵进行处理,得到第一情绪特征向量矩阵对应的第一私有模态矩阵、第一情绪特征向量矩阵对应的第一共享模态矩阵。
本步骤中,利用结构化稀疏投影矩阵U1和U2对第一情绪特征向量矩阵进行处理,得到第一情绪特征向量矩阵对应的第一私有模态矩阵、第一情绪特征向量矩阵对应的第一共享模态矩阵,包括:
如图2所示,利用如下公式计算所述第一私有模态矩阵、第一共享模态矩阵:
式中,A表示第一情绪特征向量矩阵,MA表示第一私有模态矩阵,VA表示第一共享模态矩阵。
S160、利用结构化稀疏投影矩阵U1和U2对第二情绪特征向量矩阵进行处理,得到第二情绪特征向量矩阵对应的第二私有模态矩阵、第二情绪特征向量矩阵对应的第二共享模态矩阵。
利用如下公式计算所述第二私有模态矩阵、第二共享模态矩阵:
式中,B表示第二情绪特征向量矩阵,MB表示第二私有模态矩阵,VB表示第二共享模态矩阵。
S170、利用结构化稀疏投影矩阵U1和U2对第三情绪特征向量矩阵进行处理,得到第三情绪特征向量矩阵对应的第三私有模态矩阵、第三情绪特征向量矩阵对应的第三共享模态矩阵。
利用如下公式计算所述第三私有模态矩阵、第三共享模态矩阵:
式中,C表示第三情绪特征向量矩阵,MC表示第三私有模态矩阵,VC表示第三共享模态矩阵。
S180、基于第一共享模态矩阵、第二共享模态矩阵、第三共享模态矩阵确定目标共享模态矩阵;基于目标共享模态矩阵、第一私有模态矩阵、第二私有模态矩阵、第三私有模态矩阵,确定多模态特征矩阵;利用神经网络的sorfmax层对多模态特征矩阵进行处理,得到目标个体针对每种预设情绪的概率特征信息。
本步骤中,基于第一共享模态矩阵、第二共享模态矩阵、第三共享模态矩阵确定目标共享模态矩阵,包括:
利用如下公式计算所述目标共享模态矩阵:
Vx=VA+VB+VC
式中,Vx表示目标共享模态矩阵,VA表示第一共享模态矩阵,VB表示第二共享模态矩阵,Vc表示第三共享模态矩阵。
上述Vx=VA+VB+VC表示3种模态具有高度相似性的共享特征,例如,在各自模态下表示愉快的特征,将这3种模态联合起来;模态私有特征表示各自模态独有的特征,例如,可见光数据可能是苦笑表情,语音信息数据是坚定的口气,面部红外图像的某一时刻温度变化范围超出愉快情绪阈值,这些各模态特有特征构成MA,MB,MC。
本步骤中,基于目标共享模态矩阵、第一私有模态矩阵、第二私有模态矩阵、第三私有模态矩阵,确定多模态特征矩阵,包括:
利用如下公式确定所述多模态特征矩阵:
式中,表示多模态特征矩阵,MA表示第一私有模态矩阵,MB表示第二私有模态矩阵,MC表示第三私有模态矩阵,Vx表示目标共享模态矩阵,α,β,γ,η为预设权重系数。
所述预设权重系数满足如下关系:
α+β+γ+η=1
本步骤中,在多模态特征矩阵时,基于数据的有效性对不同模态矩阵赋予不同权重。
对于η,它是目标共享模态矩阵的权重,是3种模态的共有特性,具有通用性和普适性,对分析结果具有重要作用,可以将其设置为η=0.4。对于α,β,γ,它们表示3种私有模态矩阵的权重,3个权重是自适应可变化的。根据数据的有效性自动调整,例如,如果采集到一个目标个体的3种模态数据,其中可见光面部表情数据符合阈值,设置α=0.2;音频信息在采集过程中只有很短一段,且在目标共享模态矩阵中已经提取绝大部分信息,则设置β=0.1;面部红外图像在采集过程中出现面部温度波动范围超出阈值,表明目标个体出现较大情绪波动,在可见光和音频信息中没有很好反应,但在面部红外图像中有明显反应,故设置γ=0.3。
S190、将所述概率特征信息发送给客户端和显示端进行显示。
本步骤可将概率特征信息输出到计算机屏幕中,进行可视化展示。
上述实例中的具有跨媒体信息融合功能的非接触式情绪监测方法,实现了跨模态数据全面分析情绪特征,非接触式采集和分析,具有非干扰性,效果更好。
上述具有跨媒体信息融合功能的非接触式情绪监测方法,基于包括监测目标个体面部可见光视频、面部红外热图视频、音频数据在内的非接触式数据,分别确定第一情绪特征向量矩阵、第二情绪特征向量矩阵和第三情绪特征向量矩阵,之后利用可调节的多模态特征融合机制对上述三个情绪特征向量矩阵进行降维和特征提取,从而得到共享模态矩阵和私有模态矩阵,最后基于得到的模态矩阵确定监测目标个体对于每种预设情绪状态的概率分布。上述方案不仅全面增加了用于分析情绪状态的监测数据类型,将多种类型的监测数据进行跨媒体融合,并且能够充分利用有效数据分析情绪状态,在有效提高情绪状态监测准确度的同时增进分析效率。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (6)
1.一种具有跨媒体信息融合功能的非接触式情绪监测方法,其特征在于,包括:
获取目标个体的面部可见光图像、目标个体的面部红外图像、目标个体的音频信息;
获取面部可见光图相中多个预定特征点的图像特征信息,和多个预定面部区域的图像特征信息,并基于所述多个预定特征点的图像特征信息和多个预定面部区域的图像特征信息,确定目标个体的第一情绪特征向量矩阵;
对所述音频信息依次进行预加重处理、分帧处理、加窗处理,并将处理后的音频信息输入LSTM中,利用LSTM提取输入的音频信息的的MFCC特征和LPCC特征,并基于所述MFCC特征和LPCC特征生成目标个体的第二情绪特征向量矩阵;
基于所述面部红外图像,确定目标个体的额头部位的平均温度信息,基于所述平均温度信息,确定血液灌注值;利用python中的opencv模块对血液灌注值进行处理,得到血液灌注伪彩色图,并利用双向GRU神经网络提取血液灌注伪彩色图中的图像特征,得到目标个体的第三情绪特征向量矩阵;
利用结构化稀疏投影矩阵U1和U2对第一情绪特征向量矩阵进行处理,得到第一情绪特征向量矩阵对应的第一私有模态矩阵、第一情绪特征向量矩阵对应的第一共享模态矩阵;
利用结构化稀疏投影矩阵U1和U2对第二情绪特征向量矩阵进行处理,得到第二情绪特征向量矩阵对应的第二私有模态矩阵、第二情绪特征向量矩阵对应的第二共享模态矩阵;
利用结构化稀疏投影矩阵U1和U2对第三情绪特征向量矩阵进行处理,得到第三情绪特征向量矩阵对应的第三私有模态矩阵、第三情绪特征向量矩阵对应的第三共享模态矩阵;
基于第一共享模态矩阵、第二共享模态矩阵、第三共享模态矩阵确定目标共享模态矩阵;
基于目标共享模态矩阵、第一私有模态矩阵、第二私有模态矩阵、第三私有模态矩阵,确定多模态特征矩阵;
利用神经网络的sorfmax层对多模态特征矩阵进行处理,得到目标个体针对每种预设情绪的概率特征信息;
将所述概率特征信息发送给客户端和显示端进行显示。
2.根据权利要求1所述的方法,其特征在于,所述基于所述平均温度信息,确定血液灌注值,包括:
利用SHT传热模型,对平均温度信息进行处理,得到血液灌注值。
4.根据权利要求1所述的方法,其特征在于,所述基于第一共享模态矩阵、第二共享模态矩阵、第三共享模态矩阵确定目标共享模态矩阵,包括:
利用如下公式计算所述目标共享模态矩阵:
Vx=VA+VB+VC
式中,Vx表示目标共享模态矩阵,VA表示第一共享模态矩阵,VB表示第二共享模态矩阵,VC表示第三共享模态矩阵。
6.根据权利要求5所述的方法,其特征在于,所述预设权重系数满足如下关系:
α+β+γ+η=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910823150.5A CN110755092B (zh) | 2019-09-02 | 2019-09-02 | 具有跨媒体信息融合功能的非接触式情绪监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910823150.5A CN110755092B (zh) | 2019-09-02 | 2019-09-02 | 具有跨媒体信息融合功能的非接触式情绪监测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110755092A true CN110755092A (zh) | 2020-02-07 |
CN110755092B CN110755092B (zh) | 2022-04-12 |
Family
ID=69329386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910823150.5A Active CN110755092B (zh) | 2019-09-02 | 2019-09-02 | 具有跨媒体信息融合功能的非接触式情绪监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110755092B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160283858A1 (en) * | 2015-03-24 | 2016-09-29 | International Business Machines Corporation | Multimodal Data Fusion by Hierarchical Multi-View Dictionary Learning |
US20170105662A1 (en) * | 2015-10-14 | 2017-04-20 | Panasonic Intellectual Property Corporation of Ame | Emotion estimating method, emotion estimating apparatus, and recording medium storing program |
KR20170094836A (ko) * | 2016-02-12 | 2017-08-22 | 한국전자통신연구원 | 운전자의 감정상태 인식 장치 및 방법 |
US20170367590A1 (en) * | 2016-06-24 | 2017-12-28 | Universita' degli Studi di Trento (University of Trento) | Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的时序语义融合关联判断子系统 |
CN108805088A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的生理信号分析子系统 |
US20190213400A1 (en) * | 2018-01-05 | 2019-07-11 | Samsung Electronics Co., Ltd. | Method and apparatus with emotion recognition |
-
2019
- 2019-09-02 CN CN201910823150.5A patent/CN110755092B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160283858A1 (en) * | 2015-03-24 | 2016-09-29 | International Business Machines Corporation | Multimodal Data Fusion by Hierarchical Multi-View Dictionary Learning |
US20170105662A1 (en) * | 2015-10-14 | 2017-04-20 | Panasonic Intellectual Property Corporation of Ame | Emotion estimating method, emotion estimating apparatus, and recording medium storing program |
KR20170094836A (ko) * | 2016-02-12 | 2017-08-22 | 한국전자통신연구원 | 운전자의 감정상태 인식 장치 및 방법 |
US20170367590A1 (en) * | 2016-06-24 | 2017-12-28 | Universita' degli Studi di Trento (University of Trento) | Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions |
US20190213400A1 (en) * | 2018-01-05 | 2019-07-11 | Samsung Electronics Co., Ltd. | Method and apparatus with emotion recognition |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的时序语义融合关联判断子系统 |
CN108805088A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的生理信号分析子系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110755092B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. | |
CN115413348B (zh) | 用于自动验证和量化面试问题回答的系统和方法 | |
JP2018206085A (ja) | 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム | |
JP2017156854A (ja) | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 | |
CN110751015B (zh) | 面部红外热图的灌注优化及人工智能情绪监测方法 | |
CN110464367B (zh) | 基于多通道协同的心理异常检测方法和系统 | |
WO2020148920A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
CN107577991B (zh) | 随访数据处理方法、装置、存储介质和计算机设备 | |
JP2018169506A (ja) | 会話満足度推定装置、音声処理装置および会話満足度推定方法 | |
Abouelenien et al. | Multimodal gender detection | |
JP2018206341A (ja) | 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム | |
JP6715410B2 (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
Min et al. | Vocal stereotypy detection: An initial step to understanding emotions of children with autism spectrum disorder | |
Gorbova et al. | Integrating vision and language for first-impression personality analysis | |
WO2021134485A1 (zh) | 视频评分方法、装置、存储介质及电子设备 | |
WO2021134250A1 (zh) | 情绪管理方法、设备及计算机可读存储介质 | |
Huang et al. | Mood detection from daily conversational speech using denoising autoencoder and LSTM | |
CN110598607B (zh) | 非接触式与接触式协同的实时情绪智能监测系统 | |
Guarin et al. | Video-based facial movement analysis in the assessment of bulbar amyotrophic lateral sclerosis: clinical validation | |
CN110755092B (zh) | 具有跨媒体信息融合功能的非接触式情绪监测方法 | |
Loizou | An automated integrated speech and face imageanalysis system for the identification of human emotions | |
KR20180005876A (ko) | 음성데이터 기반 인성평가를 통한 인공지능형 개인신용평가 및 분석 시스템 및 방법 | |
KR20220106029A (ko) | 인공지능을 활용한 심리 상담 방법 및 장치 | |
Liu et al. | Multimodal behavioral dataset of depressive symptoms in chinese college students–preliminary study | |
Chaudhari et al. | Emotion Recognition System via Facial Expressions and Speech Using Machine Learning and Deep Learning Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |