CN114863548A - 基于人体运动姿态非线性空间特征的情绪识别方法及装置 - Google Patents
基于人体运动姿态非线性空间特征的情绪识别方法及装置 Download PDFInfo
- Publication number
- CN114863548A CN114863548A CN202210298674.9A CN202210298674A CN114863548A CN 114863548 A CN114863548 A CN 114863548A CN 202210298674 A CN202210298674 A CN 202210298674A CN 114863548 A CN114863548 A CN 114863548A
- Authority
- CN
- China
- Prior art keywords
- matrix
- layer
- network
- emotion recognition
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 57
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 38
- 239000011159 matrix material Substances 0.000 claims abstract description 146
- 238000013507 mapping Methods 0.000 claims abstract description 62
- 230000036544 posture Effects 0.000 claims abstract description 46
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 230000008451 emotion Effects 0.000 claims abstract description 32
- 238000005457 optimization Methods 0.000 claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000037007 arousal Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 102000002274 Matrix Metalloproteinases Human genes 0.000 description 1
- 108010000684 Matrix Metalloproteinases Proteins 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000006998 cognitive state Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人体运动姿态非线性空间特征的情绪识别方法及装置,包括:提取在位置和角度信息上的不同关节之间的相关性,对情绪与运动姿态之间的空间映射关系进行表征;构建一多输入对称正定矩阵网络对非欧式空间结构的多维度位置与角度协方差矩阵进行融合计算,以提取姿态非线性空间特征用于自动情绪识别,所述正定矩阵网络由两个并行的子网络组成,每个子网络由正则化层、双线性映射层和对数平滑层组成;构建改进的随机梯度下降算法,用于对正定矩阵网络进行训练;利用训练后的正定矩阵网络并行处理运动姿态的位置与角度协方差矩阵,并在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化,以生成更具可分性的融合特征用于情绪识别。
Description
技术领域
本发明涉及自动情绪识别领域,尤其涉及一种基于人体运动姿态非线性空间特征的情绪识别方法及装置。
背景技术
近年来,对于人体运动姿态的分析是一个比较活跃的研究课题,其应用范围从最初的目标跟踪、动作识别等任务延伸到了自动情绪识别领域。人体的运动姿态承载着大量的信息,其中就包含着人类的情绪和内在认知状态。已有研究表明,人体的运动姿态与情绪之间存在一定的映射关系,例如:人体运动姿态节律在低唤醒度(Arousal)情绪(如悲伤、放松)时较慢,而在高唤醒度情绪(如愉快、愤怒)时较快。此外,配合城市中广泛部署的监控摄像头及三维人体姿态估计等技术,研究者可以在远距离以非侵入的方式采集人体姿态数据,进而可以在户外场景中对人类的情绪进行自动识别。因此人体姿态分析被认为是最有前景的自动情绪识别方法。
已有研究表明,协方差矩阵可编码人体姿态运动时关节之间的空间相关性,已被应用于基于姿态的情绪识别研究中。现有方法一般将姿态序列的非线性嵌入到协方差矩阵中,然后利用矩阵所在空间(例如黎曼流形空间)的几何特性来提取与情绪相关的空间特征。但姿态协方差矩阵所提供的信息是复杂且不确定的,仅依靠手动提取的特征并不能泛化性的表征情绪与运动姿态间的空间映射关系,会严重降低模型的学习能力。相比于手动提取特征的方式,神经网络可以通过端到端优化的方式,使模型自动地学习到情绪与姿态间最优的映射关系,提升模型的预测性能。
然而,将神经网络应用于基于姿态协方差矩阵的情感识别研究仍然存在两个问题。首先,对于输入的姿态协方差矩阵这样非欧式空间结构的数据,传统的基于向量的梯度下降和反向传播算法无法对其进行计算。通常的做法是将非矢量输入转化为矢量,但会导致编码在姿态协方差矩阵中的空间信息丢失。其次,为了提取更全面的姿态空间特征,骨骼关节的位置和角度信息应编码在两种协方差矩阵中,并分别进行分析。这就要求构建一个新的矩阵神经网络,对多维度的位置与角度协方差矩阵进行融合计算,以提取与情绪相关的高阶非线性空间特征。
发明内容
本发明提供了一种基于人体运动姿态非线性空间特征的情绪识别方法及装置,本发明首先利用协方差矩阵对运动姿态三维数据的位置和角度信息进行编码,以表征情绪与运动姿态间的非线性空间映射关系,随后为了利用神经网络来建模分析姿态协方差矩阵这样非欧式空间结构的数据,并同时对多维度的位置与角度协方差矩阵进行融合计算,本发明构建了一个新的多输入对称正定矩阵网络MSPDNet,以提取出高阶非线性空间特征用于情绪自动识别,详见下文描述:
第一方面、一种基于人体运动姿态非线性空间特征的情绪识别方法,所述方法包括:
利用协方差矩阵对三维骨架数据的位置和角度信息进行编码,提取在位置和角度信息上的不同关节之间的相关性,对情绪与运动姿态之间的空间映射关系进行表征;
构建一多输入对称正定矩阵网络对非欧式空间结构的多维度位置与角度协方差矩阵进行融合计算,以提取姿态非线性空间特征用于自动情绪识别,所述正定矩阵网络由两个并行的子网络组成,每个子网络由正则化层、双线性映射层和对数平滑层组成;
构建改进的随机梯度下降算法,用于对正定矩阵网络进行训练;
利用训练后的正定矩阵网络并行处理运动姿态的位置与角度协方差矩阵,并在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化,以生成更具可分性的融合特征用于情绪识别。
其中,所述在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化具体为:
结合训练集标签Y和模型的输出预测结果,利用交叉熵计算网络的损失函数,计算过程定义为:Loss=L(ft,Y);
在网络的反向传播过程中,利用得到的损失函数Loss求得全连接层的权重参数ωf的梯度;
利用求得的ωf梯度,与预先设置的学习率ηf对全连接层的参数进行更新;
利用得到的损失函数Loss求得处理位置协方差矩阵的子网络中的参数ωp的梯度;
利用得到的损失函数Loss求得处理角度协方差矩阵的子网络中的参数ωa的梯度;
令迭代次数t=t+1;若迭代次数t达到最大迭代次数,输出两个并行子网络的转换矩阵ωp和ωa,输出全连接层的权重参数ωf。
第二方面、一种基于人体运动姿态非线性空间特征的情绪识别装置,所述情绪识别装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行第一方面中的任一项所述的方法步骤。
本发明提供的技术方案的有益效果是:
1、针对传统基于姿态非线性特征的情绪识别研究中使用黎曼流形空间上的几何特性提取得到的底层特征表征能力差,泛化性弱的问题,本发明提出了多输入对称正定矩阵网络MSPDNet对多维输入的姿态位置和角度协方差矩阵进行融合计算;
2、利用神经网络端到端优化的特点,对情绪与运动姿态间的非线性空间映射关系进行提取,有效地提高了基于姿态的情绪识别模型的准确性和泛化性,给实际应用带来便捷,并且可应用于多种工作场景;
3、本发明可有效地提高基于运动姿态的情绪识别的准确性和简便性,具有重要的现实意义与经济效益。
附图说明
图1为一种基于人体运动姿态非线性空间特征的情绪识别方法的流程图;
图2为多输入对称正定矩阵网络(MSPDNet)框架图;
图3为本发明在KDAE数据集上的分类性能的示意图;
图4为本发明在EGBM数据集上的分类性能的示意图;
图5为一种基于人体运动姿态非线性空间特征的情绪识别装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
实施例1
本发明实施例提出了由定义的多输入对称正定矩阵网络(Multiple InputSymmetric Positive Definite matrix network,MSPDNet)对运动姿态数据进行非线性空间特征提取,以实现基于姿态的自动情绪识别的新方法,其技术流程是:
101:利用协方差矩阵对三维骨架数据的位置和角度信息进行编码,提取在位置和角度信息上的不同关节之间的相关性,对情绪与运动姿态之间的空间映射关系进行表征;
102:构建一多输入对称正定矩阵网络对非欧式空间结构的多维度位置与角度协方差矩阵进行融合计算,以提取姿态非线性空间特征用于自动情绪识别;
其中,正定矩阵网络由两个并行的子网络组成,每个子网络由正则化层、双线性映射层和对数平滑层组成。
103:构建改进的随机梯度下降算法,用于对正定矩阵网络进行训练;
104:利用训练后的正定矩阵网络并行处理运动姿态的位置与角度协方差矩阵,并在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化,以生成更具可分性的融合特征用于情绪识别。
综上所述,本发明实施例通过上述步骤101-步骤104利用神经网络端到端优化的特点,对情绪与运动姿态间的非线性空间映射关系进行提取,有效地提高了基于姿态的情绪识别模型的准确性和泛化性,给实际应用带来便捷,并且可应用于多种工作场景。
实施例2
下面结合图1-图4、计算公式、实例对实施例1中的方案进行进一步地介绍,详见下文描述:
基于人体运动姿态非线性空间特征的自动情绪识别方法流程图如图1所示。首先分别计算姿态三维骨架数据中位置与角度信息的协方差矩阵,然后构建包含两个并行子网络的MSPDNet,对输入的多维度位置与角度协方差矩阵进行非线性特征映射,并通过定义的优化算法将两类特征融合,以提取更具可分性的姿态非线性空间特征用于自动情绪识别。最后在两个公开数据集上采用10折交叉验证的方式评估了模型的性能。
一、姿态协方差矩阵
本发明实施例利用协方差矩阵对运动姿态的三维骨架数据进行编码,以捕获不同关节之间的空间相关性,进而对情绪与运动姿态之间的空间映射关系进行表征。
则运动姿态序列X的协方差矩阵定义为:
其中,μ是xf的均值。协方差矩阵C可以编码姿态骨架序列中不同关节之间的相关性,进而表征情绪与姿态之间的非线性空间映射。在本发明实施例中,考虑到每个关节的位置和角度信息在基于运动姿态的情绪识别中的重要性,本发明实施例分别计算了姿态运动时全身关节的三维位置协方差矩阵和角度协方差矩阵,统称为姿态协方差矩阵。
二、多输入对称正定矩阵网络
非奇异的姿态协方差矩阵属于对称正定矩阵(Symmetric Positive Definite,SPD),其可以构成一个连通的黎曼流形空间为了利用神经网络来研究姿态协方差矩阵这样非欧式空间结构的数据,且可以同时对多维度的位置与角度协方差矩阵进行融合计算,本发明实施例构建了一个新的多输入对称正定矩阵网络MSPDNet来提取编码在姿态协方差矩阵中的与情绪相关的高阶非线性空间特征。
MSPDNet的整体框架如图2所示,其中C0和C′0分别表示运动姿态数据三维位置和角度信息的协方差矩阵。MSPDNet由两个并行的子网络组成,每个子网络由正则化层(Eigenvalue Rectification Layer,ReEig)、双线性映射层(Bilinear Mapping Layers,BiMap)和对数平滑层(Eigenvalue Logarithm Layers,LogEig)组成。在网络的末端,映射得到的SPD矩阵可以经过向量化操作后送入基于欧式空间的传统网络结构中,例如:全连接层(Fully Connected Layer,FC)或卷积层(Convolutional Layer)。
根据公式(1)计算得到姿态协方差矩阵C可能属于对称半正定矩阵(SymmetricPositive Semi-Definite matrices,SPSD)。因此,首先需要在网络的第一层设计ReEig层来正则化协方差矩阵,以保证其具有正定性。此外,为了确保经过BiMap层的映射矩阵仍然位于SPD空间中,并在网络中引入非线性运算以提高识别性能,本发明实施例在每个BiMap层之后都设置了ReEig层。
其中,ReEig层的定义如下:
式中,Cr,n是ReEig层输出的SPD矩阵,Un-1表示第n层中输入矩阵Cn-1经特征分解后得到的特征向量组成的正交矩阵,Λn-1是实对角矩阵,其对角线上的元素Λ(i,i)是Cn-1经特征分解后得到的特征值,I是单位矩阵,fr为ReEig层的运算函数。
其中,Max(εI,Λn-1)的定义如下:
式中,ε为正则项阈值,其可以代替原姿态协方差矩阵中的零特征值或较小特征值,从而使得到的新矩阵E(i,i)的所有特征值均大于0,保证其正定性。
其中,BiMap层是MSPDNet的核心结构,可将输入的SPD矩阵映射到判别性更强的新的矩阵空间中,此过程无需对矩阵进行向量化操作,故可以最大限度的保留原始SPD矩阵中包含的几何信息。BiMap层的定义如下:
此外,本发明实施例还通过改变双线性映射矩阵的维数来降低模型运算的复杂度,故要求且dn<dn-1,这样便可在每个BiMap层后对输入矩阵进行降维操作。转换矩阵Wn将在后续网络的反向传播和参数优化中不断更新参数,以达到最佳的映射效果。而为双线性映射后的输出矩阵,为dn×dn维的黎曼流形空间。可以发现,输入协方差矩阵在通过BiMap层后,原始矩阵被投射到新的SPD空间中,且无需经过矩阵的向量化,最大程度保留了矩阵中包含的姿态空间信息。
经过BiMap层与ReEig层后,原始姿态协方差矩阵被映射到新的SPD空间中,但此时的矩阵并不一定分布在一个“平坦”的流形空间上。LogEig层的操作,可类比于欧式空间中的对数平滑操作,其目的是赋予SPD空间中的元素一个李群结构,从而优化矩阵分布使其处于更为“平坦”的流形空间中,以便其顺利进行之后的向量化操作。LogEig层定义如下:
其中,Qn-1和An-1分别表示输入矩阵Cn-1的特征向量和特征值组成的矩阵,log(An-1)表示对矩阵对角线上的元素进行对数运算,Cl,n为LogEig层的输出矩阵,fl表示LogEig层的运算函数。
三、MSPDNet反向传播机制
训练深度网络通常使用随机梯度下降(Stochastic Gradient Descent,SGD)算法。一个经典的SGD算法的关键操作是计算目标函数的梯度,该梯度通过应用反向传播的链式法则获取。对于MSPDNet中第n层的双线性映射转换矩阵Wn和上一层的输出矩阵Cn-1,其梯度定义为:
其中,L(n+1)(Cn,y)为第n+1层的损失函数。
然而,在MSPDNet参数优化的过程中,传统的基于欧式空间的反向传播算法已经无法满足转换矩阵W的求解要求,故对其梯度进行如下定义:
四、MSPDNet融合优化算法及分类模型构建
为了全面的分析情绪与身体姿态间的复杂映射关系,本发明实施例利用MSPDNet并行处理运动姿态的位置与角度协方差矩阵,并在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化,以生成更具可分性的融合特征用于情绪识别。经过全连接层得到的融合特征将被送入softmax层进行最终的情绪识别,分类模型的整体框图如图1所示。MSPDNet对位置与角度协方差矩阵的融合优化算法定义如下:
Step1:初始化MSPDNet两个并行子网络中对于位置协方差矩阵和角度协方差矩阵进行双线性映射的转换矩阵ωp和ωa;初始化全连接层的权重参数ωf;初始化参数ωp、ωa和ωf的学习率分别为:ηp、ηa和ηf;初始化迭代次数t=1。
Step2:设置融合优化算法的结束条件(最大迭代次数maxiter)。
Step3:将由训练集中三维姿态骨架数据计算得到的位置协方差矩阵Cp和角度协方差矩阵Ca输入MSPDNet中,此外,将训练集标签Y输入网络。
Step6:结合训练集标签Y和模型的输出预测结果,利用交叉熵(cross entropy)计算网络的损失函数,其计算过程定义为:Loss=L(ft,Y)。
Step7:在网络的反向传播过程中,首先利用得到的损失函数Loss求得全连接层的权重参数ωf的梯度为:
Step8:利用求得的ωf梯度,与预先设置的学习率ηf对全连接层的参数进行如下更新:
Step9:然后继续利用得到的损失函数Loss求得处理位置协方差矩阵的子网络中的参数ωp的梯度为:
Step10:利用得到的损失函数Loss求得处理角度协方差矩阵的子网络中的参数ωa的梯度为:
Step12:令迭代次数t=t+1;
Step13:判断此时的迭代次数t是否达到最大迭代次数maxiter,若未达到则转Step4,否则转Step14;
Step14:输出MSPDNet两个并行子网络的转换矩阵ωp和ωa,输出全连接层的权重参数ωf;
Step15:满足结束条件,MSPDNet融合优化算法结束。
上述MSPDNet融合优化算法是矩阵神经网络的训练优化过程,可利用训练集数据训练模型,使模型学习到情绪与运动姿态间的非线性空间映射关系,即网络中每层的映射参数。
综上所述,本发明实施例通过上述几部分之间的相互配合,充分利用神经网络端到端优化的特点,对情绪与运动姿态间的非线性空间映射关系进行提取,有效地提高了基于姿态的情绪识别模型的准确性和泛化性,给实际应用带来便捷,并且可应用于多种工作场景。
实施例3
针对现有方法,在运动姿态的非线性空间特征提取与姿态协方差矩阵建模方面存在的缺陷和问题,本发明实施例采用协方差矩阵编码姿态运动数据,并提出了多输入对称正定矩阵网络MSPDNet对多维度的姿态位置和角度协方差矩阵进行融合计算,充分利用神经网络的优势,对情绪与运动姿态之间的空间映射关系进行非线性特征提取。通过端到端的方式将输入的多维度姿态协方差矩阵投射到更为可分且平坦的流形空间中,不仅优化了其空间分布,且更加充分地利用了矩阵的数值信息。通过网络的融合优化算法使模型自主学习到最优的映射,极大提高了情绪识别模型的泛化性。
本发明实施例在两个开源的情绪姿态数据集中采用10折交叉验证的方式评估了模型的性能。两个数据集KDAE(The Kinematic Dataset of Actors ExpressingEmotions)和EGBM(The Emotional Gestures and Body Movements Corpora)分别使用了不同的采集设备,且参与者来自不同的国家,两者都包含了7种情绪。结合图3与图4的情绪分类混淆矩阵可以看出,本发明实施例在两个数据集上均得到了良好的结果,这表明本发明实施例所提出的方法在基于运动姿态的自动情绪识别中具有良好的优越性和泛化性。
本发明实施例旨在提出一种基于人体运动姿态非线性空间特征的自动情绪识别方法,利用协方差矩阵对三维姿态数据的位置和角度信息进行编码,将情绪与姿态间的非线性特性嵌入到协方差矩阵中,随后采用MSPDNet对多维度的位置与角度协方差矩阵进行融合计算,利用神经网络端到端的优化方式,使模型自动地提取到情绪与姿态间的高阶非线性空间映射关系,从而进行准确、客观的自动情绪识别。
该项发明可有效地提高自动情绪识别的准确性与简便性,并获得可观的社会效益和经济效益。最佳实施方案拟采用专利转让、技术合作或产品开发。基于该技术开发的产品可与三维人体姿态估计等技术相结合,应用于人机交互等领域,可显著提高人机交互的智能性、改善用户体验、提升交互效率。
实施例4
一种基于人体运动姿态非线性空间特征的情绪识别装置,参见图4,该情绪识别装置包括:处理器1和存储器2,所述存储器2中存储有程序指令,所述处理器1调用存储器2中存储的程序指令以使装置执行以下的方法步骤:
利用协方差矩阵对三维骨架数据的位置和角度信息进行编码,提取在位置和角度信息上的不同关节之间的相关性,对情绪与运动姿态之间的空间映射关系进行表征;
构建一多输入对称正定矩阵网络对非欧式空间结构的多维度位置与角度协方差矩阵进行融合计算,以提取姿态非线性空间特征用于自动情绪识别,正定矩阵网络由两个并行的子网络组成,每个子网络由正则化层、双线性映射层和对数平滑层组成;
构建改进的随机梯度下降算法,用于对正定矩阵网络进行训练;
利用训练后的正定矩阵网络并行处理运动姿态的位置与角度协方差矩阵,并在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化,以生成更具可分性的融合特征用于情绪识别。
其中,在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化具体为:
结合训练集标签Y和模型的输出预测结果,利用交叉熵计算网络的损失函数,计算过程定义为:Loss=L(ft,Y);
在网络的反向传播过程中,利用得到的损失函数Loss求得全连接层的权重参数ωf的梯度;
利用求得的ωf梯度,与预先设置的学习率ηf对全连接层的参数进行更新;
利用得到的损失函数Loss求得处理位置协方差矩阵的子网络中的参数ωp的梯度;
利用得到的损失函数Loss求得处理角度协方差矩阵的子网络中的参数ωa的梯度;
令迭代次数t=t+1;若迭代次数t达到最大迭代次数,输出两个并行子网络的转换矩阵ωp和ωa,输出全连接层的权重参数ωf。
这里需要指出的是,以上实施例中的装置描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
上述的处理器1和存储器2的执行主体可以是计算机、单片机、微控制器等具有计算功能的器件,具体实现时,本发明实施例对执行主体不做限制,根据实际应用中的需要进行选择。
存储器2和处理器1之间通过总线3传输数据信号,本发明实施例对此不做赘述。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于人体运动姿态非线性空间特征的情绪识别方法,其特征在于,所述方法包括:
利用协方差矩阵对三维骨架数据的位置和角度信息进行编码,提取在位置和角度信息上的不同关节之间的相关性,对情绪与运动姿态之间的空间映射关系进行表征;
构建一多输入对称正定矩阵网络对非欧式空间结构的多维度位置与角度协方差矩阵进行融合计算,以提取姿态非线性空间特征用于自动情绪识别,所述正定矩阵网络由两个并行的子网络组成,每个子网络由正则化层、双线性映射层和对数平滑层组成;
构建改进的随机梯度下降算法,用于对正定矩阵网络进行训练;
利用训练后的正定矩阵网络并行处理运动姿态的位置与角度协方差矩阵,并在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化,以生成更具可分性的融合特征用于情绪识别。
6.根据权利要求1所述的一种基于人体运动姿态非线性空间特征的情绪识别方法,其特征在于,所述在网络末端使用全连接层对提取得到的两类映射矩阵进行融合优化具体为:
结合训练集标签Y和模型的输出预测结果,利用交叉熵计算网络的损失函数,计算过程定义为:Loss=L(ft,Y);
在网络的反向传播过程中,利用得到的损失函数Loss求得全连接层的权重参数ωf的梯度;
利用求得的ωf梯度,与预先设置的学习率ηf对全连接层的参数进行更新;
利用得到的损失函数Loss求得处理位置协方差矩阵的子网络中的参数ωp的梯度;
利用得到的损失函数Loss求得处理角度协方差矩阵的子网络中的参数ωa的梯度;
令迭代次数t=t+1;若迭代次数t达到最大迭代次数,输出两个并行子网络的转换矩阵ωp和ωa,输出全连接层的权重参数ωf。
7.一种基于人体运动姿态非线性空间特征的情绪识别装置,其特征在于,所述情绪识别装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行权利要求1-6中的任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210298674.9A CN114863548B (zh) | 2022-03-22 | 2022-03-22 | 基于人体运动姿态非线性空间特征的情绪识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210298674.9A CN114863548B (zh) | 2022-03-22 | 2022-03-22 | 基于人体运动姿态非线性空间特征的情绪识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114863548A true CN114863548A (zh) | 2022-08-05 |
CN114863548B CN114863548B (zh) | 2024-05-31 |
Family
ID=82629481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210298674.9A Active CN114863548B (zh) | 2022-03-22 | 2022-03-22 | 基于人体运动姿态非线性空间特征的情绪识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863548B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116687406A (zh) * | 2023-05-06 | 2023-09-05 | 粤港澳大湾区精准医学研究院(广州) | 情绪识别方法、装置、电子设备及存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090055426A (ko) * | 2007-11-28 | 2009-06-02 | 중앙대학교 산학협력단 | 특징 융합 기반 감정인식 방법 및 시스템 |
US20110223995A1 (en) * | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
CN102470273A (zh) * | 2009-07-09 | 2012-05-23 | 微软公司 | 基于玩家表情的视觉表示表情 |
US20150179073A1 (en) * | 2012-08-07 | 2015-06-25 | Sony Corporation | Information processing apparatus, information processing method, and information processing system |
JP2015191471A (ja) * | 2014-03-28 | 2015-11-02 | Kddi株式会社 | 感情情報推定装置、方法及びプログラム |
US20170351910A1 (en) * | 2016-06-04 | 2017-12-07 | KinTrans, Inc. | Automatic body movement recognition and association system |
US20180039745A1 (en) * | 2016-08-02 | 2018-02-08 | Atlas5D, Inc. | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
CN108363978A (zh) * | 2018-02-12 | 2018-08-03 | 华南理工大学 | 采用深度学习和ukf的基于肢体语言的情感感知方法 |
CN109886173A (zh) * | 2019-02-02 | 2019-06-14 | 中国科学院电子学研究所 | 基于视觉的侧脸姿态解算方法及情绪感知自主服务机器人 |
KR20200093970A (ko) * | 2019-01-29 | 2020-08-06 | 중앙대학교 산학협력단 | 양의 정부호 행렬 위에서의 리만 서브 매니폴드 프레임워크를 이용한 로그 유클리디안 메트릭 러닝 장치 및 방법 |
WO2020248376A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 情绪检测方法、装置、电子设备及存储介质 |
US20210000404A1 (en) * | 2019-07-05 | 2021-01-07 | The Penn State Research Foundation | Systems and methods for automated recognition of bodily expression of emotion |
CN112347974A (zh) * | 2020-11-22 | 2021-02-09 | 上海祐云信息技术有限公司 | 人体头部姿态估计算法及操作员工作状态识别系统 |
CN113536999A (zh) * | 2021-07-01 | 2021-10-22 | 汇纳科技股份有限公司 | 人物情绪识别方法、系统、介质及电子设备 |
WO2021217973A1 (zh) * | 2020-04-28 | 2021-11-04 | 平安科技(深圳)有限公司 | 情感信息识别方法、装置、存储介质及计算机设备 |
CN113642432A (zh) * | 2021-07-30 | 2021-11-12 | 南京师范大学 | 基于协方差矩阵变换的卷积神经网络用于人体姿态识别方法 |
WO2022026886A1 (en) * | 2020-07-30 | 2022-02-03 | The Jackson Laboratory | Automated phenotyping of behavior |
-
2022
- 2022-03-22 CN CN202210298674.9A patent/CN114863548B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090055426A (ko) * | 2007-11-28 | 2009-06-02 | 중앙대학교 산학협력단 | 특징 융합 기반 감정인식 방법 및 시스템 |
CN102470273A (zh) * | 2009-07-09 | 2012-05-23 | 微软公司 | 基于玩家表情的视觉表示表情 |
US20110223995A1 (en) * | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US20150179073A1 (en) * | 2012-08-07 | 2015-06-25 | Sony Corporation | Information processing apparatus, information processing method, and information processing system |
JP2015191471A (ja) * | 2014-03-28 | 2015-11-02 | Kddi株式会社 | 感情情報推定装置、方法及びプログラム |
US20170351910A1 (en) * | 2016-06-04 | 2017-12-07 | KinTrans, Inc. | Automatic body movement recognition and association system |
US20180039745A1 (en) * | 2016-08-02 | 2018-02-08 | Atlas5D, Inc. | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
CN108363978A (zh) * | 2018-02-12 | 2018-08-03 | 华南理工大学 | 采用深度学习和ukf的基于肢体语言的情感感知方法 |
KR20200093970A (ko) * | 2019-01-29 | 2020-08-06 | 중앙대학교 산학협력단 | 양의 정부호 행렬 위에서의 리만 서브 매니폴드 프레임워크를 이용한 로그 유클리디안 메트릭 러닝 장치 및 방법 |
CN109886173A (zh) * | 2019-02-02 | 2019-06-14 | 中国科学院电子学研究所 | 基于视觉的侧脸姿态解算方法及情绪感知自主服务机器人 |
WO2020248376A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 情绪检测方法、装置、电子设备及存储介质 |
US20210000404A1 (en) * | 2019-07-05 | 2021-01-07 | The Penn State Research Foundation | Systems and methods for automated recognition of bodily expression of emotion |
WO2021217973A1 (zh) * | 2020-04-28 | 2021-11-04 | 平安科技(深圳)有限公司 | 情感信息识别方法、装置、存储介质及计算机设备 |
WO2022026886A1 (en) * | 2020-07-30 | 2022-02-03 | The Jackson Laboratory | Automated phenotyping of behavior |
CN112347974A (zh) * | 2020-11-22 | 2021-02-09 | 上海祐云信息技术有限公司 | 人体头部姿态估计算法及操作员工作状态识别系统 |
CN113536999A (zh) * | 2021-07-01 | 2021-10-22 | 汇纳科技股份有限公司 | 人物情绪识别方法、系统、介质及电子设备 |
CN113642432A (zh) * | 2021-07-30 | 2021-11-12 | 南京师范大学 | 基于协方差矩阵变换的卷积神经网络用于人体姿态识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116687406A (zh) * | 2023-05-06 | 2023-09-05 | 粤港澳大湾区精准医学研究院(广州) | 情绪识别方法、装置、电子设备及存储介质 |
CN116687406B (zh) * | 2023-05-06 | 2024-01-02 | 粤港澳大湾区精准医学研究院(广州) | 情绪识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114863548B (zh) | 2024-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shiri et al. | A comprehensive overview and comparative analysis on deep learning models: CNN, RNN, LSTM, GRU | |
CN107506712B (zh) | 一种基于3d深度卷积网络的人类行为识别的方法 | |
CN108121975B (zh) | 一种联合原始数据和生成数据的人脸识别方法 | |
CN107102727B (zh) | 基于elm神经网络的动态手势学习与识别方法 | |
CN111310672A (zh) | 基于时序多模型融合建模的视频情感识别方法、装置及介质 | |
CN106909938B (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN109978021B (zh) | 一种基于文本不同特征空间的双流式视频生成方法 | |
CN110188794B (zh) | 一种深度学习模型的训练方法、装置、设备及存储介质 | |
CN109508686B (zh) | 一种基于层次化特征子空间学习的人体行为识别方法 | |
CN111401261B (zh) | 基于gan-cnn框架的机器人手势识别方法 | |
CN115719510A (zh) | 基于多模态融合及隐式交互关系学习的群组行为识别方法 | |
CN113255602A (zh) | 基于多模态数据的动态手势识别方法 | |
CN114780767A (zh) | 一种基于深度卷积神经网络的大规模图像检索方法及系统 | |
Xu et al. | Cross-modality online distillation for multi-view action recognition | |
Zhai et al. | Facial beauty prediction via local feature fusion and broad learning system | |
CN114863548A (zh) | 基于人体运动姿态非线性空间特征的情绪识别方法及装置 | |
CN118155251A (zh) | 一种基于语义通信式联邦学习的掌静脉识别方法 | |
Zhao et al. | Human action recognition based on improved fusion attention CNN and RNN | |
Qi et al. | Research on deep learning expression recognition algorithm based on multi-model fusion | |
Wang et al. | Distance correlation autoencoder | |
CN113408721A (zh) | 神经网络结构搜索方法、装置、计算机设备和存储介质 | |
CN110110673B (zh) | 一种基于双向2dpca和级联前向神经网络的人脸识别方法 | |
CN117034030A (zh) | 基于正反双向信息融合的脑电图数据对齐算法 | |
CN116561376A (zh) | 一种多智能体超图建模与表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |