CN117036877A - 一种人脸表情及姿态融合的情绪识别方法及系统 - Google Patents
一种人脸表情及姿态融合的情绪识别方法及系统 Download PDFInfo
- Publication number
- CN117036877A CN117036877A CN202310881607.4A CN202310881607A CN117036877A CN 117036877 A CN117036877 A CN 117036877A CN 202310881607 A CN202310881607 A CN 202310881607A CN 117036877 A CN117036877 A CN 117036877A
- Authority
- CN
- China
- Prior art keywords
- emotion
- result
- facial expression
- posture
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 60
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000004927 fusion Effects 0.000 title claims description 26
- 230000008451 emotion Effects 0.000 claims abstract description 83
- 230000001815 facial effect Effects 0.000 claims abstract description 11
- 230000002996 emotional effect Effects 0.000 claims description 20
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013215 result calculation Methods 0.000 claims description 3
- 230000009471 action Effects 0.000 abstract description 5
- 238000007499 fusion processing Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract description 3
- 230000036544 posture Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006461 physiological response Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本发明提供的一种人脸表情及姿态融合的情绪识别方法及系统,所述情绪识别方法包括:获取人脸表情,并计算得到人脸情绪结果;获取人体姿态,并计算得到姿态情绪结果;将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。能够利用人脸表情和视觉状态下人体姿态动作的融合处理,结合心理学范式微调,有效地融合了人脸表情和人体姿态在情绪识别上的独特优势,实现了公共空间个体情绪状态的有效识别。
Description
技术领域
本发明涉及情感计算领域的多模态情绪识别领域,尤其涉及一种人脸表情及姿态融合的情绪识别方法及系统。
背景技术
情绪识别的目标是能够通过计算机对人的情绪和意图进行感知和分析,它可以应用在娱乐、教育、医疗等领域,比如人机交互中机器人对人类的情绪感知能力,在医疗系统中帮助医生对病人的焦虑抑郁情绪做出判断。
现有的方法通常会通过人的表情、声音、人体生理反应等外部特征或者内部特征对人的情绪状态进行识别和分类。人脸表情可以直观反映出人的情绪状态,随着深度学习的发展,计算机可以达到较高的人脸表情识别精度,然而有心理研究表明,在互动或社交环境中,人脸表情本身具有误导性,而人的肢体动作通常情况下是真实的,可以结合其表现提高对人的情绪状态的识别能力。此外在真实场景下,受光照、距离的影响,通常人脸分辨率不高,面部特征较为模糊,这会对人脸表情的精确识别造成影响。而在人脸表情及姿态相结合的多模态情绪识别上,大多使用传统方法提取人脸表情、姿态动作的信息。基于曲线和人体颜色跟踪头部和手部并提取多个特征以进行情绪识别,而特征提取工作量巨大,只提取了4个被试者的27个视频,数据量较少。使用动作历史图像(MHI,MotionHistoryImage)方向梯度直方图(HOG,HistogramofOrientedGradient)和图像方向梯度直方图表示人脸和人体姿态的局部和外部信息,提取的特征量更大。使用了静态人脸和肢体信息进行情绪识别,而动态对于识别人体情绪是非常重要的。
因此,如何更好地结合人脸表情和姿态的分析结果得出准确的人类情绪,该方面问题仍然亟需解决。
发明内容
鉴于上述问题,提出了本发明以便提供克服上述问题或者至少部分地解决上述问题的一种人脸表情及姿态融合的情绪识别方法及系统。
根据本发明的一个方面,提供了一种人脸表情及姿态融合的情绪识别方法,所述情绪识别方法包括:
获取人脸表情,并计算得到人脸情绪结果;
获取人体姿态,并计算得到姿态情绪结果;
将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。
可选的,所述获取人脸表情,并计算得到人脸情绪结果具体包括:
采用目标检测算法定位图像中出现的所有人脸框,获得预测情绪结果;
根据具体的应用场景或数据采集场景,获得心理学层面的情绪状态及情绪分数;
根据所述预测情绪结果及所述情绪分数加权融合,得到人脸情绪结果。
可选的,所述采用目标检测算法定位图像中出现的所有人脸框,获得预测情绪结果具体包括:
采用目标检测算法定位图像中出现的所有人脸框,进行缩放裁剪,得到人脸图像;
将所述人脸图像缩放为第一尺寸并做归一化处理,送入Resnet18卷积神经网络中提取深度特征;
将所述深度特征经过一个全连接层和sigmoid函数为每个图像分配一个注意力权重;
将所述深度特征经过一个全连接层后与注意力权重相乘,其中分数最高的为预测情绪结果。
可选的,所述根据具体的应用场景或数据采集场景,获得心理学层面的情绪状态及情绪分数具体包括:
根据具体的应用场景或数据采集场景选择对应的情绪状态测评量表,由被采集人完成情绪状态的自评,再由专业心理学研究人员对其完成情绪状态的他评,将双方结果加权融合,得出心理学层面的情绪状态及情绪分数。
可选的,所述获取人体姿态,并计算得到姿态情绪结果具体包括:
对于一帧图像用特征提取网络提取特征;
针对每个关键点,生成置信度图,每个置信度图上的像素表示对应点在像素位置出现的可能性;
生成每对相关点之间的相关点关联字段,每个所述相关点关联字段表示连接相关点的可能性大小和方向;
根据已有信息提取出所有人体关键点,并将所述关键点进行分组匹配连接,使得同一个人的人体关键点得到相连,得到人体基本姿态图像;
根据通过心理学验证的有效情绪分数得到每个姿态图像的情绪分数;
设定一个超参数分配人脸表情结果和人体姿态结果之间的权重,
将所述人脸表情和所述人体姿态的情绪结果做后融合加权平均,经过softmax层取最高值以得到最终的情绪结果。
可选的,所述关键点具体包括:鼻子、肩膀、手肘。
可选的,所述每对相关点具体包括:肩膀和肘部之间的关系。
可选的,所述第一尺寸为224x224。
本发明还提供了一种人脸表情及姿态融合的情绪识别系统,应用于上述所述的一种人脸表情及姿态融合的情绪识别方法,所述识别系统包括:
人脸表情识别模块,用于获取人脸表情,并计算得到人脸情绪结果;
人体姿态识别模块,用于获取人体姿态,并计算得到姿态情绪结果;
情绪识别结果计算模块,用于将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。
本发明提供的一种人脸表情及姿态融合的情绪识别方法及系统,所述情绪识别方法包括:获取人脸表情,并计算得到人脸情绪结果;获取人体姿态,并计算得到姿态情绪结果;将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。能够利用人脸表情和视觉状态下人体姿态动作的融合处理,结合心理学范式微调,有效地融合了人脸表情和人体姿态在情绪识别上的独特优势,实现了公共空间个体情绪状态的有效识别。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种人脸表情及姿态融合的情绪识别方法的流程图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明的说明书实施例和权利要求书及附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元。
下面结合附图和实施例,对本发明的技术方案做进一步的详细描述。
本发明的目的是提出一种基于心理学范式的多模态情绪识别系统,能够利用人脸表情和视觉状态下人体姿态动作的融合处理,结合心理学范式微调,有效地融合了人脸表情和人体姿态在情绪识别上的独特优势,实现了公共空间个体情绪状态的有效识别。
如图1所示,图像信息以信息流方式输入,对每一帧图像输入做识别处理,通过多线程方式将图像分别放入人脸表情识别模型和人体姿态识别模型中,分别得到不同的情绪分数;
基于特定的心理学范式对情绪分数进行检验,得到通过心理学验证的情绪分数结果;
通过加权融合的方式得到最终的情绪分数,分数最高的情绪状态即每一帧图像最终的情绪结果。
在这个过程中,多线程方式有效缓解了模型处理时间过长的问题,使得系统得以进行低延迟的实时情绪识别,其次当图像中人数不断变化时,模型需要处理的数据量也发生了变化,动态抽帧策略使得系统及时根据模型处理时间进行性能调整,保持系统的稳定性。
人脸表情识别模块中首先通过目标检测算法定位图像中出现的所有人脸框,进行一定尺寸的缩放裁剪,得到只包含人脸信息的图像,将人脸图像缩放为224x224大小并做归一化处理,而后送入Resnet18卷积神经网络中提取深度特征,将深度特征经过一个全连接层和sigmoid函数为每个图像分配一个注意力权重,接着将深度特征经过一个全连接层后与注意力权重相乘,其中分数最高的即预测的情绪结果。
随后,根据具体的应用场景或数据采集场景选择对应的情绪状态测评量表,由被采集人完成情绪状态的自评,再由专业心理学研究人员对其完成情绪状态的他评,将双方结果加权融合,得出心理学层面的情绪状态及情绪分数。
得到通过心理学验证的有效情绪分数,将其与人脸表情模块的情绪结果做加权融合得到人脸情绪结果。
人体姿态识别模块中使用自底向上的方式,对于一帧图像用特征提取网络提取特征,然后针对每个关键点(例如鼻子、肩膀、手肘),生成其置信度图,每个置信度图上的像素表示该点在该像素位置出现的可能性大小。接着生成每对相关点(例如肩膀和肘部之间的关系)之间的相关点关联字段,每个相关点关联字段表示连接相关点的可能性大小和方向。
根据已有信息提取出所有人体关键点,并将人体关键点进行分组匹配连接,使得同一个人的人体关键点得到相连,得到人体基本姿态图像。然后根据通过心理学验证的有效情绪分数得到每个姿态图像的情绪分数,而后设定一个超参数分配人脸表情结果和人体姿态结果之间的权重,将两者的情绪结果做后融合加权平均,而后经过softmax层取最高值以得到最终的情绪结果。
一种人脸表情及姿态融合的情绪识别系统包括:
人脸表情识别模块,用于获取人脸表情,并计算得到人脸情绪结果;
人体姿态识别模块,用于获取人体姿态,并计算得到姿态情绪结果;
情绪识别结果计算模块,用于将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。
采用本发明的一种人脸表情及姿态融合的情绪识别方法基于心理学范式的人脸表情与人体姿态相结合的多模态情绪识别结果,具有良好的泛化能力和适用性,人脸表情和人体姿态表达的情感信息具有较好的互补作用,提高了情绪识别的能力和可靠性。而多线程的实现和动态抽帧策略保证了系统进行实时分析的稳定性和低延迟要求。
有益效果:传统单一模态的情绪识别结果往往不够立体可靠,而多模态情绪识别中结合人脸表情和人体姿态的研究中大多存在特征提取等局限性,且模型泛化能力较低,缺少心理学范式基础,识别结果难有参考价值。该发明设计了一种基于心理学范式的人脸表情和人体姿态融合的情绪识别系统,先多线程分别根据每一帧的人脸表情和人体姿态得到基本结果,再根据具体应用场景,选择对应的心理测评量表作为校标,对情绪识别的结果进行可靠性和有效性的验证。而后通过后融合方式得到最终每一帧的情绪识别结果。这样不仅控制了算法处理时间,而且识别结果更有心理学意义上的解释意义,提高了模型泛化能力。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述情绪识别方法包括:
获取人脸表情,并计算得到人脸情绪结果;
获取人体姿态,并计算得到姿态情绪结果;
将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。
2.根据权利要求1所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述获取人脸表情,并计算得到人脸情绪结果具体包括:
采用目标检测算法定位图像中出现的所有人脸框,获得预测情绪结果;
根据具体的应用场景或数据采集场景,获得心理学层面的情绪状态及情绪分数;
根据所述预测情绪结果及所述情绪分数加权融合,得到人脸情绪结果。
3.根据权利要求2所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述采用目标检测算法定位图像中出现的所有人脸框,获得预测情绪结果具体包括:
采用目标检测算法定位图像中出现的所有人脸框,进行缩放裁剪,得到人脸图像;
将所述人脸图像缩放为第一尺寸并做归一化处理,送入Resnet18卷积神经网络中提取深度特征;
将所述深度特征经过一个全连接层和sigmoid函数为每个图像分配一个注意力权重;
将所述深度特征经过一个全连接层后与注意力权重相乘,其中分数最高的为预测情绪结果。
4.根据权利要求2所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述根据具体的应用场景或数据采集场景,获得心理学层面的情绪状态及情绪分数具体包括:
根据具体的应用场景或数据采集场景选择对应的情绪状态测评量表,由被采集人完成情绪状态的自评,再由专业心理学研究人员对其完成情绪状态的他评,将双方结果加权融合,得出心理学层面的情绪状态及情绪分数。
5.根据权利要求1所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述获取人体姿态,并计算得到姿态情绪结果具体包括:
对于一帧图像用特征提取网络提取特征;
针对每个关键点,生成置信度图,每个置信度图上的像素表示对应点在像素位置出现的可能性;
生成每对相关点之间的相关点关联字段,每个所述相关点关联字段表示连接相关点的可能性大小和方向;
根据已有信息提取出所有人体关键点,并将所述关键点进行分组匹配连接,使得同一个人的人体关键点得到相连,得到人体基本姿态图像;
根据通过心理学验证的有效情绪分数得到每个姿态图像的情绪分数;
设定一个超参数分配人脸表情结果和人体姿态结果之间的权重,
将所述人脸表情和所述人体姿态的情绪结果做后融合加权平均,经过softmax层取最高值以得到最终的情绪结果。
6.根据权利要求5所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述关键点具体包括:鼻子、肩膀、手肘。
7.根据权利要求5所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述每对相关点具体包括:肩膀和肘部之间的关系。
8.根据权利要求3所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述第一尺寸为224x224。
9.一种人脸表情及姿态融合的情绪识别系统,应用于上述权利要求1-8任意一项所述的一种人脸表情及姿态融合的情绪识别方法,其特征在于,所述识别系统包括:
人脸表情识别模块,用于获取人脸表情,并计算得到人脸情绪结果;
人体姿态识别模块,用于获取人体姿态,并计算得到姿态情绪结果;
情绪识别结果计算模块,用于将所述人脸情绪结果和所述姿态情绪结果,获得情绪识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310881607.4A CN117036877B (zh) | 2023-07-18 | 2023-07-18 | 一种人脸表情及姿态融合的情绪识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310881607.4A CN117036877B (zh) | 2023-07-18 | 2023-07-18 | 一种人脸表情及姿态融合的情绪识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117036877A true CN117036877A (zh) | 2023-11-10 |
CN117036877B CN117036877B (zh) | 2024-08-23 |
Family
ID=88638055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310881607.4A Active CN117036877B (zh) | 2023-07-18 | 2023-07-18 | 一种人脸表情及姿态融合的情绪识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117036877B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178242A (zh) * | 2019-12-27 | 2020-05-19 | 上海掌学教育科技有限公司 | 一种面向在线教育的学生人脸表情识别方法及系统 |
CN113920568A (zh) * | 2021-11-02 | 2022-01-11 | 中电万维信息技术有限责任公司 | 基于视频图像的人脸和人体姿态情绪识别方法 |
CN114511895A (zh) * | 2020-11-16 | 2022-05-17 | 四川大学 | 一种基于注意力机制多尺度网络的自然场景情绪识别方法 |
CN115240241A (zh) * | 2022-04-29 | 2022-10-25 | 合肥工业大学 | 针对路桥工程场景的情绪识别方法及装置 |
CN115966003A (zh) * | 2022-11-21 | 2023-04-14 | 河南师范大学 | 一种基于情绪识别的学习者线上学习效率评估系统 |
-
2023
- 2023-07-18 CN CN202310881607.4A patent/CN117036877B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178242A (zh) * | 2019-12-27 | 2020-05-19 | 上海掌学教育科技有限公司 | 一种面向在线教育的学生人脸表情识别方法及系统 |
CN114511895A (zh) * | 2020-11-16 | 2022-05-17 | 四川大学 | 一种基于注意力机制多尺度网络的自然场景情绪识别方法 |
CN113920568A (zh) * | 2021-11-02 | 2022-01-11 | 中电万维信息技术有限责任公司 | 基于视频图像的人脸和人体姿态情绪识别方法 |
CN115240241A (zh) * | 2022-04-29 | 2022-10-25 | 合肥工业大学 | 针对路桥工程场景的情绪识别方法及装置 |
CN115966003A (zh) * | 2022-11-21 | 2023-04-14 | 河南师范大学 | 一种基于情绪识别的学习者线上学习效率评估系统 |
Non-Patent Citations (1)
Title |
---|
胡阳等: "基于PaddleDetection框架的情绪识别的研究和实现", 《电脑知识与技术》, 25 June 2023 (2023-06-25) * |
Also Published As
Publication number | Publication date |
---|---|
CN117036877B (zh) | 2024-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yadav et al. | Real-time Yoga recognition using deep learning | |
Rudovic et al. | Context-sensitive dynamic ordinal regression for intensity estimation of facial action units | |
Zeng et al. | Silhouette-based gait recognition via deterministic learning | |
Youssif et al. | Automatic facial expression recognition system based on geometric and appearance features | |
Avola et al. | Deep temporal analysis for non-acted body affect recognition | |
CN111222486B (zh) | 手部姿态识别模型的训练方法、装置、设备及存储介质 | |
Gavrilova et al. | Multi-modal motion-capture-based biometric systems for emergency response and patient rehabilitation | |
Zhu | Computer Vision‐Driven Evaluation System for Assisted Decision‐Making in Sports Training | |
Nagalakshmi Vallabhaneni | The analysis of the impact of yoga on healthcare and conventional strategies for human pose recognition | |
CN114998983A (zh) | 一种基于增强现实技术和姿态识别技术的肢体康复方法 | |
Chowdhury et al. | Lip as biometric and beyond: a survey | |
Rahayu et al. | Human activity classification using deep learning based on 3D motion feature | |
Chen et al. | Hierarchical posture representation for robust action recognition | |
Waheed et al. | An automated human action recognition and classification framework using deep learning | |
Zhang et al. | Biometric recognition | |
CN117036877B (zh) | 一种人脸表情及姿态融合的情绪识别方法及系统 | |
Sarangi et al. | Gender perception from gait: A comparison between biological, biomimetic and non-biomimetic learning paradigms | |
Bakshi | Hand hygiene video classification based on deep learning | |
Kankariya et al. | Sign Language Gestures Recognition using CNN and Inception v3 | |
Vankayalapati et al. | A Novel Zernike Moment-Based Real-Time Head Pose and Gaze Estimation Framework for Accuracy-Sensitive Applications | |
Abdelrazik et al. | Efficient deep learning algorithm for egyptian sign language recognition | |
Zheng et al. | Sports Biology Seminar of Three‐dimensional Movement Characteristics of Yoga Standing Based on Image Recognition | |
Zaboleeva-Zotova et al. | Automated identification of human emotions by gestures and poses | |
Pinčić | Gait recognition using a self-supervised self-attention deep learning model | |
Patil et al. | Intensity Based distinctive feature extraction and matching using Scale invariant feature transform for Indian Sign Language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |