CN111178129B - 一种基于人脸和姿态的多模态人员识别方法 - Google Patents
一种基于人脸和姿态的多模态人员识别方法 Download PDFInfo
- Publication number
- CN111178129B CN111178129B CN201911165122.5A CN201911165122A CN111178129B CN 111178129 B CN111178129 B CN 111178129B CN 201911165122 A CN201911165122 A CN 201911165122A CN 111178129 B CN111178129 B CN 111178129B
- Authority
- CN
- China
- Prior art keywords
- image
- gesture
- smaller
- captured
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人脸和姿态的多模态人员识别方法,包括如下步骤:1)如果某个姿态图像可以被捕获,分配一个数字i,捕获用的矩形框为R1[i],i作为该矩形框的标签;2)如从姿态图像中能识别出姓名A1[i],得到最小余弦距离为a[i],如果a[i]小于姿态识别阈值m,把i改为姓名标签A1[i];3)如果某个脸部图像可被捕获和识别,捕获用的矩形框为R2[i],得到的最小余弦距离为b[i],如果b[i]小于人脸识别阈值n,标签改为姓名A2[i];4)R2[i]在R1[i]内部的前提下,如果a[i]小于b[i]并且小于m,将R2[i]的标签改成A1[i],否则,把R1[i]的标签改成A2[i];5)对后续图像重复执行1)到4),如果a[i]或b[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的图像不再重复识别。
Description
技术领域
本发明涉及计算机视觉领域,一种基于人脸和姿态的多模态人员识别方法。
背景技术
在我国,随着互联网技术的飞速发展以及城市建设的不断发展,视频监控得到了广泛的应用,成为目前最主要的安防监控手段。视频监控中的人员识别一般利用生物特征进行识别,如人脸、指纹和姿态。目前大部分的生物特征识别都是使用单模式生物特征进行识别,即只使用一种生物特征,这种方法的缺陷体现在两方面:1)在获取原始生物特征数据的时候比较容易受外部环境影响,如果在注册人员信息的时候没有采集到正确的生物特征数据,会导致严重的人员识别问题;2)随着现在科学技术的飞速发展,单模式下的生物特征越来越可能被伪造,使得安全隐患日益加重。因此,人们开始研究采用几种生物特征融合的多模态人员识别方法。
目前视频监控中的人员识别多通过实时人脸识别实现,其中大部分基于深度学习实现,利用算法构建深度神经网络,使用训练得到的模型组成实时人脸识别系统。陈富强采用MTCNN和FaceNet实现一个视频考勤的系统;方国康等利用MTCNN和基于Resnet改造的卷积网络设计了一套针对ARM平台的实时人脸识别方法。但是以上方法在实际应用时受距离和清晰度等因素影响,导致经常无法捕捉到可用的人脸信息,从而无法进行人员识别。
现在人们开始研究利用人的姿态进行人员识别,使用姿态提取生物特征的优点是:首先,采集姿态信息不易被发觉,不具有侵犯性;其次,伪造姿态信息的难度较大,采集到的信息具有高辨别性;最后,对捕捉用的摄像头位置以及像素要求不高,不需要高清晰度的画面,并且远距离条件下也能够成功采集。目前的姿态识别大部分基于深度学习完成,Shiraga等人设计了GEINet,将步态能量图作为输入进行训练;Thapar等将步态轮廓图作为输入,利用3D卷积网络完成特征提取;Chao等人提出了GaitSet模型,利用深度学习网络自身学习提取时序信息,再加以利用。但是姿态一方面容易因外部环境变化而改变,另一方面自身穿着以及负重与否也会影响人的姿态,因此姿态识别的准确率一般只有80%~90%,低于人脸和指纹等生物识别方法,不能满足实用方面的要求。
行人重识别指的是多摄像头下的行人追踪,目前主要也是通过深度学习实现,Ding等人基于三元组搭建深度学习网络,用于行人重识别;Liu等人提出一个多尺度的三元组卷积神经网络;Cheng等人改进了三元组损失函数,并在基于整个行人的网络结构上增加了4个基于身体部分的通道。
发明内容
为了克服视频监控中单模式人员识别的缺点,本发明提供了一种基于人脸和姿态的多模态人员识别方法,其成本较低且易于维护,比单模式下的人员识别结果更加准确,能够较好地识别处于视频监控中的人员。
一种基于人脸和姿态的多模态人员识别方法,人员在某地点被摄像头拍摄时,包括如下步骤:
1)如果某个姿态图像可以被捕获,分配一个数字i,捕获所用的矩形框为R1[i],i作为该矩形框的标签;
2)如果从捕获的姿态图像中能够识别出姓名A1[i],得到的最小余弦距离为a[i],如果a[i]小于姿态识别阈值m,把数字标签i改为姓名标签A1[i];
3)如果某个脸部图像可以被捕获且被识别,捕获所用的矩形框为R2[i],得到的最小余弦距离为b[i],如果b[i]小于人脸识别阈值n,标签设置为识别出的姓名A2[i];
4)R2[i]在R1[i]内部的前提下,如果a[i]小于b[i]并且小于m,将R2[i]的标签改成A1[i],如果b[i]小于a[i]并且小于n,把R1[i]的标签改成A2[i];
5)对后续图像重复执行1)到4),如果a[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的姿态图像不再重复识别,如果b[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的人脸图像不再重复识别。
所述的步骤1)中,捕获姿态图像的方法步骤如下:
1)利用基于深度学习训练的yolo模型对姿态进行捕获;
2)对捕获到的姿态利用OpenCV的cv2.rectangle函数对相应人员加矩形框;
所述的步骤2)中,对姿态图像进行识别的步骤如下:
1)利用基于深度学习训练得到的GaitSet模型对捕获到的姿态图像进行识别;
2)分别计算待识别图像中提取到的特征值与本地csv文件中存储的特征值得到余弦距离,选取其中值最小的作为最小余弦距离;
所述的步骤3)中,对脸部图像进行捕获并识别的步骤如下:
1)利用基于深度学习训练得到的MTCNN模型捕获人脸;
2)对捕获到的人脸利用OpenCV的cv2.rectangle函数对人脸加矩形框;
3)利用基于深度学习训练得到的FaceNet模型对捕获的人脸图像进行识别;
4)分别计算待识别图像中提取到的特征值与本地csv文件中存储的特征值得到余弦距离,选取其中值最小的作为最小余弦距离;
所述的步骤4)中,判断R2[i]是否在R1[i]内部的步骤如下:
1)对图像构建统一的坐标系,x轴向右为正方向,y轴向下为正方向;
2)矩形框R1[i]左上角的坐标是(k1[i],j1[i]),右上角的坐标是(k2[i],j1[i]),左下角的坐标是(k1[i],j2[i]),右下角的坐标是(k2[i],j2[i]);
3)矩形框R2[i]左上角的坐标是(x1[i],y1[i]),右上角的坐标是(x2[i], y1[i]),左下角的坐标是(x1[i], y2[i]),右下角的坐标是(x2[i], y2[i]);
4)若同时满足x1[i]大于等于k1[i]、y1[i]大于等于j1[i]、x2[i]小于等于k2[i]和y2[i]小于等于j2[i],则R2[i]在R1[i]内部。
该发明具有如下有益效果:本方法将人脸和姿态两种生物特征融合,设计一种基于人脸和姿态的多模态人员识别方法,通过融合人脸和姿态两种生物特征,提高视频监控中人员识别的可靠性。利用捕获人脸和姿态后反馈到图像中的坐标关系,判断人脸和姿态是否属于同一人。同时设置重复识别的阈值,若识别的最小余弦距离小于该阈值,对于该人员固定标签,不再重复识别以节省计算资源消耗。
附图说明
图1是一种基于人脸和姿态的多模态人员识别方法流程图;
图2是分配数字标签的示意图;
图3是进行姿态识别的示意图;
图4是进行人脸识别的示意图;
图5是进行判断后的识别结果示意图;
图6是不重复识别示意图。
具体实施方法
为使本发明的目的、技术方案和优点更加清楚,下面结合附图和实施例对本发明做进一步阐述和说明。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
如图1所示,一种基于人脸和姿态的多模态人员识别方法,人员在某地点被摄像头拍摄时,包括如下步骤:
1)如果某个姿态图像可以被捕获,分配一个数字i,捕获所用的矩形框为R1[i],i作为该矩形框的标签;
2)如果从捕获的姿态图像中能够识别出姓名A1[i],得到的最小余弦距离为a[i],如果a[i]小于姿态识别阈值m,把数字标签i改为姓名标签A1[i];
3)如果某个脸部图像可以被捕获且被识别,捕获所用的矩形框为R2[i],得到的最小余弦距离为b[i],如果b[i]小于人脸识别阈值n,标签设置为识别出的姓名A2[i];
4)R2[i]在R1[i]内部的前提下,如果a[i]小于b[i]并且小于m,将R2[i]的标签改成A1[i],如果b[i]小于a[i]并且小于n,把R1[i]的标签改成A2[i];
5)对后续图像重复执行1)到4),如果a[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的姿态图像不再重复识别,如果b[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的人脸图像不再重复识别。
所述的步骤1)中,捕获姿态图像的方法步骤如下:
1)利用基于深度学习训练的yolo模型对姿态进行捕获;
2)对捕获到的姿态利用OpenCV的cv2.rectangle函数对相应人员加矩形框。
所述的步骤2)中,对姿态图像进行识别的步骤如下:
1)利用基于深度学习训练得到的GaitSet模型对捕获到的姿态图像进行识别;
2)分别计算待识别图像中提取到的特征值与本地csv文件中存储的特征值得到余弦距离,选取其中值最小的作为最小余弦距离。
所述的步骤3)中,对脸部图像进行捕获并识别的步骤如下:
1)利用基于深度学习训练得到的MTCNN模型捕获人脸;
2)对捕获到的人脸利用OpenCV的cv2.rectangle函数对人脸加矩形框;
3)利用基于深度学习训练得到的FaceNet模型对捕获的人脸图像进行识别;
4)分别计算待识别图像中提取到的特征值与本地csv文件中存储的特征值得到余弦距离,选取其中值最小的作为最小余弦距离。
所述的步骤4)中,判断R2[i]是否在R1[i]内部的步骤如下:
1)对图像构建统一的坐标系,x轴向右为正方向,y轴向下为正方向;
2)矩形框R1[i]左上角的坐标是(k1[i],j1[i]),右上角的坐标是(k2[i],j1[i]),左下角的坐标是(k1[i],j2[i]),右下角的坐标是(k2[i],j2[i]);
3)矩形框R2[i]左上角的坐标是(x1[i],y1[i]),右上角的坐标是(x2[i], y1[i]),左下角的坐标是(x1[i], y2[i]),右下角的坐标是(x2[i], y2[i]);
4)若同时满足x1[i]大于等于k1[i]、y1[i]大于等于j1[i]、x2[i]小于等于k2[i]和y2[i]小于等于j2[i],则R2[i]在R1[i]内部。
实施例
为了便于本领域一般技术人员理解和实现本发明,现给出一种本发明所述方法的具体实施案例。利用人脸和姿态进行人员识别的核心思想是,通过融合两种生物特征,提高视频监控中人员识别的可靠性。并通过设置重复识别的阈值,通过比较该阈值与识别阈值的大小判断目标人物是否需要重复识别,能够减小计算资源的损耗。
在某房间内安装海康DS-2DC7423IW-A摄像头,利用iVMS-4200客户端获取该摄像头的ip地址以及在程序中用于访问的URL。在程序中,使用python语言的OpenCV函数库,根据URL访问摄像头获取画面。
下载CASIA-B数据集作为训练集和测试集,利用caffe深度学习框架训练GaitSet姿态识别模型,应用其中测试结果最好的模型,训练yolo模型用于捕获人员姿态图像。下载CASIA Webface和LFW数据集分别作为训练集和测试集,利用caffe深度学习框架训练FaceNet人脸识别模型。对训练过程中保存下来的模型进行准确率的测试,使用准确率最高的模型。拍摄若干人的人脸图片和姿态图片,存入服务器,构建本地数据库。利用人脸识别模型和姿态识别模型分别提取本地数据库中的人脸和姿态特征,存入csv文件。
案例对象走入房间,yolo模型捕获到他的姿态图像,利用cv2.rectangle函数加矩形框R1[1],分配一个数字“1”作为标签。如图2所示。
GaitSet模型能够识别捕获到的姿态图像,识别的结果是“suo_tong_peng”,通过计算得到最小余弦距离a[1]=0.431,小于姿态识别阈值m=0.55,将原本的数字标签“1”换成“suo_tong_peng”,如图3所示。
此后一段时间一直未能捕捉到面部信息,对象的标签一直是“suo_tong_peng”,没有发生变化。
MTCNN模型捕获到了脸部图像,利用cv2.rectangle函数加矩形框R2[1]。FaceNet模型对脸部图像进行识别,通过计算得到的最小余弦距离b[1]=0.331,小于人脸识别阈值n=0.43,识别结果为“zhang_yun_fei”,如图4所示。
经判断后,R2[1]在R1[1]内部,并且b[1]小于a[1],将“suo_tong_peng”修改为“zhang_yun_fei”,如图5所示。
因为b[1]小于重复识别阈值k=0.4,所以基于行人重识别的目标追踪捕获的同一人的人脸图像不再重复识别,如图6所示。
Claims (1)
1.一种基于人脸和姿态的多模态人员识别方法,其特征在于,包括如下步骤:
1-1)如果某个人员的姿态图像被捕获,分配一个数字i,捕获所用的矩形框为R1[i],i作为该矩形框的标签;
1-2)如果从捕获的姿态图像中能够识别出姓名A1[i],得到的最小余弦距离为a[i],如果a[i]小于姿态识别阈值m,把数字标签i改为姓名标签A1[i];
1-3)如果某个脸部图像可以被捕获且被识别,捕获所用的矩形框为R2[i],得到的最小余弦距离为b[i],如果b[i]小于人脸识别阈值n,标签设置为识别出的姓名A2[i];
1-4)R2[i]在R1[i]内部的前提下,如果a[i]小于b[i]并且小于m,将R2[i]的标签改成A1[i],如果b[i]小于a[i]并且小于n,把R1[i]的标签改成A2[i];
1-5)对后续图像重复执行1-1)到1-4),如果a[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的姿态图像不再重复识别,如果b[i]小于重复识别阈值k,基于行人重识别的目标追踪捕获的同一人的人脸图像不再重复识别;
在所述步骤1-1)中,捕获姿态图像的方法步骤如下:
2-1)利用基于深度学习训练的yolo模型对姿态进行捕获;
2-2)对捕获到的姿态利用OpenCV的cv2.rectangle函数对相应人员加矩形框;
在所述步骤1-2)中,对姿态图像进行识别的步骤如下:
3-1)利用基于深度学习训练得到的GaitSet模型对捕获到的姿态图像进行识别;
3-2)分别计算待识别图像中提取到的特征值与本地csv文件中存储的特征值得到余弦距离,选取其中值最小的作为最小余弦距离;
在所述步骤1-3)中,对脸部图像进行捕获并识别的步骤如下:
4-1)利用基于深度学习训练得到的MTCNN模型捕获人脸;
4-2)对捕获到的人脸利用OpenCV的cv2.rectangle函数对人脸加矩形框;
4-3)利用基于深度学习训练得到的FaceNet模型对捕获的人脸图像进行识别;
4-4)分别计算待识别图像中提取到的特征值与本地csv文件中存储的特征值得到余弦距离,选取其中值最小的作为最小余弦距离;
在所述步骤1-4)中,判断R2[i]是否在R1[i]内部的步骤如下:
5-1)对图像构建统一的坐标系,x轴向右为正方向,y轴向下为正方向;
5-2)矩形框R1[i]左上角的坐标是(k1[i],j1[i]),右上角的坐标是(k2[i],j1[i]),左下角的坐标是(k1[i],j2[i]),右下角的坐标是(k2[i],j2[i]);
5-3)矩形框R2[i]左上角的坐标是(x1[i],y1[i]),右上角的坐标是(x2[i], y1[i]),左下角的坐标是(x1[i], y2[i]),右下角的坐标是(x2[i], y2[i]);
5-4)若同时满足x1[i]大于等于k1[i]、y1[i]大于等于j1[i]、x2[i]小于等于k2[i]和y2[i]小于等于j2[i],则R2[i]在R1[i]内部。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911165122.5A CN111178129B (zh) | 2019-11-25 | 2019-11-25 | 一种基于人脸和姿态的多模态人员识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911165122.5A CN111178129B (zh) | 2019-11-25 | 2019-11-25 | 一种基于人脸和姿态的多模态人员识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111178129A CN111178129A (zh) | 2020-05-19 |
CN111178129B true CN111178129B (zh) | 2023-07-14 |
Family
ID=70651895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911165122.5A Active CN111178129B (zh) | 2019-11-25 | 2019-11-25 | 一种基于人脸和姿态的多模态人员识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111178129B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418191B (zh) * | 2021-01-21 | 2021-04-20 | 深圳阜时科技有限公司 | 指纹识别模型构建方法、存储介质及计算机设备 |
CN112766230A (zh) * | 2021-02-09 | 2021-05-07 | 浙江工商大学 | 一种视频流人员在线时长估计方法及对应系统 |
CN113269091A (zh) * | 2021-05-26 | 2021-08-17 | 广州瀚信通信科技股份有限公司 | 一种面向智慧园区的人员轨迹分析方法、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN105825176A (zh) * | 2016-03-11 | 2016-08-03 | 东华大学 | 基于多模态非接触身份特征的识别方法 |
CN109190475A (zh) * | 2018-08-01 | 2019-01-11 | 中国计量大学 | 一种人脸识别网络与行人再识别网络协同训练方法 |
CN110032932A (zh) * | 2019-03-07 | 2019-07-19 | 哈尔滨理工大学 | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 |
CN110287880A (zh) * | 2019-06-26 | 2019-09-27 | 西安电子科技大学 | 一种基于深度学习的姿态鲁棒性人脸识别方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103996033B (zh) * | 2014-05-29 | 2017-02-22 | 厦门瑞为信息技术有限公司 | 一种基于人脸五官坐标跟踪的真人识别方法 |
CN106845357B (zh) * | 2016-12-26 | 2019-11-05 | 银江股份有限公司 | 一种基于多通道网络的视频人脸检测和识别方法 |
CN109598211A (zh) * | 2018-11-16 | 2019-04-09 | 恒安嘉新(北京)科技股份公司 | 一种实时动态人脸识别方法及系统 |
CN110096965A (zh) * | 2019-04-09 | 2019-08-06 | 华东师范大学 | 一种基于头部姿态的人脸识别方法 |
CN110490067A (zh) * | 2019-07-11 | 2019-11-22 | 平安科技(深圳)有限公司 | 一种基于人脸姿态的人脸识别方法及装置 |
-
2019
- 2019-11-25 CN CN201911165122.5A patent/CN111178129B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN105825176A (zh) * | 2016-03-11 | 2016-08-03 | 东华大学 | 基于多模态非接触身份特征的识别方法 |
CN109190475A (zh) * | 2018-08-01 | 2019-01-11 | 中国计量大学 | 一种人脸识别网络与行人再识别网络协同训练方法 |
CN110032932A (zh) * | 2019-03-07 | 2019-07-19 | 哈尔滨理工大学 | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 |
CN110287880A (zh) * | 2019-06-26 | 2019-09-27 | 西安电子科技大学 | 一种基于深度学习的姿态鲁棒性人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111178129A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN106295568B (zh) | 基于表情和行为双模态结合的人类自然状态情感识别方法 | |
CN111178129B (zh) | 一种基于人脸和姿态的多模态人员识别方法 | |
CN111274916B (zh) | 人脸识别方法和人脸识别装置 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN111989689A (zh) | 用于识别图像内目标的方法和用于执行该方法的移动装置 | |
WO2022252642A1 (zh) | 基于视频图像的行为姿态检测方法、装置、设备及介质 | |
CN109145742A (zh) | 一种行人识别方法及系统 | |
CN103886283A (zh) | 用于移动用户的多生物特征图像信息融合方法及其应用 | |
Kim et al. | A survey and proposed framework on the soft biometrics technique for human identification in intelligent video surveillance system | |
CN111160307A (zh) | 一种人脸识别方法及人脸识别打卡系统 | |
CN105022999A (zh) | 一种人码伴随实时采集系统 | |
CN109858433B (zh) | 一种基于三维人脸模型识别二维人脸图片的方法及装置 | |
CN109002776B (zh) | 人脸识别方法、系统、计算机设备和计算机可读存储介质 | |
CN112040198A (zh) | 一种基于图像处理的智能水表读数识别系统与方法 | |
CN112528902A (zh) | 一种基于3d人脸模型的视频监控动态人脸识别方法及装置 | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
CN115601710A (zh) | 基于自注意力网络架构的考场异常行为监测方法及系统 | |
Rai et al. | Software development framework for real-time face detection and recognition in mobile devices | |
CN115223239A (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
CN114937285A (zh) | 动态手势识别方法、装置、设备及存储介质 | |
CN112836682B (zh) | 视频中对象的识别方法、装置、计算机设备和存储介质 | |
CN113095199B (zh) | 一种高速行人识别方法及装置 | |
Liu et al. | Presentation attack detection for face in mobile phones | |
CN112766065A (zh) | 一种移动端考生身份认证方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |