CN111753650A - 一种自动跟踪人脸的摄像头转动控制方法 - Google Patents
一种自动跟踪人脸的摄像头转动控制方法 Download PDFInfo
- Publication number
- CN111753650A CN111753650A CN202010400781.9A CN202010400781A CN111753650A CN 111753650 A CN111753650 A CN 111753650A CN 202010400781 A CN202010400781 A CN 202010400781A CN 111753650 A CN111753650 A CN 111753650A
- Authority
- CN
- China
- Prior art keywords
- face
- candidate
- frame
- camera
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 31
- 238000012937 correction Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 230000001629 suppression Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 2
- 238000001514 detection method Methods 0.000 abstract description 6
- 230000002159 abnormal effect Effects 0.000 abstract description 2
- 238000005286 illumination Methods 0.000 abstract description 2
- 239000013598 vector Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种自动跟踪人脸的摄像头转动控制方法,该方法主要涉及摄像头人脸图像帧采集、人脸检测、步进电机控制等关键步骤。通过摄像头实时获取人脸图像帧,基于多任务卷积神经网络(MTCNN)模型对人脸图像帧实时运算,完成“人脸分类”、“边框回归”和“人脸关键点识别”,克服由于姿势、光照或遮挡等原因造成的人脸检测精度低的问题,计算得到每一帧中的最佳人脸,根据最佳人脸在视频框中的位置信息不断通过控制算法控制步进电机带动摄像头实现向上或者向下实时自动转动,保证检测出的最佳人脸始终保持在视频框的中间位置,当检测不到或人脸信息异常时,控制电机转动使摄像头位置进行自动复位,实现了人脸的自动跟踪。
Description
技术领域
本发明涉及计算机视觉及深度学习领域,具体涉及一种自动跟踪人脸的摄像头转动控制方法。
背景技术:
随着生物识别技术的提高,特别是人脸识别作为最具有发展潜力的生物特征识别技术之一,在近几十年中得到了飞速的发展,具有广阔的应用前景。由于自助设备上摄像头安装位置和角度固定,难以满足各类人群都能采集到有效的人脸图像或视频流,因此设计一种摄像头自动跟踪人脸装置,使摄像头自动寻找并跟随人脸转动,保证自助设备能够获取高质量的人脸图片用于人脸识别和身份认证,重点考虑系统的实用性与实时性。
发明内容
本发明的目的在于提供一种自动跟踪人脸的摄像头转动控制方法,以解决现有技术中摄像装置固定无法对人脸进行跟踪拍摄的缺陷。
一种自动跟踪人脸的摄像头转动控制方法,所述方法包括如下步骤:
对获取的人脸图像进行预处理;
将处理后的人脸图像输入预先构建的模型,通过模型运算获得最终候选人脸边界框;
将最终候选人脸边界框与视频框的位置进行运算得到位置差值;
通过位置差值控制摄像头转动。
进一步的,对获取的人脸图像进行预处理的方法包括:
根据摄像头安装的角度对人脸图像进行相应角度的旋转或缩放。
进一步的,所述模型的构建方法包括如下步骤:
对输入的训练样本进行人脸与非人脸的判断,得到人脸候选框;
将人脸候选框与训练样本真实边框进行边界框回归运算;
对运算后的人脸候选框进行人脸特征点坐标预测;
将预测的人脸特征点坐标与真实人脸特征坐标进行运算获得损失值;
重复训练,直到损失值小于设定阈值时停止训练,完成模型的训练。
进一步的,所述模型包括多任务卷积神经网络模型,所述多任务卷积神经网络模型包括生成候选人脸边界框的P-Net网络,对候选人脸边界框进行过滤的R-Net网络以及生成最终候选人脸边界框的O-Net网络。
进一步的,所述生成候选人脸边界框的P-Net网络的计算方法包括如下步骤:
根据输入的人脸图像生成候选人脸边界框;
计算候选人脸边界框的交并比,通过非极大值抑制对候选人脸边界框进行筛选;
根据视频框,对筛选后的候选人脸边界框进行边框回归校正,并计算得到候选人脸边界框的人脸概率,输出带人脸概率的候选人脸边界框。
进一步的,所述对候选人脸边界框进行过滤的R-Net网络的计算方法包括如下步骤:
获取P-Net网络输出的候选人脸边界框;
对候选人脸边界框再次进行边框回归校正和非极大值抑制去重;
对输入的候选人脸边界框进行细化选择,输出候选人脸边界框。
进一步的,生成最终候选人脸边界框的O-Net网络的运算方法包括如下步骤:
将P-Net网络和R-Net网络输出的候选人脸边界框作为输入;
将上述获得的候选人脸边界框进行边框回归校正,计算得到候选人脸边界框人脸概率值和人脸框面积;
结合人脸概率值和人脸框面积运算得到最终候选人脸边界框。
进一步的,将最终候选人脸边界框与视频框的位置进行运算得到位置差值并控制摄像头转动的方法包括如下步骤:
根据获取的最终候选人脸边界框的人脸框坐标计算人脸框的中心位置与当前视频框中心位置的差值;
将位置的差值与预设的阈值进行比较,得到比较结果;
根据比较结果控制电机转动。
本发明的优点在于:对人脸进行自动跟踪,始终保持人脸出现在视频帧的中间位置,很好的克服了由于摄像头安装角度固定、用户姿势、光照或遮挡等原因造成的人脸检测精度低的问题,是人脸识别和身份认证的重要步骤,为其提供高质量的人脸图片信息。
附图说明
图1为本发明的总体流程示意图。
图2为本发明中的结构示意图。
图3为本发明中的结构示意图。
图4为本发明中的MTCNN网络结构示意图。
图5为本发明中的装置检测人脸结果示意图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
如图1至图5所示,一种自动跟踪人脸的摄像头转动控制方法,所述方法包括如下步骤:
对获取的人脸图像进行预处理;
将处理后的人脸图像输入预先构建的模型,通过模型运算获得最终候选人脸边界框;
将最终候选人脸边界框与视频框的位置进行运算得到位置差值;
通过位置差值控制摄像头转动。
在本实施例中,对获取的人脸图像进行预处理的方法包括:
根据摄像头安装的角度对人脸图像进行相应角度的旋转或缩放。
在本实施例中,所述模型的构建方法包括如下步骤:
对输入的训练样本进行人脸与非人脸的判断,得到人脸候选框;
将人脸候选框与训练样本真实边框进行边界框回归运算;
对运算后的人脸候选框进行人脸特征点坐标预测;
将预测的人脸特征点坐标与真实人脸特征坐标进行运算获得损失值;
重复训练,直到损失值小于设定阈值时停止训练,完成模型的训练;
模型训练时需要最小化的损失函数来自3方面:
第一方面:人脸/非人脸的分类:
设网络输入的样本为xi,使用交叉熵函数计算损失值,对于人脸和非人脸的分类,网络进行学习的目标函数为:
第二方面:边界框的回归:
对于每一个候选框,网络通过预测出的人脸区域框和真实人脸区域框的欧式距离计算回归损失;
对于候选的边框界回归,网络学习的目标函数为:
第三方面:特征点的定位:
由于每个层级的CNN(卷积神经网络)中完成不同的学习任务,所以在训练过程中使用不同类型的训练图像;那么总的学习目标函数为:
在训练P-Net和R-Net时,设置αdet为1,αbox为0.5,αlandmark为0.5;在训练O-Net时,设置αdrt为1,αboc为0.5,为了使特征点定位更准确,将αlandmark设置为1。
模型训练时的训练样本的设置:
使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。数据集中包含一定比例的遮挡和姿势具有高度的变化性人脸标签,数据集中的人脸被随机划分,其中40%的数据用作训练集,10%的数据用作验证集,50%的数据作为测试集。
使用CelebA数据集对特征点定位任务进行训练。CelebA数据集图片数量多,人脸姿势变化大、背景杂乱。每张照片有40个属性标注,5个特征点位置标注。该数据集可以用来进行面部属性识别,人脸检测和特征点定位。在训练时,由于人脸检测和对齐任务同时进行,因此需要根据与真实人脸框的重叠率IoU(Intersection-over-Union)划分4种不同的数据集。负样本集:IoU小于0.3的样本。正样本集:IoU大于0.65的样本。半人脸集:IoU大于0.3并且小于0.65的样本。特征点集:标注了五个特征点位置的样本。正样本集和负样本集用来训练人脸分类任务,正样本集和半人脸集用来训练候选框边界回归任务,特征点数据集的数据用来训练特征点定位任务。
训练P-Net时,随机从wider_face数据集中剪裁出正样本集,负样本集和半人脸集,从CelebA数据集中剪裁人脸作为特征点集。训练R-Net时,使用已经训练完的第一级网络P-Net对wider_fac数据集进行检测,并剪裁出正样本集,负样本集和半人脸集,并从CelebA数据集中检测特征点集。训练O-Net时的数据集收集同R-Net相似,只不过在检测时同时使用了前两级网络。
在本实施例中,所述模型包括多任务卷积神经网络模型,所述多任务卷积神经网络模型包括四个运行阶段:
第一阶段:将获取的人脸图像进行不同尺度的变换,构建图像金字塔,具体操作是将人脸图像缩小到上一次操作人脸图像面积的一半,直到达到预先设置的最小人脸尺寸为止,以实现不同大小人脸的检测;
第二阶段:生成候选人脸边界框的P-Net网络,该网络的运行方法为:
根据输入的人脸图像生成候选人脸边界框;
计算候选人脸边界框的交并比,通过非极大值抑制对候选人脸边界框进行筛选;
根据视频框,对筛选后的候选人脸边界框进行边框回归校正,并计算得到候选人脸边界框的人脸概率,输出带人脸概率的候选人脸边界框;
P-Net是一个全卷积神经网络。输出人脸的ROI区域候选框和候选框边界回归向量。对于输入大小为:W*H大小的图片,产生N*M个候选框和N*M*4个回归向量,其中,N为图片的宽度,M为图片的高度,保留得分超过阈值的候选框,通过回归向量对候选框边界进行回归,对保留的候选框边界进行校准,最终通过NMS(非极大值抑制)算法去除高度重叠的候选边框;
第三阶段:对候选人脸边界框进行过滤的R-Net网络,该网络的运行方法为:
获取P-Net网络输出的候选人脸边界框;
对候选人脸边界框再次进行边框回归校正和非极大值抑制去重;
对输入的候选人脸边界框进行细化选择,输出候选人脸边界框;
R-Net的输入为上层P-Net的候选边框,得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框。然后通过回归向量对候选框边界进行回归,对保留下来的候选框边界进行校准。最后通过NMS(非极大值抑制)算法去掉高度重叠的的候选框,R-Net是一个调优网络,相比P-Net多了一个全连接层,具有更强的学习能力
第四阶段:生成最终候选人脸边界框的O-Net网络,该网络的运行方法为:
将P-Net网络和R-Net网络输出的候选人脸边界框作为输入;
将上述获得的候选人脸边界框进行边框回归校正,计算得到候选人脸边界框人脸概率值和人脸框面积;
结合人脸概率值和人脸框面积运算得到最终候选人脸边界框;
该网络为最终确定候选框窗口是否为人脸的分类回归网络。O-Net网络比R-Net多了一个卷积层,所以该网络的特征学习表征能力更强,对候选框的筛选更加严格,处理结果更加精细。该网络再给出人脸判定分类得分和候选框边界回归向量的同时,还会给出5个面部特征点的位置。
在本实施例中,将最终候选人脸边界框与视频框的位置进行运算得到位置差值并控制摄像头转动的方法包括如下步骤:
根据获取的最终候选人脸边界框的人脸框坐标计算人脸框的中心位置与当前视频框中心位置的差值;
将位置的差值与预设的阈值进行比较,得到比较结果;
根据比较结果控制电机转动;
在候选人脸边界框的左上角坐标为(xmin,ymin)和右下角坐标(xmax,ymax)。则步进电机的控制方法为:
1)首先计算候选人脸边界框的中间位置hbox-middle:
hbox-middle=ymin+(ymax-ymin)/2 (5)
人脸框的面积S:
S=(xmax-xmin)×(ymax-ymin) (6)
以及候选人脸边界框的中间位置与当前视频框中间位置的差值hcurrent:
hcurrent=hbox-middle-hframe/2 (7)
其中,hframe为当前视频框中人脸图像帧的高度,单位为像素(px)。
获取O-Net网络的输出(xmin,ymin,xmax,ymax,Score),其中,(xmin,ymin)为人脸框左上角坐标,(xmax,ymax)为人脸框右下角坐标,Score为人脸概率值,计算当前O-Net网络输出结果中人脸概率值和人脸框面积S值最大的人脸框作为最佳候选人脸边界框;
根据最佳候选人脸边界框的位置信息计算候选人脸边界框y方向中点坐标与视频框y方向中点坐标的的差值Diff;设当前摄像头显示视频框的宽和高为:(w,h),则,
2)当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25;控制串口发送控制步进电机的PWM占空比为0%的命令,说明人脸框处于视频帧的中间位置摄像头不需要转动;若:±26≤hcurrent≤±100;发送PWM占空比为25%的命令控制步进电机缓慢转动;若:±101≤hcurrent≤±240发送PWM占空比为50%的命令控制步进电机快速转动;使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置;
3)当采集的人脸图像帧中没有检测到人脸时或者人脸信息异常时,控制电机转动,使摄像头位置复位。
实现了自助设备的摄像头跟随人脸转动,使自助设备摄像头采集的人脸图像中的人脸始终保持在人脸图像帧的中间位置,为后续人脸识别和身份认真提供可靠的人脸图像信息。
由技术常识可知,本发明可以通过其它的不脱离其精神实质或必要特征的实施方案来实现。因此,上述公开的实施方案,就各方面而言,都只是举例说明,并不是仅有的。所有在本发明范围内或在等同于本发明的范围内的改变均被本发明包含。
Claims (8)
1.一种自动跟踪人脸的摄像头转动控制方法,其特征在于,所述方法包括如下步骤:
对获取的人脸图像进行预处理;
将处理后的人脸图像输入预先构建的模型,通过模型运算获得最终候选人脸边界框;
将最终候选人脸边界框与视频框的位置进行运算得到位置差值;
通过位置差值控制摄像头转动。
2.根据权利要求1所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:对获取的人脸图像进行预处理的方法包括:
根据摄像头安装的角度对人脸图像进行相应角度的旋转或缩放。
3.根据权利要求1所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:所述模型的构建方法包括如下步骤:
对输入的训练样本进行人脸与非人脸的判断,得到人脸候选框;
将人脸候选框与训练样本真实边框进行边界框回归运算;
对运算后的人脸候选框进行人脸特征点坐标预测;
将预测的人脸特征点坐标与真实人脸特征坐标进行运算获得损失值;
重复训练,直到损失值小于设定阈值时停止训练,完成模型的训练。
4.根据权利要求1所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:所述模型包括多任务卷积神经网络模型,所述多任务卷积神经网络模型包括生成候选人脸边界框的P-Net网络,对候选人脸边界框进行过滤的R-Net网络以及生成最终候选人脸边界框的O-Net网络。
5.根据权利要求1所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:所述生成候选人脸边界框的P-Net网络的计算方法包括如下步骤:
根据输入的人脸图像生成候选人脸边界框;
计算候选人脸边界框的交并比,通过非极大值抑制对候选人脸边界框进行筛选;
根据视频框,对筛选后的候选人脸边界框进行边框回归校正,并计算得到候选人脸边界框的人脸概率,输出带人脸概率的候选人脸边界框。
6.根据权利要求5所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:所述对候选人脸边界框进行过滤的R-Net网络的计算方法包括如下步骤:
获取P-Net网络输出的候选人脸边界框;
对候选人脸边界框再次进行边框回归校正和非极大值抑制去重;
对输入的候选人脸边界框进行细化选择,输出候选人脸边界框。
7.根据权利要求6所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:生成最终候选人脸边界框的O-Net网络的运算方法包括如下步骤:
将P-Net网络和R-Net网络输出的候选人脸边界框作为输入;
将上述获得的候选人脸边界框进行边框回归校正,计算得到候选人脸边界框人脸概率值和人脸框面积;
结合人脸概率值和人脸框面积运算得到最终候选人脸边界框。
8.根据权利要求7所述的一种自动跟踪人脸的摄像头转动控制方法,其特征在于:将最终候选人脸边界框与视频框的位置进行运算得到位置差值并控制摄像头转动的方法包括如下步骤:
根据获取的最终候选人脸边界框的人脸框坐标计算人脸框的中心位置与当前视频框中心位置的差值;
将位置的差值与预设的阈值进行比较,得到比较结果;
根据比较结果控制电机转动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010400781.9A CN111753650A (zh) | 2020-05-13 | 2020-05-13 | 一种自动跟踪人脸的摄像头转动控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010400781.9A CN111753650A (zh) | 2020-05-13 | 2020-05-13 | 一种自动跟踪人脸的摄像头转动控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111753650A true CN111753650A (zh) | 2020-10-09 |
Family
ID=72673813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010400781.9A Withdrawn CN111753650A (zh) | 2020-05-13 | 2020-05-13 | 一种自动跟踪人脸的摄像头转动控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753650A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686851A (zh) * | 2020-12-25 | 2021-04-20 | 合肥联宝信息技术有限公司 | 一种图像检测方法、装置及存储介质 |
CN113076915A (zh) * | 2021-04-19 | 2021-07-06 | 北京交通大学 | 一种机器学习的人脸识别装置 |
CN113449694A (zh) * | 2021-07-24 | 2021-09-28 | 福州大学 | 基于Android的证件照合规性检测方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105697403A (zh) * | 2016-03-28 | 2016-06-22 | 南京航空航天大学 | 人脸识别跟随电风扇及其人脸定位跟随方法 |
CN111079625A (zh) * | 2019-12-11 | 2020-04-28 | 江苏国光信息产业股份有限公司 | 一种摄像头自动跟随人脸转动的控制方法 |
-
2020
- 2020-05-13 CN CN202010400781.9A patent/CN111753650A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105697403A (zh) * | 2016-03-28 | 2016-06-22 | 南京航空航天大学 | 人脸识别跟随电风扇及其人脸定位跟随方法 |
CN111079625A (zh) * | 2019-12-11 | 2020-04-28 | 江苏国光信息产业股份有限公司 | 一种摄像头自动跟随人脸转动的控制方法 |
Non-Patent Citations (1)
Title |
---|
KAIPENG ZHANG 等: ""Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks"", 《IEEE SIGNAL PROCESSING LETTERS》, vol. 23, no. 10, pages 1499 - 1502 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686851A (zh) * | 2020-12-25 | 2021-04-20 | 合肥联宝信息技术有限公司 | 一种图像检测方法、装置及存储介质 |
CN112686851B (zh) * | 2020-12-25 | 2022-02-08 | 合肥联宝信息技术有限公司 | 一种图像检测方法、装置及存储介质 |
CN113076915A (zh) * | 2021-04-19 | 2021-07-06 | 北京交通大学 | 一种机器学习的人脸识别装置 |
CN113076915B (zh) * | 2021-04-19 | 2024-02-02 | 北京交通大学 | 一种机器学习的人脸识别装置 |
CN113449694A (zh) * | 2021-07-24 | 2021-09-28 | 福州大学 | 基于Android的证件照合规性检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
EP2192549B1 (en) | Target tracking device and target tracking method | |
CN111753650A (zh) | 一种自动跟踪人脸的摄像头转动控制方法 | |
US8351662B2 (en) | System and method for face verification using video sequence | |
CN103761514B (zh) | 基于广角枪机和多球机实现人脸识别的系统及方法 | |
US7542591B2 (en) | Target object detecting method, apparatus, and program | |
CN111368683B (zh) | 基于模约束CenterFace的人脸图像特征提取方法及人脸识别方法 | |
JP5227888B2 (ja) | 人物追跡方法、人物追跡装置および人物追跡プログラム | |
US20070189584A1 (en) | Specific expression face detection method, and imaging control method, apparatus and program | |
CN111079625B (zh) | 一种摄像头自动跟随人脸转动的控制方法 | |
WO2021139171A1 (zh) | 人脸增强识别方法、装置、设备及存储介质 | |
CN107909081A (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN109543648B (zh) | 一种过车图片中人脸提取方法 | |
CN110097586A (zh) | 一种人脸检测追踪方法及装置 | |
CN113449606B (zh) | 一种目标对象识别方法、装置、计算机设备及存储介质 | |
CN112926522B (zh) | 一种基于骨骼姿态与时空图卷积网络的行为识别方法 | |
CN113052170B (zh) | 一种无约束场景下的小目标车牌识别方法 | |
US20030052971A1 (en) | Intelligent quad display through cooperative distributed vision | |
CN114140745A (zh) | 施工现场人员属性检测方法、系统、装置及介质 | |
CN107093186A (zh) | 基于边缘投影匹配的剧烈运动检测方法 | |
CN115497056A (zh) | 基于深度学习的区域内遗失物品检测方法 | |
KR101542206B1 (ko) | 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법 | |
CN109949344A (zh) | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 | |
CN113177439A (zh) | 一种行人翻越马路护栏检测方法 | |
US20150023558A1 (en) | System and method for face detection and recognition using locally evaluated zernike and similar moments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201009 |
|
WW01 | Invention patent application withdrawn after publication |