CN111079625A - 一种摄像头自动跟随人脸转动的控制方法 - Google Patents
一种摄像头自动跟随人脸转动的控制方法 Download PDFInfo
- Publication number
- CN111079625A CN111079625A CN201911266897.1A CN201911266897A CN111079625A CN 111079625 A CN111079625 A CN 111079625A CN 201911266897 A CN201911266897 A CN 201911266897A CN 111079625 A CN111079625 A CN 111079625A
- Authority
- CN
- China
- Prior art keywords
- face
- frame
- camera
- candidate
- control method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000003062 neural network model Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 abstract description 4
- 238000009434 installation Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
本发明公开了一种摄像头自动跟随人脸转动的控制方法,包括以下步骤:S1,摄像头实时获取人脸图像帧,对人脸图像帧进行预处理;S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸;S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值;S5,控制步进电机转动,使最佳人脸始终保持在视频框的中间位置。本发明通过上述方法使人脸始终保持在视频帧的中间位置,很好的克服了由于摄像头安装角度固定、用户姿势、光照或遮挡等原因造成的人脸检测精度低的问题,为人脸识别和身份认证提供高质量的人脸图片信息。
Description
技术领域
本发明涉及一种摄像头自动跟随人脸转动的控制方法。
背景技术
目前,随着人类科学技术的不断发展,人脸识别技术在人们日常生活中越来越普及,无论在人工智能研究还是公共安全应用方面,人脸识别技术一直是一项前沿、热门技术,拥有举足轻重的地位。
作为生物特征识别技术的一类,人脸识别由于其非接触性以及采集方便的特点,具有良好的发展和应用前景。人脸识别技术在诸多应用场景中都发挥了十分重要的作用,比如机场安检、边检通关等。近几年随着互联网金融的高速发展,人脸识别技术在移动支付上表现出极大的应用优势。人脸识别的目的是根据获取的用户人脸图像或视频得知用户的身份。
目前,人脸识别技术非受控环境下仍无法满足实用要求,其主要难点在于人脸识别技术仍存在着易变性的问题,人脸的外形很不稳定,人可以通过脸部的变化产生很多表情,而在不同观察角度,人脸的视觉图像也相差很大,研究中需要考虑到人的面部表情,姿态,年龄,位置,以及遮盖物等因素引起的类内变化,以及来自外界光照(例如白天和夜晚、室内和室外等),背景等环境不同引起的类间变化。
因此,目前迫切需要一种方法,能够使人脸始终在最佳识别位置,来满足人们对人脸识别功能的要求,提高人脸识别的整体工作效率和工作质量。
发明内容
本发明的目的是提供一种摄像头自动跟随人脸转动的控制方法,使人脸始终保持在视频帧的中间位置,很好的克服了由于摄像头安装角度固定、用户姿势、光照或遮挡等原因造成的人脸检测精度低的问题,是人脸识别和身份认证的核心技术,为人脸识别和身份认证提供高质量的人脸图片信息。
实现本发明目的的技术方案是:一种摄像头自动跟随人脸转动的控制方法,包括以下步骤:
S1,摄像头实时获取人脸图像帧,对人脸图像帧进行预处理;
S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;
S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸;
S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值;
S5,控制步进电机转动,使最佳人脸始终保持在视频框的中间位置。
所述步骤二中的多任务卷积神经网络模型包括三个级联的网络,分别为生成候选人脸框的P-Net网络、对候选框优选过滤的R-Net网络和生成最终边界框与人脸关键点的O-Net网络。
所述步骤二中对人脸图像帧进行实时运算包括以下步骤:
S2.1:首先将图像进行不同尺度的变换,构建图像金字塔;
S2.2:将图像输入P-Net网络,P-Net网络输出人脸的ROI区域候选框和候选框边界回归向量;
S2.3:将P-Net网络的候选边框输入R-Net网络,得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框;然后通过回归向量对候选框边界进行回归,对保留下来的候选框边界进行校准;最后通过非极大值抑制算法去掉高度重叠的的候选框;
S2.4:O-Net网络给出人脸判定分类得分、候选框边界回归向量以及五个面部特征点的位置。
所述步骤S2.1具体为:将图像缩小到上一次操作图像面积的一半,直到达到预先设置的最小人脸尺寸为止。
所述步骤S2.2具体为:
保留得分超过阈值的候选框,通过回归向量对候选框边界进行回归,对保留的候选框边界进行校准,最终通过非极大值抑制算法去除高度重叠的候选边框。
所述多任务卷积神经网络对人脸/非人脸的分类、边界框的回归和特征点的定位进行训练。
所述人脸/非人脸的分类的训练函数为:
边界框的回归的训练函数为:
特征点的定位的训练函数为:
yi∈R10
所述多任务卷积神经网络使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。
所述步骤4中人脸框的中间位置的计算公式为:
hbox-middle=ymin+(ymax-ymin)/2;
人脸框与当前视频框中间位置的差值的计算公式为:
hcurrent=hbox-middle-hframe/2;
其中,(xmin,ymin)为最佳人脸框左上角坐标,(xmax,ymax)为最佳人脸框右下角坐标,hframe为人脸图像帧的高度,单位为像素(px)。
所述步骤5中具体为:
首先计算人脸框面积S,公式为:
S=(xmax-xmin)*(ymax-ymin);
当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25,说明人脸框处于视频帧的中间位置摄像头不需要转动,控制串口发送控制步进电机的PWM占空比为0%的命令;
若:±26≤hcurrent≤±100,则发送PWM占空比为25%的命令控制步进电机缓慢转动;
若:±101≤hcurrent≤±240,则发送PWM占空比为50%的命令控制步进电机快速转动;
使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置。
采用了上述技术方案,本发明具有以下的有益效果:
本发明通过多任务卷积神经网络计算出人脸图像最佳显示位置,而后控制摄像头对准最佳人脸识别位置,使人脸始终保持在视频帧的中间位置,很好的克服了由于摄像头安装角度固定、用户姿势、光照或遮挡等原因造成的人脸检测精度低的问题,为人脸识别和身份认证提供高质量的人脸图片信息。
附图说明
为了使本发明的内容更容易被清楚地理解,下面根据具体实施例并结合附图,对本发明作进一步详细的说明,其中
图1为本发明的流程示意图。
图2为本发明的多任务卷积神经网络的结构图。
具体实施方式
(实施例1)
见图1和图2,本实施例的摄像头自动跟随人脸转动的控制方法,包括以下步骤:
S1,摄像头实时获取人脸图像帧,对人脸图像帧进行预处理;
S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;
其中,多任务卷积神经网络模型包括三个级联的网络,分别为生成候选人脸框的P-Net网络、对候选框优选过滤的R-Net网络和生成最终边界框与人脸关键点的O-Net网络。
对人脸图像帧进行实时运算包括以下步骤:
S2.1:首先将图像进行不同尺度的变换,将图像缩小到上一次操作图像面积的一半,直到达到预先设置的最小人脸尺寸为止,构建图像金字塔。
S2.2:将图像输入P-Net网络,P-Net网络输出人脸的ROI区域候选框和候选框边界回归向量;对于输入大小为:W*H的图像,产生N*M个候选框和N*M*4个回归向量,其中W为图像的宽,H为图像的高,保留得分超过阈值的候选框,通过回归向量对候选框边界进行回归,对保留的候选框边界进行校准,最终通过非极大值抑制算法去除高度重叠的候选边框。
S2.3:将P-Net网络的候选边框输入R-Net网络,通过人脸/非人脸的分类的训练函数:
得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框;
然后通过回归向量对候选框边界进行回归,所用边界框的回归的训练函数为:
对保留下来的候选框边界进行校准;最后通过非极大值抑制算法去掉高度重叠的的候选框。
S2.4:O-Net网络给出人脸判定分类得分、候选框边界回归向量以及五个面部特征点的位置,其中特征点定位的训练函数为:
yi∈R10
由于每个层级的CNN中完成不同的学习任务,所以在训练过程中使用不同类型的训练图像。那么总的学习目标函数为:
式中N代表训练样本的个数,系数αj表示任务的重要性。在训练P-Net和R-Net时,设置αdet为1,αbox为0.5,αlandmark为0.5。训练O-Net时,设置αdet为1,αbox为0.5,为了使特征点定位更准确,将αlandmark设置为1。为样本类型指示器。
另外的,多任务卷积神经网络使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。
数据集中包含一定比例的遮挡和姿势具有高度的变化性人脸标签,数据集中的人脸被随机划分,其中40%的数据用作训练集,10%的数据用作验证集,50%的数据作为测试集。使用CelebA数据集对特征点定位任务进行训练。CelebA数据集图片数量多,人脸姿势变化大、背景杂乱。每张照片有40个属性标注,5个特征点位置标注。该数据集可以用来进行面部属性识别,人脸检测和特征点定位。
在训练时,由于人脸检测和对齐任务同时进行,因此需要根据与真实人脸框的重叠率IoU(Intersection-over-Union)划分4种不同的数据集。负样本集:IoU小于0.3的样本。正样本集:IoU大于0.65的样本。半人脸集:IoU大于0.3并且小于0.65的样本。特征点集:标注了五个特征点位置的样本。正样本集和负样本集用来训练人脸分类任务,正样本集和半人脸集用来训练候选框边界回归任务,特征点数据集的数据用来训练特征点定位任务。训练P-Net时,随机从wider_face数据集中剪裁出正样本集,负样本集和半人脸集,从CelebA数据集中剪裁人脸作为特征点集。训练R-Net时,使用已经训练完的第一级网络P-Net对wider_fac数据集进行检测,并剪裁出正样本集,负样本集和半人脸集,并从CelebA数据集中检测特征点集。训练O-Net时的数据集收集同R-Net相似,只不过在检测时同时使用了前两级网络。
S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸。
S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值,其中,人脸框的中间位置的计算公式为:
hbox-middle=ymin+(ymax-ymin)/2;
人脸框与当前视频框中间位置的差值的计算公式为:
hcurrent=hbox-middle-hframe/2;
其中,(xmin,ymin)为最佳人脸框左上角坐标,(xmax,ymax)为最佳人脸框右下角坐标,hframe为人脸图像帧的高度,单位为像素(px)。
S5,首先计算人脸框面积S,公式为:
S=(xmax-xmin)*(ymax-ymin);
当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25,说明人脸框处于视频帧的中间位置摄像头不需要转动,控制串口发送控制步进电机的PWM占空比为0%的命令;
若:±26≤hcurrent≤±100,则发送PWM占空比为25%的命令控制步进电机缓慢转动;
若:±101≤hcurrent≤±240,则发送PWM占空比为50%的命令控制步进电机快速转动;
使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种摄像头自动跟随人脸转动的控制方法,其特征在于:包括以下步骤:
S1,摄像头实时获取人脸图像帧,对人脸图像帧进行预处理;
S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;
S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸;
S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值;
S5,控制步进电机转动,使最佳人脸始终保持在视频框的中间位置。
2.根据权利要求1所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤二中的多任务卷积神经网络模型包括三个级联的网络,分别为生成候选人脸框的P-Net网络、对候选框优选过滤的R-Net网络和生成最终边界框与人脸关键点的O-Net网络。
3.根据权利要求2所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤二中对人脸图像帧进行实时运算包括以下步骤:
S2.1:首先将图像进行不同尺度的变换,构建图像金字塔;
S2.2:将图像输入P-Net网络,P-Net网络输出人脸的ROI区域候选框和候选框边界回归向量;
S2.3:将P-Net网络的候选边框输入R-Net网络,得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框;然后通过回归向量对候选框边界进行回归,对保留下来的候选框边界进行校准;最后通过非极大值抑制算法去掉高度重叠的的候选框;
S2.4:O-Net网络给出人脸判定分类得分、候选框边界回归向量以及五个面部特征点的位置。
4.根据权利要求3所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤S2.1具体为:将图像缩小到上一次操作图像面积的一半,直到达到预先设置的最小人脸尺寸为止。
6.根据权利要求2所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述多任务卷积神经网络对人脸/非人脸的分类、边界框的回归和特征点的定位进行训练。
8.根据权利要求2所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述多任务卷积神经网络使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。
9.根据权利要求1所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤4中人脸框的中间位置的计算公式为:
hbox-middle=ymin+(ymax-ymin)/2;
人脸框与当前视频框中间位置的差值的计算公式为:
hcurrent=hbox-middle-hframe/2;
其中,(xmin,ymin)为最佳人脸框左上角坐标,(xmax,ymax)为最佳人脸框右下角坐标,hframe为人脸图像帧的高度,单位为像素(px)。
10.根据权利要求9所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤5中具体为:
首先计算人脸框面积S,公式为:
S=(xmax-xmin)*(ymax-ymin);
当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25,说明人脸框处于视频帧的中间位置摄像头不需要转动,控制串口发送控制步进电机的PWM占空比为0%的命令;
若:±26≤hcurrent≤±100,则发送PWM占空比为25%的命令控制步进电机缓慢转动;
若:±101≤hcurrent≤±240,则发送PWM占空比为50%的命令控制步进电机快速转动;
使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911266897.1A CN111079625B (zh) | 2019-12-11 | 2019-12-11 | 一种摄像头自动跟随人脸转动的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911266897.1A CN111079625B (zh) | 2019-12-11 | 2019-12-11 | 一种摄像头自动跟随人脸转动的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111079625A true CN111079625A (zh) | 2020-04-28 |
CN111079625B CN111079625B (zh) | 2023-10-27 |
Family
ID=70313851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911266897.1A Active CN111079625B (zh) | 2019-12-11 | 2019-12-11 | 一种摄像头自动跟随人脸转动的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111079625B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753650A (zh) * | 2020-05-13 | 2020-10-09 | 江苏国光信息产业股份有限公司 | 一种自动跟踪人脸的摄像头转动控制方法 |
CN111898554A (zh) * | 2020-07-31 | 2020-11-06 | 重庆广播电视大学重庆工商职业学院 | 根据特征点进行视频图像抓取的工作系统和工作方法 |
CN112025729A (zh) * | 2020-08-31 | 2020-12-04 | 杭州电子科技大学 | 基于ros的多功能智能医疗服务机器人系统 |
CN112163497A (zh) * | 2020-09-22 | 2021-01-01 | 广东工业大学 | 一种基于图像识别的工地事故预测方法及装置 |
CN112926506A (zh) * | 2021-03-24 | 2021-06-08 | 重庆邮电大学 | 一种基于卷积神经网络的非受控人脸检测方法及系统 |
CN113076915A (zh) * | 2021-04-19 | 2021-07-06 | 北京交通大学 | 一种机器学习的人脸识别装置 |
CN116524572A (zh) * | 2023-05-16 | 2023-08-01 | 北京工业大学 | 基于自适应Hope-Net的人脸精准实时定位方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105697403A (zh) * | 2016-03-28 | 2016-06-22 | 南京航空航天大学 | 人脸识别跟随电风扇及其人脸定位跟随方法 |
CN107145833A (zh) * | 2017-04-11 | 2017-09-08 | 腾讯科技(上海)有限公司 | 人脸区域的确定方法和装置 |
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN107885415A (zh) * | 2016-09-30 | 2018-04-06 | 中兴通讯股份有限公司 | 屏幕显示控制方法、装置及移动终端 |
CN110399844A (zh) * | 2019-07-29 | 2019-11-01 | 南京图玩智能科技有限公司 | 一种应用于跨平台的人脸关键点识别与追踪方法及系统 |
-
2019
- 2019-12-11 CN CN201911266897.1A patent/CN111079625B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105697403A (zh) * | 2016-03-28 | 2016-06-22 | 南京航空航天大学 | 人脸识别跟随电风扇及其人脸定位跟随方法 |
CN107885415A (zh) * | 2016-09-30 | 2018-04-06 | 中兴通讯股份有限公司 | 屏幕显示控制方法、装置及移动终端 |
CN107145833A (zh) * | 2017-04-11 | 2017-09-08 | 腾讯科技(上海)有限公司 | 人脸区域的确定方法和装置 |
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN110399844A (zh) * | 2019-07-29 | 2019-11-01 | 南京图玩智能科技有限公司 | 一种应用于跨平台的人脸关键点识别与追踪方法及系统 |
Non-Patent Citations (1)
Title |
---|
KAIPENG ZHANG等: "Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks" * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753650A (zh) * | 2020-05-13 | 2020-10-09 | 江苏国光信息产业股份有限公司 | 一种自动跟踪人脸的摄像头转动控制方法 |
CN111898554A (zh) * | 2020-07-31 | 2020-11-06 | 重庆广播电视大学重庆工商职业学院 | 根据特征点进行视频图像抓取的工作系统和工作方法 |
CN111898554B (zh) * | 2020-07-31 | 2023-06-23 | 重庆广播电视大学重庆工商职业学院 | 根据特征点进行视频图像抓取的工作系统和工作方法 |
CN112025729B (zh) * | 2020-08-31 | 2022-02-15 | 杭州电子科技大学 | 基于ros的多功能智能医疗服务机器人系统 |
CN112025729A (zh) * | 2020-08-31 | 2020-12-04 | 杭州电子科技大学 | 基于ros的多功能智能医疗服务机器人系统 |
CN112163497A (zh) * | 2020-09-22 | 2021-01-01 | 广东工业大学 | 一种基于图像识别的工地事故预测方法及装置 |
CN112163497B (zh) * | 2020-09-22 | 2023-08-04 | 广东工业大学 | 一种基于图像识别的工地事故预测方法及装置 |
CN112926506B (zh) * | 2021-03-24 | 2022-08-12 | 重庆邮电大学 | 一种基于卷积神经网络的非受控人脸检测方法及系统 |
CN112926506A (zh) * | 2021-03-24 | 2021-06-08 | 重庆邮电大学 | 一种基于卷积神经网络的非受控人脸检测方法及系统 |
CN113076915A (zh) * | 2021-04-19 | 2021-07-06 | 北京交通大学 | 一种机器学习的人脸识别装置 |
CN113076915B (zh) * | 2021-04-19 | 2024-02-02 | 北京交通大学 | 一种机器学习的人脸识别装置 |
CN116524572A (zh) * | 2023-05-16 | 2023-08-01 | 北京工业大学 | 基于自适应Hope-Net的人脸精准实时定位方法 |
CN116524572B (zh) * | 2023-05-16 | 2024-01-26 | 北京工业大学 | 基于自适应Hope-Net的人脸精准实时定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111079625B (zh) | 2023-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079625A (zh) | 一种摄像头自动跟随人脸转动的控制方法 | |
US10684681B2 (en) | Neural network image processing apparatus | |
CN108876879B (zh) | 人脸动画实现的方法、装置、计算机设备及存储介质 | |
CN108334848B (zh) | 一种基于生成对抗网络的微小人脸识别方法 | |
CN104463117B (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
CN109472198B (zh) | 一种姿态鲁棒的视频笑脸识别方法 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN110287790B (zh) | 一种面向静态多人场景的学习状态混合分析方法 | |
CN112560741A (zh) | 一种基于人体关键点的安全穿戴检测方法 | |
CN106960202A (zh) | 一种基于可见光与红外图像融合的笑脸识别方法 | |
CN105138954A (zh) | 一种图像自动筛选查询识别系统 | |
CN108021893A (zh) | 一种用于判断学生上课专注度的算法 | |
CN104050448B (zh) | 一种人眼定位、人眼区域定位方法及装置 | |
CN102930278A (zh) | 一种人眼视线估计方法及其装置 | |
JP2005056387A (ja) | 画像処理装置、撮像装置、画像処理方法 | |
CN110531853B (zh) | 一种基于人眼注视点检测的电子书阅读器控制方法及系统 | |
CN113158850B (zh) | 基于深度学习的船舶驾驶员疲劳检测方法和系统 | |
CN107977639A (zh) | 一种人脸清晰度判断方法 | |
CN105912126B (zh) | 一种手势运动映射到界面的增益自适应调整方法 | |
CN103544478A (zh) | 一种全方位人脸检测的方法及系统 | |
US20220318369A1 (en) | Face recognition system and method capable of updating registered face templates | |
WO2022267653A1 (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
CN103020589A (zh) | 一种单训练样本人脸识别方法 | |
CN111753650A (zh) | 一种自动跟踪人脸的摄像头转动控制方法 | |
CN112633217A (zh) | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |