CN111160292A - 人眼检测方法 - Google Patents
人眼检测方法 Download PDFInfo
- Publication number
- CN111160292A CN111160292A CN201911416041.8A CN201911416041A CN111160292A CN 111160292 A CN111160292 A CN 111160292A CN 201911416041 A CN201911416041 A CN 201911416041A CN 111160292 A CN111160292 A CN 111160292A
- Authority
- CN
- China
- Prior art keywords
- frame
- face
- human eye
- candidate
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 107
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 230000011218 segmentation Effects 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000012795 verification Methods 0.000 claims abstract description 4
- 210000003128 head Anatomy 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 14
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000011731 head segmentation Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本发明揭示了一种人眼检测方法,包括:输入图像及其深度图像;对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;对预处理后的深度图进行深度直方图分割,获得目标候选区域;对候选区域用头肩模板进行匹配验证,确定人脸候选区域;人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;判断当前帧是否为第一帧,如果为第一帧,将合并后的候选框映射到原始图像的对应区域,并分割出头部区域作为模型的输入图像,在训练好的CNN模型中做人脸框回归与landmark点回归计算,得到人眼的位置;将第一帧检测的人脸位置保留,作为下一帧的先验知识。本发明可减少误检概率,保证检测的稳定性,满足裸眼3D显示器对人眼位置检测稳定性的要求。
Description
技术领域
本发明属于人脸检测及裸眼3D显示技术领域,涉及一种人眼检测方法,尤其涉及一种基于深度信息与CNN的人眼检测方法。
背景技术
随着裸眼3D显示技术与人眼检测技术趋于成熟,结合人眼检测与裸眼3D的显示器成为裸眼3D技术的一个重要的应用方向。目前的人眼检测算法多数采用根据训练好的人脸框与人脸的landmark点回归模型找出人脸与人眼位置。但是这类方法检测的人眼位置在帧与帧之间会有小范围的波动,检测结果不能完全满足裸眼3D技术稳定性的要求。
有鉴于此,如今迫切需要设计一种新的人眼检测方式,以便克服现有人眼检测方式存在的上述缺陷。
发明内容
本发明提供一种人眼检测方法,可减少误检概率,保证检测的稳定性,满足裸眼3D显示器对人眼位置检测稳定性的要求。
为解决上述技术问题,根据本发明的一个方面,采用如下技术方案:
一种人眼检测方法,所述人眼检测方法包括:
步骤S1.输入图像及其深度图像;
步骤S2.对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
步骤S3.对预处理后的深度图进行深度直方图分割,获得目标候选区域;
步骤S4.对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
步骤S5.人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;
步骤S6.判断当前帧是否为第一帧;
如果为第一帧,将合并后的候选框映射到原始图像的对应区域,并分割出头部区域作为模型的输入图像;在训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置;将第一帧检测的人脸位置保留,作为下一帧的先验知识;
如果不是第一帧,计算当前帧的人脸位置与上一帧检测人脸位置的中心点偏移值,并将得到的偏移值传入CNN模型中;将对应的rgb人脸图像作为输入图像,做人脸框回归与关键点回归计算;在训练好的CNN模型中引入偏移值对人脸的分值做正则化,提高眼睛检测稳定性;将当前帧检测的结果保存,作为下一帧的先验知识。
作为本发明的一种实施方式,所述步骤S6中,先判断是否为第一帧图像输入,如果为第一帧图像输入,直接作为CNN模型中对做人脸框回归与关键点位置回归。
作为本发明的一种实施方式,所述步骤S6中,将得到的第一帧的检测结果保存,与下一帧结果求偏移,作为下一帧结果惩罚项。
作为本发明的一种实施方式,所述步骤S6中,当前帧步骤S5得到的候选区域中心点与上一帧的CNN检测框中心点做偏移值计算,并对得到的偏移值做排序,取出最小偏移值,传入CNN网络;通过与上一帧中所有人脸结果求最小偏移值,并采用最小偏移值,考虑了上一帧多个检测结果情况以及相邻帧之间检测目标的关联性。
作为本发明的一种实施方式,所述步骤S6中,将得到最小偏移值与当前候选区域输入CNN模型,在求分类score的代价函数中对函数加入惩罚项λ*||pi-pper||;Score的目标函数公式如下:
作为本发明的一种实施方式,所述步骤S6中,将当前帧得到的人脸区域保存,继续与下一帧候选区域求最小偏移值。
本发明的有益效果在于:本发明提出的人眼检测方法,可减少误检概率,保证检测的稳定性,满足裸眼3D显示器对人眼位置检测稳定性的要求。
本发明方法首先利用了深度信息对人脸区域粗提取,根据上一帧与当前候选区域中心点的偏移值做为惩罚项,再通过CNN方法对人脸分类score函数做惩罚,提高了检测稳定性。
本发明根据上一帧人脸检测结果与当前帧候选区域时序位移关联性,通过求解上一帧人脸检测结果与当前帧候选区域的最小偏移值作为惩罚项,设立惩罚因子,去除距离上一帧结果远且检测score值低的候选区域,保留距离上一帧结果远但score值高的新人脸,提高人眼检测稳定性,降低了误检测的概率。
本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归,及landmark点的位置回归,在模型中将与上一帧检测人脸最小偏移值作为惩罚项,对模型中输出的分类score值做惩罚。通过预先训练好的模型参数与加入的惩罚项λ*||pi-pper||,实现了对人眼检测的准确性与稳定性。
本发明满足裸眼3D显示器人眼位置检测稳定性的要求。考虑到人眼位置对裸眼3D观看效果的重要性,提出对原本的分类score代价函数加入惩罚项,通过引入上一帧位置作为先验知识,求解出与当前帧人脸候选位置的最小偏移值作为惩罚项,去除距离真实人脸位置较远的低score候选区域,减少误检概率,保证了检测的稳定性。
附图说明
图1为本发明一实施例中人眼检测方法的流程图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
为了进一步理解本发明,下面结合实施例对本发明优选实施方案进行描述,但是应当理解,这些描述只是为进一步说明本发明的特征和优点,而不是对本发明权利要求的限制。
该部分的描述只针对几个典型的实施例,本发明并不仅局限于实施例描述的范围。相同或相近的现有技术手段与实施例中的一些技术特征进行相互替换也在本发明描述和保护的范围内。
本发明揭示了一种人眼检测方法,图1为本发明一实施例中人眼检测方法的流程图;请参阅图1,在本发明的一实施例中,所述人眼检测方法包括:
步骤S1.输入图像及其深度图像;
步骤S2.对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
在本发明的一实施例中,将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的背景像素。
步骤S3.对预处理后的深度图进行深度直方图分割,获得目标候选区域;
在本发明的一实施例中,将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,对映射后的图像分别对xz轴做投影,分割出物体范围;分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像。
在本发明的一实施例中,充分利用不同物体位置深度值的差异,首先将xy轴的屏幕坐标系转换到xz轴,将场景中物体做了xz的二维垂直投影,再根据物体投影图上x轴的垂直投影,找出投影的波峰与波谷,认为每个波峰位置表示物体存在,在每个波峰前后的波谷作为分割的阈值,对场景上的物体做x轴的分割。对分割出来的每个x轴区域做z轴上的垂直投影,找出投影的波峰波谷,将每个波峰作为物体所在深度,将波峰前后的波谷作为分割阈值,与x轴的分割组成每个物体的分割范围,将场景中每个物体分割开。
在本发明的一实施例中,采用自适应深度值匹配模板尺度的方法,避免了传统多尺度同时做检测的复杂性;根据不同物体得到的深度范围值,取范围的中间值作为该物体的深度,选择与其深度值匹配的头肩模板图像,实现了检测头肩模板最佳尺度匹配准确性的同时,也避免了多尺度模板同时检测的复杂性。
步骤S4.对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
在一实施例中,将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
步骤S5.人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并。
在本发明的一实施例中,遍历result图的每个像素值将满足一定IOU阈值(交并比阈值)的候选框合并。
在一实施例中,采用非极大值抑制方法,将result图中的候选框做合并,将得到的候选框根据头肩比例做头部的分割,将深度图中分割的位置映射到图像中作为CNN模型的输入图像。
步骤S6.判断当前帧是否为第一帧;
(步骤61)如果为第一帧,将合并后的候选框映射到原始图像的对应区域,并分割出头部区域作为模型的输入图像(在一实施例中,将合并后的候选框映射到rgb图像,并对头部区域分割作为输入图像),在训练好的CNN模型中做人脸框回归与关键点(landmark点)回归计算,得到人眼的位置。将第一帧检测的人脸位置保留,作为下一帧的先验知识。
在本发明的一实施例中,先判断是否为第一帧图像输入,如果为第一帧图像输入,可以直接作为CNN模型中对做人脸框回归与landmark点位置回归。
在本发明的一实施例中,将得到的第一帧的检测结果保存,与下一帧结果求偏移,作为下一帧结果惩罚项。
(步骤62)如果不是第一帧,(步骤621)计算当前帧的人脸位置与上一帧检测人脸位置的中心点偏移值,并将得到的偏移值传入CNN模型中。(步骤622)将当前帧的人脸图像作为输入图像(在一实施例中,将对应的rgb人脸图像作为输入图像),做人脸框回归与landmark点回归计算;在训练好的CNN模型中引入偏移值对人脸的score值做正则化,提高眼睛检测稳定性。(步骤623)将当前帧检测的结果保存,作为下一帧的先验知识。
在本发明的一实施例中,步骤621中,当前帧步骤S5得到的候选区域中心点与上一帧的CNN检测框中心点做偏移值计算,并对得到的偏移值做排序,取出最小偏移值,传入CNN网络。通过与上一帧中所有人脸结果求最小偏移值,并采用最小偏移值,考虑了上一帧多个检测结果情况以及相邻帧之间检测目标的关联性。
在本发明的一实施例中,步骤622中,将得到最小偏移值与当前候选区域输入CNN模型,在求分类score的代价函数中对函数加入惩罚项λ*||pi-pper||,有效避免检测的人脸框位置点与landmark点抖动问题,能够满足裸眼3D医疗显示器人眼检测稳定性的要求。Score的目标函数公式如下:
在本发明的一实施例中,步骤623中,将当前帧得到的人脸区域保存,继续与下一帧候选区域求最小偏移值。
本发明提出的人眼检测方法,可减少误检概率,保证检测的稳定性,满足裸眼3D显示器对人眼位置检测稳定性的要求。
本发明方法首先利用了深度信息对人脸区域粗提取,根据上一帧与当前候选区域中心点的偏移值做为惩罚项,再通过CNN方法对人脸分类score函数做惩罚,提高了检测稳定性。
本发明根据上一帧人脸检测结果与当前帧候选区域时序位移关联性,通过求解上一帧人脸检测结果与当前帧候选区域的最小偏移值作为惩罚项,设立惩罚因子,去除距离上一帧结果远且检测score值低的候选区域,保留距离上一帧结果远但score值高的新人脸,提高人眼检测稳定性,降低了误检测的概率。
本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归,及landmark点的位置回归,在模型中将与上一帧检测人脸最小偏移值作为惩罚项,对模型中输出的分类score值做惩罚。通过预先训练好的模型参数与加入的惩罚项λ*||pi-pper||,实现了对人眼检测的准确性与稳定性。
本发明满足裸眼3D显示器人眼位置检测稳定性的要求。考虑到人眼位置对裸眼3D观看效果的重要性,提出对原本的分类score代价函数加入惩罚项,通过引入上一帧位置作为先验知识,求解出与当前帧人脸候选位置的最小偏移值作为惩罚项,去除距离真实人脸位置较远的低score候选区域,减少误检概率,保证了检测的稳定性。
综上所述,本发明提出的人眼检测方法,可满足裸眼3D显示器对人眼位置检测稳定性的要求。
本发明方法首先利用了深度信息对人脸区域粗提取,根据上一帧与当前候选区域中心点的偏移值做为惩罚项,再通过CNN方法对人脸分类score函数做惩罚,提高了检测稳定性。
本发明根据上一帧人脸检测结果与当前帧候选区域时序位移关联性,通过求解上一帧人脸检测结果与当前帧候选区域的最小偏移值作为惩罚项,设立惩罚因子,去除距离上一帧结果远且检测score值低的候选区域,保留距离上一帧结果远但score值高的新人脸,提高人眼检测稳定性,降低了误检测的概率。
本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归,及landmark点的位置回归,在模型中将与上一帧检测人脸最小偏移值作为惩罚项,对模型中输出的分类score值做惩罚。通过预先训练好的模型参数与加入的惩罚项λ*||pi-pper||,实现了对人眼检测的准确性与稳定性。
本发明满足裸眼3D显示器人眼位置检测稳定性的要求。考虑到人眼位置对裸眼3D观看效果的重要性,提出对原本的分类score代价函数加入惩罚项,通过引入上一帧位置作为先验知识,求解出与当前帧人脸候选位置的最小偏移值作为惩罚项,去除距离真实人脸位置较远的低score候选区域,减少误检概率,保证了检测的稳定性。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。
Claims (6)
1.一种人眼检测方法,其特征在于,所述人眼检测方法包括:
步骤S1.输入图像及其深度图像;
步骤S2.对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
步骤S3.对预处理后的深度图进行深度直方图分割,获得目标候选区域;
步骤S4.对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
步骤S5.人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;
步骤S6.判断当前帧是否为第一帧;
如果为第一帧,将合并后的候选框映射到原始图像的对应区域,并分割出头部区域作为模型的输入图像,在训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置;将第一帧检测的人脸位置保留,作为下一帧的先验知识;
如果不是第一帧,计算当前帧的人脸位置与上一帧检测人脸位置的中心点偏移值,并将得到的偏移值传入CNN模型中;将当前帧的人脸图像作为输入图像,做人脸框回归与关键点回归计算;在训练好的CNN模型中引入偏移值对人脸的分值做正则化,提高眼睛检测稳定性;将当前帧检测的结果保存,作为下一帧的先验知识。
2.根据权利要求1所述的人眼检测方法,其特征在于:
所述步骤S6中,先判断是否为第一帧图像输入,如果为第一帧图像输入,直接作为CNN模型中对做人脸框回归与关键点位置回归。
3.根据权利要求1所述的人眼检测方法,其特征在于:
所述步骤S6中,将得到的第一帧的检测结果保存,与下一帧结果求偏移,作为下一帧结果惩罚项。
4.根据权利要求1所述的人眼检测方法,其特征在于:
所述步骤S6中,当前帧步骤S5得到的候选区域中心点与上一帧的CNN检测框中心点做偏移值计算,并对得到的偏移值做排序,取出最小偏移值,传入CNN网络;通过与上一帧中所有人脸结果求最小偏移值,并采用最小偏移值,考虑了上一帧多个检测结果情况以及相邻帧之间检测目标的关联性。
6.根据权利要求1所述的人眼检测方法,其特征在于:
所述步骤S6中,将当前帧得到的人脸区域保存,继续与下一帧候选区域求最小偏移值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911416041.8A CN111160292B (zh) | 2019-12-31 | 2019-12-31 | 人眼检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911416041.8A CN111160292B (zh) | 2019-12-31 | 2019-12-31 | 人眼检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160292A true CN111160292A (zh) | 2020-05-15 |
CN111160292B CN111160292B (zh) | 2023-09-22 |
Family
ID=70560188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911416041.8A Active CN111160292B (zh) | 2019-12-31 | 2019-12-31 | 人眼检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160292B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686927A (zh) * | 2020-12-31 | 2021-04-20 | 上海易维视科技有限公司 | 人眼位置回归计算方法 |
CN116304391A (zh) * | 2023-05-12 | 2023-06-23 | 深圳市前海数据服务有限公司 | 一种地图区域框选后的推荐选区生成方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737235A (zh) * | 2012-06-28 | 2012-10-17 | 中国科学院自动化研究所 | 基于深度信息和彩色图像的头部姿势估计方法 |
CN104700415A (zh) * | 2015-03-23 | 2015-06-10 | 华中科技大学 | 一种图像匹配跟踪中匹配模板的选取方法 |
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
US20160328601A1 (en) * | 2014-04-25 | 2016-11-10 | Tencent Technology (Shenzhen) Company Limited | Three-dimensional facial recognition method and system |
CN108197587A (zh) * | 2018-01-18 | 2018-06-22 | 中科视拓(北京)科技有限公司 | 一种通过人脸深度预测进行多模态人脸识别的方法 |
CN109033955A (zh) * | 2018-06-15 | 2018-12-18 | 中国科学院半导体研究所 | 一种人脸跟踪方法和系统 |
CN109145854A (zh) * | 2018-08-31 | 2019-01-04 | 东南大学 | 一种基于级联卷积神经网络结构的人脸检测方法 |
CN109725721A (zh) * | 2018-12-29 | 2019-05-07 | 上海易维视科技股份有限公司 | 用于裸眼3d显示系统的人眼定位方法及系统 |
CN109961006A (zh) * | 2019-01-30 | 2019-07-02 | 东华大学 | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 |
CN110175504A (zh) * | 2019-04-08 | 2019-08-27 | 杭州电子科技大学 | 一种基于多任务级联卷积网络的目标检测和对齐方法 |
CN110349190A (zh) * | 2019-06-10 | 2019-10-18 | 广州视源电子科技股份有限公司 | 自适应学习的目标跟踪方法、装置、设备及可读存储介质 |
CN110516705A (zh) * | 2019-07-19 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
-
2019
- 2019-12-31 CN CN201911416041.8A patent/CN111160292B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737235A (zh) * | 2012-06-28 | 2012-10-17 | 中国科学院自动化研究所 | 基于深度信息和彩色图像的头部姿势估计方法 |
US20160328601A1 (en) * | 2014-04-25 | 2016-11-10 | Tencent Technology (Shenzhen) Company Limited | Three-dimensional facial recognition method and system |
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN104700415A (zh) * | 2015-03-23 | 2015-06-10 | 华中科技大学 | 一种图像匹配跟踪中匹配模板的选取方法 |
CN108197587A (zh) * | 2018-01-18 | 2018-06-22 | 中科视拓(北京)科技有限公司 | 一种通过人脸深度预测进行多模态人脸识别的方法 |
CN109033955A (zh) * | 2018-06-15 | 2018-12-18 | 中国科学院半导体研究所 | 一种人脸跟踪方法和系统 |
CN109145854A (zh) * | 2018-08-31 | 2019-01-04 | 东南大学 | 一种基于级联卷积神经网络结构的人脸检测方法 |
CN109725721A (zh) * | 2018-12-29 | 2019-05-07 | 上海易维视科技股份有限公司 | 用于裸眼3d显示系统的人眼定位方法及系统 |
CN109961006A (zh) * | 2019-01-30 | 2019-07-02 | 东华大学 | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 |
CN110175504A (zh) * | 2019-04-08 | 2019-08-27 | 杭州电子科技大学 | 一种基于多任务级联卷积网络的目标检测和对齐方法 |
CN110349190A (zh) * | 2019-06-10 | 2019-10-18 | 广州视源电子科技股份有限公司 | 自适应学习的目标跟踪方法、装置、设备及可读存储介质 |
CN110516705A (zh) * | 2019-07-19 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
Non-Patent Citations (5)
Title |
---|
A.L. YUILLE ET AL: "Feature extraction from faces using deformable templates" * |
刘林涛: "用于 3D裸眼显示的人眼实时探测与跟踪并行算法与实现" * |
潘今一等: "基于深度学习辅助的动态人脸跟踪方法" * |
王伟, 张佑生, 方芳: "人脸检测与识别技术综述" * |
钱堂慧等: "核相关滤波跟踪算法的尺度自适应改进" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686927A (zh) * | 2020-12-31 | 2021-04-20 | 上海易维视科技有限公司 | 人眼位置回归计算方法 |
CN112686927B (zh) * | 2020-12-31 | 2023-05-12 | 上海易维视科技有限公司 | 人眼位置回归计算方法 |
CN116304391A (zh) * | 2023-05-12 | 2023-06-23 | 深圳市前海数据服务有限公司 | 一种地图区域框选后的推荐选区生成方法及系统 |
CN116304391B (zh) * | 2023-05-12 | 2023-07-25 | 深圳市前海数据服务有限公司 | 一种地图区域框选后的推荐选区生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111160292B (zh) | 2023-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107832672B (zh) | 一种利用姿态信息设计多损失函数的行人重识别方法 | |
CN112818862B (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
US20200364443A1 (en) | Method for acquiring motion track and device thereof, storage medium, and terminal | |
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN108304798B (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN110738125B (zh) | 利用Mask R-CNN选择检测框的方法、装置及存储介质 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN112084869B (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
WO2016131300A1 (zh) | 一种自适应跨摄像机多目标跟踪方法及系统 | |
WO2019114036A1 (zh) | 人脸检测方法及装置、计算机装置和计算机可读存储介质 | |
CN105809651B (zh) | 基于边缘非相似性对比的图像显著性检测方法 | |
CN109886128B (zh) | 一种低分辨率下的人脸检测方法 | |
JP2001216515A (ja) | 人物の顔の検出方法およびその装置 | |
CN111640089A (zh) | 一种基于特征图中心点的缺陷检测方法及装置 | |
CN113095263B (zh) | 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN108537286A (zh) | 一种基于关键区域检测的复杂目标精准识别方法 | |
Tsintotas et al. | DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM | |
CN112150692A (zh) | 一种基于人工智能的门禁控制方法及系统 | |
Du | High-precision portrait classification based on mtcnn and its application on similarity judgement | |
CN111160292A (zh) | 人眼检测方法 | |
CN112101195A (zh) | 人群密度预估方法、装置、计算机设备和存储介质 | |
CN112434647A (zh) | 一种人脸活体检测方法 | |
CN114677633B (zh) | 基于多部件特征融合的行人检测多目标跟踪系统及方法 | |
CN114708566A (zh) | 一种基于改进YOLOv4的自动驾驶目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |