CN112541433A - 一种基于注意力机制的两阶段人眼瞳孔精确定位方法 - Google Patents
一种基于注意力机制的两阶段人眼瞳孔精确定位方法 Download PDFInfo
- Publication number
- CN112541433A CN112541433A CN202011458127.XA CN202011458127A CN112541433A CN 112541433 A CN112541433 A CN 112541433A CN 202011458127 A CN202011458127 A CN 202011458127A CN 112541433 A CN112541433 A CN 112541433A
- Authority
- CN
- China
- Prior art keywords
- eye
- human
- channel
- attention
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001747 pupil Anatomy 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000007246 mechanism Effects 0.000 title claims abstract description 34
- 210000001508 eye Anatomy 0.000 claims abstract description 123
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 238000010586 diagram Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 4
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Ophthalmology & Optometry (AREA)
- Geometry (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于注意力机制的两阶段人眼瞳孔精确定位方法。其目的是为了解决自然场景下的人眼瞳孔定位问题。本发明包括以下步骤:步骤一读入输入图像,进行人脸检测,根据人脸检测算法提供的人脸框裁剪人脸图像;步骤二将人脸图像放缩到同一尺寸下,并对图像进行归一化;步骤三将归一化后的人脸图像输入到第一阶段的人眼区域定位网络,得到人眼周围的预定义的特征点,用于确定人眼的大致区域;步骤四根据人眼预定义的特征点,裁剪出眼部区域,并对裁剪后的眼部区域图像进行放缩到同一尺度;步骤五将裁剪得到的眼部区域输入到第二阶段的瞳孔检测网络,输出瞳孔中心位置的坐标。
Description
技术领域
本发明涉及数字图像处理与分析,计算机视觉技术领域,具体涉及一种基于空间注意力机制的两阶段人眼瞳孔定位方法。
背景技术
眼睛作为心灵的窗户,能够真实的传达了人类真实的内心世界。眼睛是研究和了解人类情感、行为、视觉机制、心里活动的关键。在人眼相关研究的应用中,瞳孔检测与定位的应用最为广泛,涉及人工智能、认知心理学、虚拟现实等多个学科,在工业、医学检测、残疾人辅助、虚拟现实等领域均有广阔的应用前景。近年来,随着人们安全防范意识的提高,瞳孔检测技术在社会安全及监控系统、交通系统等方面有着越来越广泛的应用,也越来越受到重视。
目前,在理想条件下,关于眼睛分割以及瞳孔定位的一些方法能够取得较好的效果,如采用特殊的设备近距离采集图像,或者固定人眼的位置等。但是在自然场景中,获取的眼睛图像不如理想条件下的那样清晰,瞳孔与虹膜界限不够明确,同时受到光斑、遮挡、瞳孔位置以及眼睛状态等因素影响。外界因素比如光照分布、眼睑睫毛的遮挡、光斑等会对瞳孔定位造成很大的影响,眼睛自身的状态也会影响瞳孔的定位,例如眼球的方向,瞳孔再眼睛中的位置可能呈现出不同的形状,眼睛不同的张开程度,睫毛的遮挡等影响。自然场景下精确的瞳孔位置的精确定位仍然是一个值得研究的问题。
传统的人眼瞳孔定位方法依据人眼瞳孔区域图像的特点,计算人眼瞳孔区域的方向梯度,并根据瞳孔处像素值最低,方向梯度的连线一定程度上会经过瞳孔中心,从而计算多条方向梯度线的交点作为瞳孔候选位置。
传统方法计算简单,仅根据图像像素特征就可以得到瞳孔的位置,但由于图像像素值在遮挡、光照等条件下变化多样,也容易出现定位错误的情况。
基于深度学习的方法利用多个卷积层和全连接层等提取图像局部特征,直接输出人眼瞳孔位置坐标。基于深度学习的方法简单直接,具有较好的效果,但受限于网络模型的结构设计和特征提取能力、训练样本的缺乏,在面对复杂多变的自然场景的情况下仍然需要进一步提高定位精度。
发明内容
本发明的目的在于提供一种基于注意力机制的两阶段人眼瞳孔精确定位方法,用以解决自然场景下的人眼瞳孔定位问题。
本发明的技术方案包括:
一种基于注意力机制的两阶段人眼瞳孔精确定位方法,所述方法包括以下步骤:
步骤一读入输入图像,进行人脸检测,根据人脸检测算法提供的人脸框裁剪人脸图像;
步骤二将人脸图像放缩到同一尺寸下,并对图像进行归一化;
步骤三将归一化后的人脸图像输入到第一阶段的人眼区域定位网络,得到人眼周围的预定义的特征点,用于确定人眼的大致区域;
步骤四根据人眼预定义的特征点,裁剪出眼部区域,并对裁剪后的眼部区域图像进行放缩到同一尺度;
步骤五将裁剪得到的眼部区域输入到第二阶段的瞳孔检测网络,输出瞳孔中心位置的坐标。
根据本发明系统的较佳实施例,所述方法步骤三具体包括:
人眼区域定位网络中,DSConv表示深度可分离卷积;AvgPool表示二维的自适应平均池化层,FC表示全连接层;深度可分离卷积将一个完整的卷积运算分解为两步进行,即深度卷积与点卷积;人眼区域定位网络在每个卷积层后使用批归一化层进行输入归一化促进收敛,并且使用PReLU函数作为激活函数;人眼区域定位网络包含5个卷积层和2个全连接层;L表示预定义的人眼周围特征点数目;人眼区域定位网络定位人眼周围的特征点,并根据人眼周围的特征点标记估计出人眼区域的包围框。
根据本发明系统的较佳实施例,所述方法步骤四根据人眼预定义的特征点,裁剪出眼部区域中,眼部区域估计具体方法如下:
选用特征点标注中包含瞳孔坐标的WFLW数据集作为训练数据集;从人眼定位网络的结果中提取相应的特征点结果,分别计算出左右眼特征点的包围框,选择左右眼包围框中较大的长和宽作为基包围框;同时以基包围框的中心进行等比例放大,以保证人眼区域都在包围框内;最后,分别裁剪出左右眼区域,经过处理后作为下一阶段的输入。
根据本发明系统的较佳实施例,所述方法步骤五具体包括:
瞳孔检测网络中,Attention Block为注意力模块,包含通道注意力机制和空间注意力机制两类注意力机制;通道注意力机制使用压缩展开的SE模块实现;输入注意力模块的特征图F首先经过一个卷积层转换提取得到新的特征图FT,然后添加用于通道注意力机制学习的SE模块;SE模块分为两步:第一步压缩操作,将各通道的全局空间特征作为该通道的表示,形成一个通道描述符,利用全局池化层将FT∈RC×H×W变换为T∈RC×1×1,再通过一个全连接层压缩通道维度利用PReLU函数对输出进行激活;第二步展开操作,学习对各通道的依赖程度,通过一个全连接层对特征图通道进行展开得到T2∈RC×1×1,再由Sigmoid激活函数得到各个通道的权重,并根据依赖程度的不同对特征图进行加权,将加权后的特征图Fc作为通道注意力的输出;C1=C/8;空间注意力机制使用通道加权后的特征图Fc作为输入,将Fc经过3个1×1的卷积层转化分别得到f,g,h三个特征图,其中h∈RC×H×W,将f转置后与g相乘得到一个相关性矩阵s,计算如下:
再经过softmax运算得到一个注意力图β,注意力图上每个点的像素值表示第i个位置对生成j区域的关系权重;
最终输出特征图Fs∈RC×H×W表示为:
输出特征图每一个位置的像素值都与整个特征图相关,具有全局相关性,从全局的角度学习特征图上的空间关系;最终注意力模块的输出FA表示为:
FA=FT+FS=FT+SA(FC)
其中SA表示注意力模块中的空间注意力机制。
本发明的技术效果包括:
本发明提供的基于注意力机制的两阶段人眼精确定位方法能够有效解决自然场景下复杂条件时的人眼瞳孔定位问题,相比于传统方法,瞳孔的定位精度取得了有效提升,在成像模糊、光照剧烈、部分遮挡、表情变化等传统方法无法解决的场景,仍然可以准确地定位人眼瞳孔位置,为虚拟试妆、疲劳驾驶检测、表情分析等高级研究任务提供服务。
下面结合附图对本发明作进一步说明。
附图说明
图1为本发明方法的流程图;
图2为本发明的注意力模块Attention Block结构图。
具体实施方式
如图1所示,解决自然场景下的人眼瞳孔定位问题,本发明提供的基于空间注意力机制的两阶段人眼瞳孔检测方法包括以下步骤:
(1)读入输入图像I,进行人脸检测,根据人脸检测算法提供的人脸框裁剪人脸图像;
(2)将人脸图像放缩到同一尺寸下,实验设置为128×128,并对图像进行归一化;
(3)将归一化后的人脸图像输入到第一阶段的人眼区域定位网络,得到人眼周围的预定义的特征点,用于确定人眼的大致区域;
(4)根据人眼预定义的特征点,裁剪出眼部区域,并对裁剪后的眼部区域图像进行放缩到同一尺度,实验中设置32×32;
(5)将裁剪得到的眼部区域输入到第二阶段的瞳孔检测网络,输出瞳孔中心位置的坐标。
所述步骤(3)中的人眼区域定位网络具体设计如表1所示:
表1
Layers | Kernel | Stride | In channels | Out channels |
Conv | 5 | 2 | 3 | 32 |
DSConv | 3 | 2 | 32 | 64 |
DSConv | 3 | 1 | 64 | 128 |
DSConv | 3 | 2 | 128 | 256 |
DSConv | 3 | 1 | 256 | 512 |
DSConv | 3 | 2 | 512 | 1024 |
AvgPool | - | - | - | - |
FC | - | - | 1024 | 256 |
FC | - | - | 256 | 2XL |
其中layers表示网络层的类型,Kernel表示卷积层的卷积核大小,Stride表示卷积操作的步长,ln channels和Out channels分别表示输入通道数目和输出通道数目。DSConv表示深度可分离卷积Depthwise Separable Convolution,AvgPool表示二维的自适应平均池化层,FC表示全连接层。深度可分离卷积将一个完整的卷积运算分解为两步进行,即深度卷积Depthwise Convolution与点卷积Pointwise Convolution,相比于常规卷积操作,其参数量和运算成本较低。人眼定位网络在每个卷积层后使用批归一化层(BatchNormLayer)进行输入归一化促进收敛,并且使用PReLU函数作为激活函数。人眼区域定位网络的主要作用是粗略地定位人眼区域,确定瞳孔定位网络的输入范围。因此,选用仅包含5个卷积层和2个全连接层的小型快速网络作为人眼定位网络。L表示预定义的人眼周围特征点数目。人眼区域定位网络能快速地定位人眼周围的特征点,并根据人眼周围的特征点标记估计出人眼区域的包围框。
所述步骤(4)中的眼部区域估计具体操作如下:
选用特征点标注中包含瞳孔坐标的人脸特征点(Wider Facial Landmarks in-the-wild,WFLW)数据集作为训练数据集,其预定义的人眼特征点序号为60-67(左眼),68-75(右眼)。从人眼定位网络的结果中提取相应的特征点结果,分别计算出左右眼特征点的包围框,考虑到左右眼的对称性,选择左右眼包围框中较大的长和宽作为基包围框;同时考虑检测结果的误差等因素,以基包围框的中心进行等比例放大,放大比例为1.5,以保证人眼区域都在包围框内。最后,分别裁剪出左右眼区域,经过处理后作为下一阶段的输入。
所述步骤(5)中的瞳孔检测网络具体设计如表2所示:
表2
其中Attention Block为本发明所使用的注意力模块,包含通道注意力机制和空间注意力机制两类注意力机制。如图2所示,图2中附图标记包括:1、输入特征图F,2、特征图FT,3、特征图Fc,4、特征图FS,5、输出特征图FA,6、通道注意力图,7、空间注意力图。
通道注意力机制使用压缩展开的SE模块(Squeeze-and-Excitation Block)实现。输入注意力模块的特征图F首先经过一个卷积层转换提取得到新的特征图FT,之后添加用于通道注意力机制学习的SE模块。SE模块可分为两步:第一步压缩操作,将各通道的全局空间特征作为该通道的表示,形成一个通道描述符,利用全局池化层将Fr∈RC×H×W变换为T∈RC ×1×1,再通过一个全连接层压缩通道维度利用PReLU函数对输出进行激活,W,H分别表示特征图的长和宽,C表示特征图的通道数目;第二步展开操作,学习对各通道的依赖程度,通过一个全连接层对特征图通道进行展开得到T2∈RC×1×1,再由Sigmoid激活函数得到各个通道的权重,并根据依赖程度的不同对特征图进行加权,将加权后的特征图Fc作为通道注意力的输出。实验中,C1=C/8。本方法使用的空间注意力机制使用通道加权后的特征图Fc作为输入,将Fc经过3个1×1的卷积层转化分别得到f,g,h三个特征图,其中h∈RC×H×W,实验中C1=C/8。将f转置后与g相乘得到一个相关性矩阵s,计算如下:
再经过softmax运算得到一个注意力图β,注意力图上每个点的像素值表示第i个位置对生成j区域的关系权重。
最终输出特征图Fs∈RC×H×W可以表示为:
输出特征图每一个位置的像素值都与整个特征图相关,具有全局相关性,可以从全局的角度学习特征图上的空间关系。最终注意力模块的输出FA可以表示为:
FA=FT+FS=FT+SA(FC)
其中F表示输入特征图,SA表示注意力模块中的空间注意力机制。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (6)
1.一种基于注意力机制的两阶段人眼瞳孔精确定位方法,其特征在于,所述方法包括以下步骤:
步骤一读入输入图像,进行人脸检测,根据人脸检测算法提供的人脸框裁剪人脸图像;
步骤二将人脸图像放缩到同一尺寸下,并对图像进行归一化;
步骤三将归一化后的人脸图像输入到第一阶段的人眼区域定位网络,得到人眼周围的预定义的特征点,用于确定人眼的大致区域;
步骤四根据人眼预定义的特征点,裁剪出眼部区域,并对裁剪后的眼部区域图像进行放缩到同一尺度;
步骤五将裁剪得到的眼部区域输入到第二阶段的瞳孔检测网络,输出瞳孔中心位置的坐标。
2.根据权利要求1所述的基于注意力机制的两阶段人眼瞳孔精确定位方法,其特征在于,所述方法步骤三具体包括:
人眼区域定位网络中,DSConv表示深度可分离卷积;AvgPool表示二维的自适应平均池化层,FC表示全连接层;深度可分离卷积将一个完整的卷积运算分解为两步进行,即深度卷积与点卷积;人眼区域定位网络在每个卷积层后使用批归一化层进行输入归一化促进收敛,并且使用PReLU函数作为激活函数;人眼区域定位网络包含5个卷积层和2个全连接层;L表示预定义的人眼周围特征点数目;人眼区域定位网络定位人眼周围的特征点,并根据人眼周围的特征点标记估计出人眼区域的包围框。
3.根据权利要求2所述的基于注意力机制的两阶段人眼瞳孔精确定位方法,其特征在于,所述方法步骤四根据人眼预定义的特征点,裁剪出眼部区域中,眼部区域估计具体方法如下:
选用特征点标注中包含瞳孔坐标的WFLW数据集作为训练数据集;从人眼定位网络的结果中提取相应的特征点结果,分别计算出左右眼特征点的包围框,选择左右眼包围框中较大的长和宽作为基包围框;同时以基包围框的中心进行等比例放大,以保证人眼区域都在包围框内;最后,分别裁剪出左右眼区域,经过处理后作为下一阶段的输入。
4.根据权利要求3所述的基于注意力机制的两阶段人眼瞳孔精确定位方法,其特征在于,所述方法步骤五具体包括:
瞳孔检测网络中,Attention Block为注意力模块,包含通道注意力机制和空间注意力机制两类注意力机制;通道注意力机制使用压缩展开的SE模块实现;输入注意力模块的特征图F首先经过一个卷积层转换提取得到新的特征图FT,然后添加用于通道注意力机制学习的SE模块;SE模块分为两步:第一步压缩操作,将各通道的全局空间特征作为该通道的表示,形成一个通道描述符,利用全局池化层将FT∈RC×H×W变换为T∈RC×1×1,再通过一个全连接层压缩通道维度利用PReLU函数对输出进行激活;第二步展开操作,学习对各通道的依赖程度,通过一个全连接层对特征图通道进行展开得到T2∈RC×1×1,再由Sigmoid激活函数得到各个通道的权重,并根据依赖程度的不同对特征图进行加权,将加权后的特征图Fc作为通道注意力的输出;C1=C/8;空间注意力机制使用通道加权后的特征图Fc作为输入,将Fc经过3个1×1的卷积层转化分别得到f,g,h三个特征图,其中h∈RC×H×W,将f转置后与g相乘得到一个相关性矩阵s,计算如下:
再经过softmax运算得到一个注意力图β,注意力图上每个点的像素值表示第i个位置对生成j区域的关系权重;
最终输出特征图Fs∈RC×H×W表示为:
输出特征图每一个位置的像素值都与整个特征图相关,具有全局相关性,从全局的角度学习特征图上的空间关系;最终注意力模块的输出FA表示为:
FA=FT+FS=FT+SA(FC)
其中SA表示注意力模块中的空间注意力机制。
5.根据权利要求1所述的基于注意力机制的两阶段人眼瞳孔精确定位方法,其特征在于,所述方法步骤二中将人脸图像放缩到同一尺寸下,设置为128×128。
6.根据权利要求1所述的基于注意力机制的两阶段人眼瞳孔精确定位方法,其特征在于,所述方法步骤四中对裁剪后的眼部区域图像进行放缩到同一尺度,设置为32×32。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011458127.XA CN112541433B (zh) | 2020-12-11 | 2020-12-11 | 一种基于注意力机制的两阶段人眼瞳孔精确定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011458127.XA CN112541433B (zh) | 2020-12-11 | 2020-12-11 | 一种基于注意力机制的两阶段人眼瞳孔精确定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112541433A true CN112541433A (zh) | 2021-03-23 |
CN112541433B CN112541433B (zh) | 2024-04-19 |
Family
ID=75018457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011458127.XA Active CN112541433B (zh) | 2020-12-11 | 2020-12-11 | 一种基于注意力机制的两阶段人眼瞳孔精确定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112541433B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113190117A (zh) * | 2021-04-29 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | 瞳孔、光斑定位方法、数据计算方法及相关装置 |
CN113642393A (zh) * | 2021-07-07 | 2021-11-12 | 重庆邮电大学 | 基于注意力机制的多特征融合视线估计方法 |
CN116503933A (zh) * | 2023-05-24 | 2023-07-28 | 北京万里红科技有限公司 | 一种眼周特征提取方法、装置、电子设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010282339A (ja) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
CN104268527A (zh) * | 2014-09-26 | 2015-01-07 | 北京无线电计量测试研究所 | 一种基于径向梯度检测的虹膜定位方法 |
CN108182384A (zh) * | 2017-12-07 | 2018-06-19 | 浙江大华技术股份有限公司 | 一种人脸特征点定位方法及装置 |
CN108742656A (zh) * | 2018-03-09 | 2018-11-06 | 华南理工大学 | 基于脸部特征点定位的疲劳状态检测方法 |
CN109558825A (zh) * | 2018-11-23 | 2019-04-02 | 哈尔滨理工大学 | 一种基于数字视频图像处理的瞳孔中心定位方法 |
CN110490083A (zh) * | 2019-07-23 | 2019-11-22 | 苏州国科视清医疗科技有限公司 | 一种基于快速人眼语义分割网络的瞳孔精确检测方法 |
CN110533809A (zh) * | 2019-08-22 | 2019-12-03 | 中国电子技术标准化研究院 | 确定无感通行系统性能的方法、装置及计算设备 |
CN110580445A (zh) * | 2019-07-12 | 2019-12-17 | 西北工业大学 | 一种基于GIoU和加权NMS改进的人脸关键点检测方法 |
CN111428680A (zh) * | 2020-04-07 | 2020-07-17 | 深圳市华付信息技术有限公司 | 一种基于深度学习的瞳孔定位方法 |
WO2020216054A1 (zh) * | 2019-04-24 | 2020-10-29 | 腾讯科技(深圳)有限公司 | 视线追踪模型训练的方法、视线追踪的方法及装置 |
WO2020244032A1 (zh) * | 2019-06-03 | 2020-12-10 | 罗普特科技集团股份有限公司 | 用于检测人脸图像的方法和装置 |
-
2020
- 2020-12-11 CN CN202011458127.XA patent/CN112541433B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010282339A (ja) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
CN104268527A (zh) * | 2014-09-26 | 2015-01-07 | 北京无线电计量测试研究所 | 一种基于径向梯度检测的虹膜定位方法 |
CN108182384A (zh) * | 2017-12-07 | 2018-06-19 | 浙江大华技术股份有限公司 | 一种人脸特征点定位方法及装置 |
CN108742656A (zh) * | 2018-03-09 | 2018-11-06 | 华南理工大学 | 基于脸部特征点定位的疲劳状态检测方法 |
CN109558825A (zh) * | 2018-11-23 | 2019-04-02 | 哈尔滨理工大学 | 一种基于数字视频图像处理的瞳孔中心定位方法 |
WO2020216054A1 (zh) * | 2019-04-24 | 2020-10-29 | 腾讯科技(深圳)有限公司 | 视线追踪模型训练的方法、视线追踪的方法及装置 |
WO2020244032A1 (zh) * | 2019-06-03 | 2020-12-10 | 罗普特科技集团股份有限公司 | 用于检测人脸图像的方法和装置 |
CN110580445A (zh) * | 2019-07-12 | 2019-12-17 | 西北工业大学 | 一种基于GIoU和加权NMS改进的人脸关键点检测方法 |
CN110490083A (zh) * | 2019-07-23 | 2019-11-22 | 苏州国科视清医疗科技有限公司 | 一种基于快速人眼语义分割网络的瞳孔精确检测方法 |
CN110533809A (zh) * | 2019-08-22 | 2019-12-03 | 中国电子技术标准化研究院 | 确定无感通行系统性能的方法、装置及计算设备 |
CN111428680A (zh) * | 2020-04-07 | 2020-07-17 | 深圳市华付信息技术有限公司 | 一种基于深度学习的瞳孔定位方法 |
Non-Patent Citations (2)
Title |
---|
YUN LIU 等: "Lightweight Salient Object Detection via Hierarchical Visual Perception Learning", 《IEEE TRANSACTIONS ON CYBERNETICS》, vol. 51, no. 9, 7 December 2020 (2020-12-07), pages 4439 - 4449, XP011877874, DOI: 10.1109/TCYB.2020.3035613 * |
刘梦雅 等: "基于改进Mobilenet算法的深度人脸识别算法", 《信息通信技术》, vol. 13, no. 01, 15 February 2019 (2019-02-15), pages 39 - 44 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113190117A (zh) * | 2021-04-29 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | 瞳孔、光斑定位方法、数据计算方法及相关装置 |
CN113190117B (zh) * | 2021-04-29 | 2023-02-03 | 南昌虚拟现实研究院股份有限公司 | 瞳孔、光斑定位方法、数据计算方法及相关装置 |
CN113642393A (zh) * | 2021-07-07 | 2021-11-12 | 重庆邮电大学 | 基于注意力机制的多特征融合视线估计方法 |
CN113642393B (zh) * | 2021-07-07 | 2024-03-22 | 重庆邮电大学 | 基于注意力机制的多特征融合视线估计方法 |
CN116503933A (zh) * | 2023-05-24 | 2023-07-28 | 北京万里红科技有限公司 | 一种眼周特征提取方法、装置、电子设备及存储介质 |
CN116503933B (zh) * | 2023-05-24 | 2023-12-12 | 北京万里红科技有限公司 | 一种眼周特征提取方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112541433B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949565B (zh) | 基于注意力机制的单样本部分遮挡人脸识别方法及系统 | |
CN112541433B (zh) | 一种基于注意力机制的两阶段人眼瞳孔精确定位方法 | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、系统、设备和介质 | |
Liu et al. | Adaptive object tracking by learning hybrid template online | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN111476806B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
Wang et al. | GKFC-CNN: Modified Gaussian kernel fuzzy C-means and convolutional neural network for apple segmentation and recognition | |
CN111046734A (zh) | 基于膨胀卷积的多模态融合视线估计方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN111209811B (zh) | 一种实时检测眼球注意力位置的方法及系统 | |
CN104077742B (zh) | 基于Gabor特征的人脸素描合成方法及系统 | |
CN110827304B (zh) | 一种基于深度卷积网络与水平集方法的中医舌像定位方法和系统 | |
CN113610046B (zh) | 一种基于深度视频联动特征的行为识别方法 | |
CN111723707A (zh) | 一种基于视觉显著性的注视点估计方法及装置 | |
CN113642393A (zh) | 基于注意力机制的多特征融合视线估计方法 | |
CN112257728A (zh) | 图像处理方法、装置、计算机设备以及存储介质 | |
CN113936309A (zh) | 一种基于面部分块的表情识别方法 | |
CN111444957B (zh) | 图像数据处理方法、装置、计算机设备和存储介质 | |
CN109685830A (zh) | 目标跟踪方法、装置和设备及计算机存储介质 | |
CN111209873A (zh) | 一种基于深度学习的高精度人脸关键点定位方法及系统 | |
CN115205933A (zh) | 面部表情识别方法、装置、设备及可读存储介质 | |
CN114036553A (zh) | 一种结合k匿名的行人身份隐私保护方法 | |
CN114004854A (zh) | 一种显微镜下的切片图像实时处理显示系统和方法 | |
CN113781387A (zh) | 模型训练方法、图像处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |