CN110472582B - 基于眼部识别的3d人脸识别方法、装置和终端 - Google Patents
基于眼部识别的3d人脸识别方法、装置和终端 Download PDFInfo
- Publication number
- CN110472582B CN110472582B CN201910758404.XA CN201910758404A CN110472582B CN 110472582 B CN110472582 B CN 110472582B CN 201910758404 A CN201910758404 A CN 201910758404A CN 110472582 B CN110472582 B CN 110472582B
- Authority
- CN
- China
- Prior art keywords
- eye
- image
- eye image
- depth information
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 210000001747 pupil Anatomy 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 16
- 238000010801 machine learning Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 210000001508 eye Anatomy 0.000 abstract description 298
- 239000011521 glass Substances 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 description 22
- 238000013473 artificial intelligence Methods 0.000 description 16
- 238000013461 design Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 210000004279 orbit Anatomy 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013145 classification model Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 239000002390 adhesive tape Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000005070 sphincter Anatomy 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种基于眼部识别的3D人脸识别方法、装置、终端和存储介质。所述方法包括:获取眼部图像以及眼部图像对应的深度信息;从眼部图像中提取眼部区域的n个局部区域,n为正整数;根据眼部图像对应的深度信息,确定n个局部区域各自的深度信息;比对n个局部区域各自的深度信息之间的大小关系;在检测到大小关系满足预设条件时,确定眼部图像为真实人眼的图像。相比于相关技术中,仅依据二维图像的色块组合进行判断,本申请实施例提供的技术方案,通过三维的深度信息进行判断,降低了虚假人眼(如贴着假眼睛的眼镜)被识别为真实人眼的概率,有效提高了眼部识别的准确率。
Description
技术领域
本申请实施例涉及机器学习技术领域,特别涉及一种基于眼部识别的3D人脸识别方法、装置、终端和存储介质。
背景技术
面部识别是基于人或动物的面部的特征区域进行识别的一种生物识别技术,面部识别技术中,对眼部区域的识别可应用于眼部追踪、视线追踪、身份识别、面部美化等领域。
相关技术中,眼部识别方法通常基于眼部的二维图像进行检测,将二维图像的色块组合作为判断依据。例如,对于佩戴眼镜的用户,在进行眼部识别时,当采集到眼部图像,并识别出眼部图像中存在一个中间点缀着白色圆点的黑色区块,则判定眼部图像为真实人眼的图像。
在上述相关技术中,仅依据平面的色块组合进行检测,容易将虚假人眼(如贴着假眼睛的眼镜)被识别为真实人眼,导致识别结果不准确。
发明内容
本申请实施例提供了一种基于眼部识别的3D人脸识别方法、装置、终端和存储介质,可用于解决相关技术中,仅依据平面的色块组合进行检测,导致识别结果不准确的问题。所述技术方案如下:
一方面,本申请实施例提供了一种基于眼部识别的3D人脸识别方法,所述方法包括:
获取眼部图像以及所述眼部图像对应的深度信息,所述眼部图像包括待检测的眼部区域,所述深度信息用于表征所述眼部图像中包含的拍摄对象与拍摄设备之间的距离;
从所述眼部图像中提取所述眼部区域的n个局部区域,所述n为正整数;
根据所述眼部图像对应的深度信息,确定所述n个局部区域各自的深度信息;
比对所述n个局部区域各自的深度信息之间的大小关系;
在检测到所述大小关系满足预设条件时,确定所述眼部图像为真实人眼的图像。
另一方面,本申请实施例提供了基于眼部识别的3D人脸识别装置,其特征在于,所述装置包括:
信息获取模块,用于会获取眼部图像以及所述眼部图像对应的深度信息,所述眼部图像包括待检测的眼部区域,所述深度信息用于表征所述眼部图像中包含的拍摄对象与拍摄设备之间的距离;
局部提取模块,用于从所述眼部图像中提取所述眼部区域的n个局部区域,所述n为正整数;
信息确定模块,用于根据所述眼部图像对应的深度信息,确定所述n个局部区域各自的深度信息;
信息比对模块,用于比对所述n个局部区域各自的深度信息之间的大小关系;
图像检测模块,用于在检测到所述大小关系满足预设条件时,确定所述眼部图像为真实人眼的图像。
又一方面,本申请实施例提供了一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述基于眼部识别的3D人脸识别方法。
再一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述基于眼部识别的3D人脸识别方法。
还一方面,本申请实施例提供了一种计算机程序产品,所述计算机程序产品被处理器执行时,用于实现上述基于眼部识别的3D人脸识别方法。
本申请实施例提供的技术方案可以包括如下有益效果:
通过获取眼部图像的深度信息,并根据该眼部图像中多个局部区域各自的深度信息,来确定眼部图像是否为真实人眼的图像。相比于相关技术中,仅依据二维图像的色块组合进行判断,本申请实施例提供的技术方案,通过三维的深度信息进行判断,降低了虚假人眼(如贴着假眼睛的眼镜)被识别为真实人眼的概率,有效提高了眼部识别的准确率。
附图说明
图1是本申请一个实施例提供的基于眼部识别的3D人脸识别方法的流程图;
图2是本申请另一个实施例提供的基于眼部识别的3D人脸识别方法的流程图;
图3示例性示出了一种真实人眼纹理和虚假人眼纹理的示示意图;
图4示例性示出了纹理检测的流程图;
图5示例性示出了一种基于眼部识别的3D人脸识别方法的流程图;
图6示例性示出了另一种基于眼部识别的3D人脸识别方法的流程图;
图7示例性示出了一种纹理分类器的训练过程的流程图;
图8示例性示出了一种纹理分类器的训练和应用过程的示意图;
图9是本申请一个实施例提供的基于眼部识别的3D人脸识别装置的框图;
图10是本申请另一个实施例提供的基于眼部识别的3D人脸识别装置的框图;
图11是本申请一个实施例提供的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的若干个名词进行简要介绍。
虹膜:是眼球前部含色素的环形薄膜,其位于瞳孔外侧,呈圆形。通常虹膜所在的圆的圆心位置是瞳孔的中心。
瞳孔:是动物或人眼睛内虹膜中心的小圆孔,为光线进入眼睛的通道。虹膜上瞳孔括约肌的收缩可以使瞳孔缩小,瞳孔开大肌的收缩使瞳孔散大,瞳孔的开大与缩小控制进入瞳孔的光量。
眼窝:指眼球所在的凹陷的部分。
本申请提供的基于眼部识别的3D人脸识别方法可以应用于终端中,该终端可以是手机、平板电脑、电子游戏机、可穿戴设备、PC(Personal Computer,个人计算机)等电子设备。
AI(Artificial Intelligence,人工智能)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,CV(Computer Vision,计算机视觉技术)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
ML(Machine Learning,机器学习)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的方案涉及人工智能的基于眼部识别的3D人脸识别等技术,具体通过如下几个实施例对本申请技术方案进行介绍说明。
请参考图1,其示出了本申请一个实施例提供的基于眼部识别的3D人脸识别方法的流程图。在在本实施例中,主要以该方法应用于上文介绍的终端中来举例说明。该方法可以包括如下几个步骤:
步骤101,获取眼部图像以及眼部图像对应的深度信息。
上述眼部图像包括待检测的眼部区域,上述深度信息用于表征眼部图像中包含的拍摄对象与拍摄设备之间的距离。
终端可以调用摄像头获取眼部图像以及眼部图像对应的深度信息,
可选地,终端可以调用RGB(Red Green Blue)摄像头获取眼部图像,该眼部图像是二维眼部图像
可选地,终端可以调用深度摄像头获取眼部图像对应的深度信息。深度摄像头获取眼部图像对应的深度信息可以采用3D结构光、TOF(Time of Flight,飞行时间)、双目视觉多角成像等技术。
其中,3D结构光的技术原理为:加载一个激光投射器,在激光投射器外面放一个刻有特定图样的光栅,激光通过光栅进行投射成像时会发生折射,从而使得激光最终在物体表面上的落点产生位移。当物体距离激光投射器比较近的时候,折射而产生的位移就较小;当物体距离较远时,折射而产生的位移也就会相应的变大。这时使用一个摄像头来检测采集投射到物体表面上的图样,通过图样的位移变化,就能用算法计算出物体的位置和深度信息。
TOF技术的原理为:加载一个发光元件,发光元件发出的光子在碰到物体表面后会反射回来。使用一个特别的CMOS图像传感器来捕捉这些由发光元件发出、又从物体表面反射回来的光子,就能得到光子的飞行时间。根据光子飞行时间进而可以推算出光子飞行的距离,也就得到了物体的深度信息。
对于双目视觉原理的多角成像的基本原理,是使用两个或者两个以上的摄像头同时摄取图像,通过比对这些不同摄像头在同一时刻获得的图像的差别,使用算法来计算深度信息。
步骤102,从眼部图像中提取眼部区域的n个局部区域,n为正整数。
上述眼部图像中包括眼部区域,眼部区域可以包括n个局部区域,例如虹膜区域、瞳孔区域和眼窝区域等等。关于虹膜区域、瞳孔区域和眼窝区域的介绍可参见名词简要介绍部分,此处不再赘述。
终端可以从该眼部图像中提取眼部区域的多个局部区域,进一步基于该多个局部区域执行后续步骤。
步骤103,根据眼部图像对应的深度信息,确定n个局部区域各自的深度信息。
在提取到眼部区域的n个局部区域后,可以结合眼部图像对应的深度信息,进一步确定n个局部区域各自的深度信息。
该深度信息可以反映眼部图像中包含的拍摄对象与拍摄设备之间的距离,距离越远,该深度值越大,距离越近,该深度值越小。
可选地,上述n个局部区域各自的深度信息可以采用平均深度值来表示。由于每个局部区域包含有多个对应于眼部图像中的像素点,每个像素点的深度值不同,因此采用平均深度值来表示该局部区域的深度信息。
步骤104,比对n个局部区域各自的深度信息之间的大小关系。。
在获取到n个局部区域各自的深度信息后,可以将该n个局部区域各自的深度信息进行比对,进一步判断眼部图像是否为真实人眼的图像。
步骤105,在检测到大小关系满足预设条件时,确定眼部图像为真实人眼的图像。
对于真实人眼来说,其对应的眼部图像中n个局部区域各自的深度信息应该处于一定的范围,若超出该范围,则可认为该n个局部区域的深度信息不符合真实人眼,从而认为该眼部图像并非真实人眼的图像。因此,可以根据n个局部区域各自的深度信息,判断该n个局部区域的深度信息是否满足预设条件,并以此来确定眼部图像是否为真实人眼的图像。
综上所述,本申请实施例提供的技术方案,通过获取眼部图像的深度信息,并根据该眼部图像中多个局部区域各自的深度信息,来确定眼部图像是否为真实人眼的图像。相比于相关技术中,仅依据二维图像的色块组合进行判断,本申请实施例提供的技术方案,通过三维的深度信息进行判断,降低了虚假人眼(如贴着假眼睛的眼镜)被识别为真实人眼的概率,有效提高了眼部识别的准确率。
请参考图2,其示出了本申请另一个实施例提供的基于眼部识别的3D人脸识别方法的流程图。在本实施例中,主要以该方法应用于上文介绍的终端中来举例说明。该方法可以包括如下几个步骤:
步骤201,获取眼部图像以及眼部图像对应的深度信息。
上述眼部图像包括待检测的眼部区域,上述深度信息用于表征眼部图像中包含的拍摄对象与拍摄设备之间的距离。
可选地,终端中可以安装有眼部识别应用程序。终端在启动眼部识别应用程序后,可以调用终端中安装的摄像头,通过该摄像头来获取眼部图像和眼部图像对应的深度详细。
可选地,终端可以调用RGB摄像头获取眼部图像。
可选地,终端可以调用深度摄像头获取眼部图像对应的深度信息。
步骤202,从眼部图像中提取纹理特征。
纹理特征用于反映图像中同质现象的视觉特征,体现了物体表面的具有缓慢变化或者周期性变化的表面结构组织排列属性。
可选地,上述纹理特征可以采用LBP(Local Binary Pattern,局部二值模式)特征、HOG(Histogram of Oriented Gradient,方向梯度直方图)特征、Hear特征等等。此外,在一些其它实施例中还可以采用其它特征,本申请实施例对此不作限定。
其中,LBP特征是一种用来描述图像局部纹理特征的算子,具有旋转不变性和灰度不变性等显著的优点。HOG特征是一种用来进行物体检测的特征描述子,通过计算和统计图像局部区域的梯度方向直方图来构成特征。
步骤203,根据纹理特征判断眼部图像是否为真实人眼的图像。
由于纹理特征可以反映图像中拍摄对象的介质,而真实人眼的图像与虚假人眼的图像由于介质不同,纹理特征也不相同,如图3所示,其示例性示出了一种真实人眼纹理和虚假人眼纹理的示意图。图3中(a)部分为真实人眼的图像,图3(b)部分为从真实人眼的图像中提取的纹理特征,图3中(c)部分为虚假人眼的图像,图3(d)部分为从虚假人眼的图像中提取的纹理特征;可以看出,真实人眼图像的纹理特征与虚假人眼图像的纹理特征并不相同。因此通过纹理特征,可以判断眼部图像是真实人眼的图像还是虚假人眼的图像。
可选地,示例性地,结合参考图4,其示例性示出了纹理检测的流程图。上述根据纹理特征判断眼部图像是否为真实人眼的图像,可以包括以下两个步骤:
(1)调用纹理分类器,并将纹理特征输入至纹理分类器。
(2)通过纹理分类器判断眼部图像是否为真实人眼的图像。
上述纹理分类器可以是一个二分类模型。该纹理分类器可以是SVM(SupportVector Machine,支持向量机)模型,也可以是KNN(K-Nearest Neighbor,K最邻近)模型,还可以是NBM(Naive Bayesian Model,朴素贝叶斯)模型等等。此外,该纹理分类器还可以是其它能够执行分类任务的模型,如决策树(Decision Tree)、LR(逻辑回归)等等机器学习分类模型,本申请实施例对此不作限定。
如图4所示,终端可以将从眼部图像11提取的纹理特征12输入至该纹理分类器13,使得纹理分类器13能够基于该纹理特征12判断眼部图像11是否为真实人眼的图像。例如,纹理分类器13输出为1,表示眼部图像11是真实人眼的图像;纹理分类器13输出为0,表示眼部图像11不是真实人眼的图像。
关于纹理分类器的训练,请参考下文图7实施例,此处不再赘述。
若通过纹理分类器确定眼部图像是真实人眼的图像,则执行下述步骤204。若通过纹理分类器确定眼部图像不是真实人眼的图像,则停止检测。
步骤204,从眼部图像中提取眼部区域的n个局部区域,n为正整数。
若纹理分类器确定眼部图像是真实人眼的图像,终端可以从眼部图像中图区眼部区域的多个局部区域。
在示例性实施例中,上述n个局部区域包括:虹膜区域、瞳孔区域和眼窝区域。在一些其它实施例中,还可以包括如眼皮区域等其它局部区域,本申请实施例对此不作限定。
可选地,上述从所述眼部图像中提取所述眼部区域的n个局部区域,可以包括:提取眼部图像中的眼部特征点的坐标;将局部区域的边界点坐标依次连接,得到眼部区域的n个局部区域。其中,眼部特征点的坐标包括局部区域的边界点坐标,例如,眼部区域中虹膜区域的边界点、眼部区域中瞳孔区域的中心点、眼部区域中眼窝区域的边界点等等。
可选地,上述提取眼部图像中的眼部特征点的坐标,可以包括;采用图像处理算法,提取眼部图像中的眼部特征点的坐标;或者,调用机器学习模型,提取眼部图像中的眼部特征点的坐标。上述图像处理算法可以是特征点定位算法。上述机器学习模型用于表示基于样本图像数据组训练得到的眼部图像中局部区域的定位规律。样本图像数据组包括样本图像和样本图像对应的样本眼部特征点的坐标。
步骤205,对于n个局部区域中的第i个局部区域,获取第i个局部区域的检测框在眼部图像中的位置,i为小于或等于n的正整数。
在提取到n个局部区域之后,可以进一步确定每个局部区域在眼部图像中的位置。该位置可以采用眼部图像中像素点的坐标来表示。
步骤206,从眼部图像对应的深度信息中,获取位置处的深度信息,得到第i个局部区域的深度信息。
在确定眼部区域中每个局部区域的位置,如每个局部区域包含的像素点的坐标之后,结合眼部图像的深度信息,可以得到每个像素点的深度信息,从而可以得到每个局部区域的深度信息。
步骤207,根据n个局部区域各自的深度信息,分别计算n个局部区域各自的平均深度值。
在获取到每个局部区域的深度信息之后,可以分别得到每个局部区域的平均深度值。
可选地,对于n个局部区域中的第i个局部区域,根据第i个局部区域的深度信息,确定第i个局部区域中包含的各个像素点的深度值;计算第i个局部区域中包含的各个像素点的深度值的平均值,得到第i个局部区域的平均深度值,i为小于或等于n的正整数。
例如,将各个局部区域中包含的像素点的深度值进行加权平均计算,从而得到各个局部区域的平均深度值。
步骤208,比对n个局部区域各自的平均深度值之间的大小关系。
以上述n个局部区域包括:虹膜区域、瞳孔区域和眼窝区域为例,上述预设条件包括以下至少一项:虹膜区域的平均深度值与眼窝区域的平均深度值之间的差值大于第一预设距离;瞳孔区域的平均深度值与眼窝区域的平均深度值之间的差值大于第二预设距离。
步骤209,在检测到大小关系满足预设条件时,确定眼部图像为真实人眼的图像。
通过比对n个局部区域各自的平均深度值之间的大小关系,可以判断n个局部区域各自的平均深度值是否满足预设条件,若满足预设条件,则确定眼部图像为真实人眼的图像;若不满足预设条件,则确定眼部图像为虚假人眼的图像。
在一个实施例中,当检测到虹膜区域的平均深度值与眼窝区域的平均深度值之间的差值大于第一预设距离时,即可确定眼部图像为真实人眼的图像。
在另一个实施例中,当检测到瞳孔区域的平均深度值与眼窝区域的平均深度值之间的差值大于第二预设距离时,即可确定眼部图像为真实人眼的图像。
在又一个实施例中,当虹膜区域的平均深度值与眼窝区域的平均深度值之间的差值大于第一预设距离,且瞳孔区域的平均深度值与眼窝区域的平均深度值之间的差值大于第二预设距离时,即可确定眼部图像为真实人眼的图像。
如图5所示,其示例性示出了一种基于眼部识别的3D人脸识别方法的流程图。在通过纹理检测后,终端可以基于该眼部图像11和眼部图像对应的深度信息21,从眼部图像中提取眼部区域的多个局部区域22;进一步得到眼部区域中各个局部区域的平均深度值,如虹膜区域的平均深度值23、瞳孔区域的平均深度值24和眼窝区域的平均深度值25;之后,比对各个局部区域各自的平均深度值之间的大小关系26,若检测到大小关系满足预设条件,则确定眼部图像是真实人眼的图像;若检测到大小关系不满足预设条件,则确定眼部图像为虚假人眼的图像。
另外,若n个局部区域各自的平均深度值不满足预设条件,则确定眼部图像不是真实人眼的图像。
综上所述,本申请实施例提供的技术方案,先通过纹理分类器基于眼部图像的纹理特征进行纹理检测;在纹理检测通过的前提下,再基于眼部图像对应的深度信息,进行深度检测,以确定眼部图像是否为真实人眼的图像。本申请实施例提供的技术方案,通过将纹理特征和深度信息进行融合以作为判断眼部图像是否为真实人眼的判据,从而能够有效抵抗虚假人眼欺骗,提升人脸识别系统的安全性。
另外,通过纹理特征判断眼睛区域的介质,能够有效提高眼部识别的准确率,有效减少用户佩戴眼镜时的眼部识别误识别率。
如图6所示,其示例性示出了另一种基于眼部识别的3D人脸识别方法的流程图。主要包括纹理检测检测阶段10和深度检测阶段20。
在纹理检测阶段10,终端在获取到眼部图像11后,先从眼部图像11中提取纹理特12;调用纹理分类器13,并将纹理特征12输入至纹理分类器13;通过纹理分类器13判断眼部图像是否为真实人眼的图像;若通过纹理分类器13确定眼部图像是真实人眼的图像,则进入深度检测阶段20。若通过纹理分类器13确定眼部图像不是真实人眼的图像,则停止眼部识别。
在深度检测阶段20,终端可以基于该眼部图像11和眼部图像对应的深度信息21,从眼部图像11中提取眼部区域的多个局部区域22;进一步得到眼部区域中各个局部区域的平均深度值27,如虹膜区域的平均深度值、瞳孔区域的平均深度值和眼窝区域的平均深度值;之后,比对各个局部区域各自的平均深度值之间的大小关系26,若检测到大小关系满足预设条件,则确定眼部图像是真实人眼的图像;若检测到大小关系不满足预设条件,则确定眼部图像为虚假人眼的图像。
下面,对纹理分类器的训练过程进行详细的介绍,如图7所示,其示例性示出了一种纹理分类器的训练过程的流程图。在本实施例中,主要以该方法应用于计算机设备来举例说明,该计算机设备可以是上文介绍的终端,也可以是服务器,本申请实施例对此不作限定。该方法可以包括如下几个步骤:
步骤701,构建训练样本,该训练样本包括正样本和负样本。
上述正样本包括至少一张真实人眼的图像,上述负样本包括至少一张虚假人眼的图像。其中,真实人眼的图像可以从公开的人脸数据集中的人脸照片上截取眼部区域获得;虚假人眼的图像可以通过以下两种方法获得:1)将真实人眼的图像打印到纸上通过拍照获得;2)用黑白胶带组合成眼睛的形状然后拍照获得。
步骤702,提取上述正样本的纹理特征和负样本的纹理特征。
上述纹理特征可以采用LBP(Local Binary Pattern,局部二值模式)特征、HOG(Histogram of Oriented Gradient,方向梯度直方图)特征、Hear特征等等。此外,在一些其它实施例中还可以采用其它特征,本申请实施例对此不作限定。
步骤703,采用上述正样本的纹理特征和负样本的纹理特征对纹理分类器进行训练,得到完成训练的纹理分类器。
将多个正样本和负样本的纹理特征输入纹理分类器,以训练纹理分类器。
上述纹理分类器可以是一个二分类模型。该纹理分类器可以是SVM模型,也可以是KNN模型,还可以是NBM模型等等。此外,该纹理分类器还可以是其它能够执行分类任务的模型,如决策树、LR等等机器学习分类模型,本申请实施例对此不作限定。
在得到完成训练的纹理分类器之后,可以将该纹理器推送到线上,以便其它终端在需要的时候调用。
可选地,在完成训练之后,还可以对该纹理分类器进行检验,以验证其分类结果的准确性。
综上所述,本申请实施例提供的技术方案,将真实人眼的图像作为正样本,虚假人眼的图像作为负样本,基于该正样本和负样本的纹理特征来训练纹理分类器,使得训练完成的分类器能够准确区分真实人眼的图像与虚假人眼的图像。
如图8所示,其示例性示出了一种纹理分类器的训练和应用过程的示意图。
首先,介绍纹理分类器的训练过程。采用真眼数据集81作为正样本,假眼数据集82作为负样本;对真眼数据集81和假眼数据集82中眼部图像提取纹理特征83,如LBP纹理特征;进一步,采用该纹理特征输入至纹理分类器,如SVM分类器,进行分类器训练84,得到训练完成的纹理分类器,之后,可以将该纹理器推送到线上,以便其它终端在需要的时候调用。
其次,纹理分类器的应用过程。终端在获取到眼部图像11之后,可以将从眼部图像11提取的纹理特征12输入至该纹理分类器13,使得纹理分类器13能够基于该纹理特征12判断眼部图像11是否为真实人眼的图像。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图9,其示出了本申请一个实施例提供的基于眼部识别的3D人脸识别装置的框图。该装置具有实现上述方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以是上文介绍的终端,也可以设置在终端上。该装置900可以包括:信息获取模块910、局部提取模块920、信息确定模块930、信息比对模块940和图像检测模块950。
信息获取模块910,用于获取眼部图像以及所述眼部图像对应的深度信息,所述眼部图像包括待检测的眼部区域,所述深度信息用于表征所述眼部图像中包含的拍摄对象与拍摄设备之间的距离。
局部提取模块920,用于从所述眼部图像中提取所述眼部区域的n个局部区域,所述n为正整数。
信息确定模块930,用于根据所述眼部图像对应的深度信息,确定所述n个局部区域各自的深度信息。
信息比对模块940,用于比对所述n个局部区域各自的深度信息之间的大小关系;
图像检测模块950,用于在检测到所述大小关系满足预设条件时,确定所述眼部图像为真实人眼的图像。
综上所述,本申请实施例提供的技术方案,通过获取眼部图像的深度信息,并根据该眼部图像中多个局部区域各自的深度信息,来确定眼部图像是否为真实人眼的图像。相比于相关技术中,仅依据二维图像的色块组合进行判断,本申请实施例提供的技术方案,通过三维的深度信息进行判断,降低了虚假人眼(如贴着假眼睛的眼镜)被识别为真实人眼的概率,有效提高了眼部识别的准确率。
在一些可能的设计中,所述信息比对模块940,用于根据所述n个局部区域各自的深度信息,分别计算所述n个局部区域各自的平均深度值;比对所述n个局部区域各自的平均深度值之间的大小关系。
在一些可能的设计中,所述信息比对模块940,用于对于n个局部区域中的第i个局部区域,根据第i个局部区域的深度信息,确定第i个局部区域中包含的各个像素点的深度值;计算第i个局部区域中包含的各个像素点的深度值的平均值,得到第i个局部区域的平均深度值,i为小于或等于n的正整数。
在一些可能的设计中,所述n个局部区域包括:虹膜区域、瞳孔区域和眼窝区域;所述预设条件包括以下至少一项:所述虹膜区域的平均深度值与所述眼窝区域的平均深度值之间的差值大于第一预设距离;所述瞳孔区域的平均深度值与所述眼窝区域的平均深度值之间的差值大于第二预设距离。
在一些可能的设计中,所述信息确定模块930,用于对于所述n个局部区域中的第i个局部区域,获取所述第i个局部区域的检测框在所述眼部图像中的位置;从所述眼部图像对应的深度信息中,获取所述位置处的深度信息,得到所述第i个局部区域的深度信息,所述i为小于或等于所述n的正整数。
在一些可能的设计中,所述信息确定模块930,用于提取所述眼部图像中的眼部特征点的坐标,所述眼部特征点的坐标包括所述局部区域的边界点坐标;将所述局部区域的边界点坐标依次连接,得到所述眼部区域的n个局部区域。
在一些可能的设计中,所述信息确定模块930,用于采用图像处理算法,提取所述眼部图像中的眼部特征点的坐标;或者,调用机器学习模型,提取所述眼部图像中的眼部特征点的坐标。
在一些可能的设计中,如图10所示,所述装置900还包括:特征提取模块960和图像判断模块970。
特征提取模块960,用于从所述眼部图像中提取纹理特征。
图像判断模块970,用于根据所述纹理特征判断所述眼部图像是否为真实人眼的图像。
所述局部提取模块920,还用于当所述眼部图像是真实人眼的图像时,从所述眼部图像中提取所述眼部区域的n个局部区域的步骤开始执行。
在一些可能的设计中,所述图像判断模块970,用于调用纹理分类器,并将所述纹理特征输入至所述纹理分类器;通过所述纹理分类器判断所述眼部图像是否为真实人眼的图像。
在一些可能的设计中,所述纹理分类器的训练过程如下:构建训练样本,所述训练样本包括正样本和负样本,所述正样本包括至少一张真实人眼的图像,所述负样本包括至少一张虚假人眼的图像;
提取所述正样本的纹理特征和所述负样本的纹理特征;
采用所述正样本的纹理特征和所述负样本的纹理特征对所述纹理分类器进行训练,得到完成训练的纹理分类器。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
请参考图11,其示出了本申请一个实施例提供的终端的结构框图。通常,终端1100包括有:处理器1101和存储器1102。
处理器1101可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1101可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1102可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1102还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1102中的非暂态的计算机可读存储介质用于存储至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集用于被处理器1101所执行以实现本申请中方法实施例提供的基于眼部识别的3D人脸识别方法。
在一些实施例中,终端1100还可选包括有:外围设备接口1103和至少一个外围设备。处理器1101、存储器1102和外围设备接口1103之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1103相连。具体地,外围设备可以包括:通信接口1104、显示屏1105、音频电路1106、摄像头组件1107、定位组件1108和电源1109中的至少一种。
本领域技术人员可以理解,图11中示出的结构并不构成对终端2110的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集在被处理器执行时实现上述基于眼部识别的3D人脸识别方法。
在示例性实施例中,还提供了一种计算机程序产品,当该计算机程序产品被处理器执行时,其用于实现上述基于眼部识别的3D人脸识别方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (11)
1.一种基于眼部识别的3D人脸识别方法,其特征在于,所述方法包括:
获取眼部图像以及所述眼部图像对应的深度信息,所述眼部图像包括待检测的眼部区域,所述深度信息用于表征所述眼部图像中包含的拍摄对象与拍摄设备之间的距离;
从所述眼部图像中提取所述眼部区域的n个局部区域,所述n个局部区域包括虹膜区域、瞳孔区域和眼窝区域,所述n为正整数;
根据所述眼部图像对应的深度信息,确定所述n个局部区域各自的深度信息;
根据所述n个局部区域各自的深度信息,分别计算所述n个局部区域各自的平均深度值;
在检测到所述n个局部区域各自的平均深度值之间的大小关系满足预设条件时,确定所述眼部图像为真实人眼的图像;其中,所述预设条件包括以下至少一项:所述虹膜区域的平均深度值与所述眼窝区域的平均深度值之间的差值大于第一预设距离;所述瞳孔区域的平均深度值与所述眼窝区域的平均深度值之间的差值大于第二预设距离。
2.根据权利要求1所述的方法,其特征在于,所述根据所述n个局部区域各自的深度信息,分别计算所述n个局部区域各自的平均深度值,包括:
对于所述n个局部区域中的第i个局部区域,根据所述第i个局部区域的深度信息,确定所述第i个局部区域中包含的各个像素点的深度值;
计算所述第i个局部区域中包含的各个像素点的深度值的平均值,得到所述第i个局部区域的平均深度值,所述i为小于或等于所述n的正整数。
3.根据权利要求1所述的方法,其特征在于,所述根据所述眼部图像对应的深度信息,确定所述n个局部区域各自的深度信息,包括:
对于所述n个局部区域中的第i个局部区域,获取所述第i个局部区域的检测框在所述眼部图像中的位置;
从所述眼部图像对应的深度信息中,获取所述位置处的深度信息,得到所述第i个局部区域的深度信息,所述i为小于或等于所述n的正整数。
4.根据权利要求1所述的方法,其特征在于,所述从所述眼部图像中提取所述眼部区域的n个局部区域,包括:
提取所述眼部图像中的眼部特征点的坐标,所述眼部特征点的坐标包括所述局部区域的边界点坐标;
将所述局部区域的边界点坐标依次连接,得到所述眼部区域的n个局部区域。
5.根据权利要求4所述的方法,其特征在于,所述提取所述眼部图像中的眼部特征点的坐标,包括:
采用图像处理算法,提取所述眼部图像中的眼部特征点的坐标;
或者,
调用机器学习模型,提取所述眼部图像中的眼部特征点的坐标。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述获取眼部图像以及所述眼部图像对应的深度信息之后,还包括:
从所述眼部图像中提取纹理特征;
根据所述纹理特征判断所述眼部图像是否为真实人眼的图像;
若所述眼部图像是真实人眼的图像,则从所述眼部图像中提取所述眼部区域的n个局部区域的步骤开始执行。
7.根据权利要求6所述的方法,其特征在于,所述根据所述纹理特征判断所述眼部图像是否为真实人眼的图像,包括:
调用纹理分类器,并将所述纹理特征输入至所述纹理分类器;
通过所述纹理分类器判断所述眼部图像是否为真实人眼的图像。
8.根据权利要求7所述的方法,其特征在于,所述纹理分类器的训练过程如下:构建训练样本,所述训练样本包括正样本和负样本,所述正样本包括至少一张真实人眼的图像,所述负样本包括至少一张虚假人眼的图像;
提取所述正样本的纹理特征和所述负样本的纹理特征;
采用所述正样本的纹理特征和所述负样本的纹理特征对所述纹理分类器进行训练,得到完成训练的纹理分类器。
9.一种基于眼部识别的3D人脸识别装置,其特征在于,所述装置包括:
信息获取模块,用于会获取眼部图像以及所述眼部图像对应的深度信息,所述眼部图像包括待检测的眼部区域,所述深度信息用于表征所述眼部图像中包含的拍摄对象与拍摄设备之间的距离;
局部提取模块,用于从所述眼部图像中提取所述眼部区域的n个局部区域,所述n个局部区域包括虹膜区域、瞳孔区域和眼窝区域,所述n为正整数;
信息确定模块,用于根据所述眼部图像对应的深度信息,确定所述n个局部区域各自的深度信息;
信息比对模块,用于根据所述n个局部区域各自的深度信息,分别计算所述n个局部区域各自的平均深度值;
图像检测模块,用于在检测到所述n个局部区域各自的平均深度值之间的大小关系满足预设条件时,确定所述眼部图像为真实人眼的图像;其中,所述预设条件包括以下至少一项:所述虹膜区域的平均深度值与所述眼窝区域的平均深度值之间的差值大于第一预设距离;所述瞳孔区域的平均深度值与所述眼窝区域的平均深度值之间的差值大于第二预设距离。
10.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如权利要求1至8任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一段程序,所述至少一段程序由处理器加载并执行以实现如权利要求1至8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910758404.XA CN110472582B (zh) | 2019-08-16 | 2019-08-16 | 基于眼部识别的3d人脸识别方法、装置和终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910758404.XA CN110472582B (zh) | 2019-08-16 | 2019-08-16 | 基于眼部识别的3d人脸识别方法、装置和终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472582A CN110472582A (zh) | 2019-11-19 |
CN110472582B true CN110472582B (zh) | 2023-07-21 |
Family
ID=68510173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910758404.XA Active CN110472582B (zh) | 2019-08-16 | 2019-08-16 | 基于眼部识别的3d人脸识别方法、装置和终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472582B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260370A (zh) * | 2020-01-17 | 2020-06-09 | 北京意锐新创科技有限公司 | 一种支付方法和装置 |
EP3869395A1 (en) * | 2020-02-21 | 2021-08-25 | Accenture Global Solutions Limited | Identity and liveness verification |
CN111353404B (zh) * | 2020-02-24 | 2023-12-01 | 支付宝实验室(新加坡)有限公司 | 一种人脸识别方法、装置及设备 |
CN111191644B (zh) * | 2020-04-10 | 2020-10-20 | 支付宝(杭州)信息技术有限公司 | 身份识别方法、系统及装置 |
CN116597500B (zh) * | 2023-07-14 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 虹膜识别方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530599A (zh) * | 2013-04-17 | 2014-01-22 | Tcl集团股份有限公司 | 一种真实人脸和图片人脸的区别方法和系统 |
KR20160009972A (ko) * | 2014-07-17 | 2016-01-27 | 크루셜텍 (주) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 |
CN105740780A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
WO2016142489A1 (en) * | 2015-03-11 | 2016-09-15 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Eye tracking using a depth sensor |
CN109543635A (zh) * | 2018-11-29 | 2019-03-29 | 北京旷视科技有限公司 | 活体检测方法、装置、系统、解锁方法、终端及存储介质 |
CN109871811A (zh) * | 2019-02-22 | 2019-06-11 | 中控智慧科技股份有限公司 | 一种基于图像的活体目标检测方法、装置及系统 |
CN110059590A (zh) * | 2019-03-29 | 2019-07-26 | 努比亚技术有限公司 | 一种人脸活体验证方法、装置、移动终端及可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8902283B2 (en) * | 2010-10-07 | 2014-12-02 | Sony Corporation | Method and apparatus for converting a two-dimensional image into a three-dimensional stereoscopic image |
US10521661B2 (en) * | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
-
2019
- 2019-08-16 CN CN201910758404.XA patent/CN110472582B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530599A (zh) * | 2013-04-17 | 2014-01-22 | Tcl集团股份有限公司 | 一种真实人脸和图片人脸的区别方法和系统 |
KR20160009972A (ko) * | 2014-07-17 | 2016-01-27 | 크루셜텍 (주) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 |
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
WO2016142489A1 (en) * | 2015-03-11 | 2016-09-15 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Eye tracking using a depth sensor |
CN105740780A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN109543635A (zh) * | 2018-11-29 | 2019-03-29 | 北京旷视科技有限公司 | 活体检测方法、装置、系统、解锁方法、终端及存储介质 |
CN109871811A (zh) * | 2019-02-22 | 2019-06-11 | 中控智慧科技股份有限公司 | 一种基于图像的活体目标检测方法、装置及系统 |
CN110059590A (zh) * | 2019-03-29 | 2019-07-26 | 努比亚技术有限公司 | 一种人脸活体验证方法、装置、移动终端及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110472582A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472582B (zh) | 基于眼部识别的3d人脸识别方法、装置和终端 | |
US20220083795A1 (en) | Face living body detection method and apparatus, device, and storage medium | |
US11816880B2 (en) | Face recognition method and apparatus, computer device, and storage medium | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN107209849B (zh) | 眼睛跟踪 | |
US20190095701A1 (en) | Living-body detection method, device and storage medium | |
WO2020199611A1 (zh) | 活体检测方法和装置、电子设备及存储介质 | |
US20220309836A1 (en) | Ai-based face recognition method and apparatus, device, and medium | |
WO2023098128A1 (zh) | 活体检测方法及装置、活体检测系统的训练方法及装置 | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
US11854310B2 (en) | Face liveness detection method and related apparatus | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
CN111598168B (zh) | 图像分类方法、装置、计算机设备及介质 | |
CN112419326B (zh) | 图像分割数据处理方法、装置、设备及存储介质 | |
Chaudhry et al. | Design of a mobile face recognition system for visually impaired persons | |
CN112052186A (zh) | 目标检测方法、装置、设备以及存储介质 | |
EP4181059A1 (en) | Medical image processing method, apparatus, device, storage medium, and product | |
US20230172457A1 (en) | Systems and methods for temperature measurement | |
US20220207862A1 (en) | Image analysis method, image analysis apparatus, and image analysis system | |
CN114677730A (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN113723164A (zh) | 获取边缘差异信息的方法、装置、设备及存储介质 | |
CN113781387A (zh) | 模型训练方法、图像处理方法、装置、设备及存储介质 | |
CN115019380A (zh) | 基于眼部图像的斜视智能识别方法、装置、终端及介质 | |
CN114677737A (zh) | 生物信息识别方法、装置、设备及介质 | |
CN113449548A (zh) | 更新物体识别模型的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |