CN113569595A - 身份辨识装置以及身份辨识方法 - Google Patents
身份辨识装置以及身份辨识方法 Download PDFInfo
- Publication number
- CN113569595A CN113569595A CN202010351407.4A CN202010351407A CN113569595A CN 113569595 A CN113569595 A CN 113569595A CN 202010351407 A CN202010351407 A CN 202010351407A CN 113569595 A CN113569595 A CN 113569595A
- Authority
- CN
- China
- Prior art keywords
- reference point
- user
- reference information
- recognized
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000012795 verification Methods 0.000 claims abstract description 29
- 230000006870 function Effects 0.000 description 11
- 230000003028 elevating effect Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/586—Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/10—Movable barriers with registering means
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Devices For Checking Fares Or Tickets At Control Points (AREA)
- Collating Specific Patterns (AREA)
Abstract
一种身份辨识方法,包括:拍摄用户的照片;基于该照片对所述用户的身份进行初步验证;在确定所述用户通过了所述初步验证时,从所述照片中,在所述用户的人脸上确定第一参考点和第二参考点;利用感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及基于所述第一参考信息与所述第二参考信息对所述用户的身份进行再次验证。本发明可有效防止非法人员藉由合法用户的照片等使身份辨识系统产生误判的情况发生。本发明还提供一种实现所述身份辨识方法的身份辨识装置。
Description
技术领域
本发明涉及生物辨识技术领域,尤其涉及一种身份辨识装置及身份辨识方法。
背景技术
对于现今人脸辨识技术而言,大多仅仅是先将待辨识者进行脸部特征的撷取后,透过所撷取之脸部特征与预存的合法用户照片之脸部特征进行比对,以进行身份识别。
然而,非法使用者有可能会藉由合法用户的照片、图片、影片、平面或立体人偶等试图欺骗身份辨识系统,进而使身份辨识系统产生误判。
发明内容
鉴于以上内容,有必要提供一种身份辨识装置及身份辨识方法,可以有效防止非法人员藉由合法用户的照片等使身份辨识系统产生误判的情况发生。
本发明第一方面提供一种身份辨识装置,该身份辨识装置包括:
第一摄像机,用于拍摄待辨识用户的照片;
处理器,用于基于所拍摄的照片对所述待辨识用户的身份进行初步验证;
所述处理器,还用于在确定所述待辨识用户通过了所述初步验证时,从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点;
所述处理器,还用于当确定了所述第一参考点和第二参考点后,利用一感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及
基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证。
优选地,所述在所述待辨识用户的人脸上确定第一参考点和第二参考点包括:
从所拍摄的照片中标示出所述待辨识用户的人脸的复数个特征点;及
从所述复数个特征点中确定其中两个特征点作为第一参考点和第二参考点,其中,所述第一参考点与所述第二参考点之间的连线与水平横轴不垂直。
优选地,所述感测模组包括第二摄像机和发光模组,其中,所述第二摄像机和发光模组分别位于所述待辨识用户的人脸的两侧;
所述发光模组,用于从所述待辨识用户的人脸的一侧向所述待辨识用户的人脸的另一侧发射光束;
所述第二摄像机,用于在所述发光模组发射光束的同时拍摄所述待辨识用户的侧脸轮廓图像;及
所述处理器,还用于从所拍摄的所述侧脸轮廓图像获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息。
优选地,所述第一参考点的第一参考信息是指所述第一参考点在所述侧脸轮廓图像中的第一坐标点,所述第二参考点的第二参考信息是指所述第二参考点在所述侧脸轮廓图像中的第二坐标点;所述基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证包括:基于所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异对所述待辨识用户执行再次验证,其中,所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异是指所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值。
优选地,所述处理器还用于,在确定所述第一参考点和第二参考点后,控制所述感测模组移动到指定位置,其中,在所述指定位置,所述第二摄像机距离闸机的一闸门柱的低端的高度为Hc,其中,Hc=|Y0-(Y2+Y1)/2|/Y0*H0+H0,Y0代表所述闸门柱的顶端的纵坐标,Y1代表所述第一参考点的纵坐标,Y2代表所述第二参考点的纵坐标,H0代表所述闸门柱的低端到顶端之间的距离;以及在所述指定位置,所述发光模组距离所述闸机的另一闸门柱的低端的距离等于Hc。
优选地,所述感测模组包括第一光电传感器和第二光电传感器,所述第一光电传感器所在位置和所述第二光电传感器所在位置之间的连线垂直于水平面;
其中,所述第一光电传感器用于感测所述第一参考点;所述第二光电传感器用于感测所述第二参考点。
优选地,所述第一参考点的第一参考信息是指所述第一光电传感器感测到所述第一参考点的第一时间,所述第二参考点的第二参考信息是指所述第二光电传感器感测到所述第二参考点的第二时间;所述基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证包括:基于所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异对所述待辨识用户执行再次验证,其中,所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异是指所述第一时间与所述第二时间之间的差值。
优选地,所述处理器还用于,在确定所述第一参考点和第二参考点后,控制所述感测模组移动到指定位置,其中,在所述指定位置,所述第一光电传感器距离闸机的闸门柱的低端的高度为H1=|Y0-Y1|/Y0*H0+H0,Y0代表所述闸门柱的顶端的纵坐标,Y1代表所述第一参考点的纵坐标,H0代表所述闸门柱的低端到顶端之间的距离;以及所述第二光电传感器距离所述闸门柱的低端的高度为H2=|Y0-Y2|/Y0*H0+H0,其中,Y0代表所述闸门柱的顶端的纵坐标,Y2代表所述第二参考点的纵坐标,H0代表所述闸门柱的低端到顶端之间的距离。
本发明第二方面还提供一种身份辨识的方法,该方法包括:
利用第一摄像机拍摄待辨识用户的照片;
基于所拍摄的照片对所述待辨识用户的身份进行初步验证;
在确定所述待辨识用户通过了所述初步验证时,从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点;
当确定了所述第一参考点和第二参考点后,利用一感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及
基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证。
优选地,所述感测模组是从待辨识用户的侧脸获取所述第一参考点的第一参考信息及所述第二参考点的第二参考信息;其中,所述第一参考点与所述第二参考点之间的连线与水平横轴不垂直。
相较于现有技术,本发明所提供的所述身份辨识装置及身份辨识方法,通过利用第一摄像机拍摄待辨识用户的照片;基于所拍摄的照片对所述待辨识用户的身份进行初步验证;在确定所述待辨识用户通过了所述初步验证时,从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点;当确定了所述第一参考点和第二参考点后,利用一感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证,可以有效防止非法人员藉由合法用户的照片、图片、影片、平面或立体人偶等试图欺骗身份辨识系统,进而使身份辨识系统产生误判的情况发生。
附图说明
图1是本发明较佳实施例的身份辨识装置的框架图。
图2和图3分别举例说明图1所示的身份辨识系统的应用环境。
图4A和图4B举例说明侧脸轮廓图像的两个参考点。
图5是本发明较佳实施例的身份辨识系统的模块图。
图6是本发明较佳实施例的身份辨识方法的流程图。
主要元件符号说明
身份辨识装置 | 1 |
第一摄像机 | 11 |
感测模组 | 12 |
存储器 | 13 |
处理器 | 14 |
身份辨识系统 | 10 |
获取模块 | 101 |
执行模块 | 102 |
用户 | 3 |
闸机 | 2 |
闸门柱 | 21 |
低端 | 211、213 |
顶端 | 212、214 |
第一参考点 | P1 |
第二参考点 | P2 |
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
请同时参阅图1、图2,以及图3所示,在本发明的一实施例中,身份辨识系统10运行于身份辨识装置1中,用于根据需要对待辨识用户执行身份验证。例如,参阅图2和图3所示,可以对需要通行闸机2的每个用户进行身份辨识。具体细节后面介绍。
为方便描述,以下对每个需要执行身份辨识的用户称为“待辨识用户”。
本实施例中,所述身份辨识装置1包括,但不限于,第一摄像机11、感测模组12、存储器13,以及至少一个处理器14。所述身份辨识装置1可以为服务器、个人电脑等设备。
本实施例中,所述第一摄像机11和感测模组12可以外置于所述身份辨识装置1。
本实施例中,所述第一摄像机11可以安装在一个特定位置,该特定位置是指使得所述第一摄像机11能够拍摄到每个待辨识用户在指定场景中的照片,并且该照片包括待辨识用户的人脸的一个位置。举例而言,参阅图2和图3所示,该特定位置可以是指位于闸机2的上方的一个位置,便于对需要通行闸机2的每个用户(即待辨识用户如用户3)在闸机2处的照片进行拍摄。该特定位置可以根据实际运用场景来确定。
所述第一摄像机11用于拍摄待辨识用户(例如用户3)在指定场景(例如闸机2处)中的照片。所述处理器14用于控制所述第一摄像机11拍摄待辨识用户(例如用户3)在该指定场景中的照片。所述处理器14基于所拍摄的照片对所述待辨识用户的身份进行初步验证。
具体地,所述基于所拍摄的照片对所述待辨识用户的身份进行初步验证包括:
获取所述第一摄像机11所拍摄的待辨识用户在所述指定场景的照片;及
从所获取的照片中识别出所述待辨识用户的人脸;
将该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像进行匹配,根据所拍摄的该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像之间的相识度对所述待辨识用户进行初步验证。当所拍摄的该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像之间的相识度大于预设值(例如98%,或者其它数值)时,确定所述待辨识用户通过所述初步验证。反之,当所拍摄的该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像之间的相识度小于或者等于所述预设值时,确定所述待辨识用户没有通过所述初步验证。
在一个实施例中,在确定所述待辨识用户通过了所述初步验证时,所述处理器14从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点。
在一个实施例中,所述在所述待辨识用户的人脸上确定第一参考点和第二参考点包括(a1)-(a2):
(a1)利用OpenCV以及Dlib函数库从所拍摄的照片中标示出所述待辨识用户的人脸的68个特征点。
需要说明的是,所述利用OpenCV以及Dlib函数库从所拍摄的照片中标示人脸的68个特征点属于现有技术。因此不再赘述。
举例而言,参阅图4A所示,可以从所拍摄的照片中标示出人脸31的68个特征点。
(a2)从所述68个特征点中确定其中两个特征点作为第一参考点和第二参考点。
本实施例中,所述第一参考点与所述第二参考点之间的连线与水平横轴不垂直。
举例而言,参阅图4A所示,所述第一参考点为P1,是34号特征点所在位置,所述第二参考点为P2,是45号特征点所在位置。
在一个实施例中,当确定了所述第一参考点和第二参考点后,所述处理器14利用感测模组12获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息。
在第一实施例中,所述感测模组12包括发光模组121和第二摄像机122。所述感测模组12用于拍摄所述待辨识用户(例如用户3)的侧脸轮廓图像。
在一个实施例中,参阅图2所示,所述发光模组121设置在闸机2的右边的闸门柱21上。所述第二摄像机122设置在闸机2的左边的闸门柱21上。即当用户需通过闸机2时,所述第二摄像机122和发光模组121分别位于用户的人脸的左右两侧。
本实施例中,所述发光模组121用于从所述待辨识用户的人脸的一侧向所述待辨识用户的人脸的另一侧发射光束。所述第二摄像机122用于在所述发光模组121发射光束的同时拍摄所述待辨识用户的侧脸轮廓图像。
本实施例中,所述第二摄像机122为与所述发光模组121所发射的光束的类型所对一个的摄像模组。例如,当所述发光模组121发射的是不可见的红外光时,则所述第二摄像机122为红外摄像头。当所述发光模组121发射的是可见光时,则所述第二摄像机122为可见光摄像头。
优选地,所述发光模组121发射的是不可见的红外光。相应地,所述第二摄像机122为红外摄像头。这样使得当待辨识用户(例如用户3)在被验证身份时不会因为发光模组121对着其侧脸发射了可见光而有不舒适的感受。
本实施例中,所述发光模组121可以通过第一升降结构(未示出)设置在闸机2的闸门柱21上,所述处理器14可以通过控制该第一升降结构来调节该发光模组121相对于闸门柱21的低端213的距离,也即是对该发光模组121的高度进行调节。
同样地,所述第二摄像机122也可以通过第二升降结构(未示出)设置在闸机2的闸门柱21上,所述处理器14可以通过控制该第二升降结构来调节该第二摄像机122相对于闸门柱21的低端211的距离,也即是对该第二摄像机122的高度进行调节。
在一个实施例中,所述处理器14在确定所述第一参考点和第二参考点后,通过控制所述第一升降结构和第二升降结构达成控制所述感测模组12移动到指定位置。该指定位置是指能够拍摄到所述第一参考点和第二参考点的位置。
具体地,在该指定位置,所述第二摄像机122距离闸机2的闸门柱21的低端211的高度为Hc,其中,Hc=|Y0-(Y2+Y1)/2|/Y0*H0+H0,其中,Y0代表所述闸门柱21的顶端212的纵坐标,Y1代表所述第一参考点P1的纵坐标,Y2代表所述第二参考点P2的纵坐标,H0代表所述闸门柱21的低端211到顶端212之间的距离。
本实施例中,所述处理器14可以利用上述公式首先计算出所述第二摄像机122距离闸机2的闸门柱21的低端211的高度为Hc,然后控制该第二摄像机122移动所述高度Hc。
需要说明的是,上述所提及的所述闸门柱21的顶端212的纵坐标,所述第一参考点P1的纵坐标,以及所述第二参考点P2的纵坐标可以是指在所述第一摄像机11所拍摄的待辨识用户在所述指定场景(如闸机2处)的照片中的位置坐标。例如,该位置坐标是指在图2和图3所示的坐标系XOY中的坐标。该坐标系XOY以所述闸门柱21的顶端212为原点,水平横向为X轴,以及纵向为Y轴所建立。
在一个实施例中,在所述指定位置,所述发光模组121距离闸门柱21的低端213的距离等于所述第二摄像机122距离闸门柱21的低端211的距离。
所述处理器14还于所述感测模组12移动到了所述指定位置时,控制所述感测模组12拍摄所述待辨识用户的侧脸轮廓图像。本实施例于所述感测模组12移动到了所述指定位置时才控制所述感测模组12拍摄待辨识用户的侧脸轮廓图像的做法,在于可以节约所述感测模组12的能耗,避免感测模组12一直处于抓拍待辨识用户的侧脸轮廓图像的状态。
在一个实施例中,所述处理器14可以从所拍摄的待辨识用户的侧脸轮廓图像获取第一参考点的第一参考信息以及第二参考点的第二参考信息。在一个实施例中,所述处理器14还可以基于所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异对所述待辨识用户的身份进行再次验证。
在一个实施例中,所述第一参考点的第一参考信息是指所述第一参考点在所述侧脸轮廓图像中的坐标点(为便于描述以下称“第一坐标点”,所述第二参考点的第二参考信息是指所述第二参考点在所述侧脸轮廓图像中的坐标点(为便于描述以下称“第二坐标点”)。
在一个实施例中,所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异是指所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值。
在一个实施例中,当所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值大于预设值(例如0.5cm)时,所述处理器14确定所述待辨识用户(例如用户3)通过所述再次验证。当所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值小于或者等于所述预设值(例如0.5cm)时,所述处理器14确定所述待辨识用户(例如用户3)没有通过所述再次验证。
在一个实施例中,所述处理器建立所述第一坐标点以及第二坐标点所在的坐标系的方法包括:以所述侧脸轮廓图像的左下角为原点,以所述侧脸轮廓图像的下边缘建立X轴,以及以所述侧脸轮廓图像的左边缘建立Y轴。
需要说明的是,所述坐标系的建立仅为举例说明。具体可结合本发明的实施方案来建立。
本实施例中,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述处理器14确定所述待辨识用户为真人(即确实存在的人),允许所述待辨识用户通过所述闸机2。例如,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述处理器14可以控制所述闸机2开启。
在第二实施例中,所述感测模组12包括第一光电传感器123和第二光电传感器124。本实施例中,所述感测模组12用于感测所述待辨识用户(例如用户3)的人脸上的所述第一参考点和第二参考点。
在一个实施例中,所述第一光电传感器123用于感测所述待辨识用户的人脸上的所述第一参考点。所述第二光电传感器124用于感测所述待辨识用户的人脸上的所述第二参考点。
本实施例中,参阅图3所示,所述第一光电传感器123所在位置和所述第二光电传感器124所在位置之间的连线垂直于水平面。
在一个实施例中,所述第一光电传感器123可以通过第三升降结构(未示出)设置在闸机2的闸门柱21上,所述第二光电传感器124可以通过第四升降结构(未示出)设置在闸机2的闸门柱21上。所述处理器14可以通过控制所述第三升降结构来调节该第一光电传感器123相对于闸门柱21的低端211的距离,也即是对该第一光电传感器123的高度进行调节。所述处理器14可以通过控制所述第四升降结构来调节该第二光电传感器124相对于闸门柱21的低端211的距离,也即是对该第二光电传感器124的高度进行调节。
在一个实施例中,当确定所述第一参考点和第二参考点后,所述处理器14可以控制所述感测模组12移动到指定位置,该指定位置为使得所述第一光电传感器123和第二光电传感器124可以分别用于感测所述第一参考点和第二参考点。
具体地,在该指定位置,所述第一光电传感器123距离闸门柱21的低端211的高度为H1=|Y0-Y1|/Y0*H0+H0,其中,Y0代表所述闸门柱21的顶端212的纵坐标,Y1代表所述第一参考点P1的纵坐标,H0代表所述闸门柱21的低端211到顶端212之间的距离;以及所述第二光电传感器124距离闸门柱21的低端211的高度为H2=|Y0-Y2|/Y0*H0+H0,其中,Y0代表所述闸门柱21的顶端212的纵坐标,Y2代表所述第二参考点P2的纵坐标,H0代表所述闸门柱21的低端211到顶端212之间的距离。
本实施例中,所述处理器14可以首先通过上述公式计算所述第一光电传感器123距离闸门柱21的低端211的高度H1以及所述第二光电传感器124距离闸门柱21的低端211的高度H2,然后控制所述第一光电传感器123移动所述高度H1,以及控制所述第二光电传感器124移动到所述高度H2。
需要说明的是,上述所提及的所述闸门柱21的顶端212的纵坐标,所述第一参考点P1的纵坐标,以及所述闸门柱21的顶端212的纵坐标,所述第二参考点P2的纵坐标可以是指在所述第一摄像机11所拍摄的待辨识用户在所述指定场景(如闸机2处)的照片中的位置坐标。例如,该位置坐标是指在图2和图3所示的坐标系XOY中的坐标。该坐标系XOY以所述闸门柱21的顶端212为原点,水平横向为X轴,以及纵向为Y轴所建立。
在一个实施例中,所述处理器14控制所述第一光电传感器123感测所述第一参考点的同时,控制所述第二光电传感器124感测所述第二参考点。
在本实施例中,所述第一参考点的第一参考信息是指所述第一光电传感器123感测到所述第一参考点的时间(为便于描述,以下称为“第一时间”)。所述第二参考点的参考信息是指所述第二光电传感器123感测所述第二参考点的时间(为便于描述,以下称为“第二时间”)。
所述处理器14还记录所述第一光电传感器123感测到所述第一参考点的第一时间,以及记录所述第二光电传感器124感测到所述第二参考点的第二时间。
在一个实施例中,所述处理器14根据所述第一光电传感器123感测到所述第一参考点的第一时间,以及所述第二光电传感器124感测到所述第二参考点的第二时间来对所述待辨识用户执行所述再次验证。
具体地,当所述第一时间与所述第二时间之间的差值大于一个预设值(例如0.1秒)时,所述处理器14确定所述待辨识用户通过了所述再次验证。当所述第一时间与所述第二时间之间的差值小于或者等于所述预设值时,所述处理器14确定所述待辨识用户没有通过所述再次验证。
本实施例中,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述处理器14确定所述待辨识用户为真人(即确实存在的人),允许所述待辨识用户通过所述闸机2。例如,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述处理器14可以控制所述闸机2开启。
在一些实施例中,所述存储器13可以用于存储计算机程序的程序代码和各种数据。例如,所述存储器13可以用于存储安装在所述身份辨识装置1中的身份辨识系统10,并在身份辨识装置1的运行过程中实现高速、自动地完成程序或数据的存取。所述存储器13可以是包括只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-OnlyMemory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者任何其他能够用于携带或存储数据的计算机可读的存储介质。
在一些实施例中,所述至少一个处理器14可以由集成电路组成。例如,可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述至少一个处理器14是所述身份辨识装置1的控制核心(Control Unit),利用各种接口和线路连接整个身份辨识装置1的各个部件,通过运行或执行存储在所述存储器13内的程序或者模块,以及调用存储在所述存储器13内的数据,以执行身份辨识装置1的各种功能和处理数据,例如,对待辨识用户进行身份辨识的功能(具体细节后面介绍)。
在本实施例中,所述的身份辨识系统10可以被分割成一个或多个模块,所述一个或多个模块存储在所述存储器13中,并由一个或多个处理器(例如处理器14)执行,以实现本发明所提供的功能。
参阅图5所示,本实施例中,所述身份辨识系统10可以包括获取模块101、执行模块102。本发明所称的模块是能够完成一特定功能的程序段,比程序更适合用于描述软件的执行过程,关于各模块的详细功能将在后面作具体描述。
如图6所示,是本发明身份辨识方法的较佳实施例的流程图。根据不同的需求,本发明的各步骤之间的执行顺序可以改变,某些步骤可以省略。
步骤S61,所述获取模块101利用所述第一摄像机11拍摄待辨识用户在指定场景的照片。
例如,参阅图2和图3所示,所述获取模块101可以控制所述第一摄像机11拍摄待辨识用户(例如用户3)在该指定场景如闸机2处的照片。
步骤S62,所述执行模块102基于所拍摄的照片对所述待辨识用户的身份进行初步验证。
具体地,所述基于所拍摄的照片对所述待辨识用户的身份进行初步验证包括:
获取所述第一摄像机11所拍摄的待辨识用户在所述指定场景的照片;及
从所获取的照片中识别出所述待辨识用户的人脸;
将该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像进行匹配,根据所拍摄的该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像之间的相识度对所述待辨识用户进行初步验证。当所拍摄的该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像之间的相识度大于预设值(例如98%,或者其它数值)时,确定所述待辨识用户通过所述初步验证。反之,当所拍摄的该待辨识用户的人脸与预先存储的该待辨识用户的人脸图像之间的相识度小于或者等于所述预设值时,确定所述待辨识用户没有通过所述初步验证。
步骤S63,在确定所述待辨识用户通过了所述初步验证时,所述执行模块102从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点。
在一个实施例中,所述在所述待辨识用户的人脸上确定第一参考点和第二参考点包括(a1)-(a2):
(a1)利用OpenCV以及Dlib函数库从所拍摄的照片中标示出所述待辨识用户的人脸的68个特征点。
需要说明的是,所述利用OpenCV以及Dlib函数库从所拍摄的照片中标示人脸的68个特征点属于现有技术。因此不再赘述。
举例而言,参阅图4A所示,可以从所拍摄的照片中标示出人脸31的68个特征点。
(a2)从所述68个特征点中确定其中两个特征点作为第一参考点和第二参考点。
本实施例中,所述第一参考点与所述第二参考点之间的连线与水平横轴不垂直。
举例而言,参阅图4A所示,所述第一参考点为P1,是34号特征点所在位置,所述第二参考点为P2,是45号特征点所在位置。
步骤S64,当确定了所述第一参考点和第二参考点后,所述执行模块102利用感测模组12获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息。所述执行模块102还基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证。
在第一实施例中,所述感测模组12包括发光模组121和第二摄像机122。所述感测模组12用于拍摄所述待辨识用户(例如用户3)的侧脸轮廓图像。
在一个实施例中,参阅图2所示,所述发光模组121设置在闸机2的右边的闸门柱21上。所述第二摄像机122设置在闸机2的左边的闸门柱21上。即当用户需通过闸机2时,所述第二摄像机122和发光模组121分别位于用户的人脸的左右两侧。
本实施例中,所述发光模组121用于从所述待辨识用户的人脸的一侧向所述待辨识用户的人脸的另一侧发射光束。所述第二摄像机122用于在所述发光模组121发射光束的同时拍摄所述待辨识用户的侧脸轮廓图像。
本实施例中,所述第二摄像机122为与所述发光模组121所发射的光束的类型所对一个的摄像模组。例如,当所述发光模组121发射的是不可见的红外光时,则所述第二摄像机122为红外摄像头。当所述发光模组121发射的是可见光时,则所述第二摄像机122为可见光摄像头。
优选地,所述发光模组121发射的是不可见的红外光。相应地,所述第二摄像机122为红外摄像头。这样使得当待辨识用户(例如用户3)在被验证身份时不会因为发光模组121对着其侧脸发射了可见光而有不舒适的感受。
本实施例中,所述发光模组121可以通过第一升降结构(未示出)设置在闸机2的闸门柱21上,所述执行模块102可以通过控制该第一升降结构来调节该发光模组121相对于闸门柱21的低端213的距离,也即是对该发光模组121的高度进行调节。
同样地,所述第二摄像机122也可以通过第二升降结构(未示出)设置在闸机2的闸门柱21上,所述执行模块102可以通过控制该第二升降结构来调节该第二摄像机122相对于闸门柱21的低端211的距离,也即是对该第二摄像机122的高度进行调节。
在一个实施例中,所述执行模块102在确定所述第一参考点和第二参考点后,通过控制所述第一升降结构和第二升降结构达成控制所述感测模组12移动到指定位置。该指定位置是指能够拍摄到所述第一参考点和第二参考点的位置。
具体地,在该指定位置,所述第二摄像机122距离闸机2的闸门柱21的低端211的高度为Hc,其中,Hc=|Y0-(Y2+Y1)/2|/Y0*H0+H0,其中,Y0代表所述闸门柱21的顶端212的纵坐标,Y1代表所述第一参考点P1的纵坐标,Y2代表所述第二参考点P2的纵坐标,H0代表所述闸门柱21的低端211到顶端212之间的距离。
本实施例中,所述执行模块102可以利用上述公式首先计算出所述第二摄像机122距离闸机2的闸门柱21的低端211的高度为Hc,然后控制该第二摄像机122移动所述高度Hc。
需要说明的是,上述所提及的所述闸门柱21的顶端212的纵坐标,所述第一参考点P1的纵坐标,以及所述第二参考点P2的纵坐标可以是指在所述第一摄像机11所拍摄的待辨识用户在所述指定场景(如闸机2处)的照片中的位置坐标。例如,该位置坐标是指在图2和图3所示的坐标系XOY中的坐标。该坐标系XOY以所述闸门柱21的顶端212为原点,水平横向为X轴,以及纵向为Y轴所建立。
在一个实施例中,在所述指定位置,所述发光模组121距离闸门柱21的低端213的距离等于所述第二摄像机122距离闸门柱21的低端211的距离。
所述执行模块102还于所述感测模组12移动到了所述指定位置时,控制所述感测模组12拍摄所述待辨识用户的侧脸轮廓图像。本实施例于所述感测模组12移动到了所述指定位置时才控制所述感测模组12拍摄待辨识用户的侧脸轮廓图像的做法,在于可以节约所述感测模组12的能耗,避免感测模组12一直处于抓拍待辨识用户的侧脸轮廓图像的状态。
在一个实施例中,所述执行模块102可以从所拍摄的待辨识用户的侧脸轮廓图像获取第一参考点的第一参考信息以及第二参考点的第二参考信息。在一个实施例中,所述执行模块102还可以基于所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异对所述待辨识用户的身份进行再次验证。
在一个实施例中,所述第一参考点的第一参考信息是指所述第一参考点在所述侧脸轮廓图像中的坐标点(为便于描述以下称“第一坐标点”,所述第二参考点的第二参考信息是指所述第二参考点在所述侧脸轮廓图像中的坐标点(为便于描述以下称“第二坐标点”)。
在一个实施例中,所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异是指所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值。
在一个实施例中,当所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值大于预设值(例如0.5cm)时,所述执行模块102确定所述待辨识用户(例如用户3)通过所述再次验证。当所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值小于或者等于所述预设值(例如0.5cm)时,所述执行模块102确定所述待辨识用户(例如用户3)没有通过所述再次验证。
在一个实施例中,所述执行模块102建立所述第一坐标点以及第二坐标点所在的坐标系的方法包括:以所述侧脸轮廓图像的左下角为原点,以所述侧脸轮廓图像的下边缘建立X轴,以及以所述侧脸轮廓图像的左边缘建立Y轴。
需要说明的是,所述坐标系的建立仅为举例说明。具体可结合本发明的实施方案来建立。
本实施例中,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述执行模块102确定所述待辨识用户为真人(即确实存在的人),允许所述待辨识用户通过所述闸机2。例如,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述执行模块102可以控制所述闸机2开启。
在第二实施例中,所述感测模组12包括第一光电传感器123和第二光电传感器124。本实施例中,所述感测模组12用于感测所述待辨识用户(例如用户3)的人脸上的所述第一参考点和第二参考点。
在一个实施例中,所述第一光电传感器123用于感测所述待辨识用户的人脸上的所述第一参考点。所述第二光电传感器124用于感测所述待辨识用户的人脸上的所述第二参考点。
本实施例中,参阅图3所示,所述第一光电传感器123所在位置和所述第二光电传感器124所在位置之间的连线垂直于水平面。
在一个实施例中,所述第一光电传感器123可以通过第三升降结构(未示出)设置在闸机2的闸门柱21上,所述第二光电传感器124可以通过第四升降结构(未示出)设置在闸机2的闸门柱21上。所述执行模块102可以通过控制所述第三升降结构来调节该第一光电传感器123相对于闸门柱21的低端211的距离,也即是对该第一光电传感器123的高度进行调节。所述执行模块102可以通过控制所述第四升降结构来调节该第二光电传感器124相对于闸门柱21的低端211的距离,也即是对该第二光电传感器124的高度进行调节。
在一个实施例中,当确定所述第一参考点和第二参考点后,所述执行模块102可以控制所述感测模组12移动到指定位置,该指定位置为使得所述第一光电传感器123和第二光电传感器124可以分别用于感测所述第一参考点和第二参考点。
具体地,在该指定位置,所述第一光电传感器123距离闸门柱21的低端211的高度为H1=|Y0-Y1|/Y0*H0+H0,其中,Y0代表所述闸门柱21的顶端212的纵坐标,Y1代表所述第一参考点P1的纵坐标,H0代表所述闸门柱21的低端211到顶端212之间的距离;以及所述第二光电传感器124距离闸门柱21的低端211的高度为H2=|Y0-Y2|/Y0*H0+H0,其中,Y0代表所述闸门柱21的顶端212的纵坐标,Y2代表所述第二参考点P2的纵坐标,H0代表所述闸门柱21的低端211到顶端212之间的距离。
本实施例中,所述执行模块102可以首先通过上述公式计算所述第一光电传感器123距离闸门柱21的低端211的高度H1以及所述第二光电传感器124距离闸门柱21的低端211的高度H2,然后控制所述第一光电传感器123移动所述高度H1,以及控制所述第二光电传感器124移动到所述高度H2。
需要说明的是,上述所提及的所述闸门柱21的顶端212的纵坐标,所述第一参考点P1的纵坐标,以及所述闸门柱21的顶端212的纵坐标,所述第二参考点P2的纵坐标可以是指在所述第一摄像机11所拍摄的待辨识用户在所述指定场景(如闸机2处)的照片中的位置坐标。例如,该位置坐标是指在图2和图3所示的坐标系XOY中的坐标。该坐标系XOY以所述闸门柱21的顶端211为原点,水平横向为X轴,以及纵向为Y轴所建立。
在一个实施例中,所述执行模块102控制所述第一光电传感器123感测所述第一参考点的同时,控制所述第二光电传感器124感测所述第二参考点。
在本实施例中,所述第一参考点的第一参考信息是指所述第一光电传感器123感测到所述第一参考点的时间(为便于描述,以下称为“第一时间”)。所述第二参考点的参考信息是指所述第二光电传感器123感测所述第二参考点的时间(为便于描述,以下称为“第二时间”)。
所述执行模块102还记录所述第一光电传感器123感测到所述第一参考点的第一时间,以及记录所述第二光电传感器124感测到所述第二参考点的第二时间。
在一个实施例中,所述执行模块102根据所述第一光电传感器123感测到所述第一参考点的第一时间,以及所述第二光电传感器124感测到所述第二参考点的第二时间来对所述待辨识用户执行所述再次验证。
具体地,当所述第一时间与所述第二时间之间的差值大于一个预设值(例如0.1秒)时,所述执行模块102确定所述待辨识用户通过了所述再次验证。当所述第一时间与所述第二时间之间的差值小于或者等于所述预设值时,所述执行模块102确定所述待辨识用户没有通过所述再次验证。
本实施例中,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述执行模块102确定所述待辨识用户为真人(即确实存在的人),允许所述待辨识用户通过所述闸机2。例如,当所述待辨识用户通过了所述初步验证且通过了所述再次验证时,所述执行模块102可以控制所述闸机2开启。
根据上述记载可知,本发明的所述身份辨识系统通过利用第一摄像机拍摄待辨识用户的照片;基于所拍摄的照片对所述待辨识用户的身份进行初步验证;在确定所述待辨识用户通过了所述初步验证时,从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点;当确定了所述第一参考点和第二参考点后,利用一感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证,可以有效防止非法人员藉由合法用户的照片、图片、影片、平面或立体人偶等试图欺骗身份辨识系统,进而使身份辨识系统产生误判的情况发生。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种身份辨识装置,其特征在于,该身份辨识装置包括:
第一摄像机,用于拍摄待辨识用户的照片;
处理器,用于基于所拍摄的照片对所述待辨识用户的身份进行初步验证;
所述处理器,还用于在确定所述待辨识用户通过了所述初步验证时,从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点;
所述处理器,还用于当确定了所述第一参考点和第二参考点后,利用一感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及
基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证。
2.如权利要求1所述的身份辨识装置,其特征在于,所述在所述待辨识用户的人脸上确定第一参考点和第二参考点包括:
从所拍摄的照片中标示出所述待辨识用户的人脸的复数个特征点;及
从所述复数个特征点中确定其中两个特征点作为第一参考点和第二参考点,其中,所述第一参考点与所述第二参考点之间的连线与水平横轴不垂直。
3.如权利要求1所述的身份辨识装置,其特征在于,所述感测模组包括第二摄像机和发光模组,其中,所述第二摄像机和发光模组分别位于所述待辨识用户的人脸的两侧;
所述发光模组,用于从所述待辨识用户的人脸的一侧向所述待辨识用户的人脸的另一侧发射光束;
所述第二摄像机,用于在所述发光模组发射光束的同时拍摄所述待辨识用户的侧脸轮廓图像;及
所述处理器,还用于从所拍摄的所述侧脸轮廓图像获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息。
4.如权利要求3所述的身份辨识装置,其特征在于,所述第一参考点的第一参考信息是指所述第一参考点在所述侧脸轮廓图像中的第一坐标点,所述第二参考点的第二参考信息是指所述第二参考点在所述侧脸轮廓图像中的第二坐标点;所述基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证包括:基于所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异对所述待辨识用户执行再次验证,其中,所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异是指所述第一坐标点的横坐标与所述第二坐标点的横坐标之间的差值。
5.如权利要求3所述的身份辨识装置,其特征在于,所述处理器还用于,在确定所述第一参考点和第二参考点后,控制所述感测模组移动到指定位置,其中,在所述指定位置,所述第二摄像机距离闸机的一闸门柱的低端的高度为Hc,其中,Hc=|Y0-(Y2+Y1)/2|/Y0*H0+H0,Y0代表所述闸门柱的顶端的纵坐标,Y1代表所述第一参考点的纵坐标,Y2代表所述第二参考点的纵坐标,H0代表所述闸门柱的低端到顶端之间的距离;以及在所述指定位置,所述发光模组距离所述闸机的另一闸门柱的低端的距离等于Hc。
6.如权利要求1所述的身份辨识装置,其特征在于,所述感测模组包括第一光电传感器和第二光电传感器,所述第一光电传感器所在位置和所述第二光电传感器所在位置之间的连线垂直于水平面;
其中,所述第一光电传感器用于感测所述第一参考点;所述第二光电传感器用于感测所述第二参考点。
7.如权利要求6所述的身份辨识装置,其特征在于,所述第一参考点的第一参考信息是指所述第一光电传感器感测到所述第一参考点的第一时间,所述第二参考点的第二参考信息是指所述第二光电传感器感测到所述第二参考点的第二时间;所述基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证包括:基于所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异对所述待辨识用户执行再次验证,其中,所述第一参考点的第一参考信息与所述第二参考点的第二参考信息之间的差异是指所述第一时间与所述第二时间之间的差值。
8.如权利要求6所述的身份辨识装置,其特征在于,所述处理器还用于,在确定所述第一参考点和第二参考点后,控制所述感测模组移动到指定位置,其中,在所述指定位置,所述第一光电传感器距离闸机的闸门柱的低端的高度为H1=|Y0-Y1|/Y0*H0+H0,Y0代表所述闸门柱的顶端的纵坐标,Y1代表所述第一参考点的纵坐标,H0代表所述闸门柱的低端到顶端之间的距离;以及所述第二光电传感器距离所述闸门柱的低端的高度为H2=|Y0-Y2|/Y0*H0+H0,其中,Y0代表所述闸门柱的顶端的纵坐标,Y2代表所述第二参考点的纵坐标,H0代表所述闸门柱的低端到顶端之间的距离。
9.一种身份辨识方法,其特征在于,该方法包括:
利用第一摄像机拍摄待辨识用户的照片;
基于所拍摄的照片对所述待辨识用户的身份进行初步验证;
在确定所述待辨识用户通过了所述初步验证时,从所拍摄的照片中,在所述待辨识用户的人脸上确定第一参考点和第二参考点;
当确定了所述第一参考点和第二参考点后,利用一感测模组获取所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息;及
基于所述第一参考点的第一参考信息以及所述第二参考点的第二参考信息对所述待辨识用户执行再次验证。
10.如权利要求9所述的身份辨识方法,其特征在于,所述感测模组是从待辨识用户的侧脸获取所述第一参考点的第一参考信息及所述第二参考点的第二参考信息;其中,所述第一参考点与所述第二参考点之间的连线与水平横轴不垂直。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010351407.4A CN113569595B (zh) | 2020-04-28 | 2020-04-28 | 身份辨识装置以及身份辨识方法 |
US17/011,257 US11354963B2 (en) | 2020-04-28 | 2020-09-03 | Identity verification device and identity verification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010351407.4A CN113569595B (zh) | 2020-04-28 | 2020-04-28 | 身份辨识装置以及身份辨识方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113569595A true CN113569595A (zh) | 2021-10-29 |
CN113569595B CN113569595B (zh) | 2024-03-22 |
Family
ID=78158183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010351407.4A Active CN113569595B (zh) | 2020-04-28 | 2020-04-28 | 身份辨识装置以及身份辨识方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11354963B2 (zh) |
CN (1) | CN113569595B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569595B (zh) * | 2020-04-28 | 2024-03-22 | 富泰华工业(深圳)有限公司 | 身份辨识装置以及身份辨识方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102103696A (zh) * | 2009-12-21 | 2011-06-22 | 鸿富锦精密工业(深圳)有限公司 | 人脸辨识系统、方法及具有该系统的身份识别装置 |
CN108958610A (zh) * | 2018-07-27 | 2018-12-07 | 北京微播视界科技有限公司 | 基于人脸的特效生成方法、装置和电子设备 |
CN110135250A (zh) * | 2019-04-08 | 2019-08-16 | 一脉通(深圳)智能科技有限公司 | 一种基于生物识别的身份验证方法、装置、设备及可读介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4476744B2 (ja) * | 2003-09-02 | 2010-06-09 | 富士フイルム株式会社 | 撮像システム、及びプログラム |
WO2009025054A1 (ja) * | 2007-08-23 | 2009-02-26 | Fujitsu Limited | 生体認証システムおよび生体認証プログラム |
JP5115398B2 (ja) * | 2008-08-27 | 2013-01-09 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP5709410B2 (ja) * | 2009-06-16 | 2015-04-30 | キヤノン株式会社 | パターン処理装置及びその方法、プログラム |
JP2015011320A (ja) * | 2013-07-02 | 2015-01-19 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US9922238B2 (en) * | 2015-06-25 | 2018-03-20 | West Virginia University | Apparatuses, systems, and methods for confirming identity |
JP6507046B2 (ja) * | 2015-06-26 | 2019-04-24 | 株式会社東芝 | 立体物検知装置及び立体物認証装置 |
WO2019230306A1 (ja) * | 2018-05-30 | 2019-12-05 | パナソニックIpマネジメント株式会社 | 識別装置および識別方法 |
CN108875633B (zh) * | 2018-06-19 | 2022-02-08 | 北京旷视科技有限公司 | 表情检测与表情驱动方法、装置和系统及存储介质 |
JP7310112B2 (ja) * | 2018-10-02 | 2023-07-19 | 日本電気株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
CN113569595B (zh) * | 2020-04-28 | 2024-03-22 | 富泰华工业(深圳)有限公司 | 身份辨识装置以及身份辨识方法 |
-
2020
- 2020-04-28 CN CN202010351407.4A patent/CN113569595B/zh active Active
- 2020-09-03 US US17/011,257 patent/US11354963B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102103696A (zh) * | 2009-12-21 | 2011-06-22 | 鸿富锦精密工业(深圳)有限公司 | 人脸辨识系统、方法及具有该系统的身份识别装置 |
CN108958610A (zh) * | 2018-07-27 | 2018-12-07 | 北京微播视界科技有限公司 | 基于人脸的特效生成方法、装置和电子设备 |
CN110135250A (zh) * | 2019-04-08 | 2019-08-16 | 一脉通(深圳)智能科技有限公司 | 一种基于生物识别的身份验证方法、装置、设备及可读介质 |
Also Published As
Publication number | Publication date |
---|---|
US11354963B2 (en) | 2022-06-07 |
US20210335075A1 (en) | 2021-10-28 |
CN113569595B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238270B2 (en) | 3D face identity authentication method and apparatus | |
US10824849B2 (en) | Method, apparatus, and system for resource transfer | |
WO2019080580A1 (zh) | 3d人脸身份认证方法与装置 | |
WO2019080579A1 (zh) | 3d人脸身份认证方法与装置 | |
JP6754642B2 (ja) | 生体検知装置 | |
US11663853B2 (en) | Iris authentication device, iris authentication method, and recording medium | |
JP4783331B2 (ja) | 顔認証装置 | |
KR20070093810A (ko) | 인증 장치, 인증 방법, 인증 프로그램 및 컴퓨터 판독가능한 기록 매체 | |
JP2003317100A (ja) | 情報端末装置、認証システム、及び登録・認証方法 | |
JP2007122400A (ja) | 認証装置、プログラムおよび記録媒体 | |
JP2006235718A (ja) | 顔認証装置、その顔認証方法、その顔認証装置を組み込んだ電子機器およびその顔認証プログラムを記録した記録媒体 | |
US11321552B2 (en) | Face authentication device having database with small storage capacity | |
CN108647633B (zh) | 识别跟踪方法、识别跟踪装置和机器人 | |
JP4899552B2 (ja) | 認証装置、認証方法、認証プログラム、これを記録したコンピュータ読み取り可能な記録媒体 | |
WO2020065851A1 (ja) | 虹彩認証装置、虹彩認証方法および記憶媒体 | |
JP2023134780A (ja) | デバイス、表示方法、およびプログラム | |
CN113569595B (zh) | 身份辨识装置以及身份辨识方法 | |
CN113627387B (zh) | 基于人脸识别的并行身份认证方法、装置、设备和介质 | |
US11082615B2 (en) | Mobile terminal device that generates picture where person's eye direction in shot image has been modified | |
WO2021166289A1 (ja) | データ登録装置、生体認証装置、および記録媒体 | |
TWI734454B (zh) | 身份辨識裝置以及身份辨識方法 | |
CN101657841A (zh) | 信息提取方法、登记设备、验证设备和程序 | |
TWI701602B (zh) | 臉部辨識裝置 | |
US11036971B2 (en) | Face recognition method and electronic device employing the method | |
JP7272418B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |