WO2019200571A1 - 身份鉴权方法、身份鉴权装置、和电子设备 - Google Patents

身份鉴权方法、身份鉴权装置、和电子设备 Download PDF

Info

Publication number
WO2019200571A1
WO2019200571A1 PCT/CN2018/083614 CN2018083614W WO2019200571A1 WO 2019200571 A1 WO2019200571 A1 WO 2019200571A1 CN 2018083614 W CN2018083614 W CN 2018083614W WO 2019200571 A1 WO2019200571 A1 WO 2019200571A1
Authority
WO
WIPO (PCT)
Prior art keywords
identity authentication
tested
image information
dimensional image
infrared
Prior art date
Application number
PCT/CN2018/083614
Other languages
English (en)
French (fr)
Inventor
田浦延
Original Assignee
深圳阜时科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳阜时科技有限公司 filed Critical 深圳阜时科技有限公司
Priority to PCT/CN2018/083614 priority Critical patent/WO2019200571A1/zh
Priority to CN201880000325.6A priority patent/CN108521821A/zh
Publication of WO2019200571A1 publication Critical patent/WO2019200571A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本申请公开了一种身份鉴权方法、身份鉴权装置、以及电子设备。该身份鉴权方法包括:步骤S1:投射红外泛光至一待测物体上,感测该待测物体的第一红外图像;步骤S2:投射红外结构光至该待测物体上,感测该待测物体的第二红外图像;步骤S3:根据该第一红外图像与该第二红外图像,确认该待测物体的身份是否合法。该身份鉴权装置运行该身份鉴权方法。该电子设备包括该身份鉴权装置。

Description

身份鉴权方法、身份鉴权装置、和电子设备 技术领域
本申请涉及一种身份鉴权方法、身份鉴权装置、和电子设备。
背景技术
随着科技的发展,越来越多的场合开始采用各种传感技术对物体进行识别。例如,指纹识别技术、虹膜识别技术等。然,指纹识别技术与虹膜识别技术等都有其各自的局限性,例如,指纹识别技术并不能进行较远距离的感测,虹膜识别技术的感测响应速度较慢等。
因此,有必要提供一种新型的传感技术,用于身份鉴权。
发明内容
本申请实施方式旨在至少解决现有技术中存在的技术问题之一。为此,本申请实施方式需要提供一种身份鉴权方法、身份鉴权装置、和电子设备。
首先,本申请提供一种身份鉴权方法,包括:
步骤S1:投射红外泛光至一待测物体上,感测该待测物体的第一红外图像;
步骤S2:投射红外结构光至该待测物体上,感测该待测物体的第二红外图像;
步骤S3:根据该第一红外图像与该第二红外图像,确认该待测物体的身份是否合法。
在本申请的实施方式中,通过光学图像传感的方式对该待测物体的身份进行鉴权。其中,根据该第一红外图像能够获得该待测物体的2D属性信息,根据该第二红外图像能够获得该待测物体的3D属性信息,从而,根据该2D与3D属性信息是可以确认该待测物体的身份是否合法。由此可见,本申请提供了一种新型的光学传感技术来实现身份鉴权。
另外,该光学传感技术可适用于较远距离的感测,且感测响应速度较快。所述较远距离例如为1米范围内或甚至更远一些的距离。
本申请还提供一种身份鉴权装置,包括:
第一投射器,用于投射红外泛光至一待测物体;
第二投射器,用于投射红外结构光至该待测物体;
图像传感装置,用于捕获由该待测物体反射回来的红外泛光、感测该待测物体的第一红外图像,以及用于捕获由该待测物体反射回来的红外结构光、感测该待测物体的第二红外图像;
处理器,用于根据该第一红外图像和第二红外图像,确认所述待测物体的身份是否合法。
在本申请的实施方式中,该身份鉴权装置通过光学图像传感的方式对该待测物体的身份进行鉴权。其中,该处理器器根据该第一红外图像能够获得该待测物体的2D属性信息,根据该第二红外图像能够获得该待测物体的3D属性信息,从而,根据该第一红外图像和该第二红外图像,能够确认该待测物体的身份是否合法。由此可见,本申请提供了一种新型的光学传感技术来实现鉴权。
另外,该光学传感技术可适用于较远距离的感测,且感测响应速度较快。所述较远距离例如为1米范围内或甚至更远一些的距离。
本申请还提供一种电子设备,包括上述中任意一项所述的身份鉴权装置。
由于本申请的电子设备包括上述的身份鉴权装置,因此,该电子设备能够实现对待测物体的较远距离的感测,且感测响应速度较快。
本申请实施方式的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请实施方式的实践了解到。
附图说明
本申请实施方式的上述和/或附加的方面和优点从结合下面附图对实施方式的描述中将变得明显和容易理解,其中:
图1为本申请的身份鉴权方法的第一实施方式的流程示意图。
图2为环境光的辐射强度与波长之间的关系示意图。
图3为本申请的身份鉴权方法的第二实施方式的流程示意图。
图4为本申请的身份鉴权方法的第三实施方式的流程示意图。
图5为本申请的身份鉴权方法的第四实施方式的流程示意图。
图6为本申请的身份鉴权方法的第五实施方式的流程示意图。
图7是本申请的身份鉴权装置一实施方式的结构框图。
图8是本申请的电子设备一实施方式的结构示意图。
具体实施方式
下面详细描述本申请的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本申请,而不能理解为对本申请的限制。
在本申请的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接或可以相互通信;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
下文的公开提供了许多不同的实施方式或例子用来实现本申请的不同结构。为了简化本申请的公开,下文中对特定例子的部件和设定进行描述。当然,它们仅仅为示例,并且目的不在于限制本申请。此外,本申请可以在不同例子中重复参考数字和/或参考字母,这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施方式和/或设定之间的关系。
进一步地,所描述的特征、结构可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员应意识到,没有所述特定细节中的一个或更多,或者采用其它的结构、组元等,也可以实践本申请的技术方案。在其它情况下,不详细示出或描述公知结构或者操作以避免模糊本申请。
请参阅图1,图1为本申请的身份鉴权方法的第一实施方式的流程示意图。该身份鉴权方法例如但不局限于应用在电子设备上,所述电子设备例如但不局限于为消费性电子产品、家居式电子产品、车载式电子产品、金融终端产品等合适类型的电子产品。其中,消费性电子产品例如但不局限为手机、平板电脑、笔记本电脑、桌面显示器、电脑一体机等。家居式电子产品例如但不局限为智能门锁、电视、冰箱、穿戴式设备等。车载式电子产品例如但不局限为车载导航仪、车载DVD等。金融终端产品例如但不局限为ATM机、自助办理业务的终端等。该身份鉴权方法包括:
步骤S1:投射红外泛光至一待测物体上,感测该待测物体的第一红外图像;
步骤S2:投射红外结构光至该待测物体上,感测该待测物体的第二红外图像;和
步骤S3:根据该第一红外图像与该第二红外图像,确认该待测物体的身份是否合法。
在本实施方式中,通过投射红外泛光与红外结构光到该待测物体上,分别获得该待测物体的不同红外图像,来实现对该待测物体的感测与识别。其中,根据该第一红外图像能够获得该待测物体的二维(2-Dimension,2D)图像信息,根据该第二红外图像能够获得该待测物体的三维(3-Dimension,3D)图像信息,该3D图像信息例如包括深度信息。从而,根据该2D图像信息与3D图像信息来确认该待测物体的身份是否合法。
由上述内容可知,本申请提供了一种新型的光学传感技术来实现身份鉴权。
进一步地,由于红外泛光和红外结构光的光学特性,该光学传感技术可适用于较远距离的感测,且感测响应速度较快。所述较远距离例如为1米范围内或甚至更远一些的距离。
在步骤S1中,例如采用红外泛光灯投射红外泛光至该待测物体,并利用图像传感装置捕获由该待测物体反射回来的红外泛光,从而获得第一红外图像。
在步骤S2中,例如采用光学组件来投射红外结构光至该待测物体。所述光学组件例如包括光源、准直镜头以及光学衍射元件(DOE),其中光源用于产生一红外激光束;准直镜头将红外激光束进行校准,形成近似平行光;光学衍射元件对校准后的红外激光束进行调制,形成相应的散斑图案。该散斑图案例如但不局限于包括规则点阵式、条纹式、网格式、散斑式、编码式等中的一种或几种。其中,散斑式又称为随机点阵式。编码式图案例如由不同波形的光组成,每种波形代表一种数字,各波形的组合即为编码。另外,所述光学组件例如也可由其它合适的光学元件构成。
上述是利用基于光编码原理,投射已知的红外结构光图案到该待测物体上。图像传感装置或处理器根据捕获到的变形的红外结构光图案来分析确定该待测物体的深度信息。定义此类红外结构光为空间结构光。
可变更地,例如也可利用基于飞行时间(Time of Flight,ToF)原理,投射红外结构光至该待测物体。图像传感装置或处理器例如通过测量光脉冲之间的传输延迟时间来计算待测物体的深度信息。定义此类红外结构光为时间结构光。
该时间结构光例如但不局限于呈正弦波、方波中的任意一种或两种的结合。
该待测物体例如为人体的面部。相应地,本申请的身份鉴权方法用于识别人脸。然, 本申请并不局限于此,该待测物体例如也可为人体的其它合适部位,甚至是其它合适的生物体或非生物体等。
现有的,业界通常投射波长为850纳米的近红外光,来获得待测物体的红外图像。然而,本申请的发明人经过大量的创造性劳动,分析与研究发现:投射波长为940纳米的红外泛光、940纳米的红外结构光进行感测,可以获得较准确的感测效果。
请参阅图2,图2为环境光的辐射强度与波长之间的关系示意图。其中,波长用横轴表示,且被标示为字母λ,辐射强度用纵轴表示,且被标示为字母E。发明人通过理论研究、结合大量的实验测试、验证并反复进行分析与研究等,创造性地发现:环境光中波长范围为[920,960]纳米的近红外光易被大气吸收、强度衰减较大,当步骤S1投射波长范围为[920,960]纳米的红外泛光到待测物体,根据捕获的红外泛光获得该待测物体的第一红外图像时,能够少受环境光的干扰,从而提高图像的获取精度。类似地,当步骤S2投射波长范围为[920,960]纳米的红外结构光到待测物体,根据捕获的红外结构光获得该待测物体的第二红外图像时,能够少受环境光的干扰,从而提高图像的获取精度。
进一步地,在波长范围为[920,960]纳米的红外光中,波长为940纳米的近红外光更易被大气吸收、强度衰减最大,因此,在本申请的实施方式中,步骤S1投射的红外泛光的波长优选为940纳米,步骤S2投射的红外结构光的波长优选为940纳米。
然而,在实际应用中,步骤S1所投射的红外泛光的波长和步骤S2所投射的红外结构光的波长在940纳米的基础上会有一定的偏差,例如会有(+15)纳米或(-15)纳米左右的偏差。因此,步骤S1投射的红外泛光的波长范围例如为[925,955]纳米,步骤S2投射的红外结构光的波长范围例如为[925,955]纳米。可见,该波长范围[925,955]仍然落在波长范围[920,960]内。
需要说明的是,步骤S1所投射的红外泛光的波长和步骤S2所投射的红外结构光的波长为落在上述波长范围[920,960]纳米中的任意一数值。本申请为了叙述简洁清楚,在此处并未一一列举各具体数值,但落在这波长范围[920,960]纳米中的任意一数值都是可行的。
当然,可变更地,本申请的身份鉴权方法的步骤S1和步骤S2也可采用其它合适波长(例如,850纳米)的红外泛光、红外结构光进行投射。
进一步地,由于步骤S1投射的是红外泛光,步骤S2投射的是红外结构光,因此,为了避免第一红外图像与第二红外图像混叠,步骤S1与步骤S2分时进行。
在本实施方式中,步骤S1先于步骤S2进行。然,可变更地,在其它实施方式中, 步骤S2也可先于步骤S1进行。
请参阅图3,图3为本申请的身份鉴权方法的第二实施方式的流程示意图。该第二实施方式的身份鉴权方法与第一实施方式的身份鉴权方法大致相同,二者主要区别在于:该第二实施方式的身份鉴权方法的步骤S3包括:
子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则执行子步骤S32,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败;
子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体,当判断得知该待测物体不是立体物体时,则身份鉴权失败。
在子步骤S31中,通过比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,以对该待测物体进行第一次识别,当第一次识别不通过时,则身份鉴权失败,流程结束。
以人脸识别为例进行说明,在进行脸部识别之前,用户已提前注册好其本人的脸部图像模板,并存储在例如一存储器中。其中,该脸部图像模板包括二维图像信息。该存储器例如可以预存一个或多个样本物体的二维图像信息。
当执行脸部识别时,对该待测物体的第一次识别就是:比对该待测物体的二维图像信息是否与已注册用户脸部的二维图像信息匹配,如果确认该待测物体的二维图像信息与该已注册用户脸部的二维图像信息不匹配,则身份鉴权失败。
如果确认该待测物体的二维图像信息与该已注册用户脸部的二维图像信息匹配,则还不能确定该待测物体的身份合法,理由是:在子步骤S31中,因为是二维图像信息的判断与识别,如果利用该用户的照片同样可以识别成功。
接下来,通过执行子步骤S32,来避免上述利用照片识别通过的情况。
在子步骤S32中,根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体。例如,由于根据该第二红外图像能够获得深度信息,从而根据深度信息来判断该待测物体是否为立体物体。
如果判断该待测物体不是立体物体,则身份鉴权失败,流程结束。在此种情况下,就有可能是他人利用合法用户的照片或者视频等进行身份识别。
可选地,在子步骤S32中,当确认该待测物体是立体物体时,则身份鉴权成功。
由于在子步骤S32中只是判断该待测物体是不是立体物体即可,而无需对该待测物 体的立体图像信息进行大量的分析与计算,从而可以降低功耗、减少感测时间、以及降低成本。
具体地,例如,在子步骤S31中,当确认该待测物体的二维图像信息与已注册用户脸部的二维图像信息的匹配系数大于或等于一预定阈值时,则可确认该待测物体的二维图像信息与已注册用户脸部的二维图像信息匹配。相对地,如果确认匹配系数小于该预定阈值时,则可确认该待测物体的二维图像信息与已注册用户脸部的二维图像信息不匹配。
在本实施方式中,步骤S1先于步骤S2进行。
所述子步骤S31与步骤S2同时进行。如此,能够更进一步减少感测时间,提升工作效率。
然,可变更地,在其它实施方式中,所述步骤S2也可先于子步骤S31进行。
另外,可变更地,在其它实施方式中,所述步骤S2也可先于步骤S1进行,步骤S1先于步骤S3进行。
具体地,在子步骤S31中,关于二维图像信息的比对,例如,可以通过比对该待测物体的平面图片与预存的物体面部的平面图片来实现。
然而,本申请提出了用于二维图像信息比对的另一种实现方式。所述预存的二维图像信息包括面部特征信息。所述子步骤S31进一步包括对待测物体进行面部特征信息提取,通过比对提取到的面部特征信息与预存的面部特征信息,来确认该待测物体的二维图像信息与预存的二维图像信息是否匹配。从而,相对于比对整幅图片来说,通过比对特征的方式能够进一步减少计算量,提高感测效率。
在一示例中,在子步骤S31中,通过深度学习方法提取该待测物体的面部特征信息。该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
可变更地,在其它实施方式中,在子步骤S31中,也可提取鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞、鼻子的宽度、下巴的宽度等面部特征,或/和,鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴等中任意组合的距离信息。例如,鼻子和眼睛之间的距离信息。当然,所述面部特征信息并不局限于上面所列举的例子,也可为其它合适的特征信息。
本申请不限于上面所涉及的二维图像信息的比对方式,也可为其它合适的比对方式。
进一步地,在子步骤S32中,对该第二红外图像进行立体特征信息的提取,并根据 提取到的立体特征信息来判断所述待测物体是否为立体物体。
在一示例中,通过深度学习方法提取该待测物体的立体人脸特征信息。该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
可变更地,在其它实施方式中,在子步骤S32中,也可提取鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞等面部特征中的任意一种或几种的立体尺寸信息。所述立体尺寸信息即为深度信息。当然,所述立体特征信息并不局限于上面所列举的例子,也可为其它合适的特征信息。
然,本申请并不限于上述立体物体的判断方式,例如,可变更地,在其它实施方式中,也可以根据第二红外图像,构建出立体图像信息,并与预存的立体图像信息进行比对,来判断该待测物体是不是立体物体。
由上述内容可知,该第二实施方式的身份鉴权方法能够节省感测时间、节省功耗、并能降低成本。
然,可变更地,在某些实施方式中,子步骤S32还包括:当确认该待测物体是立体物体后,进一步判断该待测物体的立体信息是否符合人体的面部立体特征。
当判断得知该待测物体的立体信息不符合人体的面部立体特征时,则身份鉴权失败。
可选地,当子步骤S31中确认该待测物体的二维图像信息与预存的二维图像信息匹配,且子步骤S32判断得知该待测物体的立体信息符合人体的面部立体特征时,则身份鉴权成功。
请参阅图4,图4为本申请的身份鉴权方法的第三实施方式的流程示意图。该第三实施方式的身份鉴权方法与第二实施方式的身份鉴权方法大致相同,二者主要区别在于:第三实施方式的身份鉴权方法的步骤S3包括:
子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体,当判断得知该待测物体为立体物体时,则执行步骤S31,否则,当判断得知该待测物体不是立体物体时,则身份鉴权失败;
子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
由于执行子步骤S32的功耗要小于执行子步骤S31的功耗,因此,当子步骤S32先执行,并在判断得知该待测物体不是立体物体时,结束身份鉴权,可见,此种身份鉴权 方法的功耗消耗要相对变小。
需要说明的是,第三实施方式的子步骤S32与子步骤S31的具体实现方式可参考第二实施方式的子步骤S32与子步骤S31,为了说明书的简洁明了,此处不再赘述。
在本实施方式中,步骤S2先于步骤S1进行,子步骤S32与步骤S1同时进行,从而节省感测时间。可变更地,在其它实施方式中,步骤S1也可先于子步骤S32进行。
另外,可变更地,步骤S1也可先于步骤S2进行,且步骤S2先于子步骤S32进行。
请参阅图5,图5为本申请的身份鉴权方法的第四实施方式的流程示意图。第四实施方式的身份鉴权方法与第二实施方式的身份鉴权方法大致相同,二者的主要区别在于:本实施方式的步骤S2在子步骤S31获得的比对结果为匹配时被执行,具体地,本实施方式的步骤S3包括:
子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则执行步骤S2,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败;和
子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体,当判断得知该待测物体不是立体物体时,则身份鉴权失败。
可选地,当执行子步骤S32,判断得知该待测物体时立体物体时,则身份鉴权成功。
需要说明的是,第四实施方式的子步骤S31与子步骤S32的具体实现方式可参考第二实施方式的子步骤S31与子步骤S32,为了说明书的简洁明了,此处不再赘述。
请参阅图6,图6为本申请的身份鉴权方法的第五实施方式的流程示意图。该第五实施方式的身份鉴权方法与第三实施方式的身份鉴权方法大致相同,二者的主要区别在于:本实施方式的步骤S1在子步骤S32判断得知该待测物体为立体物体时被执行,具体地,本实施方式的步骤S3包括:
子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体,当判断得知该待测物体为立体物体时,则执行步骤S1,否则,当判断得知该待测物体不是立体物体时,则身份鉴权失败;
子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
可选地,当子步骤S31中确认该待测物体的二维图像信息与预存的二维图像信息匹 配时,则身份鉴权成功。
需要说明的是,第五实施方式的子步骤S32与子步骤S31的具体实现方式可参考第二实施方式的子步骤S32与子步骤S31,为了说明书的简洁明了,此处不再赘述。
请参阅图7,图7是本申请的身份鉴权装置的一实施方式的结构框图。该身份鉴权装置1包括第一投射器10、第二投射器12、图像传感装置14、和处理器16。其中,该第一投射器10用于投射红外泛光至一待测物体。该第二投射器12用于投射红外结构光至该待测物体。该图像传感装置14用于捕获由该待测物体反射回来的红外泛光、根据捕获的红外泛光感测获得该待测物体的第一红外图像,以及用于捕获由该待测物体反射回来的红外结构光、根据捕获的红外结构光感测获得该待测物体的第二红外图像。该处理器16用于根据该第一红外图像和第二红外图像,确认所述待测物体的身份是否合法。
当进行身份鉴权时,该身份鉴权装置1通过投射红外泛光与红外结构光到该待测物体上,分别获得该待测物体的不同红外图像,来实现对该待测物体的感测与识别。其中,根据该第一红外图像能够获得该待测物体的二维(2-Dimension,2D)图像信息,根据该第二红外图像能够获得该待测物体的三维(3-Dimension,3D)图像信息,该3D图像信息例如包括深度信息。从而,根据该2D图像信息与3D图像信息来确认该待测物体的身份是否合法。
由上述内容可知,本申请提供了一种新型的光学式身份鉴权装置。
进一步地,由于红外泛光和红外结构光的光学特性,该光学传感技术可适于较远距离的感测,且感测响应速度较快。该较远距离例如为1米范围内或甚至更远一些的距离。
可选地,所述身份鉴权装置1进一步包括控制电路17。该控制电路17与该第一投射器10和第二投射器12连接,用于控制该第一投射器10、所述第二投射器12、和该图像传感装置14协同工作。
在本实施方式中,所述控制电路17用于控制该第一投射器10和该第二投射器12分时工作。具体地,该控制电路17控制所述第一投射器10先于所述第二投射器12工作,或,所述控制电路17控制所述第二投射器12先于所述第一投射器10工作。
所述第一投射器10例如但不局限于为红外泛光灯。
所述第二投射器12例如采用光学组件来投射红外结构光至该待测物体。所述光学组件例如包括光源、准直镜头以及光学衍射元件(DOE),其中光源用于产生一红外激光束;准直镜头将红外激光束进行校准,形成近似平行光;光学衍射元件对校准后的红外激光束进行调制,形成相应的散斑图案。该散斑图案例如但不局限于包括规则点阵式、 条纹式、网格式、散斑式、编码式等中的一种或几种。其中,散斑式又称为随机点阵式。编码式图案例如由不同波形的光组成,每种波形代表一种数字,各波形的组合即为编码。另外,所述光学组件例如也可由其它合适的光学元件构成。
上述是利用基于光编码原理,该第二投射器12投射已知的红外结构光图案到该待测物体上。图像传感装置14或处理器16根据捕获到的变形的红外结构光图案来分析确定该待测物体的深度信息。定义此类红外结构光为空间结构光。
可变更地,例如也可利用基于飞行时间(Time of Flight,ToF)原理,该第二投射器12投射红外结构光至该待测物体。图像传感装置14或处理器16例如通过测量光脉冲之间的传输延迟时间来计算待测物体的深度信息。定义此类红外结构光为时间结构光。
该时间结构光例如但不局限于呈正弦波、方波中的任意一种或两种的结合。
当该第二投射器12投射的是空间结构光时,该图像传感装置14例如包括一红外图像传感器141,该红外图像传感器141用于分时捕获由该待测物体反射回来的红外泛光和红外结构光。由于共用同一红外图像传感器141,从而可以降低成本。
然而,当该第二投射器12投射的是时间结构光时,该图像传感装置14例如包括二红外图像传感器,该二红外图像传感器的结构不同,感测原理不同,分辨率不同等。其中,一红外图像传感器用于捕获由该待测物体反射回来的红外泛光,另一红外图像传感器用于捕获由该待测物体反射回来的红外结构光。
该待测物体例如为人体的面部。相应地,本申请的身份鉴权装置1用于识别人脸。然,本申请并不局限于此,该待测物体例如也可为人体的其它合适部位,甚至是其它合适的生物体或非生物体等。
现有的,业界通常投射波长为850纳米的近红外光,来获得待测物体的红外图像。然而,本申请的发明人经过大量的创造性劳动,分析与研究发现:投射波长为940纳米的红外泛光、940纳米的红外结构光进行感测,可以获得较准确的感测效果。
请再参阅图2,环境光中波长范围为[920,960]纳米的近红外光易被大气吸收、强度衰减较大,当该第一投射器10投射波长范围为[920,960]纳米的红外泛光到待测物体、该图像传感装置14根据捕获的红外泛光获得该待测物体的第一红外图像时,能够少受环境光的干扰,从而提高图像的获取精度。类似地,当该第二投射器12投射波长范围为[920,960]纳米的红外结构光到待测物体、该图像传感装置14根据捕获的红外结构光获得该待测物体的第二红外图像时,能够少受环境光的干扰,从而提高图像的获取精度。
进一步地,在波长范围为[920,960]纳米的红外光中,波长为940纳米的近红外光更 易被大气吸收、强度衰减最大,因此,在本申请的实施方式中,该第一投射器10投射的红外泛光的波长优选为940纳米,该第二投射器12投射的红外结构光的波长优选为940纳米。
然而,在实际应用中,该第一投射器10所投射的红泛外光的波长和该第二投射器12所投射的红外结构光的波长在940纳米的基础上会有一定的偏差,例如会有(+15)纳米或(-15)纳米左右的偏差。因此,该第一投射器10所投射的红外泛光的波长范围例如为[925,955]纳米,该第二投射器12所投射的红外结构光的波长范围例如为[925,955]纳米。可见,该波长范围[925,955]仍然落在波长范围[920,960]内。
需要说明的是,该第一投射器10所投射的红外泛光的波长和该第二投射器12所投射的红外结构光的波长为落在上述波长范围[920,960]纳米中的任意一数值。本申请为了叙述简洁清楚,在此处并未一一列举各具体数值,但落在这波长范围[920,960]纳米中的任意一数值都是可行的。
当然,可变更地,该第一投射器10和第二投射器12也可分别投射波长为850纳米或者其它合适波长的红外泛光、红外结构光。
由于第一投射器10投射的是红外泛光,第二投射器12投射的是红外结构光,为了避免图像传感装置14感测获得的第一红外图像与第二红外图像发生混叠,因此,所述控制电路17控制所述第一投射器10和第二投射器12分时工作。
在一些实施方式中,所述身份鉴权装置1进一步包括存储器18。该存储器18用于预存一个或多个样本物体的二维图像信息。该样本物体的二维图像信息例如是用户提前注册成功的脸部模板信息。
例如,当进行身份鉴权时,该控制电路17控制该第一投射器10先于第二投射器12工作。相应地,所述图像传感装置14先感测到该第一红外图像。该处理器16根据所述第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,所述处理器16接着根据所述第二红外图像来判断该待测物体是否为立体物体,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
当该处理器16判断得知该待测物体不是立体物体时,则身份鉴权失败。
由上述内容可知,该处理器16通过比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,以对该待测物体进行第一次识别,当第一次识别不通过时,则身份鉴权失败,流程结束。
以人脸识别为例进行说明,在进行脸部识别之前,用户已提前注册好其本人的脸部图像模板,并存储在该存储器18中。其中,该脸部图像模板包括二维图像信息。当执行脸部识别时,对该待测物体的第一次识别就是:比对该待测物体的二维图像信息是否与已注册用户脸部的二维图像信息匹配,如果判断得知该待测物体的二维图像信息与该用户脸部的二维图像信息不匹配,则身份鉴权失败。
如果确认该待测物体的二维图像信息与该用户脸部的二维图像信息匹配,则还不能确定该待测物体的身份合法,理由是:因为是对二维图像信息的判断与识别,如果利用该用户的照片同样可以识别成功。
接下来,该处理器16通过根据第二红外图像判断该待测物体是否立体物体,来避免上述利用照片等识别通过的情况。
在一些具体的实施方式中,该处理器16例如根据该第二红外图像能够获得深度信息,从而根据深度信息来判断该待测物体是否为立体物体。
如果该处理器16判断得知该待测物体不是立体物体时,则身份鉴权失败,流程结束。在此种情况下,就有可能是他人利用合法用户的照片或者视频等进行身份识别。
可选地,当该处理器16判断得知该待测物体是立体物体时,则确认该待测物体的身份合法,身份鉴权成功。
在对该待测物体进行第二次识别时,由于该处理器16只是判断该待测物体是不是立体物体即可,而无需对该待测物体的立体图像信息进行大量的分析与计算,从而可以降低功耗、减少感测时间、以及降低成本。
具体地,例如,当该处理器16确认该待测物体的二维图像信息与已注册用户脸部的二维图像信息的匹配系数大于或等于一预定阈值时,则可确认该待测物体的二维图像信息与已注册用户脸部的二维图像信息匹配。相对地,如果确认匹配系数小于该预定阈值时,则可确认该待测物体的二维图像信息与已注册用户脸部的二维图像信息不匹配。
在上述的实施方式中,该控制电路17控制第一投射器10先于第二投射器12工作。
可选地,所述处理器16在比对该待测物体的二维图像信息与预存的二维图像信息是否匹配的同时:所述控制电路17控制所述第二投射器12投射红外结构光到该待测物体,所述图像传感装置14感测该待测物体的第二红外图像。如此,能够更进一步减少感测时间,提升工作效率。
或,可变更地,当所述处理器16在比对该待测物体的二维图像信息与预存的二维图像信息是否匹配之前:所述控制电路17控制控制所述第一投射器10关闭,控制第二 投射器12开启,所述图像传感装置14感测该待测物体的第二红外图像。即,该处理器16在该图像传感装置14先后获得该第一红外图像与该第二红外图像之后,再开始执行对二维图像信息进行比对。
另外,可变更地,在其它实施方式中,所述控制电路17也可控制第二投射器12先于第一投射器10工作,并且在该图像传感装置14先后感测获得该第二红外图像和该第一红外图像之后,该处理器16再开始执行二维图像信息的比对工作。
又可变更地,在某些实施方式中,当该处理器16确认该待测物体的二维图像信息与预存的二维图像信息匹配时,该控制电路17开始控制该第二投射器12开启,该图像传感装置14获得该待测物体的第二红外图像。该处理器16再根据该第二红外图像判断该待测物体是否为立体物体。
在上述实施方式中,以面部识别为例,所述预存的二维图像信息包括物体面部的二维图像信息。
相应地,关于二维图像信息的比对,例如,该处理器16可以通过比对该待测物体的平面图片与预存的物体面部的平面图片来实现。
然而,本申请提出了用于二维图像信息比对的另一种实现方式。所述预存的二维图像信息包括面部特征信息。所述处理器16进一步包括对该待测物体进行面部特征信息提取,通过比对提取到的面部特征信息与预存的面部特征信息,来确认该待测物体的二维图像信息与预存的二维图像信息是否匹配。从而,相对于比对整幅图片来说,通过比对特征的方式能够进一步减少计算量,提高感测效率。
在一示例中,所述处理器16通过深度学习方法提取该待测物体的面部特征信息。该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
可变更地,在其它实施方式中,该处理器16也可提取鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞、鼻子的宽度、下巴的宽度等面部特征,或/和,鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴等中任意组合的距离信息。例如,鼻子和眼睛之间的距离信息。当然,所述面部特征信息并不局限于上面所列举的例子,也可为其它合适的特征信息。
本申请不限于上面所涉及的二维图像信息的比对方式,也可为其它合适的比对方式。
进一步地,该处理器16还用于对该第二红外图像进行立体特征信息的提取,并根据提取到的立体特征信息来判断所述待测物体是否为立体物体。
在一示例中,该处理器16通过深度学习方法提取该待测物体的立体人脸特征信息。该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
可变更地,在其它实施方式中,该处理器16也可提取鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞等面部特征中的任意一种或几种的立体尺寸信息。所述立体尺寸信息即为深度信息。当然,所述立体特征信息并不局限于上面所列举的例子,也可为其它合适的特征信息。
然,本申请并不限于上述立体物体的判断方式,例如,可变更地,在其它实施方式中,也可以根据第二红外图像,构建出立体图像信息,并与预存的立体图像信息进行比对,来判断该待测物体是不是立体物体。
由上述内容可知,上述实施方式的身份鉴权装置1能够节省感测时间、节省功耗、并能降低成本。
然,可变更地,在某些实施方式中,该处理器16还用于:当确认该待测物体是立体物体后,进一步判断该待测物体的立体信息是否符合人体的面部立体特征。
当该处理器16判断得知该待测物体的立体信息不符合人体的面部立体特征时,则身份鉴权失败。
可选地,当该处理器16确认该待测物体的二维图像信息与预存的二维图像信息匹配,且判断得知该待测物体的立体信息符合人体的面部立体特征时,则身份鉴权成功。
在另外的一些实施方式中,当进行身份鉴权时,该控制电路17控制该第二投射器12先于该第一投射器10工作,该处理器16用于根据该第二红外图像来判断该待测物体是否为立体物体,当判断得知该待测物体为立体物体时,所述处理器16接着根据第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
当所述处理器16确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
由于该处理器16执行对该待测物体是否为立体物体的判断所需消耗的功耗要小于执行对二维图像信息比对所需消耗的功耗,因此,当该处理器16先执行对该待测物体是否为立体物体的判断,并在判断得知该待测物体不是立体物体时,结束身份鉴权,相应地,该身份鉴权装置1的功耗消耗要相对变小。
可选地,当所述处理器16确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
可选地,所述处理器16在判断该待测物体是否为立体物体的同时:所述控制电路17控制所述第一投射器10投射红外泛光到该待测物体,所述图像传感装置14感测该待测物体的第一红外图像。如此,节省感测时间。
或,当所述处理器16在判断该待测物体是否为立体物体之前:所述控制电路17控制控制所述第二投射器12关闭,控制第一投射器10开启,所述图像传感装置14先后感测获得该待测物体的第二红外图像和第一红外图像。
另外,可变更地,所述控制电路17也可先控制该第一投射器10先于该第二投射器12工作,当该图像传感装置14先后获得该第一红外图像和第二红外图像之后,该处理器16再开始执行对该待测物体是否为立体物体的判断。
又可变更地,在某些实施方式中,当该处理器16判断得知该待测物体为立体物体时,该控制电路17控制该第一投射器10开启,相应地,该图像传感装置14感测到该待测物体的第一红外图像。接着,该处理器16再根据获得的该第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
可选地,该身份鉴权装置1进一步包括高速数据传送链路19,用于把图像传感装置14中表示该第一红外图像的信号和表示该第二红外图像的信号传送到该处理器16中进行处理。该高速数据传送链路19例如为移动行业处理器接口(Mobile Industry Processor Interface,MIPI)。
该身份鉴权装置1可用于运行上述本申请的身份鉴权方法。
请参阅图8,图8为本申请的电子设备的一实施方式的结构示意图。所述电子设备100例如但不局限于为消费性电子产品、家居式电子产品、车载式电子产品、金融终端产品等合适类型的电子产品。其中,消费性电子产品例如但不局限为手机、平板电脑、笔记本电脑、桌面显示器、电脑一体机等。家居式电子产品例如但不局限为智能门锁、电视、冰箱、穿戴式设备等。车载式电子产品例如但不局限为车载导航仪、车载DVD等。金融终端产品例如但不局限为ATM机、自助办理业务的终端等。所述电子设备100包括上述身份鉴权装置1。所述电子设备100根据所述身份鉴权装置1的身份鉴权结果来对应是否执行相应的功能。所述相应的功能例如但不局限于包括解锁、支付、启动预设的应用程序中的任意一种或几种。
在本实施方式中,以电子设备为手机为例进行说明。该手机例如为全面屏的手机,该身份识别装置1例如设置在手机的正面顶端。当然,该手机也并不限制于全面屏手机。
例如,当用户需要进行开机解锁时,抬起手机或触摸手机的屏幕都可以起到唤醒该 身份鉴权装置1的作用。当该身份鉴权装置1被唤醒之后,识别该手机前方的用户是合法的用户时,则解锁屏幕。
可见,由于该电子设备100应用了该身份鉴权装置1,该电子设备1能够实现对待测物体的较远距离的感测,且感测响应速度较快。
在本说明书的描述中,参考术语“一个实施方式”、“某些实施方式”、“示意性实施方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合所述实施方式或示例描述的具体特征、结构、材料或特点包含于本申请的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可在任何的一个或多个实施方式或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施方式,可以理解的是,上述实施方式是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施方式进行变化、修改、替换和变型。

Claims (80)

  1. 一种身份鉴权方法,包括:
    步骤S1:投射红外泛光至一待测物体上,感测该待测物体的第一红外图像;
    步骤S2:投射红外结构光至该待测物体上,感测该待测物体的第二红外图像;
    步骤S3:根据该第一红外图像与该第二红外图像,确认该待测物体的身份是否合法。
  2. 如权利要求1所述的身份鉴权方法,其特征在于:步骤S1与步骤S2分时进行。
  3. 如权利要求2所述的身份鉴权方法,其特征在于:步骤S1先于步骤S2进行;或,步骤S2先于步骤S1进行。
  4. 如权利要求3所述的身份鉴权方法,其特征在于:当步骤S1先于步骤S2进行时,所述步骤S3包括:
    子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则执行子步骤S32,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败;
    子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体。
  5. 如权利要求4所述的身份鉴权方法,其特征在于:当子步骤S32判断得知该待测物体不是立体物体时,则身份鉴权失败。
  6. 如权利要求5所述的身份鉴权方法,其特征在于:当子步骤S32判断得知该待测物体为立体物体时,则身份鉴权成功。
  7. 如权利要求4所述的身份鉴权方法,其特征在于:所述子步骤S31与步骤S2同时进行,或,步骤S2先于子步骤S31进行。
  8. 如权利要求3所述的身份鉴权方法,其特征在于:当步骤S2先于步骤S1进行时,所述步骤S3包括:
    子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体,当判断得知该待测物体为立体物体时,则执行步骤S31,否则,当判断得知该待测物体不是立体物体时,则身份鉴权失败;
    子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  9. 如权利要求8所述的身份鉴权方法,其特征在于:当子步骤S31确认该待测物体 的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  10. 如权利要求9所述的身份鉴权方法,其特征在于:当子步骤S31确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
  11. 如权利要求8所述的身份鉴权方法,其特征在于:所述子步骤S32与步骤S1同时进行,或步骤S1先于子步骤S32进行。
  12. 如权利要求3所述的身份鉴权方法,其特征在于:当步骤S1先于步骤S2进行时,所述步骤S3包括:
    子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则执行步骤S2,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败;和
    子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体。
  13. 如权利要求12所述的身份鉴权方法,其特征在于:当子步骤S32判断得知该待测物体不是立体物体时,则身份鉴权失败。
  14. 如权利要求13所述的身份鉴权方法,其特征在于:当子步骤S32判断得知该待测物体为立体物体时,则身份鉴权成功。
  15. 如权利要求3所述的身份鉴权方法,其特征在于:当步骤S1先于步骤S2进行时,所述步骤S3包括:
    子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体,当判断得知该待测物体为立体物体时,则执行子步骤S31,否则,当判断得知该待测物体不是立体物体时,则身份鉴权失败;和
    子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  16. 如权利要求15所述的身份鉴权方法,其特征在于:当子步骤S31比对得知该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  17. 如权利要求16所述的身份鉴权方法,其特征在于:当子步骤S31比对得知该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
  18. 如权利要求3所述的身份鉴权方法,其特征在于:当步骤S2先于步骤S1进行时,所述步骤S3包括:
    子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体, 当判断得知该待测物体为立体物体时,则执行步骤S1,否则,当判断得知该待测物体不是立体物体时,则身份鉴权失败;
    子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  19. 如权利要求18所述的身份鉴权方法,其特征在于:当子步骤S31确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  20. 如权利要求19所述的身份鉴权方法,其特征在于:当子步骤S31确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
  21. 如权利要求3所述的身份鉴权方法,其特征在于:当步骤S2先于步骤S1进行时,所述步骤S3包括:
    子步骤S31:根据步骤S1获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则执行子步骤S32,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败;
    子步骤S32:根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体。
  22. 如权利要求21所述的身份鉴权方法,其特征在于:当子步骤S32判断得知该待测物体不是立体物体时,则身份鉴权失败。
  23. 如权利要求22所述的身份鉴权方法,其特征在于:当子步骤S32判断得知该待测物体是立体物体时,则身份鉴权成功。
  24. 如权利要求4-23中任意一项所述的身份鉴权方法,其特征在于:所述预存的二维图像信息包括物体面部的二维图像信息。
  25. 如权利要求24所述的身份鉴权方法,其特征在于:所述物体面部的二维图像信息为人体面部的二维图像信息。
  26. 如权利要求25所述的身份鉴权方法,其特征在于:在子步骤S32中,根据步骤S2获得的第二红外图像,判断该待测物体是否为立体物体。
  27. 如权利要求26所述的身份鉴权方法,其特征在于:当子步骤S31中确认该待测物体的二维图像信息与预存的人体面部的二维图像信息匹配,且子步骤S32中判断得知该待测物体为立体物体时,则确认该待测物体的身份合法,身份鉴权成功。
  28. 如权利要求25所述的身份鉴权方法,其特征在于:所述预存的二维图像信息包括面部特征信息,所述子步骤S31进一步包括对待测物体进行面部特征信息提取,通过 比对提取到的面部特征信息与预存的面部特征信息,来确认该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  29. 如权利要求28所述的身份鉴权方法,其特征在于:在子步骤S31中,通过深度学习方法提取该待测物体的面部特征信息。
  30. 如权利要求29所述的身份鉴权方法,其特征在于:该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
  31. 如权利要求28所述的身份鉴权方法,其特征在于:所述面部特征信息包括鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞、鼻子的宽度、下巴的宽度中的任意一种或几种,或/和,鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴中任意组合的距离信息。
  32. 如权利要求28所述的身份鉴权方法,其特征在于:所述子步骤S32进一步包括:对该第二红外图像进行立体特征信息的提取,并根据提取到的立体特征信息来判断所述待测物体是否为立体物体。
  33. 如权利要求32所述的身份鉴权方法,其特征在于:在子步骤S32中,通过深度学习方法提取该待测物体的立体人脸特征信息。
  34. 如权利要求33所述的身份鉴权方法,其特征在于:该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
  35. 如权利要求32所述的身份鉴权方法,其特征在于:所述立体特征信息包括鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞中的任意一种或几种的立体尺寸信息。
  36. 如权利要求1所述的身份鉴权方法,其特征在于:所述红外泛光的波长范围为[920,960]纳米,和/或,所述红外结构光的波长范围为[920,960]纳米。
  37. 如权利要求1所述的身份鉴权方法,其特征在于:所述红外泛光的波长为940纳米、或/和,所述红外结构光的波长为940纳米。
  38. 一种身份鉴权装置,包括:
    第一投射器,用于投射红外泛光至一待测物体;
    第二投射器,用于投射红外结构光至该待测物体;
    图像传感装置,用于捕获由该待测物体反射回来的红外泛光、感测该待测物体的第一红外图像,以及用于捕获由该待测物体反射回来的红外结构光、感测该待测物体的第二红外图像;
    处理器,用于根据该第一红外图像和第二红外图像,确认所述待测物体的身份是否合法。
  39. 如权利要求38所述的身份鉴权装置,其特征在于:所述身份鉴权装置进一步包括控制电路,所述控制电路用于控制所述第一投射器和所述第二投射器分时工作。
  40. 如权利要求39所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路用于控制所述第一投射器先于所述第二投射器工作;或,所述控制电路用于控制所述第二投射器先于所述第一投射器工作。
  41. 如权利要求40所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路控制所述第一投射器先于所述第二投射器工作,所述处理器用于根据所述第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,所述处理器接着根据所述第二红外图像来判断该待测物体是否为立体物体,否则,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  42. 如权利要求41所述的身份鉴权装置,其特征在于:当该处理器判断得知该待测物体不是立体物体时,则身份鉴权失败。
  43. 如权利要求42所述的身份鉴权装置,其特征在于:当该处理器判断得知该待测物体为立体物体时,则身份鉴权成功。
  44. 如权利要求41所述的身份鉴权装置,其特征在于:所述处理器在根据所述第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配的同时:所述控制电路控制所述第二投射器投射红外结构光到该待测物体,所述图像传感装置感测该待测物体的第二红外图像;或,当所述处理器在比对该待测物体的二维图像信息与预存的二维图像信息是否匹配之前:所述控制电路控制控制所述第一投射器关闭,控制第二投射器开启,所述图像传感装置感测该待测物体的第二红外图像。
  45. 如权利要求40所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路控制所述第二投射器先于所述第一投射器工作,所述处理器用于根据所述第二红外图像来判断该待测物体是否为立体物体,当判断得知该待测物体为立体物体时,所述处理器接着根据所述第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  46. 如权利要求45所述的身份鉴权装置,其特征在于:当所述处理器确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  47. 如权利要求26所述的身份鉴权装置,其特征在于:当所述处理器确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
  48. 如权利要求45所述的身份鉴权装置,其特征在于:所述处理器在根据所述第二红外图像来判断该待测物体是否为立体物体的同时:所述控制电路控制所述第一投射器投射红外泛光到该待测物体,所述图像传感装置感测该待测物体的第一红外图像;或,当所述处理器在判断该待测物体是否为立体物体之前:所述控制电路控制所述第二投射器关闭,控制第一投射器开启,所述图像传感装置感测该待测物体的第一红外图像。
  49. 如权利要求40所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路控制所述第一投射器先于所述第二投射器工作,所述处理器用于根据所述第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,当确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败,当确认该待测物体的二维图像信息与预存的二维图像信息匹配时,所述控制电路接着控制第一投射器关闭,控制第二投射器开启,所述图像传感装置感测该待测物体的第二红外图像;所述处理器接着根据所述第二红外图像来判断该待测物体是否为立体物体。
  50. 如权利要求49所述的身份鉴权装置,其特征在于:当所述处理器判断得知该待测物体不是立体物体时,则身份鉴权失败。
  51. 如权利要求50所述的身份鉴权装置,其特征在于:当所述处理器判断得知该待测物体为立体物体时,则身份鉴权成功。
  52. 如权利要求40所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路控制所述第一投射器先于所述第二投射器工作,并在分别获得第一红外图像和第二红外图像后,所述处理器用于根据所述第二红外图像来判断该待测物体是否为立体物体,当判断得知该待测物体不是立体物体时,则身份鉴权失败,当判断得知该待测物体是立体物体时,则再根据该第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  53. 如权利要求52所述的身份鉴权装置,其特征在于:当该处理器确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  54. 如权利要求53所述的身份鉴权装置,其特征在于:当该处理器确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
  55. 如权利要求40所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路控制所述第二投射器先于所述第一投射器工作,所述处理器用于根据所述第二红 外图像来判断该待测物体是否为立体物体,当判断得知该待测物体不是立体物体时,则身份鉴权失败,当判断得知该待测物体为立体物体时,所述控制电路接着控制第二投射器关闭,控制第一投射器开启,所述图像传感装置感测该待测物体的第一红外图像;所述处理器接着根据所述第一红外图像来比对该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  56. 如权利要求55所述的身份鉴权装置,其特征在于:当所述处理器确认该待测物体的二维图像信息与预存的二维图像信息不匹配时,则身份鉴权失败。
  57. 如权利要求56所述的身份鉴权装置,其特征在于:当所述处理器确认该待测物体的二维图像信息与预存的二维图像信息匹配时,则身份鉴权成功。
  58. 如权利要求40所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路控制所述第二投射器先于所述第一投射器工作,并在分别获得第二红外图像和第一红外图像后,所述处理器用于根据获得的第一红外图像,比对该待测物体的二维图像信息与预存的二维图像信息是否匹配,如果确认该待测物体的二维图像信息与预存的二维图像信息不匹配,则身份鉴权失败,如果确认该待测物体的二维图像信息与预存的二维图像信息匹配,则再根据获得的第二红外图像,判断该待测物体是否为立体物体。
  59. 如权利要求58所述的身份鉴权装置,其特征在于:当该处理器判断得知该待测物体不是立体物体时,则身份鉴权失败。
  60. 如权利要求59所述的身份鉴权装置,其特征在于:当该处理器判断得知该待测物体是立体物体时,则身份鉴权成功。
  61. 如权利要求41-60中任意一项所述的身份鉴权装置,其特征在于:所述预存的二维图像信息包括物体面部的二维图像信息。
  62. 如权利要求61所述的身份鉴权装置,其特征在于:所述预存的二维图像信息为人体面部的二维图像信息。
  63. 如权利要求62所述的身份鉴权装置,其特征在于:该处理器根据该第二红外图像判断该待测物体是否为立体物体。
  64. 如权利要求63所述的身份鉴权装置,其特征在于:当该处理器确认该待测物体的二维图像信息与预存的人体面部的二维图像信息匹配,且判断得知该待测物体为立体物体时,则确认该待测物体的身份合法,身份鉴权成功。
  65. 如权利要求62所述的身份鉴权装置,其特征在于:所述预存的二维图像信息包括面部特征信息,所述处理器进一步用于对待测物体的面部特征信息进行提取,通过比 对提取到的面部特征信息与预存的面部特征信息,来确认该待测物体的二维图像信息与预存的二维图像信息是否匹配。
  66. 如权利要求65所述的身份鉴权装置,其特征在于:该处理器通过深度学习方法提取该待测物体的面部特征信息。
  67. 如权利要求66所述的身份鉴权装置,其特征在于:该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
  68. 如权利要求65所述的身份鉴权装置,其特征在于:所述面部特征信息包括鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞、鼻子的宽度、下巴的宽度中的任意一种或几种,或/和,鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴中任意组合的距离信息。
  69. 如权利要求65所述的身份鉴权装置,其特征在于:所述处理器进一步用于对该第二红外图像进行立体特征信息的提取,并根据提取到的立体特征信息来判断所述待测物体是否为立体物体。
  70. 如权利要求69所述的身份鉴权装置,其特征在于:该处理器通过深度学习方法提取该待测物体的立体人脸特征信息。
  71. 如权利要求70所述的身份鉴权装置,其特征在于:该深度学习方法包括:建立深度卷积神经网络模型,使用预定数量的人脸照片训练该深度卷积神经网络模型,根据训练好的该深度卷积神经网络模型提取人脸的特征参数。
  72. 如权利要求69所述的身份鉴权装置,其特征在于:所述立体特征信息包括鼻子、眼睛、嘴巴、眉毛、额头、颧骨、下巴、脸庞中的任意一种或几种的立体尺寸信息。
  73. 如权利要求38所述的身份鉴权装置,其特征在于:所述红外泛光的波长范围为[920,960]纳米,和/或,所述红外结构光的波长范围为[920,960]纳米。
  74. 如权利要求38所述的身份鉴权装置,其特征在于:所述红外泛光的波长为940纳米、或/和,所述红外结构光的波长为940纳米。
  75. 如权利要求39所述的身份鉴权装置,其特征在于:当进行身份鉴权时,所述控制电路用于控制该第一投射器、第二投射器、和该图像传感装置协同工作。
  76. 如权利要求38所述的身份鉴权装置,其特征在于:该身份鉴权装置进一步包括高速数据传送链路,用于把图像传感装置中表示该第一红外图像的信号和表示该第二红外图像的信号传送到该处理器中进行处理。
  77. 一种电子设备,包括权利要求38-76中任意一项所述的身份鉴权装置。
  78. 如权利要求77所述的电子设备,其特征在于:所述电子设备用于根据所述身份鉴权装置的身份鉴权结果来对应是否执行相应的功能。
  79. 如权利要求78所述的电子设备,其特征在于:所述相应的功能包括解锁、支付、启动预设的应用程序中的任意一种或几种。
  80. 如权利要求77所述的电子设备,其特征在于:所述电子设备包括消费性电子产品、家居式电子产品、车载式电子产品、金融终端产品中的任意一种或几种。
PCT/CN2018/083614 2018-04-18 2018-04-18 身份鉴权方法、身份鉴权装置、和电子设备 WO2019200571A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2018/083614 WO2019200571A1 (zh) 2018-04-18 2018-04-18 身份鉴权方法、身份鉴权装置、和电子设备
CN201880000325.6A CN108521821A (zh) 2018-04-18 2018-04-18 身份鉴权方法、身份鉴权装置、和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/083614 WO2019200571A1 (zh) 2018-04-18 2018-04-18 身份鉴权方法、身份鉴权装置、和电子设备

Publications (1)

Publication Number Publication Date
WO2019200571A1 true WO2019200571A1 (zh) 2019-10-24

Family

ID=63428700

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/083614 WO2019200571A1 (zh) 2018-04-18 2018-04-18 身份鉴权方法、身份鉴权装置、和电子设备

Country Status (2)

Country Link
CN (1) CN108521821A (zh)
WO (1) WO2019200571A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635539B (zh) * 2018-10-30 2022-10-14 荣耀终端有限公司 一种人脸识别方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130236066A1 (en) * 2012-03-06 2013-09-12 Gary David Shubinsky Biometric identification, authentication and verification using near-infrared structured illumination combined with 3d imaging of the human ear
CN105574518A (zh) * 2016-01-25 2016-05-11 北京天诚盛业科技有限公司 人脸活体检测的方法和装置
CN107105217A (zh) * 2017-04-17 2017-08-29 深圳奥比中光科技有限公司 多模式深度计算处理器以及3d图像设备
CN107609383A (zh) * 2017-10-26 2018-01-19 深圳奥比中光科技有限公司 3d人脸身份认证方法与装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017113286A1 (zh) * 2015-12-31 2017-07-06 深圳先进技术研究院 一种认证方法及装置
CN106991377B (zh) * 2017-03-09 2020-06-05 Oppo广东移动通信有限公司 结合深度信息的人脸识别方法、人脸识别装置和电子装置
CN107277053A (zh) * 2017-07-31 2017-10-20 广东欧珀移动通信有限公司 身份验证方法、装置及移动终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130236066A1 (en) * 2012-03-06 2013-09-12 Gary David Shubinsky Biometric identification, authentication and verification using near-infrared structured illumination combined with 3d imaging of the human ear
CN105574518A (zh) * 2016-01-25 2016-05-11 北京天诚盛业科技有限公司 人脸活体检测的方法和装置
CN107105217A (zh) * 2017-04-17 2017-08-29 深圳奥比中光科技有限公司 多模式深度计算处理器以及3d图像设备
CN107609383A (zh) * 2017-10-26 2018-01-19 深圳奥比中光科技有限公司 3d人脸身份认证方法与装置

Also Published As

Publication number Publication date
CN108521821A (zh) 2018-09-11

Similar Documents

Publication Publication Date Title
WO2019200574A1 (zh) 身份鉴权方法、身份鉴权装置、和电子设备
US11092998B1 (en) Eyewear device with fingerprint sensor for user input
WO2019200572A1 (zh) 身份鉴权方法、身份鉴权装置、和电子设备
US9607138B1 (en) User authentication and verification through video analysis
US11551481B2 (en) Living body detection method and apparatus, electronic device, storage medium, and related system to which living body detection method is applied
CN108664783B (zh) 基于虹膜识别的识别方法和支持该方法的电子设备
US9158904B1 (en) Facial recognition
US20210049391A1 (en) Systems and methods for facial liveness detection
CN107077589B (zh) 基于图像的生物计量中的面部假冒检测
AU2022203880B2 (en) Methods and systems for determining user liveness and verifying user identities
EP3761222B1 (en) Living body detection method and apparatus, electronic device, storage medium and related system using living body detection method
US11115408B2 (en) Methods and systems for determining user liveness and verifying user identities
US10769415B1 (en) Detection of identity changes during facial recognition enrollment process
US20210027080A1 (en) Spoof detection by generating 3d point clouds from captured image frames
WO2020243969A1 (zh) 人脸识别的装置、方法和电子设备
WO2019200573A1 (zh) 身份鉴权方法、身份鉴权装置、和电子设备
US20160274670A1 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
WO2019200576A1 (zh) 身份鉴权方法、身份鉴权装置、和电子设备
US11244182B2 (en) Spoof detection by estimating subject motion from captured image frames
WO2019200571A1 (zh) 身份鉴权方法、身份鉴权装置、和电子设备
KR20130133676A (ko) 카메라를 통한 얼굴인식을 이용한 사용자 인증 방법 및 장치
WO2019200575A1 (zh) 身份鉴权方法、身份鉴权装置、和电子设备
CN209168110U (zh) 身份鉴权装置和电子设备
EP3827409B1 (en) Autocalibration for multiple cameras using near-infrared illuminators
RU2815689C1 (ru) Способ, терминал и система для биометрической идентификации

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18915079

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18915079

Country of ref document: EP

Kind code of ref document: A1