CN109145549A - 身份鉴权方法、身份鉴权装置及电子设备 - Google Patents

身份鉴权方法、身份鉴权装置及电子设备 Download PDF

Info

Publication number
CN109145549A
CN109145549A CN201810630855.0A CN201810630855A CN109145549A CN 109145549 A CN109145549 A CN 109145549A CN 201810630855 A CN201810630855 A CN 201810630855A CN 109145549 A CN109145549 A CN 109145549A
Authority
CN
China
Prior art keywords
image
under test
object under
identification authentication
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810630855.0A
Other languages
English (en)
Inventor
田浦延
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Fushi Technology Co Ltd
Original Assignee
Shenzhen Fushi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Fushi Technology Co Ltd filed Critical Shenzhen Fushi Technology Co Ltd
Priority to CN201810630855.0A priority Critical patent/CN109145549A/zh
Publication of CN109145549A publication Critical patent/CN109145549A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本申请公开了一种身份鉴权方法。该身份鉴权方法包括:步骤S1:获取待测物体的二维图像;步骤S2:获取该待测物体的第一三维图像;步骤S3:将该二维图像与该第一三维图像进行重构,获得该待测物体的第二三维图像;和步骤S4:根据该第二三维图像判断该待测物体的身份是否合法。该身份鉴权方法的识别率较高。

Description

身份鉴权方法、身份鉴权装置及电子设备
技术领域
本申请涉及一种身份鉴权方法、身份鉴权装置及电子设备。
背景技术
随着科技的发展,越来越多的场合开始采用各种传感技术对物体进行识别。例如,指纹识别技术、虹膜识别技术等。然,指纹识别技术与虹膜识别技术等都有其各自的局限性,例如,指纹识别技术并不能进行较远距离的感测,虹膜识别技术的感测响应速度较慢等。
因此,有必要提供一种新型的传感技术,用于身份鉴权。
发明内容
本申请实施方式旨在至少解决现有技术中存在的技术问题之一。为此,本申请实施方式需要提供一种身份鉴权方法、身份鉴权装置及电子设备。
首先,本申请提供一种身份鉴权方法,包括:
步骤S1:获取待测物体的二维图像;
步骤S2:获取该待测物体的第一三维图像;
步骤S3:将该二维图像与该第一三维图像进行重构,获得该待测物体的第二三维图像;和
步骤S4:根据该第二三维图像判断该待测物体的身份是否合法。
在某些实施方式中,该二维图像的分辨率大于该第一三维图像的分辨率,该第二三维图像的分辨率大于该第一三维图像的分辨率。
在某些实施方式中,该第二三维图像的分辨率与该二维图像的分辨率相同。
在某些实施方式中,该第二三维图像的深度信息多于该第一三维图像的深度信息。
在某些实施方式中,该二维图像为彩色图或灰度图,该第二三维图像包括该二维图像的彩色信息以及灰度信息,或者,当该二维图像为灰度图时,该第二三维图像包括该二维图像的灰度信息。
在某些实施方式中,步骤S1包括:通过投射红外泛光至该待测物体,并捕获由该待测物体反射回来的红外泛光,感测获得该待测物体的二维图像,或/和,利用RGB图像传感器感测获得该待测物体的二维图像。
在某些实施方式中,步骤S2包括:
子步骤S21:投射空间结构光至该待测物体,并感测获得该待测物体的红外图像;和
子步骤S22:根据该红外图像构建出该待测物体的第一三维图像;
或,步骤S2包括:
子步骤S21:投射时间结构光至该待测物体,并感测获得该待测物体的红外图像;和
子步骤S22:根据分时测距原理以及该红外图像构建出该待测物体的第一三维图像;或,步骤S2包括:
子步骤S21:利用设置在不同位置的至少二摄像头分别获得该待测物体的二维图像;和
子步骤S22:根据该至少二摄像头获得的二维图像来构建出该待测物体的第一三维图像。
在某些实施方式中,当子步骤S21中是投射空间结构光至该待测物体时,在子步骤S22中,从该红外图像中提取出空间结构光的图案信息,并根据提取到的空间结构光的图案信息构建出该第一三维图像。
在某些实施方式中,在步骤S3中,通过映射的方式,将该第一三维图像与该二维图像转换为在同一坐标系下表征的图像信息,并根据该第一三维图像上已知的深度信息,通过插值运算得到新的深度信息。
在某些实施方式中,该二维图像的横纵坐标信息多于该第一三维图像的横纵坐标信息,经坐标系转换后,该第一三维图像上已知的深度信息分别对应一横纵坐标点,且根据该已知的深度信息,通过插值运算得到未带有已知深度信息的横纵坐标点所对应的深度信息。
在某些实施方式中,当步骤S1中获得的该二维图像为灰度图时,在步骤S3中,根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息、以及横纵坐标信息重构出该第二三维图像;当步骤S1中获得的该二维图像为包括彩色图时,在步骤S3中,根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息和彩色信息、以及横纵坐标信息重构出该第二三维图像。
在某些实施方式中,在步骤S3中,将该第一三维图像向该二维图像所在的坐标系中进行映射,或,将该二维图像向该第一三维图像所在的坐标系中进行映射。
在某些实施方式中,该红外泛光的波长为940纳米。
在某些实施方式中,该空间结构光或时间结构光的波长为940纳米。
在某些实施方式中,在步骤S4中,通过比对该第二三维图像与预设的三维图像模板是否匹配来确认该待测物体的身份是否合法。
在某些实施方式中,当比对得知该第二三维图像与预设的三维图像模板不匹配时,则确认该待测物体的身份非法,身份鉴权失败;当比对得知该第二三维图像与预设的三维图像模板匹配时,则确认该待测物体的身份合法,身份鉴权成功。
在某些实施方式中,该预设的三维图像模板为三维人脸图像模板,该身份鉴权方法用于立体人脸识别。
本申请的身份鉴权方法通过将该待测物体的二维图像与第一三维图像进行重构,来获得该待测物体的第二三维图像。相应地,该第二三维图像的信息量较该第一三维图像的信息量增多,从而,该第二三维图像可以较真实地反应该待测物体的模样。进而,当利用该第二三维图像来判断该待测物体的身份是否合法时,识别率会得到提升。
本申请还提一种身份鉴权装置,包括:
第一获取模块,用于获取待测物体的二维图像;
第二获取模块,用于获取该待测物体的第一三维图像;
处理模块,用于将该待测物体的二维图像和第一三维图像进行重构,获得该待测物体的第二三维图像;和
识别模块,用于根据该第二三维图像判断该待测物体的身份是否合法。
在某些实施方式中,该二维图像的分辨率大于该第一三维图像的分辨率,该第二三维图像的分辨率大于该第一三维图像的分辨率。
在某些实施方式中,该第二三维图像的分辨率与该二维图像的分辨率相同。
在某些实施方式中,该第二三维图像的深度信息多于该第一三维图像的深度信息。
在某些实施方式中,该二维图像为彩色图或灰度图,当该二维图像为彩色图时,该第二三维图像包括该二维图像的彩色信息以及灰度信息,或者,当该二维图像为灰度图时,该第二三维图像包括该二维图像的灰度信息。
在某些实施方式中,该第一获取模块包括第一投射器和红外图像传感器,该第一投射器用于投射红外泛光至该待测物体,该红外图像传感器用于捕获由该待测物体反射回来的红外泛光,感测获得该待测物体的二维图像;或/和,该第一获取模块包括RGB图像传感器,用于感测获得该待测物体的二维图像。
在某些实施方式中,该第二获取模块包括第二投射器、红外图像传感器、和处理单元;该第二投射器用于投射空间结构光至该待测物体,该红外图像传感器用于捕获由该待测物体反射回来的光线,感测获得该待测物体的红外图像,该处理单元根据该红外图像构建出该待测物体的第一三维图像;或者,该第二投射器用于投射时间结构光至该待测物体,该红外图像传感器用于捕获由该待测物体反射回来的光线,根据飞时测距原理获得时间信息以及感测获得该待测物体的红外图像,该处理单元根据获得的时间信息以及该红外图像构建出该待测物体的第一三维图像;或者,该第二获取模块包括至少二摄像头,该至少二摄像头设置的位置不同,用于分别获取该待测物体的二维图像,该处理单元根据该至少二摄像头获得的二维图像来构建出该待测物体的第一三维图像。
在某些实施方式中,当该第二获取模块通过投射空间结构光至该待测物体时,该处理单元从该红外图像中提取出空间结构光的图案信息,并根据提取到的空间结构光的图案信息构建出该第一三维图像。
在某些实施方式中,通过映射的方式,该处理单元将该第一三维图像与该二维图像转换为在同一坐标系下表征的图像信息,并根据该第一三维图像上已知的深度信息,通过插值运算得到新的深度信息。
在某些实施方式中,该二维图像的横纵坐标信息多于该第一三维图像的横纵坐标信息,经坐标系转换后,该第一三维图像上已知的深度信息分别对应一横纵坐标点,且根据该已知的深度信息,该处理单元通过插值运算得到未带有已知深度信息的横纵坐标点所对应的深度信息。
在某些实施方式中,该第二三维图像包括该已知的深度信息、该新的深度信息、以及该二维图像上的灰度信息。
在某些实施方式中,当该第一获取模块获得的该二维图像为灰度图时,该处理单元根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息、以及横纵坐标信息重构出该第二三维图像;当该第一获取模块获得的该二维图像为彩色图时,该处理单元根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息和彩色信息、以及横纵坐标信息重构出该第二三维图像。
在某些实施方式中,该处理单元将该第一三维图像向该二维图像所在的坐标系中进行映射,或,该处理单元将该二维图像向该第一三维图像所在的坐标系中进行映射。
在某些实施方式中,该红外泛光的波长为940纳米。
在某些实施方式中,该空间结构光或时间结构光的波长为940纳米。
在某些实施方式中,该身份鉴权装置进一步包括存储器,该存储器中预设有三维图像模板,该识别模块通过比对该第二三维图像与预设的三维图像模板是否匹配来确认该待测物体的身份是否合法。
在某些实施方式中,当该识别模块比对得知该第二三维图像与预设的三维图像模板不匹配时,则确认该待测物体的身份非法,身份鉴权失败;当该识别模块比对得知该第二三维图像与预设的三维图像模板匹配时,则确认该待测物体的身份合法,身份鉴权成功。
在某些实施方式中,该预设的三维图像模板为三维人脸图像模板,该身份鉴权装置用于立体人脸识别。
在某些实施方式中,该身份鉴权装置进一步包括存储器,该存储器中预设有三维图像模板,该识别模块通过比对该第二三维图像与预设的三维图像模板是否匹配来确认该待测物体的身份是否合法。
在某些实施方式中,当该识别模块比对得知该第二三维图像与预设的三维图像模板不匹配时,则确认该待测物体的身份非法,身份鉴权失败。
在某些实施方式中,当该识别模块比对得知该第二三维图像与预设的三维图像模板匹配时,则确认该待测物体的身份合法,身份鉴权成功。
在某些实施方式中,该预设的三维图像模板为三维人脸图像模板,该身份鉴权装置用于立体人脸识别。
本申请的身份鉴权装置通过将该待测物体的二维图像与第一三维图像进行重构,来获得该待测物体的第二三维图像。相应地,该第二三维图像的信息量较该第一三维图像的信息量增多,从而,该第二三维图像可以较真实地反应该待测物体的模样。进而,该识别模块对该待测物体进行身份鉴权时的识别率会得到提升。
本申请还提供一种电子设备,包括上述中任意一项所述的身份鉴权装置。
在某些实施方式中,所述电子设备用于根据该身份鉴权装置的鉴权结果来对应控制是否执行相应的功能。
在某些实施方式中,所述相应的功能包括解锁、支付、启动预存的应用程序中的任意一种或几种。
由于该电子设备包括上述的身份鉴权装置,因此,该电子设备的用户体验能够得到提升。
本申请实施方式的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请实施方式的实践了解到。
附图说明
本申请实施方式的上述和/或附加的方面和优点从结合下面附图对实施方式的描述中将变得明显和容易理解,其中:
图1为本申请的身份鉴权方法一实施方式的流程示意图。
图2为环境光的辐射强度与波长之间的关系示意图。
图3为第一三维图像与二维图像的示意图。
图4为图3所示一块最小单元区域的映射图,映射关系为从二维图像到第一三维图像进行映射。
图5为图3所示一块最小单元区域的映射图,映射关系为从第一三维图像到二维图像进行映射。
图6是本申请的身份鉴权装置第一实施方式的结构框图。
图7是本申请的身份鉴权装置第二实施方式的结构框图。
图8是本申请的身份鉴权装置第三实施方式的结构框图。
图9是本申请的电子设备一实施方式的结构示意图。
具体实施方式
下面详细描述本申请的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本申请,而不能理解为对本申请的限制。
在本申请的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接或可以相互通信;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
下文的公开提供了许多不同的实施方式或例子用来实现本申请的不同结构。为了简化本申请的公开,下文中对特定例子的部件和设定进行描述。当然,它们仅仅为示例,并且目的不在于限制本申请。此外,本申请可以在不同例子中重复参考数字和/或参考字母,这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施方式和/或设定之间的关系。
进一步地,所描述的特征、结构可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员应意识到,没有所述特定细节中的一个或更多,或者采用其它的结构、组元等,也可以实践本申请的技术方案。在其它情况下,不详细示出或描述公知结构或者操作以避免模糊本申请。
更进一步地,需要提前说明的是,本申请的说明书以及权利要求书中涉及的步骤编号S1、S2、S3、S4、S21、S22只是为了清楚区分各步骤,并不代表步骤执行的先后顺序。
请参阅图1,图1为本申请的身份鉴权方法的一实施方式的流程示意图。该身份鉴权方法包括:
步骤S1:获取待测物体的二维图像;
步骤S2:获取该待测物体的第一三维图像;
步骤S3:将该二维图像与该第一三维图像进行重构,获得该待测物体的第二三维图像;和
步骤S4:根据该第二三维图像判断该待测物体的身份是否合法。
本申请的身份鉴权方法通过将该待测物体的二维图像与第一三维图像进行重构,来获得该待测物体的第二三维图像。相应地,该第二三维图像的信息量较该第一三维图像的信息量增多,从而,该第二三维图像可以较真实地反应该待测物体的模样。进而,当利用该第二三维图像来判断该待测物体的身份是否合法时,识别率会得到提升。
该待测物体例如为人脸,当然,该待测物体也可为人体其它合适的部位或者其它合适的生物体或非生物体或其中任意几者的组合。
该二维图像的分辨率大于该第一三维图像的分辨率。例如,该二维图像的分辨率为100万,该第一三维图像的分辨率为1万。
相应地,在步骤S3中,通过将该二维图像与该第一三维图像进行重构获得该第二三维图像,该第二三维图像的分辨率能够对应得到提高,因此,该第二三维图像的分辨率大于该第一三维图像的分辨率。该第二三维图像的分辨率例如也可以达到100万。
术语“第一三维图像”,如在本专利申请文件中是指表示待测物体表面的3D坐标集。术语“第二三维图像”,如在本专利申请文件中可以是指表示待测物体表面的3D坐标集。其中,该第二三维图像中的坐标点的数量多于该第一三维图像中的坐标点的数量,每一坐标点包括横坐标(X)、纵坐标(Y)、和深度信息(Z)。因此,该第二三维图像的深度信息多于该第一三维图像的深度信息。
可选地,该第二三维图像除了包括表示待测物体表面的3D坐标集外,其例如还可以包括该二维图像的灰度信息。
进一步地,当该二维图像为彩色图时,该第二三维图像例如进一步包括该二维图像的彩色信息。
可见,经重构后的第二三维图像相比第一三维图像具有更多的信息,因此,该第二三维图像更能较真实地反应该待测物体的模样。从而,当步骤S4中,根据该第二三维图像判断该待测物体的身份是否合法时,识别率会得到提升。
在步骤S1中,例如利用RGB图像传感器感测获得该待测物体的二维图像。又或者,例如利用红外泛光灯投射红外泛光至该待测物体,并利用红外图像传感器捕获由该待测物体反射回来的红外泛光,感测获得该待测物体的二维图像。又或者,将RGB图像传感的方式与投射红外泛光执行传感的方式进行结合,来执行对待测物体的二维图像感测。具体地,例如,在环境光线充足的情况下,采用RGB图像传感的方式进行感测,而在环境光线不足的情况下,采用投射红外泛光执行传感的方式进行感测。
其中,利用RGB图像传感器拍摄得到的二维图像一般被称为彩色图,而采用投射红外泛光、利用红外图像传感器拍摄得到的二维图像一般被称为灰度图。
所述彩色图一般包括待测物体表面的彩色信息,而所述灰度图并不具有彩色信息。
相应地,当该二维图像为彩色图时,该第二三维图像包括该二维图像的彩色信息以及灰度信息,而当该二维图像为灰度图时,该第二三维图像包括该二维图像的灰度信息。
在上述的步骤S1中,列举了二维图像获取的两种方式,但本申请并不以此为限,该步骤S1还可包括获取待测物体的二维图像的其它合适方式。
接下来,步骤S2包括:
子步骤S21:投射空间结构光至该待测物体,并感测获得该待测物体的红外图像;和
子步骤S22:根据该红外图像构建出该待测物体的第一三维图像。
在子步骤S21中,例如利用光源组件投射空间结构光至该待测物体,并利用红外图像传感器捕获由该待测物体反射回来的光线,感测获得该待测物体的红外图像。
所述光源组件投射的空间结构光例如呈网格式、散斑式、条纹式、编码式等图案。在本实施方式中,所述空间结构光为红外光。然,可变更地,在其它实施方式中,所述空间结构光例如也可为可见光或紫外光范围内的辐射带。
在子步骤S22中,处理单元例如通过计算能够从该红外图像中提取出相应的横纵坐标信息以及深度信息,从而能够构建得到该待测物体的第一三维图像。
例如,当投射散斑图案到待测物体上时,该红外图像传感器获得的待测物体的红外图像包括散斑图案的灰度图。在本实施方式中,该处理单元从该红外图像中提取出散斑图案的图像信息,并根据提取到的散斑图案的图像信息来构建出该第一三维图像。因此,该第一三维图像的分辨率为该散斑图案的个数。
一般地,投射到待测物体上散斑图案例如为1万至3万个点。相应地,该第一三维图像的分辨率为1万至3万。
可变更地,在另一实施方式中,该步骤S2包括:
子步骤S21:投射时间结构光至该待测物体,并感测获得该待测物体的红外图像;和
子步骤S22:根据该红外图像构建出该待测物体的第一三维图像。
在子步骤S21中,利用投射器件投射时间结构光至该待测物体,并利用红外图像传感器捕获由该待测物体反射回来的光线,根据飞时测距原理获得时间信息以及感测获得该待测物体的红外图像。
其中,所述投射器件投射的时间结构光例如呈方波、正弦波等形式。所述方波比如是高低变化的脉冲,其中,当有光脉冲发出时则为高电平,无光脉冲发出时则为低电平。在本实施方式中,所述时间结构光为红外光。然,可变更地,在其它实施方式中,所述时间结构光例如也可为可见光或紫外光范围内的辐射带。
在子步骤S22中,处理单元根据时间信息获得待测物体表面的深度信息,并结合获得的红外图像,从而构建出该待测物体的第一三维图像。
其中,所述投射组件投射的时间结构光的点数即为该第一三维图像的分辨率。
可变更地,在又一实施方式中,该步骤S2包括:
子步骤S21:利用设置在不同位置的至少二摄像头分别获得该待测物体的二维图像;和
子步骤S22:根据该至少二摄像头获得的二维图像来构建出该待测物体的第一三维图像。
在此实施方式中,通过双目或多目的感测原理来获得该待测物体的第一三维图像。
其中,双目是指利用设置在位置不同的二摄像头对该待测物体进行图像感测,通过在不同位置获得不同角度的二维图像,处理单元能够分析得到该待测物体表面的深度信息,从而构建成该待测物体的第一三维图像。
多目是指利用设置在位置不同的多个摄像头对该待测物体进行图像感测,通过在不同位置获得不同角度的二维图像,处理单元能够分析得到该待测物体表面的深度信息,从而构建成该待测物体的第一三维图像。
当步骤S1中是利用RGB图像传感器进行感测、而步骤S2中是投射红外光到待测物体时,则步骤S1和步骤S2可同时或分时进行。当步骤S1中是投射红外泛光至该待测物体、且步骤S2中是投射红外光到待测物体时,则步骤S1和步骤S2需分时进行,从而避免红外图像混叠。类似地,当步骤S1中是利用RGB图像传感器进行感测、步骤S2是利用双目或多目的感测原理进行感测时,则步骤S1与步骤S2分时进行。当步骤S1中是投射红外泛光至该待测物体、且步骤S2中是利用双目或多目的感测原理进行感测时,则步骤S1与步骤S2可同时或分时进行。
其中,当步骤S1与步骤S2分时进行时,步骤S1可位于步骤S2之前进行,也可位于步骤S2之后进行。
现有的,业界通常投射波长为850纳米的近红外光,来获得待测物体的红外图像。然而,本申请的发明人经过大量的创造性劳动,分析与研究发现:投射波长为940纳米的红外泛光、940纳米的红外结构光进行感测,可以获得较准确的感测效果。
请一并参阅图2,图2为环境光的辐射强度与波长之间的关系示意图。其中,波长用横轴表示,且被标示为字母λ,辐射强度用纵轴表示,且被标示为字母E。发明人通过理论研究、结合大量的实验测试、验证并反复进行分析与研究等,创造性地发现:环境光中波长范围为[920,960]纳米的近红外光易被大气吸收、强度衰减较大,当步骤S1投射波长范围为[920,960]纳米的红外泛光到待测物体,根据捕获的红外泛光获得该待测物体的二维图像时,能够少受环境光的干扰,从而提高图像的获取精度。类似地,当步骤S2投射波长范围为[920,960]纳米的空间结构光或时间结构光到待测物体,根据捕获的空间结构光或时间结构光获得该待测物体的红外图像时,能够少受环境光的干扰,从而提高图像的获取精度。
进一步地,在波长范围为[920,960]纳米的红外光中,波长为940纳米的近红外光更易被大气吸收、强度衰减最大,因此,在本申请的实施方式中,步骤S1投射的红外泛光的波长优选为940纳米,步骤S2投射的空间结构光或时间结构光的波长优选为940纳米。
然而,在实际应用中,步骤S1所投射的红外泛光的波长和步骤S2所投射的空间结构光或时间结构光的波长在940纳米的基础上会有一定的偏差,例如会有(+15)纳米或(-15)纳米左右的偏差。因此,步骤S1投射的红外泛光的波长范围例如为[925,955]纳米,步骤S2投射的红外结构光的波长范围例如为[925,955]纳米。可见,该波长范围[925,955]仍然落在波长范围[920,960]内。
需要说明的是,步骤S1所投射的红外泛光的波长和步骤S2所投射的空间结构光或时间结构光的波长为落在上述波长范围[920,960]纳米中的任意一数值。本申请为了叙述简洁清楚,在此处并未一一列举各具体数值,但落在这波长范围[920,960]纳米中的任意一数值都是可行的。
当然,可变更地,本申请的用于待测物体制图的方法的步骤S1和步骤S2也可采用波长为850纳米或者其它合适波长的红外泛光、红外结构光进行感测。
在步骤S3中,将该二维图像与该第一三维图像进行重构的方法包括:通过映射的方式,将该第一三维图像与该二维图像转换为在同一坐标系下表征的图像信息,并根据该第一三维图像上已知的深度信息,通过插值运算得到新的深度信息。
请一并参见图3,图3为第一三维图像与二维图像的示意图。无论采取何种投射方式得到的第一三维图像,其所包含的深度信息都需要被转换成可以与二维图像在相同坐标体系下进行表征的深度信息。在相同坐标体系X-Y-Z下,第一三维图像提供了待测物体的空间深度信息,二维图像例如提供了该待测物体的横纵坐标信息和灰度信息。其中,深度信息即为Z方向的尺寸大小。
需要注意的是,二维图像实际上至少包含了三个维度的信息:X坐标,Y坐标,以及被拍摄的待测物体的灰度信息。如果该二维图像为彩色图,该二维图像进一步包括彩色信息。
该二维图像的分辨率大于该第一三维图像的分辨率,相应地,该二维图像的横纵坐标信息多于该第一三维图像的横纵坐标信息,经坐标系转换后,该第一三维图像上已知的深度信息分别对应一横纵坐标点,且根据该已知的深度信息,通过插值运算得到未带有已知深度信息的横纵坐标点所对应的深度信息。
可见,经映射与插值运算后得到的深度信息增加。该深度信息的个数例如与二维图像的分辨率个数相同或相近。然,本申请并不限制该深度信息的个数与二维图像的分辨率的个数相同或相近,该深度信息的个数也可根据实际需要对应增加,例如,该深度信息的个数为二维图像的分辨率的一半等等都是可以的。
当步骤S1中获得的该二维图像为灰度图时,在步骤S3中,例如根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息、以及横纵坐标信息重构出该第二三维图像;当步骤S1中获得的该二维图像为彩色图时,在步骤S3中,例如根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息和彩色信息、以及横纵坐标信息重构出该第二三维图像。
可见,该第二三维图像的信息量较该第一三维图像的信息量大增,其更能真实地反应该待测物体的模样。
请参见图4,图4为图3所示的一块最小单元区域的映射图,映射关系为从二维图像到第一三维图像进行映射。首先,在二维图像上选取一块最小单元区域,四个顶点分别为(X,Y),(X,Y+1),(X+1,Y),(X+1,Y+1),然后在该第一三维图像上寻找与该最小单元区域相对应区域,该对应区域的四个顶点的横纵坐标信息分别是(X,Y),(X,Y+1),(X+1,Y),(X+1,Y+1)。其中,X、Y例如均为大于0的整数。在本申请中,顶点的坐标选取也可根据实际需要选择,并不限于整数,且也并不限于间隔为1的选择。当然,对于数字图像,X、Y通常为整数,且相邻坐标间隔一般选择为1。然,本申请并不对参数做特别的限制,厂商可根据实际需要进行相应参数的设置。上述寻找对应区域的方式是将该第一三维图像与该二维图像放在同一坐标系,然后通过映射的方式进行,但本申请并不对寻找的方式进行限制,也可为其它合适的寻找方式。
如果该对应区域的顶点的深度信息Z是已知的,则直接采用已知的深度信息Z。
如果该对应区域的顶点的深度信息Z是未知的,则通过插值运算,利用已知的深度信息Z计算获得新的深度信息Z’,比如,以该顶点周围的几个点的已知深度信息Z来进行运算。
在获得新深度信息Z’的过程中,除了插值运算,例如还可包括平滑滤波等信号处理。
需要说明的是,已知的深度信息Z就是在构建该第一三维图像时获得的各深度信息。
另外,需要说明的是,为了清楚明了,在从二维图像往第一三维图像上进行映射时,第一三维图像上的对应区域的顶点坐标被分别标示为与二维图像上的各顶点坐标对应相同。然而,在实际处理时,由于第一三维图像和二维图像的分辨率不同,因此,如果按照各自对X、Y坐标的划分,1万个像素区域的X、Y坐标的大小划分与100万个像素区域的X、Y坐标的大小划分是不同的,相应地,第一三维图像上的顶点与二维图像上相对应的顶点坐标较可能并不相同。
当坐标不同时,经坐标系转换后,例如选用二维图像的X、Y坐标进行统一标注。
如此,重复上述方式或步骤,对于该二维图像上的各最小单元区域,获得该第一三维图像上的各对应区域的顶点的深度信息Z或Z’。另外,结合二维图像的横纵坐标信息以及灰度信息等,重构出该第二三维图像。可见,该第二三维图像的分辨率以及信息量得到明显提升。因此,该第二三维图像能更准确地体现该待测物体的模样。
上述只是本申请的方法获得新深度信息的一种实施方式,当然,对于新深度信息的获取也可采用其它合适的转换方式,本申请对此并不做限制。
上面的实施例是从二维图像到第一三维图像的映射,然,可变更地,也可从第一三维图像到二维图像进行映射,例如参见图5,首先,在第一三维图像上选取一块最小单元区域,四个顶点分别为(X,Y),(X,Y+△),(X+△,Y),(X+△,Y+△),然后在该二维图像上寻找与该最小单元区域相对应区域,该对应区域的四个顶点的横纵坐标信息分别是(X,Y),(X,Y+△),(X+△,Y),(X+△,Y+△),其中,△为大于1的整数,在实施例中,以相邻坐标间隔为1来计算的话,△例如但并不局限于等于6。
由于第一三维图像的每个像素区域较大,而二维图像上的每个像素区域较小,因此,该二维图像上的每个对应区域会包含多个像素区域。图5中的二维图像上的每个小方格代表一个像素区域。
当第一三维图像的像素区域的顶点经投影与二维图像的像素区域的顶点重合时,则该二维图像上的该顶点的深度信息直接采用该第一三维图像上的顶点的已知深度信息Z,不需要再进行插值运算获得,否则,需要经过插值运算获得新深度信息Z’。
在获得新深度信息Z’的过程中,除了插值运算,例如还可包括平滑滤波等信号处理。
需要说明的是,已知的深度信息Z就是在构建该第一三维图像时获得的各深度信息。
另外,需要说明的是,为了清楚明了,在从第一三维图像往二维图像上进行映射时,二维图像上的对应区域的顶点坐标被分别标示为与第一三维图像上的各顶点坐标对应相同。然而,在实际处理时,由于二维图像和第一三维图像的分辨率不同,因此,如果按照各自对X、Y坐标的划分,100万个像素区域的X、Y坐标的大小划分与1万个像素区域的X、Y坐标的大小划分是不同的,相应地,二维图像上的顶点与第一三维图像上相对应的顶点坐标较可能并不相同。
当坐标不同时,经坐标系转换后,例如选用二维图像的X、Y坐标进行统一标注,或者是采用第一三维图像的横纵坐标,并结合新的横纵坐标进行统一标注等等也是可行的。
如此,重复上述方式或步骤,将该第一三维图像的深度信息转换成与该二维图像在相同坐标体系下进行表征的深度信息,并通过插值运算得到新的深度信息Z’。另外,结合二维图像的横纵坐标信息以及灰度信息等,重构出该第二三维图像。可见,该第二三维图像的分辨率以及信息量得到明显提升。因此,该第二三维图像能更准确地体现该待测物体的模样。
另外,基于插值运算得到后的三维坐标信息,可再进一步进行插值等运算处理,获得具有更高分辨率的第二三维图像。
在步骤S4中,通过比对该第二三维图像与预设的三维图像模板是否匹配来确认该待测物体的身份是否合法。
该预设的三维图像模板例如预先存储在一存储器中。
当比对得知该第二三维图像与预设的三维图像模板不匹配时,则确认该待测物体的身份非法,身份鉴权失败。
可选地,当比对得知该第二三维图像与预设的三维图像模板匹配时,则确认该待测物体的身份合法,身份鉴权成功。
该预设的三维图像模板例如为三维人脸图像模板,该身份鉴权方法用于实现立体人脸识别。
在步骤S4中,用于比对的第二三维图像可以是未经裁剪、旋转、缩小、或放大等处理的图像,然,也可是重构后的第二三维图像经过裁剪、旋转、缩小、或放大等处理后的图像。
请参阅图6,图6是本申请的身份鉴权装置第一实施方式的结构框图。该身份鉴权装置100包括第一获取模块10、第二获取模块12、处理模块14、和识别模块16。其中,该第一获取模块10用于获取待测物体的二维图像。该第二获取模块12用于获取该待测物体的第一三维图像。该处理模块14用于将该待测物体的二维图像和第一三维图像进行重构,获得该待测物体的第二三维图像。该识别模块16用于根据该第二三维图像判断该待测物体的身份是否合法。
本申请的身份鉴权装置100通过将该待测物体的二维图像与第一三维图像进行重构,来获得该待测物体的第二三维图像。相应地,该第二三维图像的信息量较该第一三维图像的信息量增多,从而,该第二三维图像可以较真实地反应该待测物体的模样。进而,该识别模块16对该待测物体进行身份鉴权时的识别率会得到提升。
该待测物体例如为人脸,当然,该待测物体也可为人体的其它合适部位或者其它合适的生物体或非生物体或其中任意几者的组合。
该二维图像的分辨率大于该第一三维图像的分辨率。例如,该二维图像的分辨率为100万,该第一三维图像的分辨率为1万。
相应地,该处理模块14通过将该二维图像与该第一三维图像进行重构获得该第二三维图像,该第二三维图像的分辨率能够对应得到提高,因此,该第二三维图像的分辨率大于该第一三维图像的分辨率。该第二三维图像的分辨率例如也可以达到100万。
术语“第一三维图像”,如在本专利申请文件中是指表示待测物体表面的3D坐标集。术语“第二三维图像”,如在本专利申请文件中可以是指表示待测物体表面的3D坐标集。其中,该第二三维图像中的坐标点的数量多于该第一三维图像中的坐标点的数量,每一坐标点包括横坐标(X)、纵坐标(Y)、和深度信息(Z)。因此,该第二三维图像的深度信息多于该第一三维图像的深度信息。
可选地,该第二三维图像除了包括表示待测物体表面的3D坐标集外,其例如还可以包括该二维图像的灰度信息。
当该二维图像为彩色图时,该第二三维图像例如进一步包括该二维图像的彩色信息。
可见,经重构后的第二三维图像相比第一三维图像具有更多的信息,因此,该第二三维图像更能较真实地反应该待测物体的模样。相应地,该识别模块16在对该待测物体进行识别时的准确率会得到相应的提升。
在第一实施方式中,该第一获取模块10包括第一投射器101和红外图像传感器103。该第一投射器101用于投射红外泛光至该待测物体。该红外图像传感器103用于捕获由该待测物体反射回来的红外泛光,并根据捕获的红外泛光感测获得该待测物体的二维图像。该第一投射器101例如但不局限于红外泛光灯。
所述二维图像为不具彩色信息的灰度图。
该第二获取模块12包括第二投射器121、红外图像传感器123、和处理单元125。该第二投射器121用于投射空间结构光至该待测物体。该红外图像传感器123用于捕获由该待测物体反射回来的光线,感测获得该待测物体的红外图像。该处理单元125根据该红外图像构建出该待测物体的第一三维图像。
该第二投射器121投射的空间结构光例如呈网格式、散斑式、条纹式、编码式等图案。在本实施方式中,所述空间结构光为红外光。然,可变更地,在其它实施方式中,所述空间结构光例如也可为可见光或紫外光范围内的辐射带。相应地,该红外图像传感器123也要做对应调整。
该第二投射器121例如包括光源、准直镜头以及光学衍射元件(DOE),其中光源用于产生一红外激光束;准直镜头将红外激光束进行校准,形成近似平行光;光学衍射元件对校准后的红外激光束进行调制,形成具有预设图案的红外结构光。
举例,当该第二投射器121投射散斑图案到待测物体上时,该红外图像传感器123获得的待测物体的红外图像为包括散斑图案的灰度图。在本实施方式中,该处理单元125从该红外图像中提取出散斑图案的图像信息,并根据提取到的散斑图案的图像信息来构建出该第一三维图像。因此,该第一三维图像的分辨率为该散斑图案的个数。
该处理单元125例如通过计算能够从该散斑图案的图像信息中提取出相应的横纵坐标信息以及深度信息,从而能够构建得到该待测物体的第一三维图像。
一般地,投射到待测物体上散斑图案例如为1万至3万个点。相应地,该第一三维图像的分辨率为1万至3万。
该处理单元125例如可以和该处理模块14进行集成,二者也可为分立的元件。又或者,该处理单元125例如为与红外图像传感器123进行集成。
在本实施方式中,该红外图像传感器103和该红外图像传感器123可以为两个独立的传感器,也可为同一红外图像传感器。当采用同一红外图像传感器时,产品成本可以降低。
为了避免图像混叠,第一投射器101和第二投射器121分时工作。
另外,当第一获取装置10和第二获取装置12分时工作时,该第一获取装置10可先于该第二获取装置12工作,或后于该第二获取装置12工作。
现有的,业界通常投射波长为850纳米的近红外光,来获得待测物体的红外图像。然而,本申请的发明人经过大量的创造性劳动,分析与研究发现:投射波长为940纳米的红外泛光、940纳米的红外结构光进行感测,可以获得较准确的感测效果。
请再参阅图2,发明人通过理论研究、结合大量的实验测试、验证并反复进行分析与研究等,创造性地发现:环境光中波长范围为[920,960]纳米的近红外光易被大气吸收、强度衰减较大,当该第一投射器101投射波长范围为[920,960]纳米的红外泛光到待测物体,根据捕获的红外泛光获得该待测物体的二维图像时,能够少受环境光的干扰,从而提高图像的获取精度。类似地,当该第二投射器121投射波长范围为[920,960]纳米的空间结构光到待测物体,根据捕获的空间结构光获得该待测物体的红外图像时,能够少受环境光的干扰,从而提高图像的获取精度。
进一步地,在波长范围为[920,960]纳米的红外光中,波长为940纳米的近红外光更易被大气吸收、强度衰减最大,因此,在本申请的实施方式中,该第一投射器101投射的红外泛光的波长优选为940纳米,该第二投射器121投射的空间结构光的波长优选为940纳米。
然而,在实际应用中,该第一投射器101所投射的红外泛光的波长和该第二投射器121所投射的空间结构光的波长在940纳米的基础上会有一定的偏差,例如会有(+15)纳米或(-15)纳米左右的偏差。因此,该第一投射器101投射的红外泛光的波长范围例如为[925,955]纳米,该第二投射器121投射的空间结构光的波长范围例如为[925,955]纳米。可见,该波长范围[925,955]仍然落在波长范围[920,960]内。
需要说明的是,该第一投射器101所投射的红外泛光的波长和该第二投射器121所投射的空间结构光的波长为落在上述波长范围[920,960]纳米中的任意一数值。本申请为了叙述简洁清楚,在此处并未一一列举各具体数值,但落在这波长范围[920,960]纳米中的任意一数值都是可行的。
当然,可变更地,本申请的装置100的第一投射器101和第二投射器121也可采用波长为850纳米或者其它合适波长的红外泛光、空间结构光进行感测。
该处理模块14将该二维图像与该第一三维图像进行重构的方法包括:通过映射的方式,将该第一三维图像与该二维图像转换为在同一坐标系下表征的图像信息,并根据该第一三维图像上已知的深度信息,通过插值运算得到新的深度信息。
在相同坐标体系X-Y-Z下,第一三维图像提供了待测物体的空间深度信息,二维图像提供了该待测物体的横纵坐标信息和灰度信息,如图3所示。其中,深度信息即为Z方向的尺寸大小。
需要注意的是,二维图像实际上至少包含了三个维度的信息:X坐标,Y坐标,以及被拍摄的待测物体的灰度信息。
该二维图像的分辨率大于该第一三维图像的分辨率,相应地,该二维图像的横纵坐标信息多于该第一三维图像的横纵坐标信息,经坐标系转换后,该第一三维图像上已知的深度信息分别对应一横纵坐标点,且根据该已知的深度信息,该处理模块14通过插值运算得到未带有已知深度信息的横纵坐标点所对应的深度信息。
可见,经映射与插值运算后得到的深度信息增加。该深度信息的个数例如与二维图像的分辨率个数相同或相近。然,本申请并不限制该深度信息的个数与二维图像的分辨率的个数相同或相近,该深度信息的个数也可实际需要对应增加,例如,为二维图像的分辨率的一半等等都是可以的。
请再参见图4,图4为图3所示的一块最小单元区域的映射图,映射关系为从二维图像到第一三维图像进行映射。首先,该处理模块14在二维图像上选取一块最小单元区域,四个顶点分别为(X,Y),(X,Y+1),(X+1,Y),(X+1,Y+1),然后在该第一三维图像上寻找与该最小单元区域相对应区域,该对应区域的四个顶点的横纵坐标信息分别是(X,Y),(X,Y+1),(X+1,Y),(X+1,Y+1)。其中,X、Y例如均为大于0的整数。在本申请中,顶点的坐标选取也可根据实际需要选择,并不限于整数,且也并不限于间隔为1的选择。当然,对于数字图像,X、Y通常为整数,且相邻坐标间隔一般选择为1。然,本申请并不对参数做特别的限制,厂商可根据实际需要进行相应参数的设置。厂商可根据需要进行相应参数的设置。上述寻找对应区域的方式是将该第一三维图像与该二维图像放在同一坐标系,然后通过映射的方式进行,但本申请并不对寻找的方式进行限制,也可为其它合适的寻找方式。
如果该对应区域的顶点的深度信息Z是已知的,则直接采用已知的深度信息Z。
如果该对应区域的顶点的深度信息Z是未知的,则通过插值运算,利用已知的深度信息Z计算获得新的深度信息Z’,比如,以该顶点周围的几个点的已知深度信息Z来进行运算。
在获得新深度信息Z’的过程中,除了插值运算,例如还可包括平滑滤波等信号处理。
需要说明的是,已知的深度信息Z就是在构建该第一三维图像时获得的各深度信息。
另外,需要说明的是,为了清楚明了,在从二维图像往第一三维图像上进行映射时,第一三维图像上的对应区域的顶点坐标被分别标示为与二维图像上的各顶点坐标对应相同。然而,在实际处理时,由于第一三维图像和二维图像的分辨率不同,因此,如果按照各自对X、Y坐标的划分,1万个像素区域的X、Y坐标的大小划分与100万个像素区域的X、Y坐标的大小划分是不同的,相应地,第一三维图像上的顶点与二维图像上相对应的顶点坐标可能并不相同。
当坐标不同时,经坐标系转换后,例如选用二维图像的X、Y坐标进行统一标注。
如此,重复上述方式或步骤,对于该二维图像上的各最小单元区域,获得该第一三维图像上的各对应区域的顶点的深度信息Z或Z’。另外,结合二维图像的横纵坐标信息以及灰度信息等,重构出该第二三维图像。可见,该第二三维图像的分辨率以及信息量得到明显提升。因此,该第二三维图像能更准确地体现该待测物体的模样。
上述只是本申请的装置100获得新深度信息的一种实施方式,当然,对于新深度信息的获取也可采用其它合适的转换方式,本申请对此并不做限制。
上面的实施例是从二维图像到第一三维图像的映射,然,可变更地,该处理模块14也可从第一三维图像到二维图像进行映射,例如参见图5,首先,在第一三维图像上选取一块最小单元区域,四个顶点分别为(X,Y),(X,Y+△),(X+△,Y),(X+△,Y+△),然后在该二维图像上寻找与该最小单元区域相对应区域,该对应区域的四个顶点的横纵坐标信息分别是(X,Y),(X,Y+△),(X+△,Y),(X+△,Y+△),其中,△为大于1的整数,在实施例中,以相邻坐标间隔为1来计算的话,△例如但并不局限于等于6。
由于第一三维图像的每个像素区域较大,而二维图像上的每个像素区域较小,因此,该二维图像上的每个对应区域会包含多个像素区域。图5中的二维图像上的每个小方格代表一个像素区域。
当第一三维图像的像素区域的顶点经投影与二维图像的像素区域的顶点重合时,则该二维图像上的该顶点的深度信息直接采用该第一三维图像上的顶点的已知深度信息Z,不需要再进行插值运算获得,否则,需要经过插值运算获得新深度信息Z’。
在获得新深度信息Z’的过程中,除了插值运算,例如还可包括平滑滤波等信号处理。
需要说明的是,已知的深度信息Z就是在构建该第一三维图像时获得的各深度信息。
另外,需要说明的是,为了清楚明了,在从第一三维图像往二维图像上进行映射时,二维图像上的对应区域的顶点坐标被分别标示为与第一三维图像上的各顶点坐标对应相同。然而,在实际处理时,由于二维图像和第一三维图像的分辨率不同,因此,如果按照各自对X、Y坐标的划分,100万个像素区域的X、Y坐标的大小划分与1万个像素区域的X、Y坐标的大小划分是不同的,相应地,二维图像上的顶点与第一三维图像上相对应的顶点坐标较可能并不相同。
当坐标不同时,经坐标系转换后,例如选用二维图像的X、Y坐标进行统一标注,或者是采用第一三维图像的横纵坐标,并结合新的横纵坐标进行统一标注等等也是可行的。
如此,重复上述方式或步骤,该处理模块14将该第一三维图像的深度信息转换成与该二维图像在相同坐标体系下进行表征的深度信息,并通过插值运算得到新的深度信息Z’。另外,结合二维图像的横纵坐标信息以及灰度信息等,该处理模块14重构出该第二三维图像。可见,该第二三维图像的分辨率以及信息量得到明显提升。因此,该第二三维图像能更准确地体现该待测物体的模样。
另外,基于插值运算得到后的三维坐标信息,该处理模块14可再进一步进行插值等运算处理,获得具有更高分辨率的第二三维图像。
可变更地,在其它实施方式中,该第二投射器121投射时间结构光至该待测物体,并利用红外图像传感器123捕获由该待测物体反射回来的时间结构光,根据飞时测距原理获得时间信息以及感测获得该待测物体的红外图像。
其中,该第二投射器121投射的时间结构光例如呈方波、正弦波等形式。所述方波比如是高低变化的脉冲,其中,当有光脉冲发出时则为高电平,无光脉冲发出时则为低电平。在本实施方式中,所述时间结构光为红外光。然,可变更地,在其它实施方式中,所述时间结构光例如也可为可见光或紫外光范围内的辐射带。相应地,该红外图像传感器123做对应地调整。
该处理单元125根据获得的时间信息,从而得到该待测物体表面的深度信息,并结合获得的红外图像,从而构建出该待测物体的第一三维图像。
其中,该第二投射器121投射的时间结构光的点数即为该第一三维图像的分辨率。
在该变更实施方式中,该红外图像传感器123和该红外图像传感器103为二不同的元件。
需要说明的,用于投射时间结构光的第二投射器121和用于投射空间结构光121的第二投射器121的结构和工作原理所有不同,用于接收时间结构光的红外图像传感器123和用于空间结构光的红外图像传感器123的结构和工作原理有所不同。
该识别模块16通过比对该第二三维图像与预设的三维图像模板是否匹配来确认该待测物体的身份是否合法。
可选地,该身份鉴权装置100进一步包括存储器18。该预设的三维图像模板例如预先存储在该存储器18中。
当该识别模块16比对得知该第二三维图像与预设的三维图像模板不匹配时,则确认该待测物体的身份非法,身份鉴权失败。
可选地,当该识别模块16比对得知该第二三维图像与预设的三维图像模板匹配时,则确认该待测物体的身份合法,身份鉴权成功。
该预设的三维图像模板例如为三维人脸图像模板,该身份鉴权装置100用于实现立体人脸识别。
该识别模块16用于比对的第二三维图像可以是未经裁剪、旋转、缩小、或放大等处理的图像,然,也可是重构后的第二三维图像经过裁剪、旋转、缩小、或放大等处理后的图像。
请参阅图7,图7为本申请的身份鉴权装置的第二实施方式的结构框图。该身份鉴权装置200与上述的身份鉴权装置100大致相同,二者主要区别在于:该身份鉴权装置200的第一获取模块20包括RGB图像传感器203。该RGB图像传感器203用于感测该待测物体的二维图像。
当该第二投射器201投射红外结构光至该待测物体时,该RGB图像传感器203可与该红外图像传感器223同时或分时工作。
另外,该第一获取模块20也可进一步包括第一投射器101和红外图像传感器103,当环境光较暗时,也可采用红外图像传感器103进行感测。此种情况下,RGB图像传感器203则例如停止工作。
请参阅图8,图8为本申请的三身份鉴权装置的第三实施方式的结构框图。该身份鉴权装置300与上述的身份鉴权装置100大致相同,二者主要区别在于:该身份鉴权装置300的第二获取模块32包括摄像头321、摄像头323、和处理单元325。在本实施方式中,该摄像头321与摄像头323设置在不同的位置,从而分别从不同的角度获得该待测物体的二维图像。该处理单元325根据获得二维图像能够分析得到该待测物体表面的深度信息,从而构建出该待测物体的第一三维图像。
在本实施方式中,第二获取模块32是采用双目的感测原理来获得该待测物体的第一三维图像。可变更地,在其它实施方式中,该第二获取模块32也可包括多个摄像头,该多个摄像头对应该待测物体被分别设置在不同的位置。相应地,该第二获取模块32采用多目的感测原理来获得该待测物体的第一三维图像。
请参阅图9,图9为本申请的电子设备的一实施方式的结构示意图。所述电子设备500例如但不局限于为消费性电子产品、家居式电子产品、车载式电子产品、金融终端产品等合适类型的电子产品。其中,消费性电子产品例如但不局限为手机、平板电脑、笔记本电脑、桌面显示器、电脑一体机等。家居式电子产品例如但不局限为智能门锁、电视、冰箱、穿戴式设备等。车载式电子产品例如但不局限为车载导航仪、车载DVD等。金融终端产品例如但不局限为ATM机、自助办理业务的终端等。所述电子设备400包括上述任意一实施方式的身份鉴权装置。以身份鉴权装置100为例,所述电子设备400根据所述身份鉴权装置100的身份鉴权结果来对应是否执行相应的功能。所述相应的功能例如但不局限于包括解锁、支付、启动预存的应用程序中的任意一种或几种。
在本实施方式中,以电子设备400为手机为例进行说明。所述手机例如为全面屏的手机,所述身份鉴权装置100例如设置在手机的正面顶端。当然,所述手机也并不限制于全面屏手机。
例如,当用户需要进行开机解锁时,抬起手机或触摸手机的屏幕都可以起到唤醒该身份鉴权装置100的作用。当该身份鉴权装置100被唤醒之后,识别该手机前方的用户是合法的用户时,则解锁屏幕。
可见,由于该电子设备400应用了该身份鉴权装置100,该电子设备400的用户体验较好。
在本说明书的描述中,参考术语“一个实施方式”、“某些实施方式”、“示意性实施方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合所述实施方式或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施方式,可以理解的是,上述实施方式是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施方式进行变化、修改、替换和变型。

Claims (16)

1.一种身份鉴权方法,包括:
步骤S1:获取待测物体的二维图像;
步骤S2:获取该待测物体的第一三维图像;
步骤S3:将该二维图像与该第一三维图像进行重构,获得该待测物体的第二三维图像;和
步骤S4:根据该第二三维图像判断该待测物体的身份是否合法。
2.如权利要求1所述的身份鉴权方法,其特征在于:该二维图像的分辨率大于等于该第一三维图像的分辨率,该第二三维图像的分辨率大于等于该第一三维图像的分辨率。
3.如权利要求2所述的身份鉴权方法,其特征在于:该第二三维图像的深度信息多于该第一三维图像的深度信息。
4.如权利要求3所述的身份鉴权方法,其特征在于:该二维图像为彩色图或灰度图,该第二三维图像包括该二维图像的彩色信息以及灰度信息,或者,当该二维图像为灰度图时,该第二三维图像包括该二维图像的灰度信息。
5.如权利要求1所述的身份鉴权方法,其特征在于:步骤S1包括:通过投射红外泛光至该待测物体,并捕获由该待测物体反射回来的红外泛光,感测获得该待测物体的二维图像,或/和,利用RGB图像传感器感测获得该待测物体的二维图像。
6.如权利要求7所述的身份鉴权方法,其特征在于:步骤S2包括:
子步骤S21:投射空间结构光至该待测物体,并感测获得该待测物体的红外图像;和
子步骤S22:根据该红外图像构建出该待测物体的第一三维图像;
或,步骤S2包括:
子步骤S21:投射时间结构光至该待测物体,并感测获得该待测物体的红外图像;和
子步骤S22:根据分时测距原理以及该红外图像构建出该待测物体的第一三维图像;
或,步骤S2包括:
子步骤S21:利用设置在不同位置的至少二摄像头分别获得该待测物体的二维图像;和
子步骤S22:根据该至少二摄像头获得的二维图像来构建出该待测物体的第一三维图像。
7.如权利要求6所述的身份鉴权方法,其特征在于:当子步骤S21中是投射空间结构光至该待测物体时,在子步骤S22中,从该红外图像中提取出空间结构光的图案信息,并根据提取到的空间结构光的图案信息构建出该第一三维图像。
8.如权利要求1-7中任意一项所述的身份鉴权方法,其特征在于:在步骤S3中,通过映射的方式,将该第一三维图像与该二维图像转换为在同一坐标系下表征的图像信息,并根据该第一三维图像上已知的深度信息,通过插值运算得到新的深度信息。
9.如权利要求8所述的身份鉴权方法,其特征在于:该二维图像的横纵坐标信息多于该第一三维图像的横纵坐标信息,经坐标系转换后,该第一三维图像上已知的深度信息分别对应一横纵坐标点,且根据该已知的深度信息,通过插值运算得到未带有已知深度信息的横纵坐标点所对应的深度信息。
10.如权利要求9所述的身份鉴权方法,其特征在于:当步骤S1中获得的该二维图像为灰度图时,在步骤S3中,根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息、以及横纵坐标信息重构出该第二三维图像;当步骤S1中获得的该二维图像为包括彩色图时,在步骤S3中,根据该已知的深度信息、该新的深度信息、该二维图像上的灰度信息和彩色信息、以及横纵坐标信息重构出该第二三维图像。
11.如权利要求8所述的身份鉴权方法,其特征在于:在步骤S3中,将该第一三维图像向该二维图像所在的坐标系中进行映射,或,将该二维图像向该第一三维图像所在的坐标系中进行映射。
12.如权利要求5所述的身份鉴权方法,其特征在于:该红外泛光的波长为940纳米。
13.如权利要求6所述的身份鉴权方法,其特征在于:该空间结构光或时间结构光的波长为940纳米。
14.如权利要求1所述的身份鉴权方法,其特征在于:在步骤S4中,通过比对该第二三维图像与预设的三维图像模板是否匹配来确认该待测物体的身份是否合法。
15.如权利要求14所述的身份鉴权方法,其特征在于:当比对得知该第二三维图像与预设的三维图像模板不匹配时,则确认该待测物体的身份非法,身份鉴权失败;当比对得知该第二三维图像与预设的三维图像模板匹配时,则确认该待测物体的身份合法,身份鉴权成功。
16.如权利要求14所述的身份鉴权方法,其特征在于:该预设的三维图像模板为三维人脸图像模板,该身份鉴权方法用于立体人脸识别。
CN201810630855.0A 2018-06-19 2018-06-19 身份鉴权方法、身份鉴权装置及电子设备 Pending CN109145549A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810630855.0A CN109145549A (zh) 2018-06-19 2018-06-19 身份鉴权方法、身份鉴权装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810630855.0A CN109145549A (zh) 2018-06-19 2018-06-19 身份鉴权方法、身份鉴权装置及电子设备

Publications (1)

Publication Number Publication Date
CN109145549A true CN109145549A (zh) 2019-01-04

Family

ID=64802068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810630855.0A Pending CN109145549A (zh) 2018-06-19 2018-06-19 身份鉴权方法、身份鉴权装置及电子设备

Country Status (1)

Country Link
CN (1) CN109145549A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI811540B (zh) * 2019-05-08 2023-08-11 大陸商上海耕岩智能科技有限公司 圖像採集方法、裝置、存儲媒體,及電子設備

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985172A (zh) * 2014-05-14 2014-08-13 南京国安光电科技有限公司 一种基于三维人脸识别的出入口控制系统
CN105913013A (zh) * 2016-04-08 2016-08-31 青岛万龙智控科技有限公司 双目视觉人脸识别算法
CN106909873A (zh) * 2016-06-21 2017-06-30 湖南拓视觉信息技术有限公司 人脸识别的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985172A (zh) * 2014-05-14 2014-08-13 南京国安光电科技有限公司 一种基于三维人脸识别的出入口控制系统
CN105913013A (zh) * 2016-04-08 2016-08-31 青岛万龙智控科技有限公司 双目视觉人脸识别算法
CN106909873A (zh) * 2016-06-21 2017-06-30 湖南拓视觉信息技术有限公司 人脸识别的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贾保柱: ""融合2D与3D图像的三维重建系统实现"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI811540B (zh) * 2019-05-08 2023-08-11 大陸商上海耕岩智能科技有限公司 圖像採集方法、裝置、存儲媒體,及電子設備

Similar Documents

Publication Publication Date Title
US11003897B2 (en) Three-dimensional real face modeling method and three-dimensional real face camera system
Xu et al. Status, challenges, and future perspectives of fringe projection profilometry
Bartol et al. A review of body measurement using 3D scanning
EP3645965B1 (en) Detector for determining a position of at least one object
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
CN109583285A (zh) 对象识别方法
CN102760234B (zh) 深度图像采集装置、系统及其方法
US10706571B2 (en) Imaging device, image processing device, storage medium, and imaging system
CN104335005B (zh) 3d扫描以及定位系统
CN208874676U (zh) 一种图像获取装置、身份识别装置及电子设备
CN109190484A (zh) 图像处理方法、装置和图像处理设备
CN108027441A (zh) 混合模式深度检测
CN101466998A (zh) 三维绝对坐标表面成像的方法和装置
KR101824888B1 (ko) 3차원 형상 측정 장치 및 그의 측정 방법
CN208172809U (zh) 图像获取装置、图像重构装置、身份识别装置、电子设备
CN104180768A (zh) 三维轮廓取得装置、图案检测装置及三维轮廓取得方法
CN110191266A (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
CN108711186A (zh) 目标物体制图的方法与装置、身份识别装置和电子设备
CN109903377A (zh) 一种无需相位展开的三维人脸建模方法及系统
CN109949900B (zh) 三维脉波的显示方法、装置、计算机设备及存储介质
KR20120076175A (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
US9204130B2 (en) Method and system for creating a three dimensional representation of an object
CN108764214A (zh) 身份鉴权方法、身份鉴权装置及电子设备
US20220180545A1 (en) Image processing apparatus, image processing method, and program
CN108513661A (zh) 身份鉴权方法、身份鉴权装置、和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190104

RJ01 Rejection of invention patent application after publication