CN116897349A - 用于面部解锁的光学皮肤检测 - Google Patents
用于面部解锁的光学皮肤检测 Download PDFInfo
- Publication number
- CN116897349A CN116897349A CN202280015245.4A CN202280015245A CN116897349A CN 116897349 A CN116897349 A CN 116897349A CN 202280015245 A CN202280015245 A CN 202280015245A CN 116897349 A CN116897349 A CN 116897349A
- Authority
- CN
- China
- Prior art keywords
- image
- skin
- beam profile
- face
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 125
- 230000001815 facial effect Effects 0.000 title claims abstract description 25
- 230000003287 optical effect Effects 0.000 title description 189
- 238000012545 processing Methods 0.000 claims abstract description 181
- 239000000463 material Substances 0.000 claims abstract description 176
- 238000000034 method Methods 0.000 claims abstract description 169
- 238000005286 illumination Methods 0.000 claims abstract description 146
- 238000013145 classification model Methods 0.000 claims description 47
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 238000010801 machine learning Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 230000000737 periodic effect Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 12
- 239000003550 marker Substances 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 description 51
- 238000004458 analytical method Methods 0.000 description 29
- 238000009826 distribution Methods 0.000 description 24
- 238000012360 testing method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 20
- 238000001914 filtration Methods 0.000 description 18
- 238000012546 transfer Methods 0.000 description 18
- 230000001419 dependent effect Effects 0.000 description 17
- 238000012549 training Methods 0.000 description 16
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 14
- 239000004065 semiconductor Substances 0.000 description 14
- 229910052710 silicon Inorganic materials 0.000 description 14
- 239000010703 silicon Substances 0.000 description 14
- 238000010191 image analysis Methods 0.000 description 12
- 230000003595 spectral effect Effects 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000000354 decomposition reaction Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000002310 reflectometry Methods 0.000 description 9
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 8
- 238000009499 grossing Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 6
- 239000006260 foam Substances 0.000 description 6
- 210000001061 forehead Anatomy 0.000 description 6
- 239000012620 biological material Substances 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 4
- 238000003705 background correction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 210000004209 hair Anatomy 0.000 description 4
- 238000003702 image correction Methods 0.000 description 4
- 235000020061 kirsch Nutrition 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 229910052751 metal Inorganic materials 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 239000000123 paper Substances 0.000 description 4
- 230000035515 penetration Effects 0.000 description 4
- 229910052704 radon Inorganic materials 0.000 description 4
- SYUHGPGVQRZVTB-UHFFFAOYSA-N radon atom Chemical compound [Rn] SYUHGPGVQRZVTB-UHFFFAOYSA-N 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 229920002312 polyamide-imide Polymers 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- YBNMDCCMCLUHBL-UHFFFAOYSA-N (2,5-dioxopyrrolidin-1-yl) 4-pyren-1-ylbutanoate Chemical compound C=1C=C(C2=C34)C=CC3=CC=CC4=CC=C2C=1CCCC(=O)ON1C(=O)CCC1=O YBNMDCCMCLUHBL-UHFFFAOYSA-N 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 2
- JBRZTFJDHDCESZ-UHFFFAOYSA-N AsGa Chemical compound [As]#[Ga] JBRZTFJDHDCESZ-UHFFFAOYSA-N 0.000 description 2
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 2
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 2
- 229910000673 Indium arsenide Inorganic materials 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 229910021417 amorphous silicon Inorganic materials 0.000 description 2
- 238000000540 analysis of variance Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- DMSMPAJRVJJAGA-UHFFFAOYSA-N benzo[d]isothiazol-3-one Chemical compound C1=CC=C2C(=O)NSC2=C1 DMSMPAJRVJJAGA-UHFFFAOYSA-N 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 235000019646 color tone Nutrition 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- RPQDHPTXJYYUPQ-UHFFFAOYSA-N indium arsenide Chemical compound [In]#[As] RPQDHPTXJYYUPQ-UHFFFAOYSA-N 0.000 description 2
- 229910010272 inorganic material Inorganic materials 0.000 description 2
- 239000011147 inorganic material Substances 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 150000002739 metals Chemical class 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 229910052755 nonmetal Inorganic materials 0.000 description 2
- 150000002843 nonmetals Chemical class 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 239000011368 organic material Substances 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- LHMQDVIHBXWNII-UHFFFAOYSA-N 3-amino-4-methoxy-n-phenylbenzamide Chemical compound C1=C(N)C(OC)=CC=C1C(=O)NC1=CC=CC=C1 LHMQDVIHBXWNII-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 229920005994 diacetyl cellulose Polymers 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000004816 latex Substances 0.000 description 1
- 229920000126 latex Polymers 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
提出了用于面部认证的方法。该方法包括以下步骤:a)至少一个面部检测步骤(110),包括通过使用至少一个相机(112)确定至少一个第一图像;b)至少一个皮肤检测步骤(116),包括通过使用至少一个照明单元(118)将包括多个照明特征的至少一个照明图案投影到场景上,使用至少一个相机(112)确定至少一个第二图像,使用处理单元(114)以通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少一个反射特征的光束轮廓来确定至少一个反射特征的第一光束轮廓信息,并且从第一光束轮廓信息确定反射特征的至少一个材料性质,其中,如果材料性质对应于皮肤的至少一个性质特性,则所检测到的面部被表征为皮肤;c)至少一个3D检测步骤(120),包括通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少四个反射特征的光束轮廓来确定至少四个反射特征的第二光束轮廓信息,并通过使用处理单元(114)从所述反射特征的第二光束轮廓信息确定至少一个深度水平,其中如果深度水平偏离平面对象的预先确定或预定义的深度水平,则所检测到的面部被表征为3D对象;d)至少一个认证步骤(122),包括如果在步骤b)(116)中所检测到的面部被表征为皮肤并且在步骤c)(120)中所检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证所检测到的面部。
Description
技术领域
本发明涉及一种用于人脸认证的方法、移动设备、以及方法的各种用途。根据本发明的设备、方法和用途具体可用于例如以下的各个领域:日常生活、安全技术、游戏、交通技术、生产技术、摄影(诸如,用于艺术、文献、或技术目的的数字摄影或视频摄影)、安全技术、信息技术、农业、作物保护、维护、化妆品、医疗技术或科学。然而,其他应用也是可能的。
背景技术
在当今的数字世界中,安全访问信息技术是任何最先进系统的基本要求。密码短语或PIN码等标准概念目前已被指纹或面部识别等生物识别方法扩展、组合甚至取代。尽管如果仔细选择并具有足够的长度,密码短语可以提供高级别的安全性,但此步骤需要注意,并且需要根据IT环境记住几个可能很长的短语。此外,永远不能保证提供密码短语的人得到密码短语或数字设备所有者的授权。相比之下,面部或指纹等生物识别特征是独特的、特定于个人的性质。因此,使用源自这些的功能不仅比密码短语/PIN码更方便,而且更安全,因为它们将个人身份与解锁过程结合在一起。
不幸的是,与窃取密码类似,指纹和面部也可以被人为创建以冒充合法用户。第一代自动人脸识别工具使用数码相机图像或图像流,应用2D图像处理方法提取特性特征,同时使用机器学习技术生成面部模板,以基于这些特征进行身份识别。第二代人脸识别算法使用深度卷积神经网络而不是手工制作的图像特征来生成分类模型。
然而,这两种方法都可能受到攻击,例如使用当今可从互联网免费下载的高质量照片。因此,呈现攻击检测(PAD)的想法就变得意义重大。早期的方法旨在防止简单的攻击,例如通过记录一系列图像来呈现合法用户的照片并测试与时间相关的特征,例如头部位置或眨眼的微小但自然的变化。这些方法可以再次通过播放用户预先录制的视频或通过从公开可用的照片生成的仔细动画来欺骗。为了排除显示器作为潜在的欺骗对象,可以使用近红外(NIR)相机,因为显示器仅在电磁频谱的可见范围内发射光子。作为进一步的应对措施,引入了3D相机,它可以清楚地区分平面照片或带有播放视频的平板电脑与3D人脸。尽管如此,这些系统仍可能受到高质量面罩(mask)的攻击,例如通过3D打印、仔细3D排列2D照片、或手工制作的硅胶或乳胶掩模等方法所生成的面罩。由于人类通常佩戴面罩,因此基于小动作的活体检测也会失败。然而,这些类型的面罩可能会被PAD系统拒绝,该系统能够将人体皮肤与其他材料进行分类,例如2020年2月28日提交的欧洲专利申请第20159984.2号和2020年1月31日提交的欧洲专利申请第20154961.5190679号中所述,其全部内容通过引用包含在内。
另一个问题可能源于种族出身方面皮肤光学特性的差异。可靠的识别和PAD技术需要完全不了解这些不同的来源。
除了安全考虑之外,解锁过程的速度和所需的计算能力对于提供可接受的用户体验也很重要。在成功解锁设备后,高速人脸识别可用于执行多项任务,例如检查用户是否仍在显示器前,或通过对显示器前面的人执行即时检查来启动进一步的安全应用程序,例如银行应用程序。同样,速度和计算资源对用户体验有很大影响。
当前的3D算法对计算的要求非常高,并且呈现(presentation)攻击检测需要处理多个视频帧。因此,需要涉及昂贵的硬件来提供可接受的解锁性能。此外,结果是高功耗。
总而言之,用于面部解锁的当前方法无法可靠地检测3D面罩的欺骗攻击,也无法以低于人类检测极限的速度执行此任务。
US2019/213309 A1描述了一种利用测距传感器认证用户面部的系统和方法。测距传感器包括飞行时间传感器和反射率传感器。测距传感器发射信号,该信号被用户反射离开并在测距传感器处接收回来的信号。接收到的信号可用于确定用户与传感器之间的距离以及用户的反射率值。利用距离或反射率,处理器可以响应于距离和反射率来激活面部识别过程。
本发明解决的问题
因此,本发明的目的是面对已知设备和方法的上述技术挑战来提供设备和方法。尽管可以检测到使用合法面部照片和视频的简单呈现攻击,但仍然缺少可靠检测使用3D面罩的呈现攻击的方法。具体来说,需要另一层安全性,以便能够用源自面部的生物特征来替换密码短语/PIN码,以解锁数字设备。此外,需要一种对于来自不同种族的不同皮肤类型完全不可知的方法。
发明内容
该问题通过具有独立专利权利要求的特征的本发明来解决。可单独或组合地实现的本发明的有利发展在从属权利要求和/或以下说明书和详细实施例中呈现。
如下文中所使用的,术语“具有”、“包含”或“包括”或其任何任意语法变体以非排他性方式使用。因此,这些术语既可以指除了这些术语引入的特征之外,在上下文中描述的实体中不存在其他特征的情况,也可以指存在一个或多个其他特征的情况。作为示例,表述“A具有B”、“A包含B”和“A包括B”都可以指除B之外,A中不存在其他元素的情况(即,即A完全由B组成的情况),也可以指实体A中除B之外还存在一个或多个其他元素的情况,例如元素C、元素C和D、或者甚至另外的元素。
此外,应当注意的是,指示特征或元素可以出现一次或多于一次的术语“至少一个”、“一个或多个”或类似表达通常在介绍相应特征或元素时仅使用一次。在下文中,在大多数情况下,当提及各个特征或元素时,将不会重复表述“至少一个”或“一个或多个”,尽管各个特征或元素可能出现一次或不止一次。
此外,如下文中所使用的,术语“优选地”、“更优选地”、“特别地”、“更具体地”、“尤其”、“更尤其”或类似术语与可选特征结合使用,而不限制替代性的可能性。因此,这些术语引入的特征是可选特征并且不旨在以任何方式限制权利要求的范围。正如技术人员将认识到的,本发明可以通过使用替代特征来执行。类似地,由“在本发明的实施例中”或类似表述引入的特征旨在是可选特征,而不对本发明的替代实施例有任何限制,对本发明的范围没有任何限制,并且对以这种方式引入的特征与本发明的其他可选或非可选特征相结合的可能性没有任何限制。
在本发明的第一方面中,公开了一种用于面部认证的方法。待认证的面部具体可以是人脸。本文所使用的术语“面部认证”是广义术语,并且应为本领域普通技术人员赋予其普通且惯用的含义,并且不限于特殊或定制的含义。该术语具体可以指但不限于将识别的对象或识别的对象的一部分验证为人脸。具体地,认证可以包括将真实的人脸与为模仿人脸而产生的攻击材料区分开。认证可以包括验证相应用户的身份和/或向用户分配身份。认证可以包括生成和/或提供身份信息,例如到其他设备,例如到至少一个授权设备,用于对移动设备、机器、汽车、建筑物等的访问进行授权。身份信息可以通过认证来证明。例如,身份信息可以是和/或可以包括至少一个身份令牌。在成功认证的情况下,所识别的对象或所识别的对象的一部分被验证为真实面部和/或对象、特别是用户的身份被验证。
该方法包括以下步骤:
a)至少一个面部检测步骤,其中,面部检测步骤包括通过使用至少一个相机确定至少一个第一图像,其中,第一图像包括怀疑包括面部的场景的至少一个二维图像,其中,面部检测步骤包括通过使用至少一个处理单元在第一图像中识别对于面部的至少一个预定义或预先确定的几何特征特性来检测第一图像中的面部;
b)至少一个皮肤检测步骤,其中,皮肤检测步骤包括通过使用至少一个照明单元将包括多个照明特征的至少一个照明图案投影到场景上并且使用至少一个相机确定至少一个第二图像,其中,第二图像包括场景响应于照明特征的照明而生成的多个反射特征,其中,每个反射特征包括至少一个光束轮廓,其中,皮肤检测步骤包括:使用处理单元以通过分析位于第二图像的图像区域内的反射特征中的至少一个反射特征的光束轮廓来确定至少一个反射特征的第一光束轮廓信息,第二图像的图像区域对应于第一图像的包括所识别的几何特征的图像区域,以及从第一光束轮廓信息确定反射特征的至少一个材料性质,其中,如果材料性质对应于皮肤的至少一种性质特性,则将检测到的面部特征化为皮肤;
c)至少一个3D检测步骤,其中,3D检测步骤包括:使用处理单元以通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少四个反射特征的光束轮廓来确定至少四个反射特征的第二光束轮廓信息,并从所述反射特征的第二光束轮廓信息确定至少一个深度水平,其中,如果深度水平偏离平面对象的深度水平,则检测到的面部被表征为3D对象;
d)至少一个认证步骤,其中,认证步骤包括:如果在步骤b)中检测到的面部被表征为皮肤,并且在步骤c)中检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证检测到的面部。
该方法步骤可以按照给定的顺序执行或者可以按照不同的顺序执行。此外,可以存在未列出的一个或多个附加方法步骤。进一步地,可以重复执行其中一个、多个、或者甚至全部方法步骤。
本文所使用的术语“相机”是广义术语,并且应为本领域普通技术人员赋予其普通且惯用的含义,并且不限于特殊或定制的含义。该术语具体可以指但不限于具有至少一个成像元件的设备,该成像元件被配置为记录或捕获空间分辨的一维、二维或甚至三维光学数据或信息。相机可以是数字相机。作为示例,相机可以包括至少一个相机芯片,例如被配置为记录图像的至少一个CCD芯片和/或至少一个CMOS芯片。相机可以是或者可以包括至少一个近红外相机。
如本文所使用的,但不限于,术语“图像”具体可以涉及通过使用相机记录的数据,例如来自成像设备的多个电子读数,例如相机芯片的像素。除了至少一个相机芯片或成像芯片之外,相机还可以包括另外的元件,例如一个或多个光学元件,例如一个或多个透镜。作为示例,相机可以是定焦相机,具有相对于相机固定调节的至少一个镜头。然而,替代地,相机还可以包括可以自动或手动调节的一个或多个可变透镜。
相机可以是移动设备的相机,例如笔记本电脑、平板电脑,或者具体地是手机,例如智能手机等。因此,具体地,相机可以是移动设备的一部分,除了至少一个相机之外,该移动设备还包括一个或多个数据处理设备,例如一个或多个数据处理器。然而,其他相机也是可行的。如本文所使用的术语“移动设备”是广义术语并且将被赋予本领域普通技术人员其普通和惯常的含义并且不限于特殊或定制的含义。该术语具体可以指但不限于移动电子设备,更具体地指移动通信设备,例如蜂窝电话或智能电话。另外或替代地,移动设备还可以指平板计算机或另一类型的便携式计算机。
具体地,相机可以是或者可以包括具有至少一个光敏区域的至少一个光学传感器。如本文所使用的,“光学传感器”通常指的是用于检测光束的光敏设备,例如用于检测由至少一个光束产生的照明和/或光点。如本文进一步使用的,“光敏区域”通常指的是光学传感器的可以被至少一束光束从外部照射的区域,响应于该照射生成至少一个传感器信号。光敏区域具体可以位于各个光学传感器的表面上。然而,其他实施例也是可行的。相机可以包括多个光学传感器,每个光学传感器具有光敏区域。如本文所使用的,术语“每个都具有至少一个光敏区域的光学传感器”指的是具有各自具有一个光敏区域的多个单个光学传感器的配置以及具有具有多个光敏区域的一个组合光学传感器的配置。此外,术语“光学传感器”指的是被配置为生成一个输出信号的光敏设备。在相机包括多个光学传感器的情况下,每个光学传感器可以被实施为使得在相应的光学传感器中精确地存在一个光敏区域,例如通过提供精确的可以被照明的一个光敏区域,响应于该照明,为整个光学传感器精确地创建一个均匀的传感器信号。因此,每个光学传感器可以是单个区域光学传感器。然而,单个区域光学传感器的使用使得相机的设置变得特别简单和高效。因此,作为示例,可以在该设置中使用市售的光传感器,例如市售的硅光电二极管,每个光传感器精确地具有一个光敏区域。然而,其他实施例也是可行的。
具体地,光学传感器可以是或可以包括至少一个光电检测器,优选无机光电检测器,更优选无机半导体光电检测器,最优选硅光电检测器。具体地,光学传感器可以在红外光谱范围内敏感。光学传感器可以包括至少一个传感器元件,该传感器元件包括像素的矩阵。矩阵的所有像素或矩阵的至少一组光学传感器具体地可以是相同的。具体地,可以为不同的光谱范围提供矩阵的相同像素组,或者所有像素在光谱灵敏度方面可以是相同的。此外,像素的尺寸和/或在它们的电子或光电性质方面可以相同。具体地,光学传感器可以是或者可以包括至少一个无机光电二极管阵列,其在红外光谱范围内敏感,优选在700nm至3.0微米的范围内。具体地,光学传感器可以在硅光电二极管适用的近红外区域部分敏感,具体地在700nm至1100nm的范围内。可用于光学传感器的红外光学传感器可以是市售的红外光学传感器,例如可从德国,莱茵河畔路德维希港D-67056的trinamiXTM GmbH以HertzstueckTM品牌市售的红外光学传感器。因此,作为示例,光学传感器可以包括至少一个本征光伏型的光学传感器,更优选地选自包括以下的组的至少一个半导体光电二极管:Ge光电二极管、InGaAs光电二极管、扩展InGaAs光电二极管、InAs光电二极管、InSb光电二极管、HgCdTe光电二极管。另外或替代地,光学传感器可以包括至少一个外在光伏型光学传感器,更优选地选自包括以下的组的至少一个半导体光电二极管:Ge:Au光电二极管、Ge:Hg光电二极管、Ge:Cu光电二极管、Ge:Zn光电二极管、Si:Ga光电二极管、Si:As光电二极管。另外或替代地,光学传感器可以包括至少一个光电导传感器,例如PbS或PbSe传感器、辐射热测量计,优选地选自包括以下的组的辐射热测量计:VO辐射热测量计和非晶Si辐射热测量计。
光学传感器可以在紫外、可见或红外光谱范围中的一种或多种中敏感。具体地,光学传感器可以在500nm至780nm的可见光谱范围内敏感,最优选地在650nm至750nm、或在690nm至700nm处。具体地,光学传感器可以在近红外区域中敏感。具体地,光学传感器可以在硅光电二极管适用的近红外区域部分敏感,具体地在700nm至1000nm的范围内。具体地,光学传感器可以在红外光谱范围内、具体地在780nm至3.0微米的范围内敏感。例如,光学传感器各自独立地可以是或可以包括选自包括以下的组的至少一个元件:光电二极管、光电元件、光电导体、光电晶体管或其任何组合。例如,光学传感器可以是或者可以包括选自包括以下的组的至少一个元件:CCD传感器元件、CMOS传感器元件、光电二极管、光电单元、光电导体、光电晶体管或其任意组合。可以使用任何其他类型的光敏元件。光敏元件通常可以全部或部分由无机材料制成和/或可以全部或部分由有机材料制成。最常见的是,可以使用一个或多个光电二极管,例如市售的光电二极管,例如无机半导体光电二极管。
光学传感器可以包括至少一个传感器元件,该传感器元件包括像素的矩阵。因此,作为示例,光学传感器可以是像素化光学设备的一部分或构成像素化光学设备。例如,光学传感器可以是和/或可以包括至少一个CCD和/或CMOS设备。作为示例,光学传感器可以是具有像素的矩阵的至少一个CCD和/或CMOS设备的一部分或构成具有像素的矩阵的至少一个CCD和/或CMOS设备,每个像素形成光敏区域。
如本文所使用的,术语“传感器元件”通常指被配置为感测至少一个参数的设备或多个设备的组合。此时,参数具体可以为光学参数,以及传感器元件具体可以为光学传感器元件。传感器元件可以形成为整体的、单个设备或者形成为几个设备的组合。传感器元件包括光学传感器矩阵。传感器元件可以包括至少一个CMOS传感器。该矩阵可以由独立的像素组成,例如独立的光学传感器。因此,可以构成无机光电二极管的矩阵。然而,替代地,可以使用市售矩阵,例如CCD检测器(例如CCD检测器芯片)和/或CMOS检测器(例如CMOS检测器芯片)中的一个或多个。因此,一般来说,传感器元件可以是和/或可以包括至少一个CCD和/或CMOS设备和/或光学传感器可以形成传感器阵列或者可以是传感器阵列的一部分,例如上述矩阵。因此,作为示例,传感器元件可以包括像素阵列,例如具有m行和n列的矩形阵列,其中m、n独立地为正整数。优选地,给出多于一列和多于一行,即n>1,m>1。因此,作为示例,n可以是2至16或更高,并且m可以是2至16或更高。优选地,行数和列数的比率接近1。作为示例,可以选择n和m使得0.3≤m/n≤3,例如通过选择m/n=1:1、4:3、16:9或类似比例。作为示例,阵列可以是正方形阵列,具有相同数量的行和列,例如通过选择m=2、n=2或m=3、n=3等。
该矩阵可以由独立的像素组成,例如独立的光学传感器。因此,可以构成无机光电二极管的矩阵。然而,替代地,可以使用市售矩阵,例如CCD检测器(例如CCD检测器芯片)和/或CMOS检测器(例如CMOS检测器芯片)中的一个或多个。因此,通常,光学传感器可以是和/或可以包括至少一个CCD和/或CMOS设备和/或相机的光学传感器形成传感器阵列或者可以是传感器阵列的一部分,例如上述的矩阵。
矩阵具体可以为具有至少一行、优选为多行、以及多列的矩形矩阵。作为示例,行和列可以基本上垂直地取向。如本文所用,术语“基本垂直”是指垂直取向的情况,其公差例如为±20°或更小,优选地公差为±10°或更小,更优选地公差为±5°或更小。类似地,术语“基本上平行”是指平行取向的条件,其公差例如为±20°或更小,优选地公差为±10°或更小,更优选地公差为±5°或更小。因此,作为示例,小于20°、具体地小于10°、或甚至小于5°的公差可以是可接受的。为了提供较宽的视野,矩阵具体可以具有至少10行,优选至少500行,更优选至少1000行。类似地,矩阵可以具有至少10列,优选至少500列,更优选至少1000列。矩阵可以包括至少50个光学传感器,优选地至少100000个光学传感器,更优选地至少5000000个光学传感器。该矩阵可以包括数兆像素范围内的多个像素。然而,其他实施例也是可行的。因此,在期望轴向旋转对称的设置中,矩阵的光学传感器(也可以称为像素)的圆形布置或同心布置可能是优选的。
因此,作为示例,传感器元件可以是像素化光学设备的一部分或构成像素化光学设备。例如,传感器元件可以是和/或可以包括至少一个CCD和/或CMOS设备。作为示例,传感器元件可以是具有像素矩阵的至少一个CCD和/或CMOS设备的一部分或构成至少一个CCD和/或CMOS设备,每个像素形成光敏区域。传感器元件可以采用卷帘快门或全局快门方法来读出光学传感器的矩阵。
相机还可以包括至少一个传递(transfer)设备。相机还可包括一个或多个附加元件,例如一个或多个附加光学元件。相机可以包括选自包括以下组成的组的至少一种光学元件:传递设备,例如至少一个透镜和/或至少一个透镜系统、至少一个衍射光学元件。术语“传递设备”,也表示为“传递系统”,通常可以指代适于修改光束的一个或多个光学元件,例如通过修改光束的光束参数、光束的宽度、或光束的方向中的一个或多个。传递设备可适于将光束引导到光学传感器上。具体地,传递设备可以包括以下一项或多项:至少一透镜,例如选自包括以下的组的至少一个透镜:至少一个可调焦透镜、至少一个非球面透镜、至少一个球面透镜,至少一个菲涅尔透镜;至少一个衍射光学元件;至少一个凹面镜;至少一个光束偏转元件,优选至少一个镜子;至少一个分光元件,优选为分光立方体或分光镜中的至少一种;至少一个多透镜系统。传递设备可以具有焦距。如本文所使用的,术语传递设备的“焦距”指的是可撞击传递设备的入射准直光线进入“焦点”的距离,“焦点”也可表示为“聚焦点”。因此,焦距构成传递设备会聚入射光束的能力的量度。因此,传递设备可以包括一个或多个成像元件,其可以具有会聚透镜的效果。例如,传递设备可以具有一个或多个透镜,特别是一个或多个折射透镜,和/或一个或多个凸面镜。在该示例中,焦距可以被定义为从薄折射透镜的中心到薄透镜的主焦点的距离。对于会聚薄折射透镜,例如凸或双凸薄透镜,当传递设备可以被聚焦成单个光点时,焦距可以被认为是正的并且可以提供准直光束照射薄透镜的距离。另外,传递设备可以包括至少一个波长选择元件,例如至少一个滤光器。另外,传递设备可以被设计为在电磁辐射上(例如,在传感器区域并且特别是传感器区域的位置处)施加预定的光束轮廓。原则上,传递设备的上述可选实施例可以单独地或以任何期望的组合来实现。
传递设备可以具有光轴。如本文所使用的,术语“传递设备的光轴”通常指的是透镜或透镜系统的镜面对称轴或旋转对称轴。作为示例,传递系统可以包括至少一个光束路径,其中光束路径中的传递系统的元件相对于光轴以旋转对称的方式定位。然而,位于光束路径内的一个或多个光学元件也可以相对于光轴偏心或倾斜。然而,在这种情况下,可以顺序地限定光轴,例如通过互连光束路径中的光学元件的中心,例如通过互连透镜的中心,其中,在这种情况下,光学传感器不被算作光学元件。光轴通常可以表示光束路径。其中,相机可以具有单个光束路径,光束可以沿着该单个光束路径从对象行进到光学传感器,或者可以具有多个光束路径。作为示例,可以给出单个光束路径或者可以将光束路径分成两个或更多个部分光束路径。在后一种情况下,每个部分光束路径可以具有其自己的光轴。在多个光学传感器的情况下,光学传感器可以位于同一个光束路径或部分光束路径中。然而,可选地,光学传感器也可以位于不同的部分光束路径中。
传递设备可以构成坐标系,其中,纵向坐标是沿着光轴的坐标,并且其中,d是与光轴的空间偏移。坐标系可以是极坐标系,其中,传递设备的光轴形成z轴,并且其中,距z轴的距离和极角可以用作附加坐标。平行于或反平行于z轴的方向可以被认为是纵向方向,并且沿着z轴的坐标可以被认为是纵向坐标。垂直于z轴的任何方向都可以被认为是横向方向,并且极坐标和/或极角可以被认为是横向坐标。
相机被配置为确定场景的至少一个图像,特别是第一图像。如本文所使用的,术语“场景”可以指空间区域。该场景可以包括认证中的面部和周围环境。第一图像本身可以包括像素,图像的像素与传感器元件的矩阵的像素相关。因此,当提及“像素”时,要么指代由传感器元件的单个像素生成的图像信息的单位,要么直接指代传感器元件的单个像素。第一图像是至少一个二维图像。如本文所使用的,术语“二维图像”通常可以指具有关于横向坐标(诸如高度和宽度的尺寸)的信息的图像。第一图像可以是RGB(红绿蓝)图像。术语“确定至少一个第一图像”可以指捕获和/或记录第一图像。
面部检测步骤包括通过使用至少一个处理单元通过在第一图像中识别面部的至少一个预定义或预先确定的几何特征特性来检测第一图像中的面部。具体地,面部检测步骤包括通过使用至少一个处理单元在第一图像中识别作为面部特性的至少一个预定义或预先确定的几何特征来检测第一图像中的面部。
如本文进一步使用的,术语“处理单元”通常指代适于例如通过使用至少一个处理器和/或至少一个专用集成电路来执行指定操作的任意数据处理设备。因此,作为示例,至少一个处理单元可以包括存储在其上的软件代码,该软件代码包括多个计算机命令。处理单元可以提供用于执行一项或多项指定操作的一个或多个硬件元件和/或可以提供一个或多个处理器,其上运行有用于执行一项或多项指定操作的软件。包括评估图像的操作可以由至少一个处理单元执行。因此,作为示例,一个或多个指令可以以软件和/或硬件来实现。因此,作为示例,处理单元可以包括一个或多个可编程设备,例如一个或多个计算机、专用集成电路(ASIC)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA),其被配置为执行上述评估。然而,附加地或替代地,处理单元还可以完全或部分地由硬件来实现。处理单元和相机可以完全或部分集成到单个设备中。因此,通常,处理单元也可以形成相机的一部分。或者,处理单元和相机可以完全或部分地体现为单独的设备。
处理单元可以是或者可以包括一个或多个集成电路,例如一个或多个专用集成电路(ASIC),和/或一个或多个数据处理设备,例如一台或多台计算机,优选地一台或多台微型计算机和/或微控制器、现场可编程阵列、或数字信号处理器。可以包括附加组件,例如一个或多个预处理设备和/或数据采集设备,例如用于接收和/或预处理传感器信号的一个或多个设备,例如一个或多个AD转换器和/或一个或多个过滤器。此外,处理单元可以包括一个或多个测量设备,例如用于测量电流和/或电压的一个或多个测量设备。此外,处理单元可以包括一个或多个数据存储设备。此外,处理单元可以包括一个或多个接口,例如一个或多个无线接口和/或一个或多个有线接口。
处理单元可以被配置为显示、可视化、分析、分发、传送或进一步处理信息(例如由相机获得的信息)中的一项或多项。作为示例,处理单元可以被连接或合并以下中的至少一个:显示器、投影仪、监视器、LCD、TFT、扬声器、多通道音响系统、LED图案、或另外的可视化设备。其还可以被连接或合并以下中的至少一个:通信设备或通信接口、连接器或端口,能够使用电子邮件、文本消息、电话、蓝牙、Wi-Fi、红外线或互联网接口、端口或连接中的一种或多种来发送加密或未加密的信息。它可以进一步被连接到或合并以下中的至少一个:处理器、图形处理器、CPU、开放多媒体应用平台(OMAPTM)、集成电路、片上系统(例如来自Apple A系列或三星S3C2系列的产品)、微控制器或微处理器,一个或多个存储块(如ROM、RAM、EEPROM或闪存)、定时源(如振荡器或锁相环、计数器定时器、实时定时器、或上电复位发生器)、电压调节器、电源管理电路、或DMA控制器。各个单元还可以通过总线(例如AMBA总线)连接,或者集成到物联网或工业4.0类型的网络中。
处理单元可以通过另外的外部接口或端口连接或具有另外的外部接口或端口,例如以下中的一个或多个:串行或并行接口或端口、USB、Centronics端口、FireWire、HDMI、以太网、蓝牙、RFID、Wi-Fi、USART或SPI,或模拟接口或端口,例如一个或多个ADC或DAC,或到其他设备的标准化接口或端口,例如使用RGB接口(如CameraLink)的2D相机设备。处理单元还可以通过处理器间接口或端口、FPGA-FPGA接口、或者串行或并行接口端口中的一个或多个来连接。处理单元还可以连接到以下中的一个或多个:光盘驱动器、CD-RW驱动器、DVD+RW驱动器、闪存驱动器、存储卡、盘驱动器、硬盘驱动器、固态盘、或固态硬盘。
处理单元可以通过一个或多个另外的外部连接器来连接或具有一个或多个另外的外部连接器,例如以下中的一个或多个:电话连接器、RCA连接器、VGA连接器、两性连接器、USB连接器、HDMI连接器、8P8C连接器、BCN连接器、IEC 60320 C14连接器、光纤连接器、D-超小型连接器、RF连接器、同轴连接器、SCART连接器、XLR连接器、和/或可以包含用于这些连接器中的一个或多个的至少一个合适的插座。
检测第一图像中的面部可以包括识别面部的至少一个预定义或预先确定的几何特征特性。本文所使用的术语“面部的几何特征特性”是广义术语,并且应为本领域普通技术人员赋予其普通和惯用的含义,并且不限于特殊或定制的含义。该术语具体可以指但不限于至少一种基于几何的特征,其描述面部及其组成部分的形状,特别是鼻子、眼睛、嘴或眉毛等中的一个或多个。处理单元可以包括至少一个数据库,其中,面部的几何特征特性被存储在诸如查找表中。用于识别面部的至少一哥预定义或预先确定的几何特征特性的技术通常是本领域技术人员已知的。例如,人脸检测可以如Masi,Lacopo等人“Deep facerecognition:A survey(深度人脸识别:调查)”2018第31届SIBGRAPI图形、图案和图像的会议(SIBGRAPI),IEEE,2018中所述的来执行,其全部内容通过引用包含在内。
处理单元可以被配置为执行至少一种图像分析和/或图像处理以便识别几何特征。图像分析和/或图像处理可以使用至少一种特征检测算法。图像分析和/或图像处理可以包括以下一项或多项:过滤;选择至少一个感兴趣区域;背景校正;分解为颜色通道;分解为色调、饱和度、和/或亮度通道;频率分解;奇异值分解;应用斑点检测器;应用角检测器;应用Hessian滤波器的行列式;应用基于原理曲率的区域检测器;应用梯度位置和取向直方图算法;应用取向梯度描述符的直方图;应用边缘检测器;应用差分边缘检测器;应用Canny边缘检测器;应用高斯拉普拉斯滤波器;应用高斯差分滤波器;应用Sobel算子;应用拉普拉斯算子;应用Scharr算子;应用Prewitt算子;应用罗伯茨算子;应用Kirsch算子;应用高通滤波器;应用低通滤波器;应用傅立叶变换;应用Radon变换;应用霍夫变换;应用小波变换;阈值;创建二值图像。感兴趣区域可以由用户手动确定或者可以自动确定,例如通过识别第一图像内的特征。
具体地,在面部检测步骤之后,可以执行皮肤检测步骤,包括通过使用至少一个照明单元将包括多个照明特征的至少一种照明图案投影到场景上。然而,其中皮肤检测步骤在面部检测步骤之前执行的实施例是可行的。
如本文所使用的,术语“照明单元”,也表示为照明源,通常可以指被配置为生成至少一种照明图案的至少一个任意设备。照明单元可以被配置为提供用于照明场景的照明图案。照明单元可以适于直接或间接照明场景,其中照明图案被场景的表面影响(remit),特别是反射或散射,并且由此至少部分地指向相机。照明单元可以被配置用于例如通过将光束引导朝向场景并反射该光束来照明场景。照明单元可以被配置为生成用于照明场景的照明光束。
照明单元可以包括至少一个光源。照明单元可以包括多个光源。照明单元可以包括人工照明源,特别是至少一个激光源和/或至少一个白炽灯和/或至少一个半导体光源,例如至少一个发光二极管,特别是有机发光二极管和/或无机发光二极管。作为示例,由照明单元发射的光可以具有300至1100nm的波长,特别是500至1100nm。另外或替代地,可以使用红外光谱范围内的光,例如780nm至3.0μm范围内的光。具体地,可以使用硅光电二极管特别适用的近红外区域部分中的光,尤其在700nm至1100nm的范围内的光。
照明单元可以被配置为在红外区域中生成至少一种照明图案。照明特征可以具有近红外(NIR)范围内的波长。照明特征可以具有约940nm的波长。在此波长下,黑色素吸收耗尽,因此暗和亮的复合体反射光几乎相同。然而,NIR区域中的其他波长也是可能的,例如805nm、830nm、835nm、850nm、905nm或980nm中的一种或多种。此外,使用近红外区域中的光使得光不能被人眼检测到或仅微弱地被人眼检测到,并且仍然可以被硅传感器、特别是标准硅传感器检测到。
照明单元可以被配置为发射单一波长的光。在其他实施例中,照明单元可以被配置为发射具有多个波长的光,从而允许在其他波长通道中进行附加测量。
如本文所使用的,术语“光线”通常指的是垂直于光的波前的、指向能量流的方向的线。如本文所使用的,术语“束”通常指的是光线的集合。在下文中,术语“光线”和“束”将用作同义词。如本文进一步使用的,术语“光束”通常指光的量,具体地指基本上沿相同方向行进的光的量,包括光束具有扩展角或加宽角的可能性。光束可以具有空间延伸。具体地,光束可以具有非高斯光束轮廓。光束轮廓可以选自包括以下组成的组:梯形光束轮廓;三角形光束轮廓;锥形光束轮廓。梯形光束轮廓可以具有平台区域和至少一个边缘区域。光束具体可以是高斯光束或高斯光束的线性组合,如下面将进一步详细概述的。然而,其他实施例也是可行的。
照明单元可以是或者可以包括至少一个多光束光源。例如,照明单元可以包括至少一个激光源和一个或多个衍射光学元件(DOE)。具体地,照明单元可以包括至少一个激光器和/或激光源。可以采用各种类型的激光器,例如半导体激光器、双异质结构激光器、外腔激光器、分离约束异质结构激光器、量子级联激光器、分布式布拉格反射器激光器、偏振子激光器、混合硅激光器、扩展腔二极管激光器、量子点激光器、体布拉格光栅激光器、砷化铟激光器、晶体管激光器、二极管泵浦激光器、分布反馈激光器、量子阱激光器、带间级联激光器、砷化镓激光器、半导体环形激光器、扩展腔二极管激光器、或垂直腔表面发射激光器。另外或替代地,可以使用非激光光源,例如LED和/或灯泡。照明单元可以包括适于生成照明图案的一个或多个衍射光学元件(DOE)。例如,照明单元可适于生成和/或投影点云,例如照明单元可包括以下中的一个或多个:至少一个数字光处理投影仪、至少一个LCoS投影仪、至少一个空间光调制器;至少一衍射光学元件;至少一个发光二极管阵列;至少一个激光光源阵列。由于其通常限定的光束轮廓和可操作性的其他性质,使用至少一个激光源作为照明单元是特别优选的。照明单元可以集成到相机的外壳中或者可以与相机分离。
此外,照明单元可以被配置为发射调制的或非调制的光。在使用多个照明单元的情况下,不同的照明单元可以具有不同的调制频率,其稍后可以用于区分光束。
由照明单元生成的一个或多个光束通常可以平行于光轴或相对于光轴倾斜地传播,例如包括与光轴成一定角度。照明单元可以被配置为使得一个或多个光束沿着照明单元和/或相机的光轴从照明单元朝向场景传播。为此目的,照明单元和/或相机可以包括至少一个反射元件,优选地至少一个棱镜,用于将照明光束偏转到光轴上。作为示例,一个或多个光束,例如激光束,与光轴可以包括小于10°、优选地小于5°或甚至小于2°的角度。然而,其他实施例也是可行的。此外,一个或多个光束可以在光轴上或离开光轴。作为示例,一个或多个光束可以平行于光轴,并且与光轴的距离小于10mm,优选地与光轴的距离小于5mm,或者甚至小于1mm,或者甚至可以与光轴重合。
如本文所使用的,术语“至少一种照明图案”指的是包括适于照明场景的至少一部分的至少一种照明特征的至少一种任意图案。如本文所使用的,术语“照明特征”指的是图案的至少一个至少部分延伸的特征。照明图案可以包括单个照明特征。照明图案可以包括多个照明特征。照明图案可以选自包括以下组成的组:至少一个点图案;至少一个线图案;至少一个条纹图案;至少一个棋盘图案;包括周期性或非周期性特征的排列的至少一个图案。照明图案可以包括规则的和/或恒定的和/或周期性的图案,例如三角形图案、矩形图案、六边形图案或包括另外的凸形拼接的图案。照明图案可以呈现选自包括以下各项组成的组中的至少一个照明特征:至少一个点;至少一行;至少两条线,例如平行线或交叉线;至少一个点和一条线;周期性或非周期性特征的至少一种排列;至少一个任意形状的特征。照明图案可以包括选自包括以下各项组成的组中的至少一种图案:至少一个点图案,特别是伪随机点图案;随机点图案或准随机图案;至少一种Sobol图案;至少一种准周期图案;包括至少一种已知特征的至少一种图案;至少一种规则图案;至少一个三角形图案;至少一种六边形图案;至少一种矩形图案,包括凸形均匀拼贴的至少一种图案;包括至少一个线的至少一个线图案;包括至少两条线(例如平行线或交叉线)的至少一个线图案。例如,照明单元可以适于生成和/或投影点云。照明单元可包括至少一个光投射器,其适于生成点云,使得照明图案可包括多个点图案。照明图案可以包括周期性的激光光斑网格。照明单元可以包括至少一个掩模,该至少一个掩模适合于从由照明单元生成的至少一束光束生成照明图案。
照明图案的两个特征之间的距离和/或至少一个照明特征的区域可以取决于图像中的弥散圆(circle of confusion)。如上所述,照明单元可以包括被配置为生成至少一种照明图案的至少一个光源。具体地,照明单元包括至少一个激光源和/或至少一个激光二极管,其被指定用于产生激光辐射。照明单元可以包括至少一个衍射光学元件(DOE)。照明单元可以包括至少一个点投影仪,例如至少一个激光源和DOE,其适于投影至少一种周期性点图案。如本文进一步使用的,术语“投影至少一种照明图案”可以指提供用于照明至少一个场景的至少一种照明图案。
皮肤检测步骤包括使用相机确定至少一个第二图像,也表示为反射图像。该方法可以包括确定多个第二图像。多个第二图像的反射特征可以用于步骤b)中的皮肤检测和/或用于步骤c)中的3D检测。
第二图像包括由场景响应于照明特征的照明而生成的多个反射特征。如本文所使用的,术语“反射特征”可以指由场景响应于照明(具体地具有至少一个照明特征)而生成的图像平面中的特征。每个反射特征包括至少一个光束轮廓,也表示为反射光束轮廓。如本文所使用的,术语反射特征的“光束轮廓”通常可以指反射特征的至少一个强度分布,例如光学传感器上的光斑的强度分布,作为像素的函数。光束轮廓可以选自包括以下组成的组:梯形光束轮廓;三角形光束轮廓;锥形光束轮廓和高斯光束轮廓的线性组合。
第二图像的评估可以包括识别第二图像的反射特征。处理单元可以被配置为执行至少一种图像分析和/或图像处理以便识别反射特征。图像分析和/或图像处理可以使用至少一种特征检测算法。图像分析和/或图像处理可以包括以下一项或多项:过滤;选择至少一个感兴趣区域;形成由传感器信号创建的图像与至少一个偏移之间的差异图像;通过反转由传感器信号创建的图像来反转(inversion)传感器信号;形成由传感器信号在不同时间创建的图像之间的差异图像;背景校正;分解为颜色通道;分解为色调;饱和;以及亮度通道;频率分解;奇异值分解;应用斑点检测器;应用角点检测器;应用Hessian滤波器的行列式;应用基于原理曲率的区域检测器;应用最大稳定极值区域检测器;应用广义霍夫变换;应用脊检测器;应用仿射不变特征检测器;应用仿射自适应兴趣点算子;应用哈里斯仿射区域检测器;应用Hessian仿射区域检测器;应用尺度不变特征变换;应用尺度空间极值检测器;应用局部特征检测器;应用加速鲁棒特征算法;应用梯度位置和取向直方图算法;应用取向梯度描述符的直方图;应用Deriche边缘检测器;应用差分边缘检测器;应用时空兴趣点检测器;应用Moravec角点检测器;应用Canny边缘检测器;应用高斯拉普拉斯滤波器;应用高斯差分滤波器;应用Sobel算子;应用拉普拉斯算子;应用Scharr算子;应用Prewitt算子;应用Roberts算子;应用Kirsch算子;应用高通滤波器;应用低通滤波器;应用傅立叶变换;应用Radon变换;应用霍夫变换;应用小波变换;阈值;创建二值图像。感兴趣区域可以由用户手动确定或者可以自动确定,例如通过识别由光学传感器生成的图像内的特征。
例如,照明单元可以被配置为生成和/或投影点云,使得在光学传感器(例如CMOS检测器)上生成多个照明区域。另外,光学传感器上可能存在干扰,例如由于斑点和/或外来光和/或多个反射造成的干扰。处理单元可适于确定至少一个感兴趣区域,例如由光束照射的一个或多个像素,其用于确定相应反射特征的纵向坐标,这将在下面更详细地描述。例如,处理单元可以适于执行过滤方法,例如斑点分析和/或边缘过滤和/或对象识别方法。
处理单元可以被配置为执行至少一个图像校正。图像校正可以包括至少一种背景扣除。处理单元可以适于例如通过无需进一步照明的成像来从光束轮廓中去除背景光的影响。
处理单元可以被配置为确定相应反射特征的光束轮廓。如本文所使用的,术语“确定光束轮廓”是指识别由光学传感器提供的至少一个反射特征和/或选择由光学传感器提供的至少一个反射特征以及评估该反射特征的至少一个强度分布。作为示例,可以使用和评估矩阵的区域来确定强度分布,例如三维强度分布或二维强度分布,例如沿着穿过矩阵的轴或线。作为示例,可以诸如通过确定具有最高照明的至少一个像素来确定由光束的照明中心,并且可以选择通过照明中心的横截面轴。强度分布可以是作为沿着穿过照明中心的横截面轴的坐标的函数的强度分布。其他评估算法也是可行的。
反射特征可以覆盖第二图像的至少一个像素或者可以在第二图像的至少一个像素之上延伸。例如,反射特征可以覆盖多个像素或者可以在多个像素之上延伸。处理单元可以被配置为确定和/或选择连接到反射特征(例如光点)和/或属于反射特征(例如光点)的所有像素。处理单元可以被配置为通过以下方式确定强度中心:
其中,Rcoi是强度中心的位置,rpixel是像素位置,并且l=∑jItotal其中,j是连接到和/或属于反射特征的像素数目j,并且Itotal是总强度。
处理单元被配置为通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少一个反射特征的光束轮廓来确定至少一个反射特征的第一光束轮廓信息。该方法可以包括识别与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域。具体地,该方法可以包括匹配第一图像和第二图像的像素并且选择与第一图像的包括所识别的几何特征的图像区域相对应的第二图像的像素。该方法可以包括另外考虑位于第二图像的所述图像区域之外的另外的反射特征。
如本文所使用的,术语“光束轮廓信息”可以指从反射特征的光束轮廓导出的和/或与其相关的任意信息和/或性质。第一和第二光束轮廓信息可以相同或可以不同。例如,第一光束轮廓信息可以是强度分布、反射轮廓、强度中心、材料特征。对于步骤b)中的皮肤检测,可以使用光束轮廓分析。具体来说,光束轮廓分析利用投射到对象表面上的相干光的反射性质来对材料进行分类。材料的分类可以如WO 2020/187719、2020年2月28日提交的EP申请20159984.2和/或2020年1月31日提交的EP申请20154961.5中所述来执行,其全部内容通过引用并入。具体地,投影周期性的激光光斑网格,例如2020年4月22日提交的EP申请20170905.2中描述的六边形网格,并用相机记录反射图像。可以通过基于特征的方法来执行分析由相机所记录的每个反射特征的光束轮廓。基于特征的方法可以在下面解释。基于特征的方法可以与机器学习方法结合使用,机器学习方法可以允许皮肤分类模型的参数化。替代地或组合地,可以利用卷积神经网络通过使用反射图像作为输入来对皮肤进行分类。
用于验证用户面部的其他方法是已知的,例如来自US2019/213309 A1。然而,这些方法使用飞行时间(ToF)传感器。ToF传感器众所周知的工作原理是发出光并测量直到接收到反射光的时间跨度。相反,所提出的光束轮廓分析使用投影照明图案。对于ToF传感器来说,使用这种投影图案是不可能的。例如考虑到覆盖并因此允许考虑面部上的不同位置,使用照明图案可能是有利的。这可以增强用户面部认证的可靠性和安全性。
皮肤检测步骤可以包括通过使用处理单元从光束轮廓信息确定反射特征的至少一种材料性质。具体地,处理单元被配置为在其反射光束轮廓满足至少一个预定或预定义标准的情况下,识别将通过照射生物组织、特别是人类皮肤而生成的反射特征。如本文所使用的,术语“至少一种预定或预定义的标准”指的是适合于将生物组织(特别是人类皮肤)与其他材料区分开的至少一种性质和/或值。预定或预定义标准可以是或可以包括涉及材料性质的至少一个预定或预定义值和/或阈值和/或阈值范围。在反射光束轮廓满足至少一个预定或预定义标准的情况下,反射特征可以被指示为由生物组织生成。如本文所使用的,术语“指示”指的是任意指示,例如电子信号和/或至少一种视觉或听觉指示。处理单元被配置为否则将反射特征识别为非皮肤。如本文所用,术语“生物组织”通常指包含活细胞的生物材料。具体地,处理单元可以被配置用于皮肤检测。由生物组织(特别是人类皮肤)生成的术语“识别”可以指确定和/或验证待检查或测试中的表面是否是或包括生物组织(特别是人类皮肤),和/或区分生物组织(特别是人类皮肤)与其他组织(特别是其他表面)。根据本发明的方法可以允许将人类皮肤与无机组织、金属表面、塑料表面、泡沫、纸张、木材、显示器、屏幕、布料中的一种或多种区分开。根据本发明的方法可以允许将人类生物组织与人造或非生命对象的表面区分开。
处理单元可以被配置为通过评估反射特征的光束轮廓来确定发射反射特征的表面的材料性质m。如本文所使用的,术语“材料性质”是指被配置用于表征和/或识别和/或分类材料的材料的至少一种任意性质。例如,材料性质可以是选自包括以下组成的组的性质:粗糙度、光进入材料的穿透深度、表征材料作为生物或非生物材料的性质、反射率、镜面反射率、漫反射率、表面性质、半透明度的测量、散射、特别是背散射行为等。至少一种材料性质可以是选自包括以下各项组成的组的性质:散射系数、半透明度、透明度、Lambertian表面反射的偏差、散斑等。如本文所使用的,术语“确定至少一种材料性质”可以指将材料性质分配给相应的反射特征,特别是分配给检测到的面部。处理单元可以包括至少一个数据库,该数据库包括预定义和/或预先确定的材料性质的列表和/或表格,例如查找列表或查找表格。材料性质的列表和/或表格可以通过执行至少一种测试测量来确定和/或生成,例如通过使用具有已知材料性质的样本来执行材料测试。材料性质的列表和/或表格可以在制造商处和/或由用户确定和/或生成。材料性质还可以被分配给材料分类器,例如以下中的一个或多个:材料名称、材料组,例如生物或非生物材料、半透明或非半透明材料、金属或非金属、皮肤或非皮肤、毛皮或非毛皮、地毯或非地毯、反射或非反射、镜面反射或非镜面反射、泡沫或非泡沫、毛发或非毛发、粗糙度组等。处理单元可以包括至少一个数据库,该数据库包括列表和/或表格,该列表和/或表格包括材料性质和相关联的材料名称和/或材料组。
皮肤的反射性质可以通过同时发生表面直接反射(类Lambertian)和次表面散射(体积散射)来表征。与上述材料相比,这导致皮肤上的激光光斑变宽。
第一光束轮廓信息可以是反射轮廓。例如,不希望受该理论的束缚,人类皮肤可以具有反射轮廓,也表示为后散射轮廓,包括由表面的后向反射生成的部分(表示为表面反射)和由穿透皮肤的光的非常漫反射生成的部分,表示为背向反射的漫射部分。关于人体皮肤的反射轮廓,参考“Lasertechnik in der Medizin:Grundlagen、Systeme、Anwendungen”,“Wirkung von Laserstrahlung auf Gewebe”,1991年,第10 171至266页,Jürgen Eichler、Theo Seiler、Springer Verlag,ISBN 0939-0979。皮肤的表面反射可能随着波长向近红外方向增加而增加。此外,穿透深度可以随着波长从可见光到近红外的增加而增加。背向反射的漫射部分可以随着光的穿透深度而增加。通过分析背向散射分布,这些性质可用于区分皮肤与其他材料。
具体地,处理单元可以被配置为将反射光束轮廓与至少一个预定的和/或预先记录的和/或预定义的光束轮廓进行比较。预定的和/或预记录的和/或预定义的光束轮廓可以被存储在表格或查找表中,并且可以例如根据经验来确定,并且作为示例可以存储在检测器的至少一个数据存储设备中。例如,可以在执行根据本发明的方法的设备的初始启动期间,确定预定的和/或预先记录的和/或预定义的光束轮廓。例如,预定的和/或预先记录的和/或预定义的光束轮廓可以例如通过软件、具体地通过从应用程序商店等下载的应用程序而存储在处理单元或设备的至少一个数据存储设备中。在反射光束轮廓与预定的和/或预先记录的和/或预定义光束轮廓相同的情况下,反射特征可以被识别为由生物组织生成。该比较可以包括重叠反射光束轮廓和预定的或预定义的光束轮廓,使得它们的强度中心匹配。该比较可以包括确定反射光束轮廓与预定和/或预先记录和/或预定义的光束轮廓之间的偏差,例如点对点距离的平方和。处理单元可以适于将所确定的偏差与至少一个阈值进行比较,其中在所确定的偏差低于和/或等于阈值的情况下,表面被指示为生物组织和/或生物组织的检测被确认。阈值可以存储在表格或查找表中,并且可以例如根据经验来确定,并且作为示例可以存储在处理单元的至少一个数据存储设备中。
另外或替代地,可以通过将至少一个图像滤波器应用到该区域的图像来确定第一光束轮廓信息。如本文进一步使用的,术语“图像”指的是二维函数f(x,y),其中对于图像中的任何x,y位置给出亮度和/或颜色值。该位置可以对应于记录像素被离散化。亮度和/或颜色可以对应于光学传感器的位深度而被离散化。如本文所使用的,术语“图像滤波器”指的是应用于光束轮廓和/或光束轮廓的至少一个特定区域的至少一种数学运算。具体来说,图像滤波器Ф将图像f或图像中的感兴趣区域映射到实数其中/>表示特征,特别是材料特征。图像可能会受到噪声的影响,对于特征也是如此。因此,特征可能是随机变量。这些特征可以是正态分布的。如果特征不是正态分布的,则可以例如通过Box-Cox变换将它们变换为正态分布。
处理单元可以被配置为通过将至少一个材料相关图像滤波器Ф2应用于图像来确定至少一个材料特征如本文所使用的,术语“材料相关”图像滤波器指的是具有材料相关输出的图像。材料相关图像滤波器的输出在本文中表示为“材料特征/>”或“材料相关特征/>”。材料特征可以是或者可以包括关于已生成反射特征的场景的表面的至少一种材料性质的至少一种信息。
材料相关图像滤波器可以是选自包括以下各项组成的组中的至少一种滤波器:亮度滤波器;点形状滤波器;平方范数梯度;标准差;平滑滤波器,例如高斯滤波器或中值滤波器;基于灰度级出现的对比滤波器;基于灰度级出现的能量滤波器;基于灰度级出现(grey-level-occurrence-based)的均匀(homogeneity)滤波器;基于灰度级出现的相异性(dissimilarity)滤波器;定律(Law)的能量滤波器;阈值区域滤波器;或其线性组合;或者进一步与材料相关的图像滤波器Ф2other,其与以下中的一个或多个相关:亮度滤波器、光斑(spot)形状滤波器、平方范数梯度、标准差、平滑度滤波器、基于灰度级出现的能量滤波器、基于灰度级出现的均匀滤波器、基于灰度出现的相异性滤波器、定律的能量滤波器、或阈值区域滤波器、或它们的线性组合|ρФ2other,Фm|≥0.40,其中Фm为以下中的一个或多个:亮度滤波器、光斑形状滤波器、平方范数梯度、标准差、平滑滤波器、基于灰度级出现的能量滤波器、基于灰度级出现的均匀滤波器、基于灰度级出现的相异性滤波器、定律的能量滤波器、或阈值区域滤波器、或它们的线性组合。另一材料相关图像滤波器Ф2other可以通过|ρФ2other,Фm|≥0.60,优选通过|ρФ2other,Фm|≥0.80与材料相关图像滤波器Фm中的一个或多个相关。
材料相关图像滤波器可以是通过假设检验的至少一个任意滤波器Φ。如本文所使用的,术语“通过假设检验”是指拒绝零(Null)假设H0并接受替代假设H1的事实。假设检验可以包括通过将图像滤波器应用于预定义的数据集来测试图像滤波器的材料相关性。该数据集可以包括多个光束轮廓图像。如本文所使用的,术语“光束轮廓图像”是指NB高斯径向基函数的和
其中,每个NB高斯径向基函数由中心(xlk,ylk)、前置因子alk、和指数因子α=1/∈来定义。对于所有图像中的所有高斯函数,指数因子都是相同的。对于所有图像fk,中心位置xlk、ylk都是相同的:数据集中的每个光束轮廓图像可以对应于材料分类器和距离。材料分类器可以是“材料A”、“材料B”等标签。可以使用上述公式fk(x,y)并结合以下参数表来生成光束轮廓图像:
x、y的值是对应于具有的像素的整数。图像可以具有像素大小为32x32。光束轮廓图像的数据集可以通过使用上述公式fk并结合参数集来生成,以获得fk的连续描述。32x32图像中的每个像素的值可以通过在fk(x,y)中针对x、y插入0、…、31中的整数值来获得。例如,对于像素(6,9),可以计算值fk(6,9)。
随后,对于每个图像fk,可以计算对应于滤波器Φ的特征值/>其中zk是对应于来自预定义数据集的图像的fk距离值。这会产生具有对应生成的特征值/>的数据集。假设检验可以使用零假设,即滤波器不区分材料分类器。零假设可以由H0:μ1=μ2=…=μJ给出,其中μm是对应于特征值/>的每个材料组的期望值。索引m表示材料组。假设检验可以使用滤波器确实区分至少两个材料分类器的替代假设。替代假设可由H1:/>m′:μm≠μm′给出。如本文所使用的,术语“不区分材料分类器”是指材料分类器的期望值是相同的。如本文所使用的,术语“区分材料分类器”是指材料分类器的至少两个期望值不同。如本文所用,“区分至少两个材料分类器”与“合适的材料分类器”同义。假设检验可以包括对所生成的特征值的至少一种方差分析(ANOVA)。具体地,假设检验可以包括确定每种J材料的特征值的平均值,即总J平均值,/>对于m∈[0,1,…,J-1],其中,Nm给出预定义数据集中的每种J材料的特征值的数量。假设检验可以包括确定所有N个特征值的平均值/>假设检验可以包括确定以下内的均方和:
假设检验可以包括确定以下之间的均方和,
假设检验可以包括执行F检验:
其中,d1=N-J,d2=J-1,
F(x)=1–CDF(x)
p=F(mssb/mssw)
这里,Ix是正则化的不完全Beta函数,其中,欧拉Beta函数并且/>是不完全Beta函数。如果p值p小于或等于预定义的显着性水平,则图像滤波器可以通过假设检验。如果p≤0.075,优选地p≤0.05,更优选地p≤0.025,并且最优选地p≤0.01,则滤波器可以通过假设检验。例如,在预定义的显着性水平为α=0.075的情况下,如果p值小于α=0.075,则图像滤波器可以通过假设检验。在这种情况下,可以拒绝零假设H0并且可以接受替代假设H1。图像滤波器因此区分至少两个材料分类器。因此,图像滤波器通过了假设检验。
下面,假设反射图像包括至少一个反射特征,特别是光斑图像,来描述图像滤波器。光斑图像f可以由函数f:给出,其中,图像f的背景可能已经被减去。然而,其他反射特征也是可能的。
例如,材料相关图像滤波器可以是亮度滤波器。亮度滤波器可以返回光斑的亮度测量作为材料特征。材料特征可以由下式确定
其中,f是光斑图像。光斑的距离由z表示,其中z可以例如通过使用离焦深度或光子深度比(depth-from-photon ratio)技术和/或通过使用三角测量技术来获得。材料的表面法线由给出并且可以作为由至少三个测量光斑跨越的表面的法线来获得。该矢量/>是光源的方向矢量。由于通过使用离焦深度或光子深度比率技术和/或通过使用三角测量技术来了解光斑的位置,其中光源的位置被称为检测器系统的参数,dray,是光斑位置和光源位置之间的差矢量。
例如,材料相关图像滤波器可以是具有取决于光斑形状的输出的滤波器。该材料相关图像滤波器可以返回与材料的半透明度相关的值作为材料特征。材料的半透明度会影响光斑的形状。材料特征可由下式给出
其中,0<α,β<1是光斑高度h的权重,以及H表示Heavyside函数,即H(x)=1∶x≥0,H(x)=0∶x<0。光斑高度h可以由下式确定
其中Br是半径为r的光斑的内圆。
例如,材料相关图像滤波器可以是平方范数梯度。该材料相关图像滤波器可以返回与光斑的软和硬过渡和/或粗糙度的测量相关的值作为材料特征。材料特征可以定义为
例如,材料相关图像滤波器可以是标准偏差。光斑的标准偏差可以由下式确定
其中,μ是由下式给出的平均值:μ=∫(f(x))dx。
例如,材料相关图像滤波器可以是平滑滤波器,例如高斯滤波器或中值滤波器。在平滑滤波器的一个实施例中,该图像滤波器可以指的是体散射与漫散射材料相比表现出较小的散斑(speckle)对比度的观察结果。该图像滤波器可以将与散斑对比度相对应的光斑的平滑度量化为材料特征。
材料特征可以由下式确定
其中,是平滑函数,例如中值滤波器或高斯滤波器。该图像滤波器可以包括除以距离z,如上面的公式中所描述的。距离z可以例如使用离焦深度或光子深度比率技术和/或通过使用三角测量技术来确定。这可以允许滤波器对距离不敏感。在平滑滤波器的一个实施例中,平滑滤波器可以基于所提取的散斑噪声图案的标准偏差。散斑噪声图案N可以用经验方式描述为
f(x)=f0(x)·(N(X)+1),
其中,f0是去斑(despeckle)光斑的图像。N(X)是模拟(model)散斑图案的噪声项。去斑图像的计算可能很困难。因此,去斑图像可以用f的平滑版本来近似,即其中,/>是平滑算子,如高斯滤波器或中值滤波器。因此,散斑图案的近似值可以由下式给出
该滤波器的材料特征可以由下式确定
其中,Var表示方差函数。
例如,图像滤波器可以是基于灰度级出现的对比度滤波器。该材料滤波器可以基于灰度级出现的矩阵Mf,ρ(g1g2)=[pg1,g2],而pg1,g2为灰度组合的出现率(g1,g2)=[f(x1,y1),f(x2,y2)],以及关系ρ定义了(x1,y1)与(x2,y2)之间的距离,即ρ(x,y)=(x+a,y+b),其中,a和b选自0、1。
基于灰度级出现的对比滤波器的材料特征可以由下式给出
例如,图像滤波器可以是基于灰度级出现的能量滤波器。该材料过滤器基于上面定义的灰度级出现的矩阵。
基于灰度级发生的能量滤波器的材料特征可以由下式给出
例如,图像滤波器可以是基于灰度级出现的均匀滤波器。该材料滤波器基于上面定义的灰度级出现的矩阵。
基于灰度级出现的均匀滤波器的材料特征可以由下式给出
例如,图像滤波器可以是基于灰度级出现的相异性滤波器。该材料滤波器基于上面定义的灰度级出现矩阵。
基于灰度级出现的相异性滤波器的材料特征可以由下式给出
例如,图像滤波器可以是定律的能量滤波器。该材料滤波器可以基于定律矢量L5=[1,4,6,4,1]和E5=[-1,-2,0,-2,-1]以及矩阵L5(E5)T和E5(L5)T。
图像fk与这些矩阵进行卷积:
和
而定律的能量过滤器的材料特征可以由下式确定:
例如,材料相关图像滤波器可以是阈值区域滤波器。该材料特征可以将图像平面中的两个区域关联起来。第一区域Ω1可以是其中函数f大于f的最大值的α倍的区域。第二区域Ω2可以是其中函数f小于f的最大值的α倍但大于f的最大值的阈值ε倍的区域。优选地,α可以是0.5并且ε可以是0.05。由于散斑或噪声,这些区域可能不简单地对应于光斑中心周围的内圆和外圆。作为示例,Ω1可以包括外圆中的散斑或不连接的区域。
材料特征可以由下式确定
其中,Ω1={x|f(x)>α·max(f(x))}且Ω2={x|ε·max(f(x))<f(x)<α·max(f(x))}。
处理单元可以被配置为使用材料特征和已生成反射特征的表面的材料性质之间的至少一种预定关系来确定已生成反射特征的表面的材料性质。预定关系可以是经验关系、半经验关系和分析得出的关系中的一种或多种。处理单元可包括至少一数据存储设备,用于存储预定关系,例如查找列表或查找表。
虽然如上所述的基于特征的方法足以准确地区分皮肤和仅表面散射材料,但皮肤和精心选择的攻击材料(也涉及体积散射)之间的区分更具挑战性。步骤b)可以包括使用人工智能,特别是卷积神经网络。使用反射图像作为卷积神经网络的输入可以生成具有足够精度的分类模型,以区分皮肤和其他体积散射材料。由于通过选择反射图像中的重要区域仅将物理上有效的信息传递到网络,因此可能仅需要紧凑的训练数据集。此外,还可以生成非常紧凑的网络架构。
具体地,在皮肤检测步骤中,可以使用至少一种参数化皮肤分类模型。参数化皮肤分类模型可以被配置为通过使用第二图像作为输入来对皮肤和其他材料进行分类。皮肤分类模型可以通过使用机器学习、深度学习、神经网络或其他形式的人工智能中的一种或多种来参数化。本文所使用的术语“机器学习”是广义术语,并且应被赋予本领域普通技术人员其普通和惯常的含义,并且不限于特殊或定制的含义。该术语具体可以指但不限于使用人工智能(AI)来自动模型构建、特别是参数化模型的方法。术语“皮肤分类模型”可以指被配置为将人类皮肤与其他材料区分开的分类模型。可以通过根据皮肤分类模型上的至少一个优化目标,应用优化算法来确定皮肤的性质特性。机器学习可以基于至少一个神经元网络,特别是卷积神经网络。神经元网络的权重和/或拓扑可以是预定的和/或预定义的。具体地,可以使用机器学习来执行皮肤分类模型的训练。皮肤分类模型可以包括至少一种机器学习架构和模型参数。例如,机器学习架构可以是或者可以包括以下一项或多项:线性回归、逻辑回归、随机森林、朴素贝叶斯分类、最近邻、神经网络、卷积神经网络、生成对抗网络、支持向量机、或梯度提升算法等。如本文所使用的,术语“训练”也表示学习,是广义术语并且将被赋予本领域普通技术人员其普通和惯常的含义,并且不限于特殊或定制的含义。该术语具体可以指但不限于构建皮肤分类模型的过程,特别是确定和/或更新皮肤分类模型的参数。皮肤分类模型可以至少部分地由数据驱动。例如,皮肤分类模型可以基于实验数据,例如通过照明多个人和诸如面具的人造对象并记录反射图案而确定的数据。例如,训练可以包括使用至少一个训练数据集,其中训练数据集包括多个人和具有已知材料性质的人造对象的图像,特别是第二图像。
皮肤检测步骤可以包括使用至少一种2D面部和面部标志检测算法,其被配置为提供人脸的特性点的至少两个位置。例如,位置可以是眼睛位置、前额或脸颊。2D面部和面部标志检测算法可以提供人脸的特性点的位置,例如眼睛位置。由于面部不同区域(例如前额或脸颊)的反射存在细微差异,因此可以训练区域特定的模型。在皮肤检测步骤中,优选地使用至少一种区域特定的参数化皮肤分类模型。皮肤分类模型可以包括多个区域特定的参数化皮肤分类模型,例如针对不同区域,和/或可以使用区域特定数据来训练皮肤分类模型,例如通过过滤用于训练的图像。例如,为了训练,可以使用两个不同的区域,例如鼻子下方的眼-脸颊区域,并且特别是在该区域内不能识别足够的反射特征的情况下,可以使用前额的区域。然而,其他区域也是可能的。
如果材料性质对应于皮肤的至少一种性质特性,则检测到的面部被表征为皮肤。处理单元可以被配置为在其对应的材料性质满足至少一个预定或预定义标准的情况下,识别将通过照明生物组织、特别是皮肤而生成的反射特征。在材料性质指示“人类皮肤”的情况下,反射特征可以被识别为由人类皮肤生成。如果材料性质在至少一个阈值和/或至少一个范围内,则反射特征可以被识别为由人类皮肤生成。至少一个阈值和/或范围可以存储在表格或查找表中,并且可以例如凭经验确定,并且作为示例可以存储在处理单元的至少一个数据存储设备中。处理单元被配置为否则将反射特征识别为背景。因此,处理单元可以被配置为向每个投影点分配材料性质,例如皮肤是或否。
3D检测步骤可以在皮肤检测步骤和/或面部检测步骤之后执行。然而,其他实施例也是可行的,其中,3D检测步骤在皮肤检测步骤和/或面部检测步骤之前执行。在步骤d)中确定纵向坐标z之后,可以通过随后评估来确定材料性质,使得可以考虑关于纵向坐标z的信息来评估/>
3D检测步骤包括通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少四个反射特征的光束轮廓来确定至少四个反射特征的第二光束轮廓信息。3D检测步骤可以包括通过分析至少四个反射特征各自的光束轮廓来确定它们的第二光束轮廓信息。第二光束轮廓信息可以包括光束轮廓的区域的商(quotient)Q。
如本文所使用的,术语“光束轮廓的分析”通常可以指的是光束轮廓的评估,并且可以包括至少一种数学运算和/或至少一种比较和/或至少对称化和/或至少一种滤波和/或至少一种归一化。例如,光束轮廓的分析可以包括直方图分析步骤、差异测量的计算、神经网络的应用、机器学习算法的应用中的至少一项。处理单元可以被配置用于对称化和/或归一化和/或过滤光束轮廓,特别是去除来自在较大角度下的记录、记录边缘等的噪声或不对称性。处理单元可以通过去除高空间频率(例如通过空间频率分析和/或中值滤波等)来对光束轮廓进行滤波。可以通过光斑的强度中心并对距中心相同距离处的所有强度进行平均来执行汇总。处理单元可以被配置为将光束轮廓归一化为最大强度,特别是考虑到由于所记录的距离而导致的强度差异。处理单元可以被配置为例如通过在没有照明的情况下成像来从光束轮廓中去除来自背景光的影响。
处理单元可以被配置为通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的反射特征的光束轮廓来确定相应的反射特征的至少一个纵向坐标zDPR。处理单元可以被配置为通过使用所谓的光子深度比技术(也表示为光束轮廓分析)来确定反射特征的纵向坐标zDPR。关于光子深度比(DPR)技术参考WO 2018/091649A1、WO 2018/091638A1和WO 2018/091640A1,其全部内容通过引用并入。
处理单元可以被配置为确定每个反射特征和/或至少一个感兴趣区域中的反射特征的反射光束轮廓的至少一个第一区域和至少一个第二区域。处理单元被配置为整合(integrate)第一区域与第二区域。
对反射特征之一的光束轮廓的分析可以包括确定光束轮廓的至少一个第一区域和至少一个第二区域。光束轮廓的第一区域可以是区域A1并且光束轮廓的第二区域可以是区域A2。处理单元可以被配置为整合第一区域和第二区域。处理单元可以被配置为导出组合信号,特别是商Q、通过以下中的一个或多个:划分(divide)整合的第一区域和整合的第二区域、划分整合的第一区域和整合的第二区域的倍数、划分整合的第一区域和整合的第二区域的线性组合。处理单元可以被配置为确定光束轮廓的至少两个区域和/或将光束轮廓分割成包括光束轮廓的不同区域的至少两个片段,其中只要区域是不相同的,区域的重叠是可能的。例如,处理单元可以被配置为确定多个区域,例如两个、三个、四个、五个或多达十个区域。处理单元可以被配置用于将光斑分割成光束轮廓的至少两个区域和/或将光束轮廓分割成包括光束轮廓的不同区域的至少两个片段。处理单元可以被配置用于针对至少两个区域确定相应区域上的光束轮廓的积分(integral)。处理单元可以被配置用于比较所确定的积分中的至少两个。具体地,处理单元可以被配置为确定光束轮廓的至少一个第一区域和至少一个第二区域。如本文所使用的,术语“光束轮廓的区域”通常指的是用于确定商Q的光学传感器的位置处的光束轮廓的任意区域。光束轮廓的第一区域和光束轮廓的第二区域可以是相邻或重叠区域之一或两者。光束轮廓的第一区域和光束轮廓的第二区域可以在面积上不相同。例如,处理单元可以被配置为将CMOS传感器的传感器区域划分为至少两个子区域,其中,处理单元可以被配置为将CMOS传感器的传感器区域划分为至少一个左侧部分以及至少一个右侧部分和/或至少一个上部部分和至少一个下部部分和/或至少一个内部部分和至少一个外部部分。另外或替代地,相机可以包括至少两个光学传感器,其中第一光学传感器和第二光学传感器的光敏区域可以被布置成使得第一光学传感器适于确定反射特征的光束轮廓的第一区域,并且第二光学传感器适于确定反射特征的光束轮廓的第二区域。处理单元可以适于整合第一区域和第二区域。处理单元可以被配置为使用商Q和纵向坐标之间的至少一种预定关系来确定纵向坐标。预定关系可以是经验关系、半经验关系和分析得出的关系中的一种或多种。处理单元可包括至少一个数据存储设备,用于存储预定关系,例如查找列表或查找表。
光束轮廓的第一区域可以基本上包括光束轮廓的边缘信息,并且光束轮廓的第二区域可以基本上包括光束轮廓的中心信息,和/或光束轮廓的第一区域可以基本上包括关于光束轮廓的左侧部分的信息,以及光束轮廓的第二区域基本上包括关于光束轮廓的右侧部分的信息。光束轮廓可以具有中心,即光束轮廓的最大值和/或光束轮廓的平台的中心点和/或光斑的几何中心,以及从中心延伸的下降边缘。第二区域可以包括横截面的内部区域并且第一区域可以包括横截面的外部区域。如本文所使用的,术语“基本上中心信息”通常指与中心信息的比例(即,对应于中心的强度分布的比例)相比,边缘信息的比例(即,对应于边缘的强度分布的比例)低。优选地,中心信息具有小于10%的边缘信息的比例,更优选地小于5%,最优选地中心信息不包括边缘内容。如本文所使用的,术语“基本上边缘信息”通常指的是与边缘信息的比例相比,中心信息的比例较低。边缘信息可以包括整个光束轮廓的信息,特别是来自中心和边缘区域的信息。边缘信息可以具有小于10%的中心信息的比例,优选地小于5%,更优选地边缘信息不包括中心内容。如果光束轮廓的至少一个区域靠近或围绕中心并且基本上包括中心信息,则可以将其确定和/或选择为光束轮廓的第二区域。如果光束轮廓的至少一个区域包括横截面的下降边缘的至少一部分,则可以将其确定和/或选择为光束轮廓的第一区域。例如,可以将横截面的整个区域确定为第一区域。
第一区域A1和第二区域A2的其他选择也是可行的。例如,第一区域可以包括光束轮廓的基本上外部区域,并且第二区域可以包括光束轮廓的基本上内部区域。例如,在二维光束轮廓的情况下,光束轮廓可以分为左侧部分和右侧部分,其中第一区域可以基本上包括光束轮廓的左侧部分的区域,并且第二区域可以基本上包括光束轮廓的右侧部分的区域。
边缘信息可以包括与光束轮廓的第一区域中的光子的数量有关的信息,并且中心信息可以包括与光束轮廓的第二区域中的光子的数量有关的信息。处理单元可以被配置为确定光束轮廓的面积积分。处理单元可以被配置为通过对第一区域进行积分和/或求和来确定边缘信息。处理单元可以被配置为通过对第二区域进行积分和/或求和来确定中心信息。例如,光束轮廓可以是梯形光束轮廓,并且处理单元可以被配置用于确定梯形的积分。此外,当可以假定梯形光束轮廓时,边缘和中心信号的确定可以由利用梯形光束轮廓的性质的等效评估来代替,例如边缘的斜率和位置以及中心平台的高度的确定,并通过几何考虑导出边缘和中心信号。
在一个实施例中,A1可以对应于光学传感器上的特征点的全部或完整区域。A2可以是光学传感器上的特征点的中心区域。中心区域可以是恒定值。与特征点的全部区域相比,中心区域可能更小。例如,在圆形特征点的情况下,中心区域的半径可以为特征点全半径的0.1至0.9,优选为全半径的0.4至0.6。
在一个实施例中,照明图案可包括至少一种线图案。A1可以对应于光学传感器上、特别是光学传感器的光敏区域上的线图案的全线宽的区域。与照明图案的线图案相比,光学传感器上的线图案可以被加宽和/或移位,使得光学传感器上的线宽度增加。具体地,在光学传感器矩阵的情况下,光学传感器上的线图案的线宽可以从一列改变到另一列。A2可以是光学传感器上的线图案的中心区域。中心区域的线宽可以是恒定值,并且特别地可以对应于照明图案中的线宽。与整个线宽相比,中心区域可以具有更小的线宽。例如,中心区域的线宽可以为全线宽的0.1至0.9,优选地为全线宽的0.4至0.6。线图案可以在光学传感器上被分段。光学传感器矩阵的每一列可以包括线图案的中心区域中的强度的中心信息和来自从线图案的中心区域进一步向外延伸到边缘区域的区域的强度的边缘信息。
在一个实施例中,照明图案可以至少包括点图案。A1可以对应于光学传感器上的点图案的点的全半径的区域。A2可以是光学传感器上的点图案中的点的中心区域。中心区域可以是恒定值。中心区域可以具有与全半径相比的半径。例如,中心区域可以具有从全半径的0.1到0.9的半径,优选地从全半径的0.4到0.6。
照明图案可以包括至少一种点图案和至少一种线图案两者。除了线图案和点图案之外或替代线图案和点图案的其他实施例是可行的。
处理单元可以被配置成通过以下中的一个或多个来导出商Q:划分整合的第一区域和整合的第二区域、划分整合的第一区域和整合的第二区域的倍数、划分整合的第一区域和整合的第二区域的线性组合。
处理单元可以被配置为通过以下中的一个或多个来导出商Q:划分第一区域和第二区域、划分第一区域和第二区域的倍数、划分第一区域和第二区域的线性组合。处理单元可以被配置为通过以下方式导出商Q:
其中,x和y是横向坐标,A1和A2分别是光束轮廓的第一和第二区域,以及E(x,y)表示光束轮廓。
另外或替代地,处理单元可适于从光斑的至少一个切片(slice)或切口(cut)确定中心信息或边缘信息中的一者或两者。这可以例如通过将商Q中的区域积分替换为沿切片或切口的线积分来实现。为了提高精度,可以使用穿过光斑的多个切片或切口并对其进行平均。在椭圆形光斑轮廓的情况下,对多个切片或切口进行平均可能会导致改进的距离信息。
例如,在光学传感器具有像素矩阵的情况下,处理单元可以被配置为通过以下方式评估光束轮廓:
-确定具有最高传感器信号并形成至少一个中心信号的像素;
-评估矩阵的传感器信号并形成至少一个和信号;
-通过组合中心信号与和信号来确定商Q;以及
-通过评估商Q来确定对象的至少一个纵向坐标z。
如本文所使用的,“传感器信号”通常指的是由光学传感器和/或光学传感器的至少一个像素响应于照明而生成的信号。具体地,传感器信号可以是或者可以包括至少一种电信号,例如至少一种模拟电信号和/或至少一种数字电信号。更具体地,传感器信号可以是或者可以包括至少一种电压信号和/或至少一种电流信号。更具体地,传感器信号可以包括至少一个光电流。此外,可以使用原始传感器信号,或者显示设备、光学传感器或任何其他元件可以适于处理或预处理传感器信号,从而生成辅助传感器信号,其也可以用作传感器信号,例如通过过滤等进行预处理。术语“中心信号”通常指的是基本上包括光束轮廓的中心信息的至少一个传感器信号。如本文所使用的,术语“最高传感器信号”指的是感兴趣区域中的局部最大值或最大值之一或两者。例如,中心信号可以是由整个矩阵或矩阵内的感兴趣区域的像素生成的多个传感器信号中具有最高传感器信号的像素的信号,其中,感兴趣区域可以在由矩阵的像素所生成的图像内预先确定或可确定。中心信号可以来自单个像素或一组光学传感器,其中,在后一种情况下,作为示例,可以将一组像素的传感器信号相加、积分或平均,以便确定中心信号。产生中心信号的一组像素可以是一组相邻像素,例如与具有最高传感器信号的实际像素的相距小于预定距离的像素,或者可以是生成与最高传感器信号相距预定范围内的传感器信号的一组像素。可以选择尽可能大的产生中心信号的一组像素,以便允许最大动态范围。处理单元可以适于通过对多个传感器信号(例如具有最高传感器信号的像素周围的多个像素)进行积分来确定中心信号。例如,光束轮廓可以是梯形光束轮廓,并且处理单元可以适于确定梯形的积分,特别是梯形的平台的积分。
如上所述,中心信号通常可以是单个传感器信号,例如来自光斑中心的像素的传感器信号,或者可以是多个传感器信号的组合,例如来自光斑中心的像素的传感器信号的组合,或者通过处理由上述可能性中的一种或多种导出的传感器信号而导出的辅助传感器信号。中心信号的确定可以电子方式执行,因为传感器信号的比较通过传统电子设备相当简单地实现,或者可以完全或部分地通过软件执行。具体地,中心信号可以选自包括以下的组:最高传感器信号;在距最高传感器信号的预定公差范围内的一组传感器信号的平均值;来自包含具有最高传感器信号的像素的一组像素和预定的一组相邻像素的传感器信号的平均值;来自包含具有最高传感器信号的像素的一组像素和预定的一组相邻像素的传感器信号的总和;在距最高传感器信号的预定公差范围内的一组传感器信号的总和;高于预定阈值的一组传感器信号的平均值;高于预定阈值的一组传感器信号的总和;来自一组光学传感器的传感器信号的积分,该组光学传感器包含具有最高传感器信号的光学传感器和预定的一组相邻像素;在距最高传感器信号的预定公差范围内的一组传感器信号的积分;高于预定阈值的一组传感器信号的积分。
类似地,术语“总和信号”通常是指基本上包括光束轮廓的边缘信息的信号。例如,可以通过将传感器信号相加、对传感器信号进行积分、或者对整个矩阵或矩阵内的感兴趣区域的传感器信号求平均来导出总和信号,其中感兴趣区域可以是预定的或可在由矩阵的光学传感器生成的图像内确定。当对传感器信号进行相加、积分或平均时,生成传感器信号的实际光学传感器可以被排除在相加、积分或平均之外,或者可替换地,可以被包括在相加、积分或平均中。处理单元可以适于通过对整个矩阵或矩阵内的感兴趣区域的信号进行积分来确定总和信号。例如,光束轮廓可以是梯形光束轮廓并且处理单元可以适于确定整个梯形的积分。此外,当可以假定梯形光束轮廓时,边缘和中心信号的确定可以由利用梯形光束轮廓的性质的等效评估来代替,例如边缘的斜率和位置以及中心平台的高度的确定,并通过几何考虑导出边缘和中心信号。
类似地,中心信号和边缘信号也可以通过使用光束轮廓的片段(例如光束轮廓的圆形片段)来确定。例如,光束轮廓可以通过不穿过光束轮廓的中心的割线(secant)或弦(chord)分成两段。因此,一个片段将基本上包含边缘信息,而另一片段将基本上包含中心信息。例如,为了进一步减少中心信号中的边缘信息量,还可以从中心信号中减去边缘信号。
商Q可以是通过组合中心信号和总和信号而生成的信号。具体地,该确定可以包括以下一项或多项:形成中心信号与总和信号的商,或者反之亦然;形成中心信号的倍数与总和信号的倍数的商,或者反之亦然;形成中心信号的线性组合与总和信号的线性组合的商,或者反之亦然。另外或替代地,商Q可以包括任意信号或信号组合,其包含关于中心信号与总和信号之间的比较的至少一项信息。
如本文所使用的,术语“反射特征的纵向坐标”是指光学传感器与场景中发射对应照明特征的点之间的距离。处理单元可以被配置为使用商Q与纵向坐标之间的至少一种预定关系来确定纵向坐标。预定关系可以是经验关系、半经验关系和分析得出的关系中的一种或多种。处理单元可包括至少一数据存储设备,用于存储预定关系,例如查找列表或查找表。
处理单元可以被配置为执行至少一种光子深度比算法,该算法计算具有零阶和更高阶的所有反射特征的距离。
3D检测步骤可以包括通过使用处理单元从所述反射特征的第二光束轮廓信息确定至少一个深度水平。
处理单元可以被配置为通过确定位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的反射特征的至少一个深度信息来确定场景的至少部分的深度图。如本文所使用的,术语“深度”或深度信息可以指对象与光学传感器之间的距离并且可以由纵向坐标给出。如本文所使用的,术语“深度图”可以指深度的空间分布。处理单元可以被配置为通过以下技术中的一种或多种来确定反射特征的深度信息:光子深度比、结构光、光束轮廓分析、飞行时间、来自运动的形状(shape-from-motion)、来自聚焦的深度(depth-from-focus)、三角测量、来自离焦的深度(depth-from-defocus)、立体传感器。深度图可以是包括几个条目的稀疏填充的深度图。或者,深度可能很拥挤,包括大量条目。
如果深度水平偏离平面对象的预定或预定义的深度水平,则检测到的面部被表征为3D对象。步骤c)可以包括使用相机前面的面部的3D拓扑数据。该方法可以包括根据位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内部的至少四个反射特征来确定曲率。该方法可以包括将从至少四个反射特征确定的曲率与平面对象的预定或预定义深度水平进行比较。如果曲率超过平面对象的假设曲率,则检测到的面部可以被表征为3D对象,否则被表征为平面对象。平面对象的预定或预定义的深度水平可以存储在处理单元的至少一个数据存储器中,例如查找列表或查找表。平面对象的预定或预定义水平可以通过实验确定和/或可以是平面对象的理论水平。平面对象的预定或预定义的深度水平可以是至少一种曲率的至少一个极限和/或至少一种曲率的范围。
步骤c)确定的3D特征可以允许区分高质量照片和3D脸状结构。步骤b)和c)的组合可以允许增强针对攻击的认证的可靠性。3D特征可以与材料特征相结合以提高安全级别。由于可以使用相同的计算管道来生成皮肤分类的输入数据和3D点云的生成,因此可以以较低的计算量从同一帧计算这两个性质。
优选地,在步骤a)至c)之后,可以执行认证步骤。认证步骤可以在步骤a)至c)中的每一个之后部分地执行。如果在步骤a)中没有检测到面部和/或在步骤b)中确定反射特征不是由皮肤生成和/或在步骤c)中深度图涉及平面对象,则可以中止认证。认证步骤包括如果在步骤b)中所检测到的面部被表征为皮肤并且在步骤c)中所检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证所检测到的面部。
步骤a)至d)可以通过使用至少一个设备来执行,例如至少一个移动设备,例如移动电话、智能手机等,其中通过使用面部认证来保护设备的访问。其他设备也是可能的,例如控制对建筑物、机器、汽车等的访问的访问控制设备。该方法可以包括如果检测到的面部被认证则允许访问该设备。
该方法可以包括至少一个注册(enrollment)步骤。在注册步骤中,可以注册设备的用户。如本文所使用的,术语“注册”可以指的是登记和/或签约和/或教导用户以便随后使用设备的过程。通常,可以在第一次使用设备和/或启动设备时执行注册。然而,其中可以例如连续地注册多个用户,使得可以在设备的使用期间的任意时间执行和/或重复注册的实施例是可行的。注册可以包括生成用户账户和/或用户简档。注册可以包括经由至少一个用户界面输入和存储用户数据,特别是图像数据。具体地,用户的至少一个2D图像被存储在至少一个数据库中。注册步骤可以包括对用户的至少一个图像、特别是多个图像进行成像。可以从不同的方向记录图像和/或用户可以改变他的取向。另外,注册步骤可以包括为用户生成至少一个3D图像和/或深度图,其可以在步骤d)中用于比较。数据库可以是设备的数据库,例如处理单元的数据库,和/或可以是诸如云的外部数据库。该方法包括通过将用户的2D图像与第一图像进行比较来识别用户。根据本发明的方法可以允许显着提高生物认证方法的呈现攻击检测能力。为了改进整体认证,除了用户的2D图像之外,在注册过程中还可以存储个人特定材料指纹以及3D拓扑特征。这可以允许通过使用2D、3D和材料衍生特征在一哥设备内进行多因子身份验证。
根据本发明的使用光束轮廓分析技术的方法可以提供一种概念,通过分析面部上的激光光斑的反射(特别是在NIR范围内)来可靠地检测人体皮肤,并将其与来自模仿面部所产生的攻击材料的反射区分开。此外,光束轮廓分析通过分析同一相机帧同时提供深度信息。因此,3D以及皮肤安全特征可以通过完全相同的技术来提供。
由于也可以通过简单地关闭激光照明即可记录面部的2D图像,因此可以建立完全安全的面部识别管道来解决上述问题。
当激光波长移向NIR区域时,不同种族的人类皮肤的反射性质变得更加相似。在940nm波长处,差异最小。因此,不同种族对于皮肤认证不起作用。
可能不需要对一系列帧进行耗时的分析,因为呈现攻击检测(通过皮肤分类)仅由一个帧提供。用于执行完整方法的时间帧可以≤500ms,优选地≤250ms。然而,其中可以使用多个帧来执行皮肤检测的实施例可能是可行的。根据识别第二图像中的反射特征的置信度以及该方法的速度,该方法可以包括在多个帧上采样反射特征以便达到更稳定的分类。
除了准确性之外,执行速度和功耗也是重要的要求。出于安全考虑,可以引入对计算资源的可用性的进一步限制。例如,步骤a)至d)可以在处理单元的安全区域中运行以避免在程序执行期间任何基于软件的操纵。上述材料检测网络的紧凑性质可以通过在所述安全区域中表现出优异的运行时行为来解决这个问题,而传统的PAD解决方案需要检查几个连续的帧,这导致算法的计算成本很大并且响应时间较长。
在本发明的另一方面中,一种用于人脸认证的计算机程序被配置为当在计算机或计算机网络上执行时使计算机或计算机网络完全或部分地执行根据本发明的方法,其中该计算机程序被配置为执行和/或执行根据本发明的方法的至少步骤a)至d)。具体地,计算机程序可以存储在计算机可读数据载体和/或计算机可读存储介质上。
如本文所使用的,术语“计算机可读数据载体”和“计算机可读存储介质”具体可以指的是非暂时性数据存储装置,例如其上存储有计算机可执行指令的硬件存储介质。计算机可读数据载体或存储介质具体可以是或可以包括诸如随机存取存储器(RAM)和/或只读存储器(ROM)的存储介质。
因此,具体地,上述方法步骤中的一个、一个以上或者甚至全部可以通过使用计算机或计算机网络、优选地通过使用计算机程序来执行。
另一方面,计算机可读存储介质包括指令,当由计算机或计算机网络执行时,使得执行根据本发明的方法的至少步骤a)至d)。
本文进一步公开和提出了一种其上存储有数据结构的数据载体,该数据载体在加载到计算机或计算机网络之后,例如加载到计算机或计算机网络的工作存储器或主存储器之后,可以执行根据本文公开的一个或多个实施例的方法。
本文还公开和提出了一种计算机程序产品,其具有存储在机器可读载体上的程序代码装置,以便在计算机或计算机网络上执行程序时执行根据本文公开的一个或多个实施例的方法。如本文所使用的,计算机程序产品是指作为可交易产品的程序。产品通常可以以任意格式存在,例如以纸质格式,或者存在于计算机可读数据载体和/或计算机可读存储介质上。具体地,计算机程序产品可以通过数据网络分布。
最后,本文公开并提出了一种调制数据信号,其包含计算机系统或计算机网络可读的指令,用于执行根据本文公开的一个或多个实施例的方法。
参考本发明的计算机实现的方面,根据本文公开的一个或多个实施例的方法的一个或多个方法步骤或者甚至所有方法步骤可以通过使用计算机或计算机网络来执行。因此,一般来说,包括数据的提供和/或操纵的任何方法步骤可以通过使用计算机或计算机网络来执行。一般而言,这些方法步骤可以包括任何方法步骤,通常除了需要手动工作的方法步骤之外。
具体地,本发明进一步公开的是:
-计算机或计算机网络,包括至少一个处理器,其中,该处理器适合于执行根据本说明书中描述的实施例之一的方法,
-计算机可加载数据结构,其适合于在该数据结构在计算机上执行时执行根据本说明书中描述的实施例之一的方法,
-计算机程序,其中,该计算机程序适合于在该程序在计算机上执行时执行根据本说明书中描述的实施例之一的方法,
-计算机程序,包括程序装置,其用于在计算机程序在计算机上或计算机网络上执行时执行根据本说明书中描述的实施例之一的方法,
-计算机程序,包括根据前述实施例的程序装置,其中,该程序装置存储在计算机可读的存储介质上,
-存储介质,其中,数据结构存储在存储介质上,并且其中,该数据结构适于在被加载到计算机或计算机网络的主存储器和/或工作存储器中之后执行根据本说明书中描述的实施例之一的方法,以及
-具有程序代码装置的计算机程序产品,其中,程序代码装置可以被存储或存储在存储介质上,如果程序代码装置在计算机或计算机网络上执行,则用于执行根据本说明书中描述的实施例之一的方法。
在另一方面中,公开了一种包括至少一个相机、至少一个照明单元和至少一个处理单元的移动设备。移动设备被配置为执行根据本发明的人脸认证方法的至少步骤a)至c),并且可选地执行步骤d)。步骤d)可以通过使用至少一个认证单元来执行。认证单元可以是移动设备的单元或者可以是外部认证单元。关于移动设备的定义和实施例,参考关于该方法描述的定义和实施例。
在本发明的另一方面中,为了用于生物呈现攻击检测的目的,提出了使用根据本发明的方法,例如根据上面给出的或下面进一步详细给出的一个或多个实施例的方法。
总的来说,在本发明的上下文中,以下实施例被认为是优选的:
实施例1.一种用于面部认证的方法,包括以下步骤:
a)至少一个面部检测步骤,其中,所述面部检测步骤包括:使用至少一个相机来确定至少一个第一图像,其中,所述第一图像包括被怀疑包括面部的场景的至少一个二维图像,其中,所述面部检测步骤包括:使用至少一个处理单元通过在所述第一图像中识别针对面部的至少一个预定义或预先确定的几何特征特性来在所述第一图像中检测所述面部;
b)至少一个皮肤检测步骤,其中,所述皮肤检测步骤包括:使用至少一个照明单元来将包括多个照明特征的至少一个照明图案投射到所述场景上,以及所述使用至少一个相机来确定至少一个第二图像,其中,所述第二图像包括由所述场景响应于所述照明特征的照明而生成的多个反射特征,其中,每个所述反射特征包括至少一个光束轮廓,其中,所述皮肤检测步骤包括:使用所述处理单元以通过分析位于与包括所识别的几何特征的所述第一图像的图像区域相对应的所述第二图像的图像区域内的所述反射特征中的至少一个反射特征的光束轮廓来确定所述至少一个反射特征的第一光束轮廓信息,以及从所述第一光束轮廓信息确定所述反射特征的至少一个材料性质,其中,如果所述材料性质对应于针对皮肤的至少一个性质特性,则所检测到的面部被表征为皮肤;
c)至少一个3D检测步骤,其中,所述3D检测步骤包括:使用所述处理单元以通过分析位于与包括所识别的几何特征的所述第一图像的所述图像区域相对应的所述第二图像的所述图像区域内的所述反射特征中的至少四个反射特征的光束轮廓来确定所述至少四个反射特征的第二光束轮廓信息,以及从所述反射特征的所述第二光束轮廓信息确定至少一个深度水平,其中,如果所述深度水平偏离平面对象的预先确定或预定义的深度水平,则所检测到的面部被表征为3D对象;
d)至少一个认证步骤,其中,所述认证步骤包括:如果在步骤b)中所检测到的面部被表征为皮肤,并且在步骤c)中所检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证所检测到的面部。
实施例2.根据前述实施例所述的方法,其中,通过使用至少一个设备来执行步骤a)至步骤d),其中,通过使用面部认证来保护所述设备的访问,其中,所述方法包括:如果所检测到的面部被认证,则允许访问所述设备。
实施例3.根据前述实施例所述的方法,其中,所述方法包括至少一个注册步骤,其中,在所述注册步骤中,所述设备的用户被注册,其中,所述用户的至少一个2D图像被存储在至少一个数据库中,其中,所述方法包括:通过比较所述用户的所述2D图像与所述第一图像来识别所述用户。
实施例4.根据前述实施例中的任一项所述的方法,其中,在所述皮肤检测步骤中,使用至少一个参数化皮肤分类模型,其中,所述参数化皮肤分类模型被配置为通过使用所述第二图像作为输入来对皮肤和其他材料进行分类。
实施例5.根据前述实施例所述的方法,其中,通过使用机器学习来参数化所述皮肤分类模型,其中,通过在所述皮肤分类模型上应用在至少一个优化目标方面的优化算法来确定针对皮肤的所述性质特性。
实施例6.根据前述两项实施例中的任一项所述的方法,其中,所述皮肤检测步骤包括:使用至少一个2D面部和面部标志检测算法,所述2D面部和面部标志检测算法被配置为提供人脸的特性点的至少两个位置,其中,在所述皮肤检测步骤中,使用至少一个区域特定的参数化皮肤分类模型。
实施例7.根据前述实施例中的任一项所述的方法,其中,所述照明图案包括周期性的激光光斑网格。
实施例8.根据前述实施例中的任一项所述的方法,其中,所述照明特征具有在近红外(NIR)范围内的波长。
实施例9.根据前述实施例所述的方法,其中,所述照明特征具有940nm的波长。
实施例10.根据前述实施例中的任一项所述的方法,其中,确定多个第二图像,其中,所述多个第二图像的所述反射特征用于步骤b)中的皮肤检测和/或用于步骤c)中的3D检测。
实施例11.根据前述实施例中的任一项所述的方法,其中,所述相机是或者包括至少一个近红外相机。
实施例12.一种用于面部认证的计算机程序,其被配置为当在计算机或计算机网络上执行时使得所述计算机或所述计算机网络完全或部分地执行根据前述实施例中的任一项所述的方法,其中,所述计算机程序被配置为执行和/或者实施根据前述实施例中的任一项所述的方法的至少步骤a)至步骤d)。
实施例13.一种包括指令的计算机可读存储介质,所述指令当由计算机或计算机网络执行时使得至少执行根据涉及方法的前述实施例中的任一项的方法的步骤a)至步骤d)。
实施例14.一种移动设备,包括至少一个相机、至少一个照明单元和至少一个处理单元,所述移动设备被配置为至少执行根据涉及方法的前述实施例中的任一项的用于面部认证的方法的步骤a)至步骤c),以及可选地步骤d)。
实施例15.一种根据前述实施例中的任一项所述的方法用于生物呈现攻击检测的用途。
附图说明
从结合从属权利要求的优选示例性实施例的描述中,本发明的进一步可选的细节和特征是显而易见的。在本文中,特定特征可以以单独的方式或与其他特征组合来实现。本发明不限于示例性实施例。示例性实施例在附图中示意性地示出。各个附图中相同的附图标记表示相同的元件或具有相同功能的元件,或者在其功能方面彼此对应的元件。
具体来说,在图中:
图1示出了根据本发明的用于面部认证的方法的实施例;
图2示出了根据本发明的移动设备的实施例;以及
图3示出了实验结果。
具体实施方式
图1示出了根据本发明的用于面部认证的方法的流程图。面部认证可以包括将识别出的对象或者识别出的对象的一部分验证为人脸。具体地,认证可以包括将真实的人脸与为模仿面部而产生的攻击材料区分开。认证可以包括验证相应用户的身份和/或向用户分配身份。认证可以包括生成和/或提供身份信息,例如到其他设备,例如到至少一个授权设备,用于对移动设备、机器、汽车、建筑物等的访问进行授权。身份信息可以通过认证来证明。例如,身份信息可以是和/或可以包括至少一个身份令牌。在成功认证的情况下,所识别的对象或所识别的对象的一部分被验证为真实面部和/或对象、特别是用户的身份被验证。
该方法包括以下步骤:
a)(附图标记110)至少一个面部检测步骤,其中,该面部检测步骤包括通过使用至少一个相机112来确定至少一个第一图像,其中,该第一图像包括被怀疑包括面部的场景的至少一个二维图像,其中,面部检测步骤包括通过使用至少一个处理单元114在第一图像中识别面部的至少一个预定义或预先确定的几何特征特性来检测第一图像中的面部;
b)(附图标记116)至少一个皮肤检测步骤,其中,该皮肤检测步骤包括通过使用至少一个照明单元118将包括多个照明特征的至少一个照明图案投影到场景上,并使用至少一个相机112来确定至少一个第二图像,其中,第二图像包括由场景响应于照明特征的照明而生成的多个反射特征,其中,每个反射特征包括至少一个光束轮廓,其中,皮肤检测步骤包括通过分析位于第二图像的图像区域内的反射特征中的至少一个反射特征的光束轮廓来确定至少一个反射特征的第一光束轮廓信息,该图像区域对应于第一图像的包括所识别的几何特征的图像区域,以及通过使用处理单元114从第一光束轮廓信息确定反射特征的至少一个材料性质,其中,如果材料性质对应于皮肤的至少一种性质特性,则检测到的面部被表征为皮肤;
c)(附图标记120)至少一个3D检测步骤,其中,该3D检测步骤通过分析位于第二图像的图像区域内的反射特征中的至少四个反射特征的光束轮廓来确定至少四个反射特征的第二光束轮廓信息、该图像区域对应于第一图像的包括所识别的几何特征的图像区域,其中,如果深度水平偏离于平面对象的预定或预定义的深度水平,则检测到的面部被表征为3D对象;
d)(附图标记122)至少一个认证步骤,其中,该认证步骤包括如果在步骤b)中检测到的面部被表征为皮肤并且在步骤c)中检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证检测到的面部。
该方法步骤可以按照给定的顺序执行或者可以按照不同的顺序执行。此外,可以存在未列出的一个或多个附加方法步骤。进一步地,可以重复执行方法步骤中的一个、多个或者甚至全部方法步骤。
相机112可包括至少一个成像元件,其被配置为记录或捕获空间分辨的一维、二维或甚至三维光学数据或信息。相机112可以是数字相机。作为示例,相机112可以包括至少一个相机芯片,例如被配置为记录图像的至少一个CCD芯片和/或至少一个CMOS芯片。相机112可以是或者可以包括至少一个近红外相机。图像可以涉及通过使用相机112记录的数据,例如来自成像设备的多个电子读数,例如相机芯片的像素。除了至少一个相机芯片或成像芯片之外,相机112还可以包括另外的元件,例如一个或多个光学元件,例如一个或多个透镜。作为示例,相机112可以是定焦相机,具有相对于相机固定调节的至少一个透镜。然而,替代地,相机112还可以包括可以自动或手动调整的一个或多个可变透镜。
相机112可以是移动设备124的相机,例如笔记本电脑、平板电脑或者特别是诸如智能电话等的蜂窝电话的相机。因此,具体而言,相机112可以是移动设备124的一部分,除了至少一个相机112之外,移动设备124还包括一个或多个数据处理设备,例如一个或多个数据处理器。然而,其他相机也是可行的。移动设备124可以是移动电子设备,更具体地可以是诸如蜂窝电话或智能电话之类的移动通信设备。另外或替代地,移动设备124还可以指平板计算机或另一类型的便携式计算机。图2示出了根据本发明的移动设备的实施例。
具体地,相机112可以是或者可以包括具有至少一个光敏区域的至少一个光学传感器126。光学传感器126具体地可以是或可以包括至少一个光电检测器,优选无机光电检测器,更优选无机半导体光电检测器,最优选硅光电检测器。具体地,光学传感器126可以在红外光谱范围内敏感。光学传感器126可以包括至少一个传感器元件,该传感器元件包括像素矩阵。矩阵的所有像素或矩阵的至少一组光学传感器具体地可以是相同的。具体地,可以为不同的光谱范围提供矩阵的相同像素的组,或者所有像素在光谱灵敏度方面可以是相同的。此外,像素的尺寸和/或它们的电子或光电性质可以相同。具体地,光学传感器126可以是或者可以包括无机光电二极管的至少一个阵列,其在红外光谱范围内敏感,优选地在700nm至3.0微米的范围内敏感。具体地,光学传感器126可以在硅光电二极管适用的近红外区域的部分中敏感,具体地在700nm至1100nm的范围内。可用于光学传感器的红外光学传感器可以是市售的红外光学传感器,例如可从德国莱茵河畔路德维希港D-67056的trinamiXTMGmbH以HertzstueckTM品牌市售的红外线光学传感器。因此,作为示例,光学传感器126可以包括至少一个本征(intrinsic)光伏型光学传感器,更优选地选自包括以下组成的组的至少一个半导体光电二极管:Ge光电二极管、InGaAs光电二极管、扩展InGaAs光电二极管、InAs光电二极管、InSb光电二极管、HgCdTe光电二极管。另外或替代地,光学传感器可以包括至少一个非本征(extrinsic)光伏型光学传感器,更优选地选自包括以下组成的组的至少一个半导体光电二极管:Ge:Au光电二极管、Ge:Hg光电二极管、Ge:Cu光电二极管、Ge:Zn光电二极管、Si:Ga光电二极管、Si:As光电二极管。另外或替代地,光学传感器126可以包括至少一个光电导传感器,例如PbS或PbSe传感器、辐射热测量计,优选地选自VO辐射热测量计和非晶Si辐射热测量计的组。
具体地,光学传感器126可以在近红外区域中敏感。具体地,光学传感器126可以在硅光电二极管适用的近红外区域的部分中敏感,具体地在700nm至1000nm的范围内。具体地,光学传感器126可以在红外光谱范围内、具体地在780nm至3.0微米的范围内敏感。例如,光学传感器126可以是或者可以包括选自包括以下的组中的至少一种元件:CCD传感器元件、CMOS传感器元件、光电二极管、光电池、光电导体、光电晶体管或其任意组合。可以使用任何其他类型的光敏元件。光敏元件通常可以全部或部分由无机材料制成和/或可以全部或部分由有机材料制成。最常见的是,可以使用一个或多个光电二极管,例如市售的光电二极管,例如无机半导体光电二极管。
相机112还可包括至少一传递设备(此处未示出)。相机112可包括选自包括以下各项组成的组中的至少一个光学元件:传递设备,例如至少一个透镜和/或至少一个透镜系统、至少一个衍射光学元件。传递设备可适于将光束引导到光学传感器126上。传递设备具体地可包括以下一项或多项:至少一个透镜,例如选自包括以下组成的组中的至少一个透镜:至少一个焦点可调透镜、至少一个非球面透镜、至少一个球面透镜、至少一个菲涅尔透镜;至少一哥衍射光学元件;至少一个凹面镜;至少一个光束偏转元件,优选至少一个镜子;至少一个分光元件,优选为分光立方体或分光镜中的至少一种;至少一个多透镜系统。传递设备可以具有焦距。因此,焦距构成传递设备会聚入射光束的能力的量度。因此,传递设备可以包括一个或多个成像元件,其可以具有会聚透镜的效果。例如,传递设备可以具有一个或多个透镜,特别是一个或多个折射透镜,和/或一个或多个凸面镜。在该示例中,焦距可以被定义为从薄折射透镜的中心到薄透镜的主焦点的距离。对于会聚薄折射透镜,例如凸或双凸薄透镜,焦距可以被认为是正的并且可以提供照射作为传递设备的薄透镜的准直光束可以被聚焦成单个光斑的距离。另外,传递设备可以包括至少一个波长选择元件,例如至少一个滤光器。另外,传递设备可以被设计为在电磁辐射上(例如,在传感器区域并且特别是传感器区域的位置处)施加预定义的光束轮廓。原则上,传递设备的上述可选实施例可以单独地或以任何期望的组合来实现。
传递设备可以具有光轴。传递设备可以构成坐标系,其中纵向坐标是沿着光轴的坐标,并且其中d是相对于光轴的空间偏移。坐标系可以是极坐标系,其中传递设备的光轴形成z轴,并且其中距z轴的距离和极角可以用作附加坐标。平行于或反平行于z轴的方向可以被认为是纵向方向,并且沿着z轴的坐标可以被认为是纵向坐标。垂直于z轴的任何方向可以被认为是横向方向,并且极坐标和/或极角可以被认为是横向坐标。
相机112被配置为确定场景的至少一个图像,特别是第一图像。场景可以指空间区域。该场景可以包括认证中的面部和周围环境。第一图像本身可以包括像素,图像的像素与传感器元件的矩阵的像素相关。第一图像是至少一个二维图像,其具有关于横向坐标的信息,例如高度和宽度的尺寸。
面部检测步骤110包括通过使用至少一个处理单元114在第一图像中识别面部的至少一个预定义或预先确定的几何特征特性来检测第一图像中的面部。作为示例,至少一个处理单元114可以包括存储在其上的软件代码,该软件代码包括多个计算机命令。处理单元114可以提供用于执行一项或多项指定操作的一个或多个硬件元件和/或可以提供一个或多个处理器,其上运行有用于执行一项或多项指定操作的软件。包括评估图像的操作可以由至少一个处理单元114执行。因此,作为示例,一个或多个指令可以以软件和/或硬件来实现。因此,作为示例,处理单元114可以包括一个或多个可编程设备,例如一个或多个计算机、专用集成电路(ASIC)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA),其被配置为执行上述评估。然而,附加地或替代地,处理单元还可以完全或部分地由硬件来实现。处理单元114和相机112可以完全或部分集成到单个设备中。因此,通常,处理单元114也可以形成相机112的一部分。或者,处理单元114和相机112可以完全或部分地体现为单独的设备。
检测第一图像中的面部可以包括识别面部的至少一个预定义或预先确定的几何特征特性。面部的几何特征特性可以是至少一种基于几何的特征,其描述面部及其组成部分的形状,特别是鼻子、眼睛、嘴或眉毛等中的一个或多个。处理单元114可以包括至少一个数据库,其中,面部的几何特征特性被存储在诸如查找表中。用于识别面部的至少一哥预定义或预先确定的几何特征特性的技术通常是本领域技术人员已知的。例如,人脸检测可以如Masi,Lacopo等人“Deep face recognition:A survey(深度人脸识别:调查)”2018第31届SIBGRAPI图形、图案和图像的会议(SIBGRAPI),IEEE,2018中所述的来执行,其全部内容通过引用包含在内。
处理单元114可以被配置为执行至少一种图像分析和/或图像处理以便识别几何特征。图像分析和/或图像处理可以使用至少一种特征检测算法。图像分析和/或图像处理可以包括以下一项或多项:过滤;选择至少一个感兴趣区域;背景校正;分解为颜色通道;分解为色调、饱和度、和/或亮度通道;频率分解;奇异值分解;应用斑点检测器;应用角检测器;应用Hessian滤波器的行列式;应用基于原理曲率的区域检测器;应用梯度位置和取向直方图算法;应用取向梯度描述符的直方图;应用边缘检测器;应用差分边缘检测器;应用Canny边缘检测器;应用高斯拉普拉斯滤波器;应用高斯差分滤波器;应用Sobel算子;应用拉普拉斯算子;应用Scharr算子;应用Prewitt算子;应用罗伯茨算子;应用Kirsch算子;应用高通滤波器;应用低通滤波器;应用傅立叶变换;应用Radon变换;应用霍夫变换;应用小波变换;阈值;创建二值图像。感兴趣区域可以由用户手动确定或者可以自动确定,例如通过识别第一图像内的特征。
具体地,在面部检测步骤110之后,可以执行皮肤检测步骤116,包括通过使用至少一个照明单元118将包括多个照明特征的至少一种照明图案投影到场景上。然而,其中皮肤检测步骤116在面部检测步骤110之前执行的实施例是可行的。
照明单元118可以被配置为提供用于场景照明的照明图案。照明单元118可以适于直接或间接照明场景,其中照明图案被场景的表面影响,特别是反射或散射,并且由此至少部分地指向相机。照明单元118可以被配置为例如通过将光束引导至场景并反射该光束来照明场景。照明单元118可以被配置为生成用于照明场景的照明光束。
照明单元118可包括至少一个光源。照明单元118可以包括多个光源。照明单元118可以包括人工照明源,特别是至少一个激光源和/或至少一个白炽灯和/或至少一个半导体光源,例如至少一个发光二极管,特别是有机和/或无机发光二极管。照明单元118可以被配置为在红外区域中生成至少一哥照明图案。照明特征可以具有近红外(NIR)范围内的波长。照明特征可以具有约940nm的波长。在此波长下,黑色素吸收耗尽,因此暗和亮的复合体反射光几乎相同。然而,NIR区域中的其他波长也是可能的,例如805nm、830nm、835nm、850nm、905nm或980nm中的一种或多种。此外,使用近红外区域中的光使得光不能被人眼检测到或仅微弱地被人眼检测到,并且仍然可以被硅传感器、特别是标准硅传感器检测到。
照明单元118可以是或者可以包括至少一个多光束光源。例如,照明单元118可以包括至少一个激光源和一个或多个衍射光学元件(DOE)。具体地,照明单元118可以包括至少一个激光器和/或激光源。可以采用各种类型的激光器,例如半导体激光器、双异质结构激光器、外腔激光器、分离约束异质结构激光器、量子级联激光器、分布式布拉格反射器激光器、偏振子激光器、混合硅激光器、扩展腔二极管激光器、量子点激光器、体布拉格光栅激光器、砷化铟激光器、晶体管激光器、二极管泵浦激光器、分布反馈激光器、量子阱激光器、带间级联激光器、砷化镓激光器、半导体环形激光器、扩展腔二极管激光器、或垂直腔表面发射激光器。另外或替代地,可以使用非激光光源,例如LED和/或灯泡。照明单元118可以包括适于生成照明图案的一个或多个衍射光学元件(DOE)。例如,照明单元118可适于生成和/或投影点云,例如照明单元118可包括以下中的一个或多个:至少一个数字光处理投影仪、至少一个LCoS投影仪、至少一个空间光调制器;至少一衍射光学元件;至少一个发光二极管阵列;至少一个激光光源阵列。由于其通常限定的光束轮廓和可操作性的其他性质,使用至少一个激光源作为照明单元118是特别优选的。照明单元118可以集成到相机112的外壳中或者可以与相机112分离。
照明图案包括适于照明场景的至少一部分的至少一个照明特征。照明图案可以包括单个照明特征。照明图案可以包括多个照明特征。照明图案可以选自包括以下组成的组:至少一个点图案;至少一个线图案;至少一个条纹图案;至少一个棋盘图案;包括周期性或非周期性特征的排列的至少一个图案。照明图案可以包括规则的和/或恒定的和/或周期性的图案,例如三角形图案、矩形图案、六边形图案或包括另外的凸形拼接的图案。照明图案可以呈现选自包括以下各项组成的组中的至少一个照明特征:至少一个点;至少一行;至少两条线,例如平行线或交叉线;至少一个点和一条线;周期性或非周期性特征的至少一种排列;至少一个任意形状的特征。照明图案可以包括选自包括以下各项组成的组中的至少一种图案:至少一个点图案,特别是伪随机点图案;随机点图案或准随机图案;至少一种Sobol图案;至少一种准周期图案;包括至少一种已知特征的至少一种图案;至少一种规则图案;至少一个三角形图案;至少一种六边形图案;至少一种矩形图案,包括凸形均匀拼贴的至少一种图案;包括至少一个线的至少一个线图案;包括至少两条线(例如平行线或交叉线)的至少一个线图案。例如,照明单元118可以适于生成和/或投影点云。照明单元118可包括至少一个光投射器,其适于生成点云,使得照明图案可包括多个点图案。照明图案可以包括周期性的激光点网格。照明单元118可以包括至少一个掩模,该至少一个掩模适合于从由照明单元118生成的至少一束光束生成照明图案。
皮肤检测步骤116包括使用相机112确定至少一个第二图像,也表示为反射图像。该方法可以包括确定多个第二图像。多个第二图像的反射特征可以用于步骤b)中的皮肤检测和/或用于步骤c)中的3D检测。反射特征可以是由场景响应于照明(具体地具有至少一个照明特征)而生成的图像平面中的特征。每个反射特征包括至少一个光束轮廓,也表示为反射光束轮廓。反射特征的光束轮廓通常可以指反射特征的至少一个强度分布,例如光学传感器上的光斑的强度分布,作为像素的函数。光束轮廓可以选自包括以下组成的组:梯形光束轮廓;三角形光束轮廓;锥形光束轮廓和高斯光束轮廓的线性组合。
第二图像的评估可以包括识别第二图像的反射特征。处理单元114可以被配置为执行至少一种图像分析和/或图像处理以便识别反射特征。图像分析和/或图像处理可以使用至少一种特征检测算法。图像分析和/或图像处理可以包括以下一项或多项:过滤;选择至少一个感兴趣区域;形成由传感器信号创建的图像与至少一个偏移之间的差异图像;通过反转由传感器信号创建的图像来反转传感器信号;形成由传感器信号在不同时间创建的图像之间的差异图像;背景校正;分解为颜色通道;分解为色调;饱和;以及亮度通道;频率分解;奇异值分解;应用斑点检测器;应用角点检测器;应用Hessian滤波器的行列式;应用基于原理曲率的区域检测器;应用最大稳定极值区域检测器;应用广义霍夫变换;应用脊检测器;应用仿射不变特征检测器;应用仿射自适应兴趣点算子;应用哈里斯仿射区域检测器;应用Hessian仿射区域检测器;应用尺度不变特征变换;应用尺度空间极值检测器;应用局部特征检测器;应用加速鲁棒特征算法;应用梯度位置和取向直方图算法;应用取向梯度描述符的直方图;应用Deriche边缘检测器;应用差分边缘检测器;应用时空兴趣点检测器;应用Moravec角点检测器;应用Canny边缘检测器;应用高斯拉普拉斯滤波器;应用高斯差分滤波器;应用Sobel算子;应用拉普拉斯算子;应用Scharr算子;应用Prewitt算子;应用Roberts算子;应用Kirsch算子;应用高通滤波器;应用低通滤波器;应用傅立叶变换;应用Radon变换;应用霍夫变换;应用小波变换;阈值;创建二值图像。感兴趣区域可以由用户手动确定或者可以自动确定,例如通过识别由光学传感器126生成的图像内的特征。
例如,照明单元118可以被配置为生成和/或投影点云,使得在光学传感器126(例如CMOS检测器)上生成多个照明区域。另外,光学传感器126上可能存在干扰,例如由于散斑和/或外来光和/或多次反射造成的干扰。处理单元114可适于确定至少一个感兴趣区域,例如由光束照明的一个或多个像素,其用于确定相应反射特征的纵向坐标,这将在下面更详细地描述。例如,处理单元114可以适于执行过滤方法,例如斑点分析和/或边缘过滤和/或对象识别方法。
处理单元114可以被配置为执行至少一个图像校正。图像校正可以包括至少一种背景扣除。处理单元114可以适于例如通过无需进一步照明的成像来从光束轮廓中去除背景光的影响。
处理单元114可以被配置为确定相应反射特征的光束轮廓。确定光束轮廓可以包括识别由光学传感器126提供的至少一个反射特征和/或选择由光学传感器126提供的至少一个反射特征以及评估该反射特征的至少一个强度分布。作为示例,可以使用和评估矩阵的区域来确定强度分布,例如三维强度分布或二维强度分布,例如沿着穿过矩阵的轴或线。作为示例,可以诸如通过确定具有最高照明的至少一个像素来确定由光束的照明中心,并且可以选择通过照明中心的横截面轴。强度分布可以是作为沿着穿过照明中心的横截面轴的坐标的函数的强度分布。其他评估算法也是可行的。
处理单元114被配置为通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少一个反射特征的光束轮廓来确定至少一个反射特征的第一光束轮廓信息。该方法可以包括识别与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域。具体地,该方法可以包括匹配第一图像和第二图像的像素并且选择与第一图像的包括所识别的几何特征的图像区域相对应的第二图像的像素。该方法可以包括另外考虑位于第二图像的所述图像区域之外的另外的反射特征。
光束轮廓信息可以是或者可以包括从反射特征的光束轮廓导出的和/或与其相关的任意信息和/或性质。第一和第二光束轮廓信息可以相同或可以不同。例如,第一光束轮廓信息可以是强度分布、反射轮廓、强度中心、材料特征。对于步骤b)116中的皮肤检测,可以使用光束轮廓分析。具体来说,光束轮廓分析利用投射到对象表面上的相干光的反射性质来对材料进行分类。材料的分类可以如WO 2020/187719、2020年2月28日提交的EP申请20159984.2和/或2020年1月31日提交的EP申请20154961.5中所述来执行,其全部内容通过引用并入。具体地,投影周期性的激光光斑网格,例如2020年4月22日提交的EP申请20170905.2中描述的六边形网格,并用相机记录反射图像。可以通过基于特征的方法来执行分析由相机所记录的每个反射特征的光束轮廓。关于基于特征的方法,参考上面的描述。基于特征的方法可以与机器学习方法结合使用,机器学习方法可以允许皮肤分类模型的参数化。替代地或组合地,可以利用卷积神经网络通过使用反射图像作为输入来对皮肤进行分类。
皮肤检测步骤116可以包括通过使用处理单元114根据光束轮廓信息来确定反射特征的至少一种材料性质。具体地,处理单元114被配置用于识别将通过照射生物组织(特别是人类皮肤)而生成的反射特征,在其反射光束轮廓满足至少一个预定或预定义的标准。至少一个预定或预定义的标准可以是适合于将生物组织(特别是人类皮肤)与其他材料区分开的至少一种性质和/或值。预定或预定义标准可以是或可以包括涉及材料性质的至少一个预定或预定义值和/或阈值和/或阈值范围。在反射光束轮廓满足至少一个预定或预定义标准的情况下,反射特征可以被指示为由生物组织生成。处理单元被配置为否则将反射特征识别为非皮肤。具体地,处理单元114可以被配置用于皮肤检测,特别是用于识别检测到的面部是否是人类皮肤。如果材料是生物组织,特别是人类皮肤,则识别可以包括确定和/或验证待检查或测试中的表面是否是或包括生物组织(特别是人类皮肤),和/或区分生物组织(特别是人类皮肤)与其他组织(特别是其他表面)。根据本发明的方法可以允许将人类皮肤与无机组织、金属表面、塑料表面、泡沫、纸张、木材、显示器、屏幕、布料中的一种或多种区分开。根据本发明的方法可以允许将人类生物组织与人造或非生命对象的表面区分开。
处理单元114可以被配置为通过评估反射特征的光束轮廓来确定发射反射特征的表面的材料性质m。材料性质可以是指被配置用于表征和/或识别和/或分类材料的材料的至少一种任意性质。例如,材料性质可以是选自包括以下组成的组的性质:粗糙度、光进入材料的穿透深度、表征材料作为生物或非生物材料的性质、反射率、镜面反射率、漫反射率、表面性质、半透明度的测量、散射、特别是背散射行为等。至少一种材料性质可以是选自包括以下各项组成的组的性质:散射系数、半透明度、透明度、Lambertian表面反射的偏差、散斑等。确定至少一种材料性质可以包括将材料性质分配给检测到的面部。处理单元114可以包括至少一个数据库,该数据库包括预定义和/或预先确定的材料性质的列表和/或表格,例如查找列表或查找表格。材料性质的列表和/或表格可以通过执行至少一种测试测量来确定和/或生成,例如通过使用具有已知材料性质的样本来执行材料测试。材料性质的列表和/或表格可以在制造商处和/或由用户确定和/或生成。材料性质还可以被分配给材料分类器,例如以下中的一个或多个:材料名称、材料组,例如生物或非生物材料、半透明或非半透明材料、金属或非金属、皮肤或非皮肤、毛皮或非毛皮、地毯或非地毯、反射或非反射、镜面反射或非镜面反射、泡沫或非泡沫、毛发或非毛发、粗糙度组等。处理单元114可以包括至少一个数据库,该数据库包括列表和/或表格,该列表和/或表格包括材料性质和相关联的材料名称和/或材料组。
虽然基于特征的方法足够准确来区分皮肤和仅表面散射材料,但皮肤和精心选择的攻击材料(也涉及体积散射)之间的区分更具挑战性。步骤b)116可以包括使用人工智能,特别是卷积神经网络。使用反射图像作为卷积神经网络的输入可以生成具有足够精度的分类模型,以区分皮肤和其他体积散射材料。由于通过选择反射图像中的重要区域仅将物理上有效的信息传递到网络,因此可能仅需要紧凑的训练数据集。此外,还可以生成非常紧凑的网络架构。
具体地,在皮肤检测步骤116中,可以使用至少一种参数化皮肤分类模型。参数化皮肤分类模型可以被配置为通过使用第二图像作为输入来对皮肤和其他材料进行分类。皮肤分类模型可以通过使用机器学习、深度学习、神经网络或其他形式的人工智能中的一种或多种来参数化。机器学习可以包括使用人工智能(AI)来自动模型构建、特别是参数化模型的方法。皮肤分类模型可以包括被配置为将人类皮肤与其他材料区分开的分类模型。可以通过根据皮肤分类模型上的至少一个优化目标,应用优化算法来确定皮肤的性质特性。机器学习可以基于至少一个神经元网络,特别是卷积神经网络。神经元网络的权重和/或拓扑可以是预定的和/或预定义的。具体地,可以使用机器学习来执行皮肤分类模型的训练。皮肤分类模型可以包括至少一种机器学习架构和模型参数。例如,机器学习架构可以是或者可以包括以下一项或多项:线性回归、逻辑回归、随机森林、朴素贝叶斯分类、最近邻、神经网络、卷积神经网络、生成对抗网络、支持向量机、或梯度提升算法等。如本文所使用的,训练可以包括构建皮肤分类模型的过程,特别是确定和/或更新皮肤分类模型的参数。皮肤分类模型可以至少部分地由数据驱动。例如,皮肤分类模型可以基于实验数据,例如通过照明多个人和诸如面具的人造对象并记录反射图案而确定的数据。例如,训练可以包括使用至少一个训练数据集,其中训练数据集包括多个人和具有已知材料性质的人造对象的图像,特别是第二图像。
皮肤检测步骤116可以包括使用至少一种2D面部和面部标志检测算法,其被配置为提供人脸的特性点的至少两个位置。例如,位置可以是眼睛位置、前额或脸颊。2D面部和面部标志检测算法可以提供人脸的特性点的位置,例如眼睛位置。由于面部不同区域(例如前额或脸颊)的反射存在细微差异,因此可以训练区域特定的模型。在皮肤检测步骤116中,优选地使用至少一种区域特定的参数化皮肤分类模型。皮肤分类模型可以包括多个区域特定的参数化皮肤分类模型,例如针对不同区域,和/或可以使用区域特定数据来训练皮肤分类模型,例如通过过滤用于训练的图像。例如,为了训练,可以使用两个不同的区域,例如鼻子下方的眼-脸颊区域,并且特别是在该区域内不能识别足够的反射特征的情况下,可以使用前额的区域。然而,其他区域也是可能的。
如果材料性质对应于皮肤的至少一种性质特性,则检测到的面部被表征为皮肤。处理单元114可以被配置为在其对应的材料性质满足至少一个预定或预定义标准的情况下,识别将通过照明生物组织、特别是皮肤而生成的反射特征。在材料性质指示“人类皮肤”的情况下,反射特征可以被识别为由人类皮肤生成。如果材料性质在至少一个阈值和/或至少一个范围内,则反射特征可以被识别为由人类皮肤生成。至少一个阈值和/或范围可以存储在表格或查找表中,并且可以例如凭经验确定,并且作为示例可以存储在处理单元的至少一个数据存储设备中。处理单元114被配置为否则将反射特征识别为背景。因此,处理单元114可以被配置为向每个投影点分配材料性质,例如皮肤是或否。
3D检测步骤120可以在皮肤检测步骤116和/或面部检测步骤110之后执行。然而,其他实施例也是可行的,其中,3D检测步骤120在皮肤检测步骤116和/或面部检测步骤110之前执行。
3D检测步骤120包括通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的至少四个反射特征的光束轮廓来确定至少四个反射特征的第二光束轮廓信息。第二光束轮廓信息可以包括光束轮廓的区域的商Q。
光束轮廓的分析可以包括光束轮廓的评估,并且可以包括至少一种数学运算和/或至少一种比较和/或至少对称化和/或至少一种滤波和/或至少一种归一化。例如,光束轮廓的分析可以包括直方图分析步骤、差异测量的计算、神经网络的应用、机器学习算法的应用中的至少一项。处理单元114可以被配置用于对称化和/或归一化和/或过滤光束轮廓,特别是去除来自在较大角度下的记录、记录边缘等的噪声或不对称性。处理单元114可以通过去除高空间频率(例如通过空间频率分析和/或中值滤波等)来对光束轮廓进行滤波。可以通过光斑的强度中心并对距中心相同距离处的所有强度进行平均来执行汇总。处理单元114可以被配置为将光束轮廓归一化为最大强度,特别是考虑到由于所记录的距离而导致的强度差异。处理单元114可以被配置为例如通过在没有照明的情况下成像来从光束轮廓中去除来自背景光的影响。
处理单元114可以被配置为通过分析位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的反射特征的光束轮廓来确定相应的反射特征的至少一个纵向坐标zDPR。处理单元114可以被配置为通过使用所谓的光子深度比技术(也表示为光束轮廓分析)来确定反射特征的纵向坐标zDPR。关于光子深度比(DPR)技术参考WO2018/091649A1、WO 2018/091638A1和WO 2018/091640A1,其全部内容通过引用并入。
反射特征的纵向坐标可以是光学传感器126与场景中发出相应的照明特征的点之间的距离。对反射特征之一的光束轮廓的分析可以包括确定光束轮廓的至少一个第一区域和至少一个第二区域。光束轮廓的第一区域可以是区域A1并且光束轮廓的第二区域可以是区域A2。处理单元114可以被配置为整合第一区域和第二区域。处理单元114可以被配置为导出组合信号,特别是商Q、通过以下中的一个或多个:划分整合的第一区域和整合的第二区域、划分整合的第一区域和整合的第二区域的倍数、划分整合的第一区域和整合的第二区域的线性组合。处理单元114可以被配置为确定光束轮廓的至少两个区域和/或将光束轮廓分割成包括光束轮廓的不同区域的至少两个片段,其中只要区域是不相同的,区域的重叠是可能的。例如,处理单元114可以被配置为确定多个区域,例如两个、三个、四个、五个或多达十个区域。处理单元114可以被配置用于将光斑分割成光束轮廓的至少两个区域和/或将光束轮廓分割成包括光束轮廓的不同区域的至少两个片段。处理单元114可以被配置用于针对至少两个区域确定相应区域上的光束轮廓的积分。处理单元可以被配置用于比较所确定的积分中的至少两个。具体地,处理单元114可以被配置为确定光束轮廓的至少一个第一区域和至少一个第二区域。光束轮廓的区域可以是用于确定商Q的光学传感器的位置处的光束轮廓的任意区域。光束轮廓的第一区域和光束轮廓的第二区域可以是相邻或重叠区域之一或两者。光束轮廓的第一区域和光束轮廓的第二区域可以在面积上不相同。例如,处理单元114可以被配置为将CMOS传感器的传感器区域划分为至少两个子区域,其中,处理单元可以被配置为将CMOS传感器的传感器区域划分为至少一个左侧部分以及至少一个右侧部分和/或至少一个上部部分和至少一个下部部分和/或至少一个内部部分和至少一个外部部分。另外或替代地,相机112可以包括至少两个光学传感器126,其中第一光学传感器126和第二光学传感器126的光敏区域可以被布置成使得第一光学传感器126适于确定反射特征的光束轮廓的第一区域,并且第二光学传感器126适于确定反射特征的光束轮廓的第二区域。处理单元114可以适于整合第一区域和第二区域。处理单元114可以被配置为使用商Q和纵向坐标之间的至少一种预定关系来确定纵向坐标。预定关系可以是经验关系、半经验关系和分析得出的关系中的一种或多种。处理单元114可包括至少一个数据存储设备,用于存储预定关系,例如查找列表或查找表。
3D检测步骤可以包括通过使用处理单元从所述反射特征的第二光束轮廓信息确定至少一个深度水平。
处理单元114可以被配置为通过确定位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内的反射特征的至少一个深度信息来确定场景的至少部分的深度图。处理单元114可以被配置为通过以下技术中的一种或多种来确定反射特征的深度信息:光子深度比、结构光、光束轮廓分析、飞行时间、来自运动的形状、来自聚焦的深度、三角测量、来自离焦的深度、立体传感器。深度图可以是包括几个条目的稀疏填充的深度图。或者,深度可能很拥挤,包括大量条目。
如果深度水平偏离平面对象的预定或预定义的深度水平,则检测到的面部被表征为3D对象。步骤c)120可以包括使用相机前面的面部的3D拓扑数据。该方法可以包括根据位于与包括所识别的几何特征的第一图像的图像区域相对应的第二图像的图像区域内部的至少四个反射特征来确定曲率。该方法可以包括将从至少四个反射特征确定的曲率与平面对象的预定或预定义深度水平进行比较。如果曲率超过平面对象的假设曲率,则检测到的面部可以被表征为3D对象,否则被表征为平面对象。平面对象的预定或预定义的深度水平可以存储在处理单元的至少一个数据存储器中,例如查找列表或查找表。平面对象的预定或预定义水平可以通过实验确定和/或可以是平面对象的理论水平。平面对象的预定或预定义的深度水平可以是至少一种曲率的至少一个极限和/或至少一种曲率的范围。
步骤c)120确定的3D特征可以允许区分高质量照片和3D脸状结构。步骤b)116和c)120的组合可以允许增强针对攻击的认证的可靠性。3D特征可以与材料特征相结合以提高安全级别。由于可以使用相同的计算管道来生成皮肤分类的输入数据和3D点云的生成,因此可以以较低的计算量从同一帧计算这两个性质。
优选地,在步骤a)110、b)116和c)120之后,可以执行认证步骤122。认证步骤122可以在步骤a)至c)中的每一个之后部分地执行。如果在步骤a)110中没有检测到面部和/或在步骤b)116中确定反射特征不是由皮肤生成和/或在步骤c)120中深度图涉及平面对象,则可以中止认证。认证步骤包括如果在步骤b)116中所检测到的面部被表征为皮肤并且在步骤c)122中所检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证所检测到的面部。
步骤a)至d)可以通过使用至少一个设备来执行,例如至少一个移动设备124,例如移动电话、智能手机等,其中通过使用面部认证来保护设备的访问。其他设备也是可能的,例如控制对建筑物、机器、汽车等的访问的访问控制设备。该方法可以包括如果检测到的面部被认证则允许访问该设备。
该方法可以包括至少一个注册步骤。在注册步骤中,可以注册设备的用户。注册可以包括登记和/或签约和/或教导用户以便随后使用设备的过程。通常,可以在第一次使用设备和/或启动设备时执行注册。然而,其中可以例如连续地注册多个用户,使得可以在设备的使用期间的任意时间执行和/或重复注册的实施例是可行的。注册可以包括生成用户账户和/或用户简档。注册可以包括经由至少一个用户界面输入和存储用户数据,特别是图像数据。具体地,用户的至少一个2D图像被存储在至少一个数据库中。注册步骤可以包括对用户的至少一个图像、特别是多个图像进行成像。可以从不同的方向记录图像和/或用户可以改变他的取向。另外,注册步骤可以包括为用户生成至少一个3D图像和/或深度图,其可以在步骤d)中用于比较。数据库可以是设备的数据库,例如处理单元114的数据库,和/或可以是诸如云的外部数据库。该方法包括通过将用户的2D图像与第一图像进行比较来识别用户。根据本发明的方法可以允许显着提高生物认证方法的呈现攻击检测能力。为了改进整体认证,除了用户的2D图像之外,在注册过程中还可以存储个人特定材料指纹以及3D拓扑特征。这可以允许通过使用2D、3D和材料衍生特征在一哥设备内进行多因子身份验证。
根据本发明的使用光束轮廓分析技术的方法可以提供一种概念,通过分析面部上的激光光斑的反射(特别是在NIR范围内)来可靠地检测人体皮肤,并将其与来自模仿面部所产生的攻击材料的反射区分开。此外,光束轮廓分析通过分析同一相机帧同时提供深度信息。因此,3D以及皮肤安全特征可以通过完全相同的技术来提供。
由于也可以通过简单地关闭激光照明即可记录面部的2D图像,因此可以建立完全安全的面部识别管道来解决上述问题。
当激光波长移向NIR区域时,不同种族的人类皮肤的反射性质变得更加相似。在940nm波长处,差异最小。因此,不同种族对于皮肤认证不起作用。
可能不需要对一系列帧进行耗时的分析,因为呈现攻击检测(通过皮肤分类)仅由一个帧提供。用于执行完整方法的时间帧可以≤500ms,优选地≤250ms。然而,其中可以使用多个帧来执行皮肤检测的实施例可能是可行的。根据识别第二图像中的反射特征的置信度以及该方法的速度,该方法可以包括在多个帧上采样反射特征以便达到更稳定的分类。
图3示出了实验结果,特别是作为皮肤分数函数的密度。x轴显示分数,y轴显示频率。分数是分类质量的度量,其值范围在0和1之间,其中1表示皮肤相似度非常高,0表示皮肤相似度非常低。决策阈值可能约为0.5。使用10名受试者生成了真实呈现的皮肤分数的参考分布。针对A级、B级和C级(如相关ISO标准中定义)的呈现攻击(PA),还记录了皮肤分数。实验装置(评估目标,ToE)包括专有硬件设备,如图2所示,其中包括必要的传感器以及执行PAD软件的计算平台。ToE使用6种A级PAI(呈现攻击工具)目标、5种B级PAI和1种C级PAI进行了测试。对于每个PAI种类,使用了10个PAI。本研究中使用的PAI种类列于下表中。在表中,APCER为攻击呈现分类误差率,指成功攻击次数/所有攻击次数*100。在表中,BPCER为真实(BonaFide)呈现分类误差率,即被拒绝的解锁尝试次数/所有解锁尝试次数*100,A级和B级攻击均基于2D PAI,而C级攻击则基于3D面罩。对于C级攻击,使用了使用3D打印机构建的定制刚性面罩。由10名受试者组成的测试人员已被用来获取真实呈现的皮肤分数的参考分布。
使用这些PAI进行的实验表明,根据皮肤分数,两类呈现(真实的或PA)可以清楚地区分。使用根据本发明的方法可以清楚地区分纸张、3D打印和皮肤。
参考编号列表
110 面部检测步骤
112 相机
114 处理单元
116 皮肤检测步骤
118 照明单元
120 3D检测步骤
122 认证步骤
124 移动设备
126 光学传感器
Claims (16)
1.一种用于面部认证的方法,包括以下步骤:
a)至少一个面部检测步骤(110),其中,所述面部检测步骤(110)包括:使用至少一个相机(112)来确定至少一个第一图像,其中,所述第一图像包括被怀疑包括面部的场景的至少一个二维图像,其中,所述面部检测步骤(110)包括:使用至少一个处理单元(114)通过在所述第一图像中识别针对面部的至少一个预定义或预先确定的几何特征特性来在所述第一图像中检测所述面部;
b)至少一个皮肤检测步骤(116),其中,所述皮肤检测步骤(116)包括:使用至少一个照明单元(118)来将包括多个照明特征的至少一个照明图案投射到所述场景上,以及所述使用至少一个相机(112)来确定至少一个第二图像,其中,所述第二图像包括由所述场景响应于所述照明特征的照明而生成的多个反射特征,其中,每个所述反射特征包括至少一个光束轮廓,其中,所述皮肤检测步骤包括:使用所述处理单元(114)以通过分析位于与包括所识别的几何特征的所述第一图像的图像区域相对应的所述第二图像的图像区域内的所述反射特征中的至少一个反射特征的光束轮廓来确定所述至少一个反射特征的第一光束轮廓信息,以及从所述第一光束轮廓信息确定所述反射特征的至少一个材料性质,其中,如果所述材料性质对应于针对皮肤的至少一个性质特性,则所检测到的面部被表征为皮肤;
c)至少一个3D检测步骤(120),其中,所述3D检测步骤(120)包括:使用所述处理单元(114)以通过分析位于与包括所识别的几何特征的所述第一图像的所述图像区域相对应的所述第二图像的所述图像区域内的所述反射特征中的至少四个反射特征的光束轮廓来确定所述至少四个反射特征的第二光束轮廓信息,以及从所述反射特征的所述第二光束轮廓信息确定至少一个深度水平,其中,如果所述深度水平偏离平面对象的预先确定或预定义的深度水平,则所检测到的面部被表征为3D对象;
d)至少一个认证步骤(122),其中,所述认证步骤(122)包括:如果在步骤b)(116)中所检测到的面部被表征为皮肤,并且在步骤c)(120)中所检测到的面部被表征为3D对象,则通过使用至少一个认证单元来认证所检测到的面部。
2.根据前述权利要求所述的方法,其中,通过使用至少一个设备来执行步骤a)至步骤d),其中,通过使用面部认证来保护所述设备的访问,其中,所述方法包括:如果所检测到的面部被认证,则允许访问所述设备。
3.根据前述权利要求所述的方法,其中,所述方法包括至少一个注册步骤,其中,在所述注册步骤中,所述设备的用户被注册,其中,所述用户的至少一个2D图像被存储在至少一个数据库中,其中,所述方法包括:通过比较所述用户的所述2D图像与所述第一图像来识别所述用户。
4.根据前述权利要求中的任一项所述的方法,其中,在所述皮肤检测步骤中,使用至少一个参数化皮肤分类模型,其中,所述参数化皮肤分类模型被配置为通过使用所述第二图像作为输入来对皮肤和其他材料进行分类。
5.根据前述权利要求所述的方法,其中,通过使用机器学习来参数化所述皮肤分类模型,其中,通过在所述皮肤分类模型上应用在至少一个优化目标方面的优化算法来确定针对皮肤的所述性质特性。
6.根据前述两项权利要求中的任一项所述的方法,其中,所述皮肤检测步骤包括:使用至少一个2D面部和面部标志检测算法,所述2D面部和面部标志检测算法被配置为提供人脸的特性点的至少两个位置,其中,在所述皮肤检测步骤(116)中,使用至少一个区域特定的参数化皮肤分类模型。
7.根据前述权利要求中的任一项所述的方法,其中,所述照明图案包括周期性的激光光斑网格。
8.根据前述权利要求中的任一项所述的方法,其中,所述照明特征具有在近红外(NIR)范围内的波长。
9.根据前述权利要求所述的方法,其中,所述照明特征具有940nm的波长。
10.根据前述权利要求中的任一项所述的方法,其中,确定多个第二图像,其中,所述多个第二图像的所述反射特征用于步骤b)(116)中的皮肤检测和/或用于步骤c)(120)中的3D检测。
11.根据前述权利要求中的任一项所述的方法,其中,所述相机(112)是或者包括至少一个近红外相机。
12.一种用于面部认证的计算机程序,其被配置为当在计算机或计算机网络上执行时使得所述计算机或所述计算机网络完全或部分地执行根据前述权利要求中的任一项所述的方法,其中,所述计算机程序被配置为执行和/或者实施根据前述权利要求中的任一项所述的方法的至少步骤a)至步骤d)。
13.一种包括指令的计算机可读存储介质,所述指令当由计算机或计算机网络执行时使得至少执行根据涉及方法的前述权利要求中的任一项的方法的步骤a)至步骤d)。
14.一种包括指令的非暂时性计算机可读介质,所述指令当由一个或多个处理器执行时使所述一个或多个处理器至少执行根据涉及方法的前述权利要求中的任一项的方法的步骤a)至步骤d)。
15.一种移动设备(124),包括至少一个相机(112)、至少一个照明单元(118)和至少一个处理单元(114),所述移动设备(124)被配置为至少执行根据涉及方法的前述权利要求中的任一项的用于面部认证的方法的步骤a)至步骤c),以及可选地步骤d)。
16.一种根据前述权利要求中的任一项所述的方法用于生物呈现攻击检测的用途。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21157800 | 2021-02-18 | ||
EP21157800.0 | 2021-02-18 | ||
PCT/EP2022/053941 WO2022175386A1 (en) | 2021-02-18 | 2022-02-17 | Optical skin detection for face unlock |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116897349A true CN116897349A (zh) | 2023-10-17 |
Family
ID=74668657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280015245.4A Pending CN116897349A (zh) | 2021-02-18 | 2022-02-17 | 用于面部解锁的光学皮肤检测 |
Country Status (6)
Country | Link |
---|---|
US (2) | US20240037201A1 (zh) |
EP (1) | EP4295252A1 (zh) |
JP (1) | JP2024512247A (zh) |
KR (1) | KR20230146540A (zh) |
CN (1) | CN116897349A (zh) |
WO (1) | WO2022175386A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102452770B1 (ko) | 2016-11-17 | 2022-10-12 | 트리나미엑스 게엠베하 | 적어도 하나의 대상체를 광학적으로 검출하기 위한 검출기 |
US10922395B2 (en) | 2018-01-05 | 2021-02-16 | Stmicroelectronics, Inc. | Facial authentication systems and methods utilizing time of flight sensing |
US10990805B2 (en) * | 2018-09-12 | 2021-04-27 | Apple Inc. | Hybrid mode illumination for facial recognition authentication |
CN111164610B (zh) * | 2019-01-04 | 2023-10-13 | 深圳市汇顶科技股份有限公司 | 用于增强面部识别安全性的反欺骗真脸部感测 |
CN113574406A (zh) | 2019-03-15 | 2021-10-29 | 特里纳米克斯股份有限公司 | 用于识别至少一种材料特性的检测器 |
-
2022
- 2022-02-17 WO PCT/EP2022/053941 patent/WO2022175386A1/en active Application Filing
- 2022-02-17 US US18/264,326 patent/US20240037201A1/en active Pending
- 2022-02-17 CN CN202280015245.4A patent/CN116897349A/zh active Pending
- 2022-02-17 EP EP22710525.1A patent/EP4295252A1/en active Pending
- 2022-02-17 JP JP2023550051A patent/JP2024512247A/ja active Pending
- 2022-02-17 KR KR1020237028012A patent/KR20230146540A/ko unknown
-
2023
- 2023-09-15 US US18/468,352 patent/US20240005703A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4295252A1 (en) | 2023-12-27 |
KR20230146540A (ko) | 2023-10-19 |
US20240005703A1 (en) | 2024-01-04 |
JP2024512247A (ja) | 2024-03-19 |
US20240037201A1 (en) | 2024-02-01 |
WO2022175386A1 (en) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11989896B2 (en) | Depth measurement through display | |
US20210397817A1 (en) | Anti-counterfeiting face detection method, device and multi-lens camera | |
CN113574406A (zh) | 用于识别至少一种材料特性的检测器 | |
US9076048B2 (en) | Biometric identification, authentication and verification using near-infrared structured illumination combined with 3D imaging of the human ear | |
US20230078604A1 (en) | Detector for object recognition | |
US20230081742A1 (en) | Gesture recognition | |
US20170186170A1 (en) | Facial contour recognition for identification | |
US20240037201A1 (en) | Optical skin detection for face unlock | |
US20230403906A1 (en) | Depth measurement through display | |
US11906421B2 (en) | Enhanced material detection by stereo beam profile analysis | |
KR20240093513A (ko) | 멀티 파장 프로젝터와 관련된 확장된 재료 검출 | |
US20240027188A1 (en) | 8bit conversion | |
CN118159870A (zh) | 涉及多波长投影仪的扩展材料检测 | |
WO2023156319A1 (en) | Image manipulation for material information determination | |
WO2023156317A1 (en) | Face authentication including occlusion detection based on material data extracted from an image | |
WO2023156315A1 (en) | Face authentication including material data extracted from image | |
WO2024088779A1 (en) | Distance as security feature | |
WO2023156452A1 (en) | System for identifying a subject | |
WO2023156375A1 (en) | Method and system for detecting a vital sign | |
CN117836806A (zh) | 从明暗恢复形状 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |