KR102635069B1 - Single-pixel sensor - Google Patents
Single-pixel sensor Download PDFInfo
- Publication number
- KR102635069B1 KR102635069B1 KR1020190050769A KR20190050769A KR102635069B1 KR 102635069 B1 KR102635069 B1 KR 102635069B1 KR 1020190050769 A KR1020190050769 A KR 1020190050769A KR 20190050769 A KR20190050769 A KR 20190050769A KR 102635069 B1 KR102635069 B1 KR 102635069B1
- Authority
- KR
- South Korea
- Prior art keywords
- time
- signal
- face
- sensor
- recognition
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 238000000513 principal component analysis Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 45
- 230000004044 response Effects 0.000 claims description 26
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000010801 machine learning Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 abstract description 24
- 230000001815 facial effect Effects 0.000 abstract description 21
- 230000002123 temporal effect Effects 0.000 abstract description 7
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 230000003071 parasitic effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000010239 partial least squares discriminant analysis Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 229910002601 GaN Inorganic materials 0.000 description 1
- JMASRVWKEDWRBT-UHFFFAOYSA-N Gallium nitride Chemical compound [Ga]#N JMASRVWKEDWRBT-UHFFFAOYSA-N 0.000 description 1
- 102000010410 Nogo Proteins Human genes 0.000 description 1
- 108010077641 Nogo Proteins Proteins 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Signal Processing (AREA)
- Vascular Medicine (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
본 개시는 대상 얼굴로부터 반사된 광 펄스의 시간 시그니처를 측정하는 단일-픽셀 센서를 사용하여 안면 인식을 수행하는 것에 관한 것이다. 센서 위치 및 대상의 얼굴의 상이한 부분들 사이에서의 깊이 차이들로 인해, 대상의 얼굴의 상이한 부분들로부터의 단기간 조명 펄스의 반사들이 상이한 시간들에서 센서에 돌아올 것이며, 따라서 개개의 대상에 고유한 시간-기반 1-차원 시그니처를 제공한다. 신경망들 또는 주성분 분석(PCA)을 사용하여 반사 시그니처를 분석함으로써, 대상의 인식이 획득될 수 있다. 또한, 동일한 시스템이 또한 얼굴들 외에 알려진 형태의 임의의 다른 오브젝트들, 예를 들면 생산 라인에서 제조된 제품들 등을 인식하거나 또는 판별하기 위해 사용될 수 있다.This disclosure relates to performing facial recognition using a single-pixel sensor that measures the temporal signature of light pulses reflected from a target face. Due to sensor position and depth differences between different parts of the subject's face, reflections of short-lived illumination pulses from different parts of the subject's face will return to the sensor at different times, and thus Provides a time-based one-dimensional signature. By analyzing the reflection signature using neural networks or principal component analysis (PCA), recognition of the object can be obtained. Additionally, the same system can also be used to recognize or determine any other objects of known shape besides faces, for example products manufactured on a production line.
Description
본 개시는 오브젝트로부터 반사된 확산된 광 펄스의 시간 시그니처를 측정하는 단일-픽셀 센서에 관한 것이다. 센서 위치 및 오브젝트의 상이한 부분들 사이에서의 깊이 차이들로 인해, 단기간 조명 펄스의 반사들은 상이한 시간들에서 센서에 돌아오며, 따라서 개개의 오브젝트에 고유한 시간-기반 1-차원 시그니처를 제공한다. This disclosure relates to a single-pixel sensor that measures the time signature of diffuse light pulses reflected from an object. Due to sensor location and depth differences between different parts of the object, reflections of the short-duration illumination pulse return to the sensor at different times, thus providing a unique time-based one-dimensional signature for each individual object.
얼굴 인식 시스템들은 일반적으로 특정한 얼굴 특징들(코, 눈, 턱 및 기타의 상대적인 위치와 같은)을 분석하고 데이터베이스 내에서의 기준 또는 샘플들에 대해 비교함으로써 사람을 식별하거나 또는 인증하기 위해 시각적 획득 및 알고리즘들을 사용한다. 그것들은 가장 일반적으로 식별 알고리즘을 실행하는 컴퓨팅 시스템과 함께 이미지 또는 비디오 피드를 사용하여 구현된다. 그것들은 독립형으로 또는 망막/홍채 및 지문 스캐닝과 같은 다른 생체 인식과 함께 사용될 수 있다. 스마트폰들에서의 동향은 대안으로서 또는 개인 식별 번호(PIN) 코드들 및/또는 지문 외에 인증 기능들에 얼굴 인식을 더하는 것이다. 이러한 시스템들은 종종 얼굴 정보를 획득하기 위해 2-차원(2D) 카메라를 사용하지만, 2D 전용 시스템은 정지 화상으로 무산되기 쉽다. 부가된 레벨들의 보안을 사용할 때에도(예로서, 인식 동안 하나의 눈을 깜박이기 위한 요건), 이러한 시스템들은 보통 다른 생체 인식 센서들을 교체하기에 충분히 강력하며 안전하지 않다. Facial recognition systems typically use visual acquisition and recognition techniques to identify or authenticate a person by analyzing certain facial features (such as the relative positions of the nose, eyes, chin, and others) and comparing them against a reference or sample in a database. Use algorithms. They are most commonly implemented using image or video feeds along with a computing system that runs identification algorithms. They can be used standalone or in conjunction with other biometrics such as retina/iris and fingerprint scanning. The trend in smartphones is to add facial recognition as an alternative or authentication function in addition to personal identification number (PIN) codes and/or fingerprint. These systems often use two-dimensional (2D) cameras to acquire facial information, but 2D-only systems tend to fail with still images. Even when using added levels of security (eg, the requirement to blink one eye during recognition), these systems are usually not robust or secure enough to replace other biometric sensors.
본 개시는 대상의 얼굴로부터 반사된 확산 광 펄스의 시간 시그니처를 측정하는 단일-픽셀 센서를 사용하여 얼굴 인식을 수행하는 것에 관한 것이다. 몇몇 예들에서, 소수의 이러한 센서들은, 예를 들면, 측정될 장면의 상이한 관점들을 획득하기 위해, 함께 사용될 수 있다. 센서 위치(들) 및 대상의 얼굴의 상이한 부분들 사이에서의 깊이 차이들로 인해, 대상의 얼굴의 상이한 부분들로부터, 단기간 조명 펄스의 반사들은, 상이한 시간들에서 센서에 돌아올 것이며, 따라서 개개의 대상에 고유한 시간-기반 1-차원 시그니처를 제공한다. 주성분 분석(PCA) 또는 인공 신경망들(ANN)과 같은 알고리즘들을 사용하여 반사 시그니처를 분석함으로써, 대상의 인식이 획득될 수 있다. 또한, 동일한 시스템이 또한 얼굴들 외에 알려진 형태의 임의의 다른 오브젝트들, 예를 들면 생산 라인에서 제조된 제품들 등을 인식하거나 또는 이를 판별하기 위해 사용될 수 있다. This disclosure relates to performing facial recognition using a single-pixel sensor that measures the temporal signature of diffuse light pulses reflected from a subject's face. In some examples, a few such sensors may be used together, for example, to obtain different perspectives of the scene to be measured. Due to depth differences between the sensor location(s) and different parts of the subject's face, reflections of short-term illumination pulses from different parts of the subject's face will return to the sensor at different times, thus Provides a unique time-based one-dimensional signature for the target. By analyzing the reflection signature using algorithms such as principal component analysis (PCA) or artificial neural networks (ANN), recognition of the object can be obtained. Additionally, the same system can also be used to recognize or determine any other objects of known shape besides faces, for example products manufactured on a production line.
상기를 고려하여, 본 개시의 일 예는 오브젝트를 검출하기 위한 센서를 제공하며, 상기 센서는 상기 오브젝트의 얼굴을 비추기 위해 단기간 광 펄스를 방출하도록 배열된 광원, 상기 오브젝트의 얼굴의 속성들을 나타내는 1-차원 시간-기반 반사 신호를 발생시키기 위해 상기 오브젝트의 얼굴로부터 반사된 광 펄스로부터의 광을 검출하도록 배열된 광 검출기, 및 반사 신호를 나타내는 신호들을 수신하고 그것에 의존하여 상기 오브젝트에 대한 시간-기반 반사 시그니처를 발생시키도록 배열된 프로세서를 포함한다. 이러한 배열을 갖고, 상기 1-차원 시간-기반 반사 신호는 반사 시그니처가 발생되도록 허용하기 위해 사용되며, 이것은 그 후 많은 애플리케이션들에서, 예를 들면, 오브젝트를 인식하거나 또는 인증하기 위해 사용될 수 있다. In view of the above, an example of the present disclosure provides a sensor for detecting an object, the sensor comprising: a light source arranged to emit short-duration pulses of light to illuminate the face of the object, 1 indicating attributes of the face of the object; - a light detector arranged to detect light from light pulses reflected from the face of said object to generate a dimensional time-based reflected signal, and to receive signals representative of the reflected signal and rely thereon to generate a time-based reflection signal for said object. and a processor arranged to generate a reflection signature. With this arrangement, the one-dimensional time-based reflection signal is used to allow a reflection signature to be generated, which can then be used in many applications, for example to recognize or authenticate an object.
예를 들면, 인식 프로세서가 제공되며 여기에서 상기 인식 프로세서는 상기 시간-기반 반사 시그니처를 수신하고 상기 반사 시그니처에 의존하여 상기 오브젝트를 인식하도록 배열된다. 오브젝트들의 자동화된 인식은, 생산 라인들 상에서를 포함한, 많은 시나리오들에서, 및 보안 목적들을 위해 유용할 수 있다.For example, a recognition processor is provided, wherein the recognition processor is arranged to receive the time-based reflection signature and recognize the object in dependence on the reflection signature. Automated recognition of objects can be useful in many scenarios, including on production lines, and for security purposes.
일 예에서, 상기 인식 프로세서는 시간-기반 반사 시그니처에 기초하여 상기 오브젝트를 인식하기 위해 기계 학습 기술들을 이용한다. 예를 들면, 상기 기계 학습 기술들은 a) PCA, 및/또는 b) 하나 이상의 신경망들 중 적어도 하나를 포함할 수 있다. 오브젝트들의 자동화된 또는 보조 인식을 수행할 수 있는 다른 인공 지능 기술들이 또한 사용될 수 있다. In one example, the recognition processor uses machine learning techniques to recognize the object based on a time-based reflection signature. For example, the machine learning techniques may include at least one of a) PCA, and/or b) one or more neural networks. Other artificial intelligence techniques that can perform automated or assisted recognition of objects may also be used.
일 예에서, 기준 채널 구성부가 또한 제공되며, 여기에서 상기 기준 채널 구성부는 기준 신호를 제공하기 위해 상기 광원으로부터 직접 단기간 광 펄스의 적어도 일부분을 수신하도록 배열된다. 상기 프로세서는 그 후 또한 조명 펄스에서 원치 않는 특성들을 참작하기 위해 상기 기준 신호에 의존하여 상기 반사 신호를 정규화하도록 배열될 수 있다. 이러한 배열은 조명 펄스에서의 불규칙성들이 자동으로 보상되도록 허용하며, 따라서 센서의 검출 및 인식 성능을 개선한다.In one example, a reference channel feature is also provided, wherein the reference channel feature is arranged to receive at least a portion of a short-duration light pulse directly from the light source to provide a reference signal. The processor may then also be arranged to normalize the reflected signal depending on the reference signal to take into account undesirable characteristics in the illumination pulse. This arrangement allows irregularities in the illumination pulse to be automatically compensated, thus improving the detection and recognition performance of the sensor.
보다 상세한 예에서, 상기 광원은 링잉(ringing) 특성을 가질 수 있으며, 상기 기준 채널 구성부는 링잉 특성을 검출하도록 배열된 기준 광검출기를 포함한다. 상기 프로세서는 그 후 또한 상기 링잉 특성에 응답하여 기준 광검출기에 의해 발생된 신호를 수신하며 상기 링잉에 의해 야기된 아티팩트들을 제거하기 위해 상기 기준 신호를 정규화하도록 배열될 수 있다.In a more detailed example, the light source may have a ringing characteristic, and the reference channel component includes a reference photodetector arranged to detect the ringing characteristic. The processor may then also be arranged to receive a signal generated by a reference photodetector in response to the ringing characteristic and normalize the reference signal to remove artifacts caused by the ringing.
일 예에서, 2-차원 공간 기반 인식 시스템이 또한 1-차원(1D) 센서와 조합하여 제공될 수 있다. 상기 2-차원 공간 기반 인식 시스템은 상기 오브젝트의 얼굴의 2-차원 이미지를 캡처하며 그것에 의존하여 오브젝트의 인식을 맡도록 배열될 수 있다. 상기 인식 프로세서는 그 후 2-차원 이미지 및 1-차원 시간-기반 반사 신호 양쪽 모두를 사용하여 상기 오브젝트의 인식에 의존하여 오브젝트의 성공적인 인식을 나타내는 출력 신호를 발생시킬 수 있다. 이러한 배열을 갖고, 2D 센서 및 1D 센서는, 대상의 인식이 2D 센서를 사용하여 발생하며, 1D 센서가, 인식된 장면이 또한 충분한 깊이를 포함함을 확인하는, 상승 작용으로 함께 작동할 수 있으며, 그러므로 단순히 인식될 오브젝트의 사진 또는 다른 2D 이미지가 아니다. In one example, a two-dimensional space-based recognition system may also be provided in combination with a one-dimensional (1D) sensor. The two-dimensional space-based recognition system may be arranged to capture a two-dimensional image of the face of the object and rely on it for recognition of the object. The recognition processor may then rely on recognition of the object using both the two-dimensional image and the one-dimensional time-based reflection signal to generate an output signal indicative of successful recognition of the object. With this arrangement, the 2D sensor and the 1D sensor can work together synergistically, such that recognition of an object occurs using the 2D sensor, and the 1D sensor ensures that the recognized scene also contains sufficient depth; , therefore it is not simply a photo or other 2D image of the object to be recognized.
일 예에서, 상기 오브젝트는 인간 대상이며, 상기 오브젝트의 얼굴은 인간 대상의 얼굴이다. 이 점에 있어서, 본 개시의 예들은 특히 인간 대상들의 얼굴들을 인식하기 위해, 및 특히 이동 전화들 또는 태블릿 디바이스들 등과 같은 휴대용 전자 디바이스들을 자동으로 잠금 해제할 목적으로 설계될 수 있다. In one example, the object is a human subject, and the object's face is the human subject's face. In this regard, examples of the present disclosure may be designed particularly for recognizing faces of human subjects and for the purpose of automatically unlocking portable electronic devices, such as mobile phones or tablet devices, among others.
예에서, 상기 인식 프로세서는 상기 시간-기반 반사 시그니처(또는 대응하는 템플릿)가 상기 오브젝트를 인식하기 위해 비교되는 오브젝트-특정 1-차원 시간-기반 신호 트레이스 데이터(또는 대응하는 수학적 템플릿)를 저장할 수 있다. 특히 상기 오브젝트-특정 시간-기반 신호 트레이스 데이터는 트레이닝 단계 동안 캡처된 각각의 오브젝트-특정 시간-기반 신호 트레이스들의 샘플들의 각각의 세트들을 포함할 수 있으며, 상기 인식 프로세서는 매칭시킬 신호 트레이스들을 재생성하기 위해 샘플들(예로서, 샘플링된 데이터 포인트들)의 세트 사이에서 보간한다. In an example, the recognition processor may store object-specific one-dimensional time-based signal trace data (or a corresponding mathematical template) against which the time-based reflection signature (or a corresponding template) is compared to recognize the object. there is. In particular, the object-specific time-based signal trace data may include respective sets of samples of each object-specific time-based signal trace captured during a training phase, wherein the recognition processor is configured to generate signal traces to match. to interpolate between sets of samples (e.g., sampled data points).
또 다른 양상으로부터, 본 개시의 추가 예는 단일-픽셀 센서를 동작시키는 방법을 제공하며: 광의 단기간 펄스로 오브젝트를 조명하는 것, 상기 광의 펄스에 의해 조명된 오브젝트의 전체 조명된 얼굴로부터 반사된 광을 나타내는 1-차원 반사 시간 트레이스를 획득하기 위해 단일-픽셀 센서에서 상기 오브젝트로부터 반사된 광 펄스로부터의 광을 검출하는 것, 알려진 오브젝트들로부터 획득된 1-차원 반사 시간 트레이스들의 저장된 표현들과 상기 1-차원 반사 시간 트레이스를 비교하는 것, 및 그 후 저장된 시간 트레이스가 상기 획득된 시간 트레이스에 매칭되는 오브젝트로서 상기 비교에 의존하여 상기 오브젝트를 식별하거나 또는 인증하는 것을 포함한다.From another aspect, further examples of the present disclosure provide a method of operating a single-pixel sensor: illuminating an object with a short-duration pulse of light, light reflected from the entire illuminated face of the object illuminated by the pulse of light. Detecting light from a light pulse reflected from the object at a single-pixel sensor to obtain a one-dimensional reflection time trace representing, stored representations of one-dimensional reflection time traces obtained from known objects and said Comparing one-dimensional reflection time traces, and then identifying or authenticating a stored time trace as an object matching the obtained time trace.
일 예에서, 상기 식별은 상기 획득된 시간 트레이스에 기초하여 상기 오브젝트를 인식하기 위해 기계 학습 기술들을 이용하는 것을 포함한다. 예를 들면, 상기 기계 학습 기술들은 a) PCA 및/또는 b) 하나 이상의 신경망들 중 적어도 하나를 포함할 수 있다.In one example, the identification includes using machine learning techniques to recognize the object based on the obtained time trace. For example, the machine learning techniques may include at least one of a) PCA and/or b) one or more neural networks.
추가 예에서, 상기 방법은 기준 신호를 제공하기 위해 상기 광원으로부터 직접 단기간 광 펄스의 적어도 일부분을 수신하는 것, 및 상기 단기간 광 펄스에서 원치 않는 특성들을 참작하기 위해 상기 기준 신호에 의존하여 상기 반사 시간 트레이스를 정규화하는 것을 추가로 포함할 수 있다. 특히 상기 단기간 광 펄스는 링잉 특성을 가질 수 있으며, 상기 방법은 상기 링잉 특성을 검출하는 것, 및 상기 링잉에 의해 야기된 아티팩트들을 제거하기 위해 상기 반사 시간 트레이스를 정규화하는 것을 추가로 포함할 수 있다. In a further example, the method includes receiving at least a portion of a short-duration optical pulse directly from the light source to provide a reference signal, and relying on the reference signal to take into account undesirable characteristics in the short-duration optical pulse to determine the reflection time. It may further include normalizing the trace. In particular, the short-duration optical pulse may have a ringing characteristic, and the method may further include detecting the ringing characteristic and normalizing the reflection time trace to remove artifacts caused by the ringing. .
추가 예에서, 상기 방법은 또한 1D 센서의 조사 결과들의 2D 센서 확인, 또는 그 반대를 허용하기 위해, 2D 센서와 조합하여 사용될 수 있다. 특히, 일 예에서, 상기 방법은 상기 오브젝트의 얼굴의 2-차원 이미지를 캡처하는 것 및 그것에 의존하여 상기 오브젝트의 인식을 맡는 것을 추가로 포함할 수 있다. 상기 오브젝트의 성공적인 인식은 2D 이미지 및 1D 시간 트레이스 양쪽 모두를 사용하여 상기 오브젝트의 인식에 의존하여 이루어질 수 있다.In a further example, the method may also be used in combination with a 2D sensor to allow 2D sensor confirmation of findings from a 1D sensor, or vice versa. In particular, in one example, the method may further comprise capturing a two-dimensional image of the object's face and relying thereon for recognition of the object. Successful recognition of the object can be achieved by relying on recognition of the object using both 2D images and 1D time traces.
일 예에서, 상기 방법은 상기 1-차원 시간 트레이스가 상기 오브젝트를 인식하기 위해 비교되는 오브젝트-특정 1-차원 시간-기반 신호 트레이스 데이터를 저장하는 것을 추가로 포함한다. 특히, 보다 상세한 예에서, 상기 오브젝트-특정 시간-기반 신호 트레이스 데이터는 트레이닝 단계 동안 캡처된 각각의 오브젝트-특정 시간-기반 신호 트레이스들의 샘플들의 각각의 세트를 포함하며, 상기 방법은 매칭시킬 상기 신호 트레이스들을 재생성하기 위해 샘플들(예로서, 샘플링된 데이터 포인트들)의 세트 사이에서 보간하는 것을 추가로 포함한다.In one example, the method further includes storing object-specific one-dimensional time-based signal trace data against which the one-dimensional time trace is compared to recognize the object. In particular, in a more detailed example, the object-specific time-based signal trace data comprises a respective set of samples of each object-specific time-based signal traces captured during a training phase, and the method determines the signal to match. It further includes interpolating between sets of samples (e.g., sampled data points) to reproduce traces.
추가 양상으로부터, 본 개시의 또 다른 예는 센서 시스템을 제공하며: 단기간 조명 펄스로부터 대상 사용자의 얼굴로부터 반사된 광에 대응하는 1-차원 반사 트레이스를 캡처하도록 배열된 단일-픽셀 센서; 상기 대상 사용자의 얼굴의 2-차원 이미지를 캡처하도록 배열된 2-차원 이미지 센서; 및 상기 캡처된 2-차원 이미지 및 상기 캡처된 1-차원 반사 트레이스에 의존하여 상기 대상 사용자를 확인하며, 상기 확인에 의존하여 동작하도록 상기 센서 시스템이 부분을 형성하는 디바이스를 제어하도록 배열된 하나 이상의 프로세서들을 포함한다. 이러한 배열을 갖고, 상기 1-차원 센서로부터의 데이터는 2-차원 이미지 데이터에 기초하여 이루어진 얼굴 인식을 확인하기 위해, 예를 들면 2-차원 센서 시스템이 대상 사용자의 사진 또는 다른 이미지에 의해 스푸핑되지 않음을 확인하기 위해 사용될 수 있다. From a further aspect, another example of the present disclosure provides a sensor system comprising: a single-pixel sensor arranged to capture a one-dimensional reflection trace corresponding to light reflected from a target user's face from a short-duration illumination pulse; a two-dimensional image sensor arranged to capture a two-dimensional image of the target user's face; and one or more devices arranged to control a device of which the sensor system forms a part to identify the target user in dependence on the captured two-dimensional image and the captured one-dimensional reflection trace, and to operate in dependence on the identification. Includes processors. With this arrangement, the data from the one-dimensional sensor is used to ensure that facial recognition is made based on two-dimensional image data, for example the two-dimensional sensor system is not spoofed by a photo or other image of the target user. It can be used to confirm that it is not.
본 개시의 추가 예들에서, 상기 대상 사용자의 얼굴로부터 반사된 광에 대응하는 각각의 1-차원 반사 트레이스들을 캡처하도록 배열된 복수의 단일-픽셀 센서들이 제공될 수 있으며, 하나 이상의 프로세서들은 또한 각각의 1-차원 반사 트레이스들에 의존하여 상기 대상 사용자를 확인하도록 배열된다. 복수의 이러한 단일-픽셀 센서들을 제공하는 것은 센서들이 대상 사용자의 약간 상이한 시야를 갖도록 허용하며, 그러므로 사용자의 확인 또는 인식의 정확도를 증가시키고, 및/또는 적절한 반사 트레이스 샘플들을 캡처하기 위해 요구된 시간의 양을 감소시켜야 한다. In further examples of the present disclosure, a plurality of single-pixel sensors may be provided arranged to capture respective one-dimensional reflection traces corresponding to light reflected from the target user's face, and one or more processors may also be provided for each It is arranged to identify the target user relying on one-dimensional reflection traces. Providing a plurality of these single-pixel sensors allows the sensors to have a slightly different field of view of the target user, thus increasing the accuracy of identification or recognition of the user, and/or the time required to capture appropriate reflection trace samples. The amount should be reduced.
본 개시의 추가 특징들, 예들, 및 이점들은 다음의 설명으로부터 및 첨부된 청구항들로부터 명백할 것이다. Additional features, examples, and advantages of the present disclosure will be apparent from the following description and the appended claims.
본 개시 및 그것의 특징들 및 이점들의 보다 완전한 이해를 제공하기 위해, 참조가 수반하는 도면들과 함께 취해진, 다음의 설명에 대해 이루어지며, 여기에서 유사한 참조 숫자들은 유사한 부분들을 나타낸다:
도 1은 본 개시의 예의 동작의 개념을 예시한 다이어그램이다;
도 2는 도 1의 예로부터 도출된 신호들을 예시한 그래프이다;
도 3은 본 개시의 예시적인 시스템의 블록도이다;
도 4는 본 개시의 예의 시스템의 동작 또는 부분들을 예시한 흐름도이다;
도 5는 본 개시의 예의 시스템의 부분의 동작을 예시한 추가 흐름도이다;
도 6은 본 개시의 예의 시스템의 동작 또는 부분들을 예시한 흐름도이다;
도 7은 본 개시의 추가 예의 시스템 블록도이다;
도 8은 본 개시의 예에서 사용된 관련된 광검출기 응답을 예시한 그래프이다;
도 9, 도 10, 및 도 11은 본 개시의 이론적 예에서 시뮬레이션된 응답들 및 연관된 결정 형태들이다.
도 12는 본 개시의 예의 동작을 예시한 응답의 수신된 대로 및 정규화된 버전들을 도시한 시뮬레이션된 대역폭 제한 펄스 응답이다.
도 13은 본 개시의 예로부터의 시뮬레이션된 응답 특성이다.
도 14는 응답 곡선들의 특성화를 예시한 본 개시의 예로부터, 디지털화 후, 실제 응답 특성이다;
도 15는 본 개시의 예에서 사용된 인식 프로세스를 예시한 흐름도이다; 및
도 16은 본 개시의 예들에 대한 사용 경우들을 나열한 표이다.In order to provide a more complete understanding of the present disclosure and its features and advantages, reference is made to the following description, taken together with the accompanying drawings, in which like reference numerals indicate like parts:
1 is a diagram illustrating the concept of operation of an example of the present disclosure;
Figure 2 is a graph illustrating signals derived from the example of Figure 1;
3 is a block diagram of an exemplary system of the present disclosure;
4 is a flow diagram illustrating operations or portions of an example system of the present disclosure;
5 is a further flow diagram illustrating the operation of portions of an example system of the present disclosure;
6 is a flow diagram illustrating operations or portions of an example system of the present disclosure;
7 is a system block diagram of a further example of the present disclosure;
Figure 8 is a graph illustrating relevant photodetector responses used in examples of the present disclosure;
9, 10, and 11 are simulated responses and associated decision forms in a theoretical example of the present disclosure.
12 is a simulated bandwidth limited pulse response showing as-received and normalized versions of the response illustrating example operation of the present disclosure.
13 is a simulated response characteristic from an example of the present disclosure.
Figure 14 is the actual response characteristic, after digitization, from an example of the present disclosure illustrating the characterization of response curves;
Figure 15 is a flow diagram illustrating the recognition process used in examples of this disclosure; and
Figure 16 is a table listing use cases for examples of the present disclosure.
본 개시는 인간 얼굴들과 같은, 오브젝트들의 형태를 감지하기 위한 새로운 유형의 센서에 관한 것이다. 상기 센서는 짧은 확산 조명 펄스를 갖고 감지될 오브젝트를 일시적으로 비추도록 동작하는 조명 플래시와 함께, 단일-픽셀 센서로서 동작하는 단일 광검출기를 포함한다. 상기 센서는 그 후 조명된 오브젝트의 전체 부분으로부터 센서에 돌아오는 시간적 반사 파형을 기록하며, 파형(또는 대응하는 수학적 템플릿)은 그 후 오브젝트 인식이 발생하도록 허용하기 위해 인식될 오브젝트들에 대응하는 저장된 시그니처 파형들(또는 템플릿들)과 비교될 수 있다. 단일-픽셀 센서는 작은 부분들로부터의 샘플들을 취하는 오브젝트에 걸쳐 스캔하지 않으며(예로서, 오브젝트에 걸친 래스터(raster) 스캔), 대신에 센서에 대하여 상이한 깊이들을 가진 오브젝트의 상이한 부분들로부터 센서에서 반사된 광의 도착 시간에서의 시간적 차이에 의존하여, 플래시에 의해 조명되는 오브젝트의 전체 조명 얼굴로부터의 반사들을 수신한다는 것을 특히 주의하자. 그 후, 수신된 시간 파형을 보고 오브젝트의 반사 부분들의 상이한 상대적 깊이들(센서에 대한)로 인한 그 안에서의 작은 변화들을 식별함으로써, 오브젝트는 특성화되고 인식될 수 있다.This disclosure relates to a new type of sensor for detecting the shape of objects, such as human faces. The sensor comprises a single photodetector operating as a single-pixel sensor, with an illumination flash operating to temporarily illuminate the object to be detected with short diffuse illumination pulses. The sensor then records the temporal reflection waveforms returning to the sensor from the entire portion of the illuminated object, and the waveforms (or corresponding mathematical templates) are then stored corresponding to the objects to be recognized to allow object recognition to occur. It can be compared to signature waveforms (or templates). A single-pixel sensor does not scan across the object, taking samples from small portions (e.g., a raster scan across the object), but instead takes samples from different parts of the object at different depths to the sensor. Note in particular that reflections are received from the entire illuminated face of the object illuminated by the flash, depending on the temporal difference in the arrival time of the reflected light. The object can then be characterized and recognized by looking at the received temporal waveform and identifying small changes therein due to the different relative depths (relative to the sensor) of the reflective parts of the object.
보다 상세하게, 본 개시의 예들은 단일 광검출기(포토다이오드(PD), 아발란체 포토다이오드(APD), 실리콘 광전자 증배관(SiPM), 또는 단일-광자 아발란체 다이오드(SPAD))에 의해 수신된 오브젝트(얼굴과 같은)로부터 반사된 확산된 단 레이저 펄스로부터 시간 응답을 분석하는 것에 기초한다. 수신된 전기적 응답은 시야(FOV) 내에서의 깊이들을 포함한 벡터와 레이저 펄스의 컨볼루션이다. 타겟 오브젝트를 재구성하는 것이 종종 가능하지 않지만, 적어도 단일의 고정된 노출을 갖고, 신호는 대상을 판별하며 알고리즘을 갖고 얼굴 인식을 수행하기 위해 사용될 수 있는 시그니처를 제공한다. 이러한 시스템은 몇몇 예들에서 2D 이미저와 함께 동작할 수 있어서, 구조화된 광 이미저와 같은 3D 이미저에 비교하여 보다 작고, 보다 적은 비용의, 및 저 전력 소비 구현이라는 잠재적인 이점을 제공한다. More specifically, examples of the present disclosure utilize a single photodetector (photodiode (PD), avalanche photodiode (APD), silicon photomultiplier (SiPM), or single-photon avalanche diode (SPAD)). It is based on analyzing the time response from a diffuse short laser pulse reflected from a received object (such as a face). The received electrical response is the convolution of the laser pulse with a vector containing depths within the field of view (FOV). Although it is often not possible to reconstruct the target object, at least with a single fixed exposure, the signal provides a signature that can be used with algorithms to determine the object and perform facial recognition. Such systems can, in some instances, operate with 2D imagers, offering the potential advantages of smaller, less expensive, and lower power consumption implementations compared to 3D imagers, such as structured light imagers.
도 1 및 도 2는 보다 상세하게 본 개시의 예들의 동작의 원리들을 예시한다. 먼저 도 1을 참조하면, 광 이미터가 그것 바로 옆에서 같은 장소에 배치된 광 센서를 제공받는다고 상상하자. 이미터 및 센서의 동일 장소 배치는 광이 이미터로부터의 광선들의 입사각과 거의 동일한 각도 알파(α)에서 오브젝트로부터 센서로 다시 반사하도록 한다. 다음으로 이미터로부터 그것 상에 입사된 광에 다수의 깊이들(D1 내지 D5)을 제공하는 표면을 가진 예시적인 오브젝트를 고려하자. 이미터 및 센서는 오브젝트의 후방 표면으로부터 기준 깊이(DREF)에 있으며, 예시적인 깊이들은 모두가 DREF보다 측정 가능하게 작은 오브젝트의 표면 부조(D1 내지 D5)를 나타낸다. 1 and 2 illustrate the principles of operation of examples of the present disclosure in more detail. Referring first to Figure 1, imagine that a light emitter is provided with a co-located light sensor right next to it. The co-location of the emitter and sensor causes light to reflect back from the object to the sensor at an angle alpha (α) that is approximately equal to the angle of incidence of the rays from the emitter. Next consider an example object with a surface that provides multiple depths D 1 to D 5 to light incident on it from an emitter. The emitter and sensor are at a reference depth (D REF ) from the rear surface of the object, with the exemplary depths all representing surface reliefs (D 1 to D 5 ) of the object that are measurably smaller than D REF .
동작 시, 이미터는 통상적으로 약 수 나노초의, 짧은 확산 광 펄스를 발생시키지만, 보다 양호한 결과들이, 이상적으로 수 피코초로 측정된, 가능한 짧은 조명을 갖고 획득된다. 광 펄스는 이미터를 향하는 오브젝트의 표면들을 비추며, 광은 이들 표면들로부터 같은 장소에 배치된 센서로 다시 반사한다. 도 2에 도시된 바와 같이, 이미터에 대하여 상이한 상대적 깊이들을 가진 상이한 표면들로부터의 광은 상이한 시간들에서 센서에 돌아온다. 도 2 내에서, 이미터에 의해 방출된 광 펄스는 최상부 트레이스 상에서 도시되며, 최하부 트레이스는 그 후 센서가 오브젝트의 상이한 깊이 표면들로부터의 광 펄스로부터 반사된 광을 검출하기 위해 걸리는 시간을 보여준다. 따라서, 예를 들면, 이미터에 더 가까운 거리(D1)를 가진 표면으로부터의 광은 시간(TD1)에서 반사되는 반면, 이미터로부터 더 멀리 있는 표면(D2)으로부터의 광은 시간(TD2)에서 센서로 다시 반사한다. 유사하게, 표면들(D3, D4, 및 D5)로부터 반사된 광에 대해, 이것은 그 후 각각 시간들(TD3, TD4, 및 TD5)에서 센서에서 다시 수신된다. 반사된 광의 시간 트레이스는 그러므로 오브젝트의 상이한 깊이 표면들을 나타내는 특성 신호를 제공하며, 그 후 오브젝트의 특성인 반사된 광의 시그니처 시간 트레이스로서 동작할 수 있다. 도 2에서 보여질 바와 같이, 센서의 이론적 무한 대역폭을 갖고, 그 후 상이한 깊이의 각각의 표면으로부터의 별개의 펄스들이 트레이스 내에서 판별될 수 있다. 그러나, 실생활에서, 센서는 제한된 대역폭일 것이어서, 시그니처 트레이스가 도 2에서 점선으로 도시된 것에 더 가까울 것이라는 결과를 갖고, 입사된 광에 응답하여 센서에 의해 발생된 신호에 대해 상당한 상승 및 하강 시간들을 야기한다. 그러나, 이러한 시그니처 트레이스는 여전히 오브젝트의 형태의 특성이며, 오브젝트 특성화 및 인식을 위해 사용될 수 있다. 다수의 오브젝트들의 대역폭 제한된 시그니처 트레이스들에 대응하는 데이터를 저장하며, 그 후 저장된 시그니처 트레이스들과 조명으로부터의 측정된 트레이스를 비교함으로써, 오브젝트 특성화 및 식별이 수행될 수 있다. In operation, the emitter generates short pulses of diffuse light, typically on the order of nanoseconds, but better results are obtained with illumination as short as possible, ideally measured on the order of picoseconds. The light pulse illuminates the surfaces of the object facing the emitter, and the light reflects back from these surfaces to a co-located sensor. As shown in Figure 2, light from different surfaces with different relative depths to the emitter returns to the sensor at different times. Within Figure 2, the light pulse emitted by the emitter is shown on the top trace, and the bottom trace then shows the time it takes for the sensor to detect light reflected from the light pulse from different depth surfaces of the object. Thus, for example, light from a surface that is closer to the emitter (D 1 ) is reflected at time TD1, while light from a surface farther from the emitter (D 2 ) is reflected at time TD2. ) is reflected back to the sensor. Similarly, for the light reflected from surfaces D 3 , D 4 , and D 5 , this is then received back at the sensor at times TD3, TD4, and TD5 respectively. The time trace of the reflected light therefore provides a characteristic signal representing the different depth surfaces of the object, which can then act as a signature time trace of the reflected light that is characteristic of the object. As shown in Figure 2, with the theoretical infinite bandwidth of the sensor, separate pulses from each surface at different depths can then be discriminated within the trace. However, in real life, the sensor will have limited bandwidth, resulting in significant rise and fall times for the signal generated by the sensor in response to incident light, with the result that the signature trace will be closer to that shown by the dashed line in Figure 2. cause However, these signature traces are still characteristic of the object's shape and can be used for object characterization and recognition. Object characterization and identification can be performed by storing data corresponding to bandwidth-limited signature traces of multiple objects and then comparing the stored signature traces to measured traces from the illumination.
본 개시의 예시적인 센서 시스템이 이제 도 3 내지 도 6에 대하여 설명될 것이다. 이 점에 있어서, 도 3은 얼굴 인식을 수행하는 것에 대하여 도시된 이러한 예에서(및 그러므로 종종 여기에서 단일-픽셀 얼굴 인식기(SPFR)로서 불리우는), 본 개시의 단일-픽셀 오브젝트 인식기(SPOR)의 일 예시적인 배열을 도시한 블록도이지만, 다른 오브젝트 형태 결정 및 인식이 다른 예들 내에서 설명된 시스템에 의해 맡겨질 수 있다는 것이 이해되어야 한다. 게다가, 이 예에서, 단일-픽셀 센서는 카메라와 같은 2D 이미지 센서와 통합되지만, 다른 예들에서, 단일-픽셀 센서는 그 자체로 사용될 수 있다는 것이 이해되어야 한다.An exemplary sensor system of the present disclosure will now be described with respect to FIGS. 3-6. In this regard, FIG. 3 illustrates an example of a single-pixel object recognizer (SPOR) of the present disclosure, in this example shown for performing face recognition (and therefore often referred to herein as a single-pixel face recognizer (SPFR)). Although a block diagram illustrates one example arrangement, it should be understood that other object shape determination and recognition may be handled by the system described in other examples. Additionally, in this example, the single-pixel sensor is integrated with a 2D image sensor, such as a camera, but it should be understood that in other examples, the single-pixel sensor may be used by itself.
도 3에 도시된 바와 같이, 이 예에서 SPOR(SPFR) 시스템은 3개의 주요 서브-시스템들에 의해 형성된다:As shown in Figure 3, in this example the SPOR (SPFR) system is formed by three main sub-systems:
1. 얼굴의 조명된 부분에 대한 깊이 변화들을 측정하는 기이 시그니처 프로세서 1;1. Weird Signature Processor 1, which measures depth changes for the illuminated part of the face;
2. 얼굴의 시각적 이미지를 연관시키는 2D 카메라 2; 및2. 2D camera 2, which associates a visual image of the face; and
3. 사용자를 인증하기 위해 깊이 시그니처 및 시각적 큐들을 프로세싱하는 애플리케이션 프로세서 3.3. Application processor 3, which processes the depth signature and visual cues to authenticate the user.
깊이 시그니처 프로세서(1) 동작은 다음과 같다. SPFR 프로세서(1.11)는 원하는 면적을 커버하기 위해 최단의 가능한 펄스 및 최적의 전력 레벨을 갖고 레이저 다이오드(LD) 또는 수직-공동 표면-방출 레이저(VCSEL)(1.2)를 구동하는 조명 구동기(1.1)로 활성화 신호를 전송함으로써 동작을 개시한다. 그것은 또한 양호한 광학 신호 무결성을 보장하도록 요구한다. 가장 단순한 형태에서, 조명 구동기(1.1)는 수동형 전류 제한을 가진 갈륨 질화물 전계-효과 트랜지스터(GaN-FET)일 수 있는 반면, 보다 정교한 구현은 LD 또는 수직-공동 표면-방출 레이저(VCSEL) 피크 활성화 전류를 선택하는 것이 가능한 고속 고-전류 디지털-대-아날로그 변환기(DAC)일 것이다. 고속 di/dt 때문에, 조명 구동기(1.1) 및 LD/VCSEL은 이상적으로 공동-패키징되거나 또는 기생 인덕턴스를 최소화하기 위해 직접 접합을 사용한다. The depth signature processor (1) operation is as follows. The SPFR processor (1.11) is an illumination driver (1.1) that drives a laser diode (LD) or vertical-cavity surface-emitting laser (VCSEL) (1.2) with the shortest possible pulse and optimal power level to cover the desired area. The operation is initiated by transmitting an activation signal to . It also requires ensuring good optical signal integrity. In its simplest form, the lighting driver (1.1) can be a gallium nitride field-effect transistor (GaN-FET) with passive current limitation, while more sophisticated implementations may be LD or vertical-cavity surface-emitting laser (VCSEL) peak activating. It may be a high-speed, high-current digital-to-analog converter (DAC) capable of selecting current. Because of the fast di/dt, the lighting driver (1.1) and LD/VCSEL are ideally co-packaged or use direct junction to minimize parasitic inductance.
LD/VCSEL(1.2)에 의해 발생된 광학 펄스는 2개의 경로들로 분리되고, 제 1 경로(b1)는 도파관(1.13)에 의해 생성되며 광검출기(1.7)에 의해 검출되고 트랜스-임피던스 증폭기(TIA)(1.8)에 의해 증폭된 신호 기준으로서 사용될 것이다. 제 2 경로(b2)는 표면 얼굴 면적(4.1)을 커버하기 위해 충분한 각도를 갖고 광을 방출하는 광 확산기(1.3)로 향해진다. 광 확산기(1.3)는 LD/VCSEL에 통합될 수 있거나 또는 방출 특성은 확산기가 요구되지 않도록 한다. The optical pulse generated by the LD/VCSEL (1.2) is split into two paths, the first path (b1) is generated by the waveguide (1.13), detected by the photodetector (1.7) and trans-impedance amplifier ( The signal amplified by TIA (1.8) will be used as a reference. The second path b2 is directed to the light diffuser 1.3, which emits light at an angle sufficient to cover the surface face area 4.1. A light diffuser (1.3) can be integrated into the LD/VCSEL or the emission characteristics are such that a diffuser is not required.
조명된 면적(4.1)으로부터 반사된 광은 PD, APD와 같은 광검출기(1.5)에 의해 캡처되며 TIA(1.6)에 의해 증폭되고, 기준 및 측정된 신호들은 먹싱되며(1.9), SPFR 프로세서(1.11)에 의해 선택된 신호는 그 후 고속 아날로그-대-디지털 변환기(ADC)(1.10)(예로서, 고속 ADC)에 의해 디지털화된다. The light reflected from the illuminated area (4.1) is captured by a photodetector (1.5) such as PD, APD and amplified by a TIA (1.6), the reference and measured signals are muxed (1.9) and the SPFR processor (1.11). ) is then digitized by a high-speed analog-to-digital converter (ADC) 1.10 (e.g., a high-speed ADC).
디지털화된 신호는 최종적으로 전용 메모리(1.12)에서 파형들의 샘플들을 저장하는 SPFR 프로세서(1.11)에 의해 프로세싱된다. 신호 변동성 때문에, 시그니처 파형은 다수 회 획득되고 최종 프로세싱 전에 필터링될 수 있다. 최종 프로세싱은 오브젝트 공칭 거리를 산출하는 것, 기준 및 측정된 디지털화된 신호를 정규화하는 것, 시간 동조, 및 디-컨볼루션을 수반한다. 결과는 특정 오브젝트에 대한 깊이 시그니처이다.The digitized signal is finally processed by the SPFR processor 1.11, which stores samples of the waveforms in dedicated memory 1.12. Because of signal variability, the signature waveform may be acquired multiple times and filtered before final processing. Final processing involves calculating the object nominal distance, normalizing the reference and measured digitized signals, temporal tuning, and de-convolution. The result is a depth signature for a specific object.
부가적인 보안을 위해, SPFR 프로세서(1.11)는 또한 애플리케이션 프로세서(3)로 전송된 깊이 시그니처 데이터를 암호화할 수 있다.For additional security, the SPFR processor 1.11 may also encrypt the depth signature data transmitted to the application processor 3.
2D 카메라(2)의 동작은 다음과 같다. 고 분해능 이미징 센서(2.1)는 캡처된 비디오 정보를 스트리밍하며 2D 이미저 프로세스 및 제어(2.4)를 통해 애플리케이션 프로세서(3)로 전송한다. 대부분의 경우들에서, 이러한 요소는 컴퓨팅 시스템(스마트폰, 태블릿, 랩탑 등)에서 이미 이용 가능한 카메라 모듈의 부분이다. 다른 경우들에서, 이것은 적색 녹색 청색(RGB) 및/또는 적외선(IR) 민감형일 수 있는 상보적 금속-산화물(CMOS) 카메라와 같은 전용 이미저일 수 있다. The operation of the 2D camera 2 is as follows. The high-resolution imaging sensor (2.1) streams the captured video information and transmits it to the application processor (3) via 2D imager processing and control (2.4). In most cases, this element is part of a camera module already available in computing systems (smartphones, tablets, laptops, etc.). In other cases, this may be a dedicated imager, such as a complementary metal-oxide (CMOS) camera, which may be red green blue (RGB) and/or infrared (IR) sensitive.
2D 카메라(2)는 인증 프로세스를 수행하는 동안 검출할 구동기(2.5) 및 작동기들(2.2)(예로서, 조합된, 압전, 음성 코일 모터(VCM) 작동기에 기초하여)에 의해 형성된 이미지 안정화 및 정확한 셰이킹을 가질 수 있다. 또한 2D 카메라 시스템은 낮은 광 조건들에서 사용된 백색 및/또는 IR 조명기(2.6) 및 구동기(2.7)를 가질 수 있다. 부가적인 보안을 위해, 2.4는 애플리케이션 프로세서(3)로 전송된 비디오 데이터를 암호화한다.The 2D camera 2 has an image stabilizing and You can have accurate shaking. The 2D camera system may also have a white and/or IR illuminator (2.6) and driver (2.7) used in low light conditions. For additional security, 2.4 encrypts the video data transmitted to the application processor 3.
애플리케이션 프로세서(3)의 동작은 다음 3개의 기능들을 수행하는 것이다:The operation of the application processor 3 is to perform the following three functions:
ㆍ 얼굴 인증 프로세스 및 학습을 제어하는 것ㆍControlling face authentication process and learning
ㆍ 깊이 시그니처 프로세서(1)로부터의 깊이 시그니처의 샘플들, 및 2D 카메라(2)로부터 2D 스냅샷들을 수집하는 것· Collecting samples of the depth signature from the depth signature processor (1), and 2D snapshots from the 2D camera (2)
ㆍ 알고리즘(예로서, 기계 학습 알고리즘)을 사용하여 오브젝트 식별 또는 인증을 수행하는 것ㆍ Performing object identification or authentication using algorithms (e.g., machine learning algorithms)
도 4, 도 5, 및 도 6은 상기를 수행하도록 돕기 위해 애플리케이션 프로세서(3) 상에서 실행하는 소프트웨어의 동작의 추가 세부사항들을 제공한다.Figures 4, 5, and 6 provide further details of the operation of software executing on the application processor 3 to assist in doing this.
도 4는 새로운 대상을 학습하기 위해 얼굴 인식 알고리즘 및 애플리케이션 프로세서에 의해 착수된 프로세스를 예시한다. 첫 번째로, 4.2에서, 프로그램은 시스템이 배치되는 스마트폰 등이 타겟 대상 얼굴 인식을 가능하게 하기 위해 그것의 디스플레이상에 스크린 시각적 큐들을 디스플레이하게 하도록 동작한다. 그 후, 대상 사용자가 카메라를 보면, 4.4에서, 2D 이미지의 형태로 얼굴 데이터가 2D 카메라를 갖고 캡처된다. 애플리케이션 프로세서 내에서의 소프트웨어 및 안면 인식 알고리즘은 그 후 알려진 이미지 인식 기술들을 사용하여 눈썹, 코, 입, 동공 등과 같은, 2D 이미지 내에서의 주요 특징들을 식별한다. 예를 들면, 동공들은 작은 검은 원들을 찾기 위해 이미지를 컬러 이진화함으로써 이미지들로부터 쉽게 결정될 수 있다. 다음으로, 4.8에서, 시스템이 통합되는 스마트폰 또는 다른 디바이스의 디스플레이가 검출의 깊이 시그니처 센서 면적에 매칭되는 타겟 검출 면적 및 검출 특징들을 예시하기 위해 업데이트된다. 프롬프트들이 그 후 4.10에서, 스크린을 똑바로 보는지, 또는 그들의 머리를 올리거나 또는 낮추는지, 또는 그것을 좌측으로부터 우측으로 이동시키는지에 대해 사용자에게 알려줌으로써, 요구된 위치에 머리를 배치하기 위해 사용자에게 도시된다. 일단 사용자가 2D 센서 및 깊이 시그니처 센서를 적절하게 보고 있다면, 4.12에서 2D 이미지 데이터 및 깊이 데이터는 가정된 머리 위치에 대해 산출된다. 4.14에서, 평가는 그 후 데이터가 캡처되기 위해 요구되는 모든 원하는 머리 위치들이 착수되었는지, 및 프로세싱이 다시 4.10으로 진행되지 않았는지에 대해 착수되며, 여기에서 사용자는 약간 상이한 머리 위치를 가정하도록 유도된다. 동작들(4.10, 4.12, 및 4.14)의 이러한 루프는 사용자에 대한 모든 원하는 머리 위치들이 캡처될 때까지 반복된다. Figure 4 illustrates the process undertaken by the facial recognition algorithm and application processor to learn a new object. First, in 4.2, the program operates to cause a smartphone or the like on which the system is deployed to display on-screen visual cues on its display to enable targeted facial recognition. Then, when the target user looks at the camera, in 4.4, facial data in the form of a 2D image is captured with the 2D camera. Software and facial recognition algorithms within the application processor then use known image recognition techniques to identify key features within the 2D image, such as eyebrows, nose, mouth, pupils, etc. For example, pupils can be easily determined from images by color binarizing the image to find small black circles. Next, at 4.8, the display of the smartphone or other device with which the system is integrated is updated to illustrate the target detection area and detection features matching the depth of detection signature sensor area. Prompts are then shown at 4.10 to the user to place their head in the required position by telling them whether to look straight at the screen, raise or lower their head, or move it from left to right. . Once the user is properly viewing the 2D sensor and depth signature sensor, in 4.12 2D image data and depth data are computed for the assumed head position. At 4.14, an evaluation is then undertaken as to whether all desired head positions required for data to be captured have been taken, and processing proceeds again to 4.10, where the user is prompted to assume a slightly different head position. This loop of operations 4.10, 4.12, and 4.14 is repeated until all desired head positions for the user have been captured.
이 시점에서, 그러므로, 애플리케이션 프로세서는 2D 카메라 및 깊이 시그니처 프로세서를 통해, 사용자의 얼굴에 관한 이미지 데이터, 뿐만 아니라 사용자의 얼굴에 관련된 깊이 시그니처 데이터 양쪽 모두를 캡처하였으며, 캡처되는 데이터의 양쪽 세트들의 다수의 세트들은 머리의 약간 상이한 각도들 및 위치들에 대응한다. 이러한 데이터는 그 후 데이터의 주요 파라미터들을 결정하기 위해 파라미터 추출 프로세스에 적용될 수 있으며 이들 파라미터들은, 일단 4.18에서 확인되면, 그 후 4.20에서 암호화되고 수학적 템플릿에 저장될 수 있다. 어떤 유효한 파라미터들도 추출될 수 없다면, 프로세스는 실패하며 메시지가 사용자에게 도시된다. 매칭 목적들을 위해 애플리케이션 프로세서에 의한 사용을 위해 사용자 깊이 시그니처 트레이스들을 생성하기 위해 캡처된 시간 트레이스들로부터의 파라미터 추출은 도 14에 대하여 나중에 보다 상세하게 설명된다.At this point, therefore, the application processor has captured, through the 2D camera and the depth signature processor, both image data relating to the user's face as well as depth signature data relating to the user's face, and a plurality of both sets of captured data. The sets correspond to slightly different angles and positions of the head. This data can then be subjected to a parameter extraction process to determine the key parameters of the data and these parameters, once identified in 4.18, can then be encrypted and stored in a mathematical template in 4.20. If no valid parameters can be extracted, the process fails and a message is displayed to the user. Parameter extraction from captured time traces to generate user depth signature traces for use by the application processor for matching purposes is described in more detail later with respect to FIG. 14 .
도 4의 학습 프로세스가 착수되었으며, 검출된 특정한 사용자에 대응하는 데이터가 그 후 애플리케이션 프로세서 내에서 저장된다고 가정하면, 도 5는 도 3의 시스템을 사용하여 사용자를 식별하거나 또는 인증하기 위해 전체 사용자 인증 프로세스를 예시한다. 도 5의 제 1 부분은 사실상 임의의 얼굴 데이터가 시스템에 의해, 예를 들면 도 4의 프로세스를 사용하여 학습되었는지를 결정하는 것이다. 어떤 얼굴 데이터 또는 얼굴 템플릿도 애플리케이션 프로세서에 저장되지 않는다면, 그것이 그 후 5.18에서 매칭되는지가 결정되는, 5.16에서 핀 코드와 같은, 대안적인 인증 모드를 사용하는 것이 필요하다. 그러나, 애플리케이션 프로세서가 사용자에 대한 얼굴 데이터를 저장하면(예로서, 2D 이미지들 및 깊이 시그니처 시간 트레이스들의 형태로), 5.4에서 프로세서는 타겟 대상 얼굴 인식을 가능하게 하기 위해 그것의 스크린상에 시각적 큐들을 디스플레이하도록 스마트폰 등과 같은 디바이스를 제어한다. 이들 프롬프트들은, 디바이스에 대하여 사용자가 정확하게 그의 얼굴을 배치하도록, 도 4의 학습 프로세스의 4.2에서 사용된 동일한 시각적 큐들일 수 있다. 예를 들면, 디바이스는 기준 마크들과 오버레이된 사용자의 이미지를 그것의 스크린상에 도시할 수 있으며, 따라서 사용자는 그 후 그의 얼굴의 특정한 부분들, 눈, 코, 또는 귀가 마크들로 오버레이되도록 디바이스에 대하여 그의 머리를 배치해야 한다. 다른 예들에서, 그러나, 시각적 큐들의 디스플레잉은 수행되지 않을 수 있으며, 대신에 프로세스는 디바이스가 임의의 경우에 캡처할 수 있는 이미지 데이터를 계속한다. Assuming that the learning process of Figure 4 has been undertaken and that data corresponding to the particular user detected is then stored within the application processor, Figure 5 shows a full user authentication process using the system of Figure 3 to identify or authenticate the user. Illustrate the process. The first part of Figure 5 is to determine whether virtually any facial data has been learned by the system, for example using the process of Figure 4. If no facial data or facial template is stored in the application processor, it is necessary to use an alternative authentication mode, such as a PIN code in 5.16, which is then determined to match in 5.18. However, if the application processor stores facial data for the user (e.g., in the form of 2D images and depth signature time traces), in 5.4 the processor stores a visual cue on its screen to enable targeted facial recognition. Control devices such as smartphones to display images. These prompts may be the same visual cues used in 4.2 of the learning process in Figure 4 to allow the user to correctly position his face with respect to the device. For example, the device may display on its screen an image of the user overlaid with fiducial marks, so that the user can then display the device so that certain parts of his face, eyes, nose, or ears are overlaid with the marks. should place his head against. In other examples, however, displaying of visual cues may not be performed, and instead the process continues with image data that the device may capture at any time.
대상 얼굴이 캡처 디바이스에 대하여 적절하게 배향된다면, 얼굴 이미지 데이터가 그 후 5.6에서 2D 카메라를 사용하여 캡처된다. 이러한 이미지 데이터는 그 후 애플리케이션 프로세서로 공급되며, 관습적일 수 있는, 2D 얼굴 매칭 알고리즘이 그 후 얼굴을 매칭시키려고 시도하기 위해 사용된다. 2D 얼굴 매칭 알고리즘이 긍정적 결과를 리턴할 수 없다면, 즉 사용자의 얼굴을 인식할 수 없다면, 프로세싱은 5.14로 진행하며, 여기에서 평가가 사용자가 인식을 수행하려고 시도하는 횟수들에 대하여 이루어진다. 최대 수의 재시도들이 획득되었다면, 5.16 및 5.18의 대안적인 인증 메커니즘들이 그 후 사용되며 이것들이 사용자를 인증할 수 없다면, 인증 프로세스는 실패한다. 반대로, 대안적인 인증 방법, 예로서 PIN 코드 등이 사용자를 인증할 수 있다면, 인증 프로세스는 사용자가 인증되었음을 리턴한다. If the target face is properly oriented with respect to the capture device, facial image data is then captured using the 2D camera in 5.6. This image data is then fed to an application processor, and a 2D face matching algorithm, which may be conventional, is then used to attempt to match the face. If the 2D face matching algorithm cannot return a positive result, i.e. cannot recognize the user's face, processing proceeds to 5.14, where an evaluation is made on the number of attempts the user attempts to perform recognition. If the maximum number of retries has been obtained, the alternative authentication mechanisms of 5.16 and 5.18 are then used and if these cannot authenticate the user, the authentication process fails. Conversely, if an alternative authentication method, such as a PIN code, can authenticate the user, the authentication process returns that the user has been authenticated.
5.8로 돌아가면, 그러나, 2D 카메라에 의해 캡처된 2D 이미지가 사용자의 얼굴에 매칭된다면, 그 후 사용자의 얼굴 깊이 시그니처가 또한 매칭되는지를 결정하는 것이 필요하다. 5.10에서, 그러므로, 얼굴 깊이 시그니처가 그 후 깊이 시그니처 프로세서(1)를 사용하여 캡처되며, 결과적인 시간-기반 파형이 그 후 애플리케이션 프로세서로 공급되고 그 안에 저장된 깊이 시그니처들(또는 대응하는 수학적 템플릿들)에 매칭된다. 애플리케이션 프로세서가 사용자에 대한 저장된 깊이 시그니처와 캡처된 얼굴 깊이 시그니처에 매칭될 수 있다면(특정한 매칭 임계치 이상), 사용자는 2D 이미지 캡처 및 깊이 시그니처 프로세서 양쪽 모두에 의해 인증되었으며, 그러므로 실제처럼 인증될 수 있다. 이전에 논의된 바와 같이, 카메라로부터 2D 이미지를 사용한 2D 얼굴 매칭, 및 얼굴 깊이 시그니처 매칭 양쪽 모두를 수행하는 이점은, 그것이 그 후 카메라로 사용자의 사진을 간단히 디스플레이함으로써 2D 이미지 얼굴 매칭 프로세스를 속이는 것이 가능하지 않으므로 보다 큰 보안이 획득될 수 있다는 것이다. 대신에, 사용자를 인증하기 위해, 사용자의 2D 이미지와 동시에 캡처된, 깊이 시그니처 정보가 또한 매칭되어야 하기 때문에, 3차원 얼굴을 가진 실제 사용자가 존재해야 한다. 대안적으로, 사용자의 실물과 똑같은 마스크가 또한 시스템을 스푸핑하려고 시도하기 위해 사용될 수 있지만, 이것은 단지 사진보다 재생하기에 상당히 더 어렵다는 것이 이해될 것이다.Returning to 5.8, however, if the 2D image captured by the 2D camera matches the user's face, then it is necessary to determine whether the user's facial depth signature also matches. 5.10, therefore, the facial depth signature is then captured using the depth signature processor 1, and the resulting time-based waveform is then fed to the application processor and the depth signatures (or corresponding mathematical templates) stored therein. ) matches. If the application processor can match the captured facial depth signature with the stored depth signature for the user (above a certain matching threshold), then the user has been authenticated by both the 2D image capture and the depth signature processor and can therefore be authenticated as if they were real. . As previously discussed, the advantage of performing both 2D face matching using a 2D image from the camera, and face depth signature matching, is that it is then possible to fool the 2D image face matching process by simply displaying a photo of the user with the camera. Since this is not possible, greater security can be obtained. Instead, in order to authenticate a user, there must be a real user with a three-dimensional face, because depth signature information, captured simultaneously with the user's 2D image, must also be matched. Alternatively, a life-like mask of the user could also be used to attempt to spoof the system, but it will be appreciated that this is considerably more difficult to reproduce than just a photo.
도 5의 깊이 시그니처 캡처 프로세스(5.10)가 도 6에서 보다 상세하게 도시된다. 특히, 도 6은 인식을 위해 애플리케이션 프로세서로 전송할 깊이 시그니처 신호 트레이스를 획득할 때 깊이 시그니처 프로세서(1)에 의해 수행된 단계들을 예시한다. 도 6의 단계들은 적절한 경우 깊이 시그니처 프로세서의 다른 구성요소들을 제어하는 SPFR 프로세서(1.11)에 의해 제어된다.The depth signature capture process 5.10 of Figure 5 is shown in more detail in Figure 6. In particular, Figure 6 illustrates the steps performed by the depth signature processor 1 when obtaining a depth signature signal trace to transmit to the application processor for recognition. The steps in Figure 6 are controlled by the SPFR processor 1.11, which controls other components of the depth signature processor as appropriate.
도 6으로 가면, 먼저 6.2에서, 획득 메모리(1.12)가 제거되며, 그 후 깊이 시그니처 프로세서에 의해 수행되어야 하는 제 1 단계는 그것의 구동 신호에 대한 레이저 다이오드 또는 VCSEL의 응답의 기준 측정들을 획득하는 것이다. 기준 측정 모드는 6.4에서 선택되며, 조명 구동기(1.1)로부터 레이저 다이오드 또는 VCSEL(1.2)로 조명 펄스들을 전송하는 것, 및 고속 ADC(1.10)를 사용하여 샘플링하는 것을 수반한다. 기준 검출기(1.7)를 사용하여, 트랜스-임피던스 증폭기(1.8)를 통해 레이저 다이오드 또는 VCSEL에 의해 생성되는 광은, 다중화기(MUX)(1.9)를 통해 고속 ADC로 공급한다. 즉, 6.6에서, 조명 펄스는 조명 구동기(1.1)를 통해 레이저 다이오드(1.2)로 전송되며, 레이저 다이오드로부터의 결과적인 광 펄스는 6.8에서, 기준 검출기(1.7)에 의해 검출되며 고속 ADC(1.10)에 의해 TIA(1.8) 및 MUX(1.9)를 통해 샘플링된다. 6.10에서 SPFR 프로세서(1.1)는 그 후 ADC로부터 수신된 정보로부터 유용한 샘플을 추출하며 기준 파형 메모리를 업데이트한다. 그것은 그 후 요구된 수의 기준 파형들이 획득되었는지 및 추가 기준 파형들이 요구되는지에 대한 평가를 수행하며, 즉 기준 파형들의 수(RMAX)가 충족되지 않았으며 그 후 프로세싱은 6.6으로 다시 돌아가고, 추가 기준 파형이 획득된다. 이러한 프로세스는 원하는 수의 기준 파형들(RMAX)이 획득되고 기준 파형 메모리에 저장될 때까지 반복한다. Turning to Figure 6, first at 6.2, the acquisition memory 1.12 is removed, and then the first step to be performed by the depth signature processor is to obtain baseline measurements of the response of the laser diode or VCSEL to its drive signal. will be. The reference measurement mode is selected in 6.4 and involves transmitting illumination pulses from the illumination driver (1.1) to a laser diode or VCSEL (1.2) and sampling using a high-speed ADC (1.10). Using a reference detector (1.7), the light generated by the laser diode or VCSEL is fed through a trans-impedance amplifier (1.8) to a high-speed ADC through a multiplexer (MUX) (1.9). That is, at 6.6, the illumination pulse is transmitted through the illumination driver (1.1) to the laser diode (1.2), and the resulting light pulse from the laser diode is, at 6.8, detected by the reference detector (1.7) and the high-speed ADC (1.10). is sampled through TIA (1.8) and MUX (1.9). In 6.10, the SPFR processor (1.1) then extracts useful samples from the information received from the ADC and updates the reference waveform memory. It then performs an evaluation as to whether the required number of reference waveforms have been obtained and whether additional reference waveforms are required, i.e. the number of reference waveforms (R MAX ) has not been met and then the processing goes back to 6.6 and further A reference waveform is acquired. This process repeats until the desired number of reference waveforms (R MAX ) are obtained and stored in the reference waveform memory.
기준 파형들에 대한 요구에 관하여, 광 펄스를 송신할 때 하드웨어 제한들로 인한 광학 신호 왜곡이 발생할 수 있으며, 이러한 왜곡이 발생하는 경우, 그것은 그것을 정규화하는데 도움이 될 수 있다. 예를 들면, 기준 파형이 도 8에 도시된다. 여기에서, 기준 파형(82)이 그것의 구동 펄스들에 대한 레이저 다이오드 또는 VCSEL의 응답이 비-선형임을 도시하며, 큰 링잉을 보인다. 이것은 레이저 다이오드 내에서 구동 펄스들 및 회로 기생들로 인해 레이저 다이오드 또는 VCSEL 내에서의 시간에 대하여 빠르게 변화하는 전류 di/dt 때문이다. 그것의 구동 펄스에 대한 레이저 다이오드 또는 VCSEL의 응답에서 링잉은 펄스 지속 기간 동안 레이저 다이오드 또는 VCSEL에 의해 출력된 광에서의 변화들에 의해 나타내어지며, 그러므로 그것이 그 후 나중에 광 검출기(1.5)에 의해 수집된 반사된 광 신호를 정규화하기 위해 사용될 수 있도록 기준 신호로서 레이저 다이오드 또는 VCSEL 출력에서 이러한 링잉을 기록하는 것이 필요하다. 이러한 정규화가 수행되지 않았다면, 시스템 비-선형성에 의해 야기된 광 진폭 및 펄스 형태에서의 차이들이 조명되는 오브젝트, 예로서 대상 사용자의 얼굴의 특징들에 의해 야기되는 것으로 잘못 알고 있을 수 있으므로, 대상 오브젝트를 인식하거나 또는 특성화하기 위해 조명 펄스로부터 반사된 광을 사용하는 것은 거의 불가능할 것이다.Regarding the need for reference waveforms, optical signal distortion may occur due to hardware limitations when transmitting optical pulses, and if such distortion occurs, it can help to normalize it. For example, a reference waveform is shown in Figure 8. Here, the reference waveform 82 shows that the response of the laser diode or VCSEL to its drive pulses is non-linear, exhibiting large ringing. This is due to the current di/dt changing rapidly with time within the laser diode or VCSEL due to drive pulses and circuit parasitics within the laser diode. Ringing in the response of a laser diode or VCSEL to its driving pulse is indicated by changes in the light output by the laser diode or VCSEL during the pulse duration, which is then later collected by the photodetector (1.5). It is necessary to record this ringing at the laser diode or VCSEL output as a reference signal so that it can be used to normalize the reflected optical signal. If this normalization were not performed, differences in light amplitude and pulse shape caused by system non-linearities could be mistaken for being caused by features of the illuminated object, e.g. the target user's face, and thus the target object. It would be nearly impossible to use the light reflected from the illumination pulse to recognize or characterize.
도 6으로 돌아가면, 레이저 다이오드 또는 VCSEL 응답의 기준 파형들이 수집되었다면, 그 후 대상 사용자(4)로부터 반사된 파형들을 수집하기 시작하는 것이 가능하다. 그러므로, 6.14에서, 신호 측정 모드는 SPFR 프로세서에 의해 선택되며, 6.16에서 조명 펄스들은 조명 구동기(1.1)로부터 레이저 다이오드 또는 VCSEL(1.2)로 전송되며, ADC는 다시 샘플링하기 시작한다. 이때, 그러나, ADC는 트랜스-임피던스 증폭기(1.6) 및 MUX(1.9)를 통해 광 검출기(1.5)로부터 수신된 신호들을 샘플링하며, 샘플링된 신호들은 그러므로 비추는 광 펄스들에 응답하여 대상의 얼굴로부터의 반사된 광에 응답하는 광검출기(1.5)의 출력의 시간 트레이스를 나타낸다. 6.18에서, SPFR 프로세서는 TIA(1.6), MUX(.19), 및 ADC(1.10)를 통해 광검출기(1.5)로부터 파형들을 수집하며, 그 후 6.20에서, 유용한 샘플들을 추출하고 신호 파형 메모리(1.12)를 업데이트한다. SPFR 프로세서는 또한 성공적인 검출을 위해 요구된 최소 거리를 산출하여, 비행 시간 정보를 측정하며, 그 후 획득된 신호 파형들의 수가 원하는 수(SMAX)와 같은지에 대한 평가를 수행하고, 그렇지 않다면, 보다 많은 샘플들을 획득하기 위해 상기 프로세스를 반복하도록 깊이 시그니처 프로세서 회로를 제어한다. 그러나, 일단 요구된 수의 신호 파형들이 획득되었다면, SPFR 프로세서(1.11)는 신호 파형들을 수집하는 것을 중단하도록 회로를 제어하며, 그 후 수집되고 메모리(1.12)에 저장된 파형들을 분석하도록 진행한다. 이것은 6.24로부터 수행된다.Returning to Figure 6, once the reference waveforms of the laser diode or VCSEL response have been collected, it is then possible to begin collecting reflected waveforms from the target user 4. Therefore, at 6.14 the signal measurement mode is selected by the SPFR processor, at 6.16 illumination pulses are sent from the illumination driver (1.1) to the laser diode or VCSEL (1.2) and the ADC starts sampling again. At this time, however, the ADC samples the signals received from the light detector 1.5 via the trans-impedance amplifier 1.6 and the MUX 1.9, and the sampled signals are therefore in response to illuminating light pulses from the subject's face. Shows a time trace of the output of photodetector 1.5 in response to reflected light. At 6.18, the SPFR processor collects waveforms from the photodetector (1.5) via TIA (1.6), MUX (.19), and ADC (1.10), and then at 6.20, extracts useful samples and stores them in signal waveform memory (1.12). ) is updated. The SPFR processor also calculates the minimum distance required for successful detection, measures time-of-flight information, and then performs an evaluation of whether the number of acquired signal waveforms is equal to the desired number (S MAX ), and if not, more Control the depth signature processor circuit to repeat the process to acquire many samples. However, once the required number of signal waveforms have been acquired, the SPFR processor 1.11 controls the circuit to stop collecting the signal waveforms and then proceed to analyze the waveforms collected and stored in memory 1.12. This is done starting from 6.24.
보다 특히, 6.24에서 SPFR 프로세서는 파형이 충분한 특성화 데이터를 포함하는지, 즉 대상이 충분히 가까운지를 저장된 파형들로부터 산출한다. 이 점에 있어서, 사용자로의 거리는, 기준 파형의 상승 에지 및 수신된 펄스의 상승 에지 사이에서의 시간 차인, 비행 시간을 측정함으로써 산출된다. 저장된 파형들이 거리가 범위 밖에 있음을 나타낸다고 결정되면, 6.28에서, 그가 디바이스에 더 가까워야 한다는 메시지가 대상 사용자에게 디스플레이되며, 그 후 신호 수집이 반복될 수 있다. 반대로, 기준 파형들이 대상이 범위에 있음을 나타내면, 6.30 및 6.32에서, 기준 파형 및 수신된 신호 파형들은 정규화되며, 6.34에서 시간 동조된다. 6.36에서, 기준 파형은 그 후 신호 파형으로부터 디-컨볼루션되며, 이것은 수신된 신호로부터 레이저 다이오드 또는 VCSEL의 시스템 비-선형성(또는 이전에 설명된 링잉 응답과 같은 아티팩트들)의 기여를 제거하는 결과를 갖는다. 도 12는 예시적인 시뮬레이션된 파형들을 예시하며, 도 12의 상부 트레이스(1202)는 스텝들로서 상이한 깊이 차이들을 가진 시뮬레이션된 표면들에 대한 예시적인 직사각형 펄스 응답들을 예시하는 반면, 하부 트레이스(1204)는 동일한 날짜를 도시하지만 레이저 다이오드 또는 VCSEL의 아티팩트들의 효과들을 제거하기 위해 정규화된다. More specifically, in 6.24 the SPFR processor calculates from stored waveforms whether the waveform contains sufficient characterization data, i.e., whether the target is close enough. In this regard, the distance to the user is calculated by measuring the time of flight, which is the time difference between the rising edge of the reference waveform and the rising edge of the received pulse. If it is determined that the stored waveforms indicate that the distance is out of range, at 6.28 a message is displayed to the target user indicating that he should get closer to the device, after which signal collection can be repeated. Conversely, if the reference waveforms indicate that the target is in range, at 6.30 and 6.32 the reference waveform and the received signal waveforms are normalized, and at 6.34 they are time-tuned. 6.36, the reference waveform is then de-convolved from the signal waveform, which results in removing the contribution of system non-linearity (or artifacts such as the previously described ringing response) of the laser diode or VCSEL from the received signal. has 12 illustrates example simulated waveforms, with the top trace 1202 of FIG. 12 illustrating example rectangular pulse responses for simulated surfaces with different depth differences as steps, while the bottom trace 1204 The same dates are shown but normalized to remove the effects of artifacts from the laser diode or VCSEL.
프로세싱은 그 후 확인 검사가 디-컨볼루션된 데이터에 대해 수행되는 6.38로 진행하며, 데이터가 유효하게 보인다면, 그것은 그 후 6.42에서 암호화되고, 그 후 사용자에게 매칭시키기 위해 6.44에서 애플리케이션 프로세서로 전송된다. 반대로, 데이터가 확인될 수 없다면, 6.40에서, 애플리케이션 프로세서는 데이터가 유효하지 않음을 통지받으며, 매칭 프로세스는 수행되지 않는다. Processing then proceeds to 6.38 where verification checks are performed on the de-convolved data, and if the data appears to be valid, it is then encrypted in 6.42 and then sent to the application processor in 6.44 for matching to the user. do. Conversely, if the data cannot be verified, at 6.40 the application processor is notified that the data is invalid, and the matching process is not performed.
상기 프로세스를 갖고, 그러므로, 깊이 시그니처 프로세서는 광 펄스들이 반사되는 대상 사용자의 얼굴의 형태의 시간 트레이스 파형 특성을 캡처할 수 있다. 레이저 다이오드 내에서 아티팩트들을 수용하기 위해, 이들 펄스들은 파형들의 형태가 그 후, 회로 내에 도입된 에러들보다는, 광 펄스들이 반사한 오브젝트의 형태에 거의 단독으로 의존하도록 레이저 다이오드로부터 캡처된 기준 파형에 대하여 정규화된다. 이와 같이, 시간-기반 파형 트레이스들은 그 후 대상 사용자에 대한 인식 신호들로서 애플리케이션 프로세서에 의해 사용될 수 있다.With the above process, the depth signature processor can therefore capture time trace waveform characteristics of the shape of the target user's face from which light pulses are reflected. To accommodate artifacts within the laser diode, these pulses are then matched to a reference waveform captured from the laser diode such that the shape of the waveforms depends almost solely on the shape of the object from which the light pulses reflect, rather than on errors introduced within the circuit. It is normalized for As such, the time-based waveform traces can then be used by the application processor as recognition signals for the target user.
개념을 확인하기 위해, 테스트 셋업이 기성 제품 구성요소들 및 기기 장치에 기초하여 구축되었다. 도 7은 이러한 셋업을 위한 블록도를 도시한다.To validate the concept, a test setup was built based on off-the-shelf product components and instrumentation. Figure 7 shows a block diagram for this setup.
도 7에 도시된 바와 같이, LD 펄스 발생은 1ns만큼 짧은 펄스를 생성하는 디지털 신호 발생기(712)에 의해 제공된다. 이러한 신호는 850nm 또는 다른 근적외선(NIR) 주파수들에서 동작하는 구동기 및 레이저 다이오드를 포함한 LD 보드(710)에 인가된다. 최대 LD 피크 전류는 저항기에 의해 설정되며 LD 양극에 인가된 전압에 의해 제어될 수 있고, 우리의 테스트에서 이러한 전압은 8A의 LD 피크 전류(~5W 광학적 피크 전력)에 대응하는 18V로 설정된다. 고속 di/dt 및 필연적인 회로 기생 때문에, 깨끗한 직사각형 펄스를 발생시키는 것은 가능하지 않았으며, 따라서 LD 구동 신호는 도 8에 도시되고 상기 논의된 바와 같이 큰 링잉을 갖는다.As shown in Figure 7, LD pulse generation is provided by a digital signal generator 712 that generates pulses as short as 1 ns. This signal is applied to the LD board 710, which contains a laser diode and a driver operating at 850 nm or other near infrared (NIR) frequencies. The maximum LD peak current is set by a resistor and can be controlled by the voltage applied to the LD anode, and in our tests this voltage is set to 18V, corresponding to an LD peak current of 8A (~5W optical peak power). Because of the fast di/dt and the inevitable circuit parasitics, it was not possible to generate clean rectangular pulses, so the LD drive signal had large ringing as shown in Figure 8 and discussed above.
LD 모듈(708/710)을 빠져나온 광은 렌즈(706)에 의해 시준되고, 시준됨 빔은 704에 의해 분리된 50/50이며, 하나의 빔은 고속 디지털 오실로스코프(714)의 CH1에서 획득된 기준 신호로서 사용될 고속 포토다이오드 DET08CL(716)로 향해진다. 스플리터(704)로부터의 다른 빔은 이미터로부터 ~30cm에 위치된 대상 사용자의 얼굴의 부분을 커버하기 위해 설정된 20°확산기(705)를 통과한다. 조명 광은 그 후 대상의 얼굴에 걸쳐 반사한다.The light exiting the LD module 708/710 is collimated by lens 706, and the collimated beams are 50/50 separated by 704, with one beam acquired at CH1 of high-speed digital oscilloscope 714. It is directed to a high-speed photodiode DET08CL (716) to be used as a reference signal. The other beam from splitter 704 passes through a 20°diffuser 705 set to cover a portion of the target user's face located ˜30 cm from the emitter. The illumination light then reflects across the subject's face.
대상으로부터 반사된 광은 고속 APD(718)에 의해 검출되며 고속 APD(708)로부터의 증폭된 신호는 고속 디지털 오실로스코프(714)의 CH2 상에서 획득된다. 상기 스코프는 획득된 신호를 정규화하고, 시간 동조하며 디-컨볼루션하고, 데이터베이스에 결과들뿐만 아니라 후처리를 위한 원래 파형 데이터를 저장함으로써 데이터를 프로세싱하는 PC 프로그램을 통해 기준 및 측정된 파형들을 획득하는 랩탑 컴퓨터에 GPIB 연결된다. 정규화, 시간 동조 및 디-컨볼루션은 도 7에 대하여 이전에 설명된 바와 같다. 그 후 획득된 파형 트레이스들로부터 대상 사용자를 인식하기 위해 수행되는 프로세싱은 이하에서 설명된다.Light reflected from the object is detected by the high-speed APD 718 and the amplified signal from the high-speed APD 708 is acquired on CH2 of the high-speed digital oscilloscope 714. The scope acquires reference and measured waveforms through a PC program that processes the data by normalizing, time-tuning and de-convolving the acquired signal, and storing the results as well as the original waveform data in a database for post-processing. It is connected to GPIB on a laptop computer. Normalization, temporal tuning and de-convolution are as previously described for Figure 7. The processing performed to recognize the target user from the obtained waveform traces is then described below.
도 15는 반사 시간 트레이스들로부터 대상(4)을 인식하거나 또는 특성화하기 위해 애플리케이션 프로세서(3)에 의해 수행된 프로세스를 고 레벨로 도시한다. 15.2에서, 시계열 데이터는 SPFR 프로세서(1.11)로부터 수신되며, 그 후 15.4에서, 애플리케이션 프로세서는 인증되려고 시도하는 주장된 대상 사용자에 대한 이전에 저장된 시계열 시그니처 데이터(또는 템플릿)와, 또는 대안적으로 시간 시그니처 트레이스들이 저장된 모든 대상 사용자들과 시계열 데이터(또는 대응하는 템플릿)를 비교하도록 동작한다. 저장된 시계열 데이터에 대한 매칭이 이루어지면, 15.6에서, 매칭이 이루어진 사용자 대상이 인증된다. 또한 카메라 모듈과 같은 2D 이미지 센서와 함께 사용될 때, 15.8에서, 애플리케이션 프로세서는 또한 2D 이미지 인식을 착수할 수 있으며, 프로세서는 그 후 SPFR 센서 데이터 및 2D 이미지 데이터 양쪽 모두가 매칭된다면(시스템 관리자에 의해 설정된 임계치 이상) 사용자를 인증한다. 사용자가 인증되면, 애플리케이션 프로세서는 그것의 호스트 디바이스로 검증/식별 신호를 출력한다. 호스트 디바이스에 의한 이러한 검증 또는 식별 신호의 수신은 그 후 디바이스가 동작을 수행하게 하며, 예를 들면, 사용자에 의한 디바이스의 사용을 허용하기 위해 잠금 해제되게 할 수 있다.Figure 15 shows at a high level the process performed by the application processor 3 to recognize or characterize an object 4 from reflection time traces. At 15.2, time series data is received from the SPFR processor 1.11, and then at 15.4, the application processor combines previously stored time series signature data (or templates) for the claimed target user attempting to be authenticated, or alternatively, the time series data. It operates to compare time series data (or corresponding templates) with all target users for which signature traces are stored. Once a match is made to the stored time series data, in 15.6, the user subject to whom the match was made is authenticated. Also, when used with a 2D image sensor, such as a camera module, in 15.8, the application processor may also initiate 2D image recognition, and the processor may then (above the set threshold) authenticates the user. Once the user is authenticated, the application processor outputs a verification/identification signal to its host device. Receipt of this verification or identification signal by the host device may then cause the device to perform an operation, for example, to be unlocked to allow use of the device by a user.
애플리케이션 프로세서에 의해 수행될 필요가 있는 시간 트레이스 매칭에 대하여, 언급된 바와 같이, 이것은 PD, APD 또는 SPAD에 의해 캡처된 1-차원 시간 트레이스 신호에 대해 수행된다. 이를 보다 양호하게 이해하기 위해, 수학 모델이 가변 깊이들을 가진 오브젝트로부터 반사된 신호 응답의 복잡성을 이해하도록 돕기 위해 개발되었다. 모델링을 단순화하기 위해, 오브젝트 표면은 m×n 요소들로 분할되었으며, 각각의 요소의 반사율 및 산란 프로파일은 동일한 것으로 가정되었다(R = 0.5, 반사도). 또한 반사 진폭 차이가 각각의 요소에 대한 차이 각에 의해 야기되었으므로, 각각의 요소의 차이 각에 의해 야기된 거리 차가 고려되었다. 조명의 시뮬레이션은 그 후 또한 가변 펄스-폭, 및 테스트 셋업에서 측정된 이상적인 소스 또는 실제 광학적 파형으로부터의 대역폭으로 고려된다. 최종 결과는 진폭 및 시간에 대하여 모든 요소들로부터의 응답의 통합이다. 예시적인 이상화된(비-대역폭 제한됨, 피코초 펄스) 결과들이 도 9 내지 도 11에서 도시되지만, 나노초 펄스들로부터의 대역폭 제한되며 정규화된 결과들은 도 12 및 도 13에서 도시된다. As for the time trace matching that needs to be performed by the application processor, as mentioned, this is performed on a one-dimensional time trace signal captured by a PD, APD or SPAD. To better understand this, a mathematical model was developed to help understand the complexity of the signal response reflected from an object with variable depths. To simplify modeling, the object surface was partitioned into m×n elements, and the reflectance and scattering profiles of each element were assumed to be identical (R = 0.5, reflectance). Additionally, since the reflection amplitude difference was caused by the difference angle for each element, the distance difference caused by the difference angle of each element was considered. The simulation of illumination is then also considered with variable pulse-width and bandwidth from an ideal source or actual optical waveform measured in a test setup. The end result is the integration of the response from all elements with respect to amplitude and time. Exemplary idealized (non-bandwidth limited, picosecond pulse) results are shown in Figures 9-11, while bandwidth limited and normalized results from nanosecond pulses are shown in Figures 12 and 13.
먼저 도 9 내지 도 11의 이상화된 시뮬레이션들에 대해 간단히 참조하면, 실제 응답들을 나타내지 않지만, 이것들은 기술의 이론적 판별 능력을 예시한다. 도 9는 참조로서, 편평한 표면의 이론적 응답을 예시한다. 좌측 플롯으로부터, 제한되지 않은 대역폭 검출기 및 이상화된 피코초 조명 펄스를 가진 평탄 응답은, 예상될 바와 같이, 단일 반사 피크를 제공한다는 것이 이해될 것이다. 도 10은 그 후 5cm 스텝 차를 가진 이상화된 표면을 예시하며, 그로부터 그것은 5cm 깊이 차이가 시간 트레이스에서 0.3ns 이격된 두 개의 별개의 출력 펄스들을 야기한다는 것이 보여질 수 있다. 도 11은 단지 0.5cm 스텝의 보다 작은 깊이 차이, 그러나 다시 이상화된 시뮬레이션에서 두 개의 피크들이, 스텝을 나타내는, 트레이스에서 검출 가능하다는 것을 도시한다. 실제로, 그러나, PD에서의 대역폭 제한들로 인해, 도 10의 5cm 스텝이 검출 가능할 수 있지만, 0.5cm 스텝은 보통 피크들이 병합하게 하는 대역폭 제한들로 인해, PD의 분해능을 넘을 것이다. Briefly referring first to the idealized simulations of Figures 9-11, although they do not represent actual responses, they illustrate the theoretical discrimination capabilities of the technique. Figure 9, for reference, illustrates the theoretical response of a flat surface. From the left plot, it will be appreciated that a flat response with an unbounded bandwidth detector and idealized picosecond illumination pulses gives a single reflection peak, as would be expected. Figure 10 then illustrates the idealized surface with a 5 cm step difference, from which it can be seen that a 5 cm depth difference results in two separate output pulses separated by 0.3 ns in the time trace. Figure 11 shows that a smaller depth difference of only 0.5 cm steps, but again in the idealized simulation, two peaks are detectable in the trace, representing steps. In practice, however, due to bandwidth limitations in PD, a 5 cm step in Figure 10 may be detectable, but a 0.5 cm step would normally exceed the resolution of PD, due to bandwidth limitations that cause peaks to merge.
그러나, 상기가 이상화된 시뮬레이션들에 적용되지만, 실제 사용에서, 이상화된 피코초 펄스 경우에 대해 도시된 바와 같이 각각의 깊이의 차이를 검출하기 위한 요구는 없다. 대신에, 상이한 깊이들을 가진 상이한 스팟들로부터의 반사들은 하나의 단일 파형을 형성하기 위해 병합한다. 이것은 도 13에 도시되며, 여기에서 다면적 표면은 보다 실현 가능한 5ns 펄스를 갖고 시뮬레이션되었다. 보여질 바와 같이, 다면적 표면으로부터, 상이한 반사 트레이스들은 단일 트레이스로 함께 효과적으로 블렌딩하며, 이것은 그 후 오브젝트에 대한 특유의 시간 트레이스로서 사용될 수 있다.However, although the above applies to idealized simulations, in actual use there is no need to detect the difference in respective depths as shown for the idealized picosecond pulse case. Instead, reflections from different spots with different depths merge to form one single waveform. This is shown in Figure 13, where a multi-faceted surface was simulated with a more feasible 5 ns pulse. As will be seen, from a multi-faceted surface, the different reflection traces effectively blend together into a single trace, which can then be used as the unique time trace for the object.
다음 이슈는 그 후 시간 트레이스를 특성화하는 방법에 대해 발생한다. 이 점에 있어서, 이슈는 상이한 오브젝트들에 대한 파형에 대한 차이가 작으며, 자체가 실제 시스템에 대해 안정되지 않은, 진폭에 대해 대부분에 반사할 것이라는 것이다. 다시, 차이가 매우 작으므로, 디지털화기에 대한 요건은 매우 높을 것이다. 그러나, 3GHz 샘플링 레이트는 충분한 데이터 포인트들을 제공해야 하며, 실제 시나리오에서, 상이한 스팟들의 반사율 및 산란 프로파일들은 상이할 것이며, 이것은 보다 많은 차이를 제공해야 한다. 도 14는 샘플링되고 보간된 트레이스를 예시하며, 여기에서 도 13의 트레이스는 3GHz로(ns당 3개의 샘플들을 제공하기 위해) 샘플링되었다. 예시적인 샘플 포인트들은 그러므로 1404, 1406, 1408, 1410, 1412, 1414, 및 1416에서 도시되며, 파형은 샘플 포인트 단위로 선형 보간에 의해 애플리케이션 프로세서(3)에서 매칭 목적들을 위해 재생성된다. 물론, 다른 예들에서, 매칭을 위한 파형을 재생성하기 위한 상이한 보간 기술들이 사용될 수 있어서, 입력으로서 샘플 포인트들을 취한다.The next issue then arises as to how to characterize the time trace. In this regard, the issue is that the differences in the waveforms for different objects are small and will reflect most of the amplitude, which itself is not stable for a real system. Again, since the difference is very small, the requirements for the digitizer will be very high. However, a 3 GHz sampling rate should provide enough data points, and in a real scenario, the reflectance and scattering profiles of different spots will be different, which should provide more difference. Figure 14 illustrates a sampled and interpolated trace, where the trace in Figure 13 was sampled at 3 GHz (to provide 3 samples per ns). Exemplary sample points are therefore shown at 1404, 1406, 1408, 1410, 1412, 1414, and 1416, and the waveform is recreated for matching purposes in the application processor 3 by linear interpolation on a sample point by sample point basis. Of course, in other examples, different interpolation techniques may be used to recreate the waveform for matching, taking sample points as input.
상기를 고려하며, 다시 도 15로 돌아가면, 15.6에서 언급된 바와 같이, 애플리케이션 프로세서는 특정한 등록된 사용자들에 대한 저장된 시간 트레이스들에 시간 트레이스들(상기 설명된 바와 같이, 일련의 샘플들로서 표현된)을 매칭시킨다. 이러한 매칭이 어떻게 수행되는지에 대하여, 개념 시스템들의 증명은 사용자 식별을 위해 기계 학습 알고리즘들을 구현하여 왔으며, 특히 두 개의 특별한 유형들의 매칭 알고리즘이 사용되어 왔다:Considering the above, and returning to Figure 15, as mentioned in 15.6, the application processor may add time traces (expressed as a series of samples, as described above) to the stored time traces for specific registered users. ) is matched. As to how this matching is performed, proof of concept systems have implemented machine learning algorithms for user identification, and in particular two special types of matching algorithms have been used:
1. ANN 매칭 알고리즘 - 데이터 세트로부터 개개인들의 Go/NoGo 인증 또는 식별을 제공하기 위해 뉴런들, 1개 이상의 은닉 층들, 및 출력 층을 입력하기 위해 직접 시계열 데이터를 매핑시킨다1. ANN matching algorithm - maps time series data directly to input neurons, one or more hidden layers, and an output layer to provide Go/NoGo authentication or identification of individuals from the data set.
2. 부분 최소 자승 판별 분석(PLS-DA) 알고리즘 - 회귀를 구현하기 전에, 시계열 데이터의 차원을 감소시키기 위해 PCA를 사용한다. ANN 예와 유사한 출력을 제공한다.2. Partial least squares discriminant analysis (PLS-DA) algorithm - Before implementing regression, PCA is used to reduce the dimensionality of time series data. Provides output similar to the ANN example.
32명의 사람들의 샘플 크기에 대해 테스트될 때, 초기 결과들은 시스템이 실제 사람 대 2D 화상을 쉽게 구별할 수 있으며, 신경망 매칭이 약간 더 낮은 PLS-DA 매칭을 갖고, 데이터 세트에서 개개인들에 대한 ~99% 인식 레이트를 달성한다는 것을 보여준다. 물론, 다른 예들에서, 상이한 매칭 알고리즘들이, 의도된 판독자에 의해 알려질 바와 같이, 또한 사용될 수 있다.When tested on a sample size of 32 people, initial results show that the system can easily distinguish between real people vs. 2D images, with neural network matching having slightly lower PLS-DA matching, and ~~ for individuals in the dataset. It shows that a 99% recognition rate is achieved. Of course, in other examples, different matching algorithms may also be used, as will be known by the intended reader.
요컨대, 본 개시의 예들은 특히, 도전적 조건들에서(예로서, 열악한 조명, 성형 변경들 등), 100x까지 수반되는 2D 시스템의 인식 레이트를 개선하거나, 또는 독립형 시스템으로서 사용될 가능성을 가진 단일-픽셀 센서 시스템을 제공한다. 게다가, 2-D 센서와 함께 사용될 때, 단일-픽셀 센서 시스템의 3D 깊이 감지 능력들을 부가하는 것은 전체 시스템을 단순한 스푸핑에 더 취약하게 만든다(예로서, 실제 사람 대신에 사용자 대상의 사진 또는 비디오 피드를 사용함으로써). 게다가, 단일-픽셀 센서 시스템은, 구조화된 광 또는 비행 시간 스캐너들과 같은, 다른 3D 이미징 시스템들보다 훨씬 더 단순하고 덜 비싸다.In summary, examples of the present disclosure improve the recognition rate of a concomitant 2D system by up to 100x, especially in challenging conditions (e.g., poor lighting, cosmetic changes, etc.), or single-pixel modules with the potential to be used as a standalone system. Provides a sensor system. Moreover, when used with a 2-D sensor, the addition of 3D depth sensing capabilities of a single-pixel sensor system makes the entire system more vulnerable to simple spoofing (e.g., sending a photo or video feed of a user object instead of a real person). by using ). Additionally, single-pixel sensor systems are much simpler and less expensive than other 3D imaging systems, such as structured light or time-of-flight scanners.
다양한 수정들이 추가 예들을 제공하기 위해 상기 예들에 대해 이루어질 수 있다. 하나의 추가 예에서, 복수의 단일-픽셀 센서들이 제공되고, 1-차원 라인, 또는 2-차원 어레이에 배열될 수 있다. 복수의 이러한 센서들을 제공하는 이점은 그것이 그 후 그것들을 사용하여 대상을 이미징하는 것이 가능해진다는 것이 아니며, 다수의 측정들이 그 후 동일한 조명 펄스로부터 동시에 획득될 수 있다는 것이다. 이것은 동작을 위해 요구되는 교정 및 측정 조명 펄스들의 수를 감소시킬 것이다. 또한, 복수의 센서들의 각각의 단일-픽셀 센서는 광이 조명 다이오드로부터 사용자로 및 그 후 다시 어레이에서 상이한 센서들로 취할 약간 상이한 레이 경로들로 인해 대상 사용자의 약간 상이한 FOV를 가질 것이다. 이것은 어레이에서 각각의 단일-픽셀 센서가 그 자신의 FOV로부터 다시 반사된 광을 나타내는 약간 상이한 1-차원 시간 트레이스를 캡처할 것임을 의미할 것이다. 각각의 별개의 조명 플래시에 대해 그렇게 획득된 동기식 시간 트레이스들의 세트는 대상 사용자 또는 오브젝트의 추가 시그니처 특성을 제공하며, 상기 세트는 오브젝트의 판별 또는 인식을 강화하기 위해 사용될 수 있다.Various modifications may be made to the above examples to provide additional examples. In one further example, a plurality of single-pixel sensors may be provided and arranged in a one-dimensional line, or a two-dimensional array. The advantage of providing a plurality of these sensors is not that it then becomes possible to image an object using them, but that multiple measurements can then be obtained simultaneously from the same illumination pulse. This will reduce the number of calibration and measurement illumination pulses required for operation. Additionally, each single-pixel sensor of the plurality of sensors will have a slightly different FOV of the target user due to the slightly different ray paths the light will take from the lighting diode to the user and then back to the different sensors in the array. This will mean that each single-pixel sensor in the array will capture a slightly different one-dimensional time trace representing the light reflected back from its own FOV. The set of synchronous time traces so obtained for each separate illumination flash provides additional signature characteristics of the target user or object, which set can be used to enhance discrimination or recognition of the object.
추가 예에서, 조명 다이오드 또는 VCSEL이 그것의 구동 신호에 대해 깨끗하고 예측 가능한 응답을 갖는 경우(즉, 링잉 또는 다른 예측 가능하지 않은 아티팩트들을 보이지 않는), 그 후 기준 채널 구성부를 포함하거나, 또는 상기 예들에서 설명된 기준 정규화 단계들을 행하는 것이 필요하지 않을 수 있다. 가능한 경우 이러한 특징들을 제외하는 것은 보다 단순하며, 따라서 덜 비싼 구현을 야기할 것이다.In a further example, if the lighting diode or VCSEL has a clean and predictable response to its drive signal (i.e., does not exhibit ringing or other unpredictable artifacts), it then includes a reference channel component, or It may not be necessary to perform the baseline normalization steps described in the examples. Excluding these features when possible will result in a simpler, and therefore less expensive, implementation.
몇몇 예들에서, 장치들은 여기에서 설명된 방법들 중 임의의 하나를 구현/실행하기 위한 수단들을 포함할 수 있다.In some examples, devices may include means for implementing/performing any one of the methods described herein.
여기에서 개괄된 규격들, 치수들, 및 관계들 모두(예로서, 프로세서들의 수, 논리 연산들 등)는 단지 예시 및 교시의 목적들만을 위해 제공되었다는 것을 주의하는 것이 또한 중요하다. 이러한 정보는 본 개시의 사상, 또는 여기에서 설명된 첨부된 청구항들(만약에 있다면) 또는 예들의 범위로부터 벗어나지 않고 상당히 변경될 수 있다. 명세서들은 단지 비-제한적인 예에만 적용되며, 따라서, 그것들은 이와 같이 해석되어야 한다. 앞서 말한 설명에서, 예시적인 실시예들은 특정한 프로세서 및/또는 구성요소 배열들을 참조하여 설명되었다. 다양한 수정들 및 변화들이 첨부된 청구항들(만약에 있다면) 또는 여기에서 설명된 예들의 범위로부터 벗어나지 않고 이러한 실시예들에 대해 이루어질 수 있다. 설명 및 도면들은, 따라서 제한적인 의미보다는 예시적으로 간주될 것이다. It is also important to note that all specifications, dimensions, and relationships outlined herein (eg, number of processors, logical operations, etc.) are provided for purposes of illustration and teaching only. Such information may be changed substantially without departing from the spirit of the disclosure, or the scope of the appended claims (if any) or examples set forth herein. The specifications apply to non-limiting examples only and, therefore, they should be construed as such. In the foregoing description, example embodiments have been described with reference to specific processors and/or component arrangements. Various modifications and changes may be made to these embodiments without departing from the scope of the appended claims (if any) or the examples described herein. The description and drawings are therefore to be regarded in an illustrative rather than a restrictive sense.
여기에서 제공된 다수의 예들을 갖고, 상호 작용은 2, 3, 4, 또는 그 이상의 전기적 구성요소들 또는 부분들에 대하여 설명될 수 있다는 것을 주의하자. 그러나, 이것은 단지 명료함 및 예의 목적들을 위해 행해졌다. 시스템은 임의의 적절한 방식으로 통합될 수 있다는 것이 이해되어야 한다. 유사한 설계 대안들에 따라, 도면들의 예시된 구성요소들, 모듈들, 블록들, 및 요소들 중 임의의 것이 다양한 가능한 구성들로 조합될 수 있으며, 그 모두는 명확하게 본 명세서의 넓은 범위 내에 있다. 특정한 경우들에서, 제한된 수의 전기적 요소들만을 참조함으로써 주어진 세트의 흐름들의 기능들 중 하나 이상을 설명하는 것이 더 용이할 수 있다. 도면들 및 그것의 교시들의 전기적 회로들은 쉽게 확장 가능하며 다수의 구성요소들, 뿐만 아니라 보다 복잡한/정교한 배열들 및 구성들을 수용할 수 있다는 것이 이해되어야 한다. 따라서, 제공된 예들은 범위를 제한하거나 또는 잠재적으로 무수한 다른 아키텍처들에 적용되는 것으로 전기적 회로들의 넓은 교시들을 억제하지 않아야 한다. Note that, with the number of examples provided herein, the interaction may be described in terms of two, three, four, or more electrical components or parts. However, this was done for clarity and example purposes only. It should be understood that the system may be integrated in any suitable manner. Following similar design alternatives, any of the illustrated components, modules, blocks, and elements of the figures may be combined into a variety of possible configurations, all of which are expressly within the broad scope of this disclosure. . In certain cases, it may be easier to describe one or more of the functions of a given set of flows by referring to only a limited number of electrical elements. It should be understood that the electrical circuits of the drawings and their teachings are readily scalable and can accommodate multiple components, as well as more complex/sophisticated arrangements and configurations. Accordingly, the examples provided should not limit the scope or suppress the broad teachings of electrical circuits as potentially applicable to countless other architectures.
본 명세서에서, "일 실시예", "예시적인 실시예", "실시예", "또 다른 실시예", "몇몇 실시예들", "다양한 실시예들", "다른 실시예들", "대안적인 실시예" 등에 포함된 다양한 특징들(예로서, 요소들, 구조들, 모듈들, 구성요소들, 단계들, 동작들, 특성들 등)에 대한 참조들은 임의의 이러한 특징들이 본 개시의 하나 이상의 실시예들에 포함되지만, 동일한 실시예들에서 조합되거나 또는 반드시 조합되는 것은 아님을 의미하도록 의도된다. 여기에서 설명된 기능들은 단지, 도면들에서 예시된 시스템들/회로들에 의해, 또는 그것 내에서 실행될 수 있는 가능한 기능들 중 일부만을 예시한다는 것을 주의하는 것이 또한 중요하다. 이들 동작들 중 일부는 적절한 경우 삭제되거나 또는 제거될 수 있거나, 또는 이들 동작들은 본 개시의 범위로부터 벗어나지 않고 상당히 수정되거나 또는 변경될 수 있다. 또한, 이들 동작들의 타이밍은 상당히 변경될 수 있다. 이전 동작 흐름들은 예 및 논의의 목적들을 위해 제공되었다. 상당한 유연성이, 임의의 적절한 배열들, 연대순들, 구성들, 및 타이밍 메커니즘들이 본 개시의 교시들로부터 벗어나지 않고 제공될 수 있다는 점에서 여기에서 설명된 실시예들에 의해 제공된다. 다수의 다른 변화들, 대체들, 변형들, 변경들, 및 수정들이 이 기술분야의 숙련자에게 확인될 수 있으며 본 개시는 첨부된 청구항들(만약에 있다면) 또는 여기에서 설명된 예들의 범위 내에 속하는 것으로 모든 이러한 변화들, 대체들, 변형들, 변경들, 및 수정들을 포함한다는 것이 의도된다. 상기 설명된 장치의 모든 선택적인 특징들은 또한 여기에서 설명된 방법 또는 프로세스에 대하여 구현될 수 있으며 예들에서의 세부사항들은 하나 이상의 실시예들에서의 다른 곳에서 사용될 수 있다는 것을 주의하자.In this specification, “one embodiment”, “exemplary embodiment”, “an embodiment”, “another embodiment”, “some embodiments”, “various embodiments”, “other embodiments”, References to various features (e.g., elements, structures, modules, components, steps, operations, features, etc.) included in an “alternative embodiment” or the like refer to any such features being disclosed herein. is included in one or more embodiments of, but is intended to mean that they are or are not necessarily combined in the same embodiments. It is also important to note that the functions described herein illustrate only some of the possible functions that can be implemented by or within the systems/circuits illustrated in the figures. Some of these operations may be deleted or eliminated as appropriate, or these operations may be significantly modified or altered without departing from the scope of the present disclosure. Additionally, the timing of these operations can vary significantly. The previous operational flows were provided for example and discussion purposes. Considerable flexibility is provided by the embodiments described herein in that any suitable arrangements, chronological sequences, configurations, and timing mechanisms may be provided without departing from the teachings of the present disclosure. Numerous other changes, substitutions, variations, modifications, and modifications may occur to those skilled in the art and the present disclosure does not fall within the scope of the appended claims (if any) or the examples set forth herein. It is intended to include all such changes, substitutions, variations, modifications, and modifications. Note that any optional features of the device described above may also be implemented with respect to the method or process described herein and details in the examples may be used elsewhere in one or more embodiments.
다양한 추가 수정들은, 부가, 삭제, 또는 대체로서에 관계없이, 추가 예들을 제공하기 위해 상기 언급된 예들에 대해 이루어질 수 있으며, 그 중 임의의 것 및 모두는 첨부된 청구항들에 의해 포함되도록 의도된다.Various further modifications, whether by addition, deletion, or substitution, may be made to the above-mentioned examples to provide further examples, any and all of which are intended to be encompassed by the appended claims. .
여기에서의 청구항들은 USPTO에서 출원에 적합한 단일 종속 포맷으로 제공되었지만, 다중 종속 청구를 허용하는 이들 관할권들의 목적들을 위해, 각각의 청구항은, 명확하게 기술적으로 실행 불가능하지 않다면, 동일한 유형의 임의의 이전 청구항에 의존할 수 있다는 것이 이해될 것이다.The claims herein have been presented in a single dependent format suitable for filing at the USPTO, but for purposes of those jurisdictions permitting multiple dependent claims, each claim shall be synonymous with any prior claim of the same type unless expressly technically impracticable. It will be understood that reliance may be placed on the claims.
Claims (20)
상기 오브젝트의 얼굴을 조명하기 위해 광 펄스를 방출하도록 배열된 광원 ― 상기 광 펄스는 5 나노초 미만의 지속 기간을 가짐 ―;
상기 광 펄스를 상기 오브젝트의 얼굴에 걸쳐 확산시키는 확산기;
상기 오브젝트의 얼굴의 속성들을 나타내는 1-차원 시간-기반 반사 신호를 생성하기 위해 상기 오브젝트의 얼굴로부터 반사된 상기 광 펄스로부터의 광을 검출하도록 배열된 광 검출기;
시간-기반 반사 시그니처를 수신하고 상기 시간-기반 반사 시그니처에 따라 상기 오브젝트를 인식하도록 배열된 인식 프로세서 ― 상기 인식 프로세서는 상기 오브젝트를 인식하기 위해 상기 시간-기반 반사 시그니처와 비교되는 오브젝트-특정 1-차원 시간-기반 신호 트레이스 데이터를 저장함 ―; 및
상기 1-차원 시간-기반 반사 신호를 나타내는 신호들을 수신하고 그 신호들에 따라 상기 오브젝트에 대한 시간-기반 반사 시그니처를 생성하도록 배열된 프로세서를 포함하되,
상기 오브젝트-특정 1-차원 시간-기반 신호 트레이스 데이터는 트레이닝 단계 동안 캡처될 각 오브젝트-특정 시간-기반 신호 트레이스들의 샘플들의 세트들 각각을 포함하고, 상기 인식 프로세서는 매칭시킬 상기 오브젝트-특정 시간-기반 신호 트레이스들을 재생성하기 위해 상기 샘플들의 세트 사이를 보간하는 것인, 오브젝트를 검출하기 위한 센서.In a sensor for detecting an object,
a light source arranged to emit light pulses to illuminate the face of the object, the light pulses having a duration of less than 5 nanoseconds;
a diffuser that spreads the light pulse across the face of the object;
a light detector arranged to detect light from the light pulse reflected from the object's face to generate a one-dimensional time-based reflection signal representative of attributes of the object's face;
a recognition processor arranged to receive a time-based reflection signature and recognize the object according to the time-based reflection signature, wherein the recognition processor is configured to: receive an object-specific reflection signature compared to the time-based reflection signature to recognize the object; stores 3D time-based signal trace data; and
a processor arranged to receive signals representative of the one-dimensional time-based reflection signal and generate a time-based reflection signature for the object in accordance with the signals,
The object-specific one-dimensional time-based signal trace data includes each of a set of samples of each object-specific time-based signal trace to be captured during a training phase, and the recognition processor determines the object-specific time-based signal trace to be matched. A sensor for detecting an object, interpolating between the set of samples to reproduce underlying signal traces.
상기 인식 프로세서는 상기 시간-기반 반사 시그니처에 기초하여 상기 오브젝트를 인식하기 위해 기계 학습 기법들을 이용하는 것인, 오브젝트를 검출하기 위한 센서.In claim 1,
wherein the recognition processor uses machine learning techniques to recognize the object based on the time-based reflection signature.
상기 기계 학습 기법들은:
a) 주성분 분석(principal component analysis); 및
b) 하나 이상의 신경망
중 적어도 하나를 포함하는 것인, 오브젝트를 검출하기 위한 센서.In claim 2,
The above machine learning techniques are:
a) principal component analysis; and
b) one or more neural networks
A sensor for detecting an object, comprising at least one of:
기준 신호를 제공하기 위해 상기 광원으로부터 직접 상기 광 펄스의 적어도 일부분을 수신하도록 배열된 기준 채널 구성부를 더 포함하며, 상기 프로세서는 또한, 상기 광 펄스에서 원치 않는 특성들을 참작하기 위해 상기 기준 신호에 따라 상기 1-차원 시간-기반 반사 신호를 정규화하도록 배열되는 것인, 오브젝트를 검출하기 위한 센서.In claim 1,
further comprising a reference channel arrangement arranged to receive at least a portion of the optical pulse directly from the light source to provide a reference signal, wherein the processor further operates according to the reference signal to take into account undesirable characteristics in the optical pulse. A sensor for detecting an object, arranged to normalize the one-dimensional time-based reflection signal.
상기 광원은 링잉(ringing) 특성을 갖고, 상기 기준 채널 구성부는 상기 링잉 특성을 검출하도록 배열된 기준 광검출기를 포함하며, 상기 프로세서는 또한, 상기 링잉 특성에 응답하여 상기 기준 광검출기에 의해 생성된 신호를 수신하고 상기 링잉에 의해 신호에 야기된 아티팩트들을 제거하기 위해 상기 1-차원 시간-기반 반사 신호를 정규화하도록 배열되는 것인, 오브젝트를 검출하기 위한 센서.In claim 4,
The light source has a ringing characteristic, the reference channel component includes a reference photodetector arranged to detect the ringing characteristic, and the processor further provides a reference photodetector configured to detect the ringing characteristic. A sensor for detecting an object, arranged to receive a signal and normalize the one-dimensional time-based reflected signal to remove artifacts caused in the signal by the ringing.
상기 오브젝트의 얼굴의 2-차원 이미지를 캡처하고 그 2-차원 이미지에 따라 상기 오브젝트의 인식에 착수하도록 배열된 2-차원 공간 기반 인식 시스템을 더 포함하며, 상기 인식 프로세서는 상기 2-차원 이미지와 상기 1-차원 시간-기반 반사 신호 양쪽 모두를 사용한 상기 오브젝트의 인식에 따라 상기 오브젝트의 성공적인 인식을 나타내는 출력 신호를 생성하는 것인, 오브젝트를 검출하기 위한 센서.In claim 1,
further comprising a two-dimensional space-based recognition system arranged to capture a two-dimensional image of the face of the object and undertake recognition of the object according to the two-dimensional image, wherein the recognition processor is configured to: and generating an output signal indicative of successful recognition of the object upon recognition of the object using both the one-dimensional time-based reflection signals.
상기 오브젝트는 인간 대상체이고, 상기 오브젝트의 얼굴은 인간 대상체의 얼굴인 것인, 오브젝트를 검출하기 위한 센서.In claim 1,
A sensor for detecting an object, wherein the object is a human subject, and the face of the object is the face of the human subject.
상기 인식 프로세서는 또한, 상기 오브젝트를 인식하기 위해 상기 시간-기반 반사 시그니처에 대응하는 템플릿과 비교되는 수학적 템플릿(mathematical template)을 저장하는 것인, 오브젝트를 검출하기 위한 센서.In claim 1,
wherein the recognition processor also stores a mathematical template that is compared to a template corresponding to the time-based reflection signature to recognize the object.
상기 오브젝트의 얼굴을 조명하기 위해 광 펄스를 방출하도록 배열된 광원 ― 상기 광 펄스는 5 나노초 미만의 지속 기간을 가짐 ―;
상기 광 펄스를 상기 오브젝트의 얼굴에 걸쳐 확산시키는 확산기;
상기 오브젝트의 얼굴의 속성들을 나타내는 1-차원 시간-기반 반사 신호를 생성하기 위해 상기 오브젝트의 얼굴로부터 반사된 상기 광 펄스로부터의 광을 검출하도록 배열된 광 검출기;
상기 1-차원 시간-기반 반사 신호를 나타내는 신호들을 수신하고 그 신호들에 따라 상기 오브젝트에 대한 시간-기반 반사 시그니처를 생성하도록 배열된 프로세서; 및
기준 신호를 제공하기 위해 상기 광원으로부터 직접 상기 광 펄스의 적어도 일부분을 수신하도록 배열된 기준 채널 구성부 ― 상기 프로세서가 또한, 상기 광 펄스에서 원치 않는 특성들을 참작하기 위해 상기 기준 신호에 따라 상기 1-차원 시간-기반 반사 신호를 정규화하도록 배열됨 ― 를 포함하되,
상기 광원은 링잉 특성을 갖고, 상기 기준 채널 구성부는 상기 링잉 특성을 검출하도록 배열된 기준 광검출기를 포함하며, 상기 프로세서는 또한, 상기 링잉 특성에 응답하여 상기 기준 광검출기에 의해 생성된 신호를 수신하고 상기 링잉에 의해 신호에 야기된 아티팩트들을 제거하기 위해 상기 1-차원 시간-기반 반사 신호를 정규화하도록 배열되는 것인, 오브젝트를 검출하기 위한 센서.In a sensor for detecting an object,
a light source arranged to emit light pulses to illuminate the face of the object, the light pulses having a duration of less than 5 nanoseconds;
a diffuser that spreads the light pulse across the face of the object;
a light detector arranged to detect light from the light pulse reflected from the object's face to generate a one-dimensional time-based reflection signal representative of attributes of the object's face;
a processor arranged to receive signals representative of the one-dimensional time-based reflection signal and generate a time-based reflection signature for the object in accordance with the signals; and
a reference channel arrangement arranged to receive at least a portion of the optical pulse directly from the light source to provide a reference signal, wherein the processor further provides a reference signal for taking into account undesirable characteristics in the optical pulse; arranged to normalize the dimensional time-based reflected signal, including:
The light source has a ringing characteristic, the reference channel component includes a reference photodetector arranged to detect the ringing characteristic, and the processor further receives a signal generated by the reference photodetector in response to the ringing characteristic. and normalizing the one-dimensional time-based reflected signal to remove artifacts caused in the signal by the ringing.
상기 시간-기반 반사 시그니처를 수신하고 상기 시간-기반 반사 시그니처에 따라 상기 오브젝트를 인식하도록 배열된 인식 프로세서를 더 포함하는, 오브젝트를 검출하기 위한 센서.In claim 9,
A sensor for detecting an object, further comprising a recognition processor arranged to receive the time-based reflection signature and recognize the object according to the time-based reflection signature.
상기 인식 프로세서는 상기 시간-기반 반사 시그니처에 기초하여 상기 오브젝트를 인식하기 위해 기계 학습 기법들을 이용하는 것인, 오브젝트를 검출하기 위한 센서.In claim 10,
wherein the recognition processor uses machine learning techniques to recognize the object based on the time-based reflection signature.
상기 기계 학습 기법들은:
a) 주성분 분석; 및
b) 하나 이상의 신경망
중 적어도 하나를 포함하는 것인, 오브젝트를 검출하기 위한 센서.In claim 11,
The above machine learning techniques are:
a) principal component analysis; and
b) one or more neural networks
A sensor for detecting an object, comprising at least one of:
상기 오브젝트의 얼굴의 2-차원 이미지를 캡처하고 그 2-차원 이미지에 따라 상기 오브젝트의 인식에 착수하도록 배열된 2-차원 공간 기반 인식 시스템을 더 포함하며, 상기 인식 프로세서는 상기 2-차원 이미지와 상기 1-차원 시간-기반 반사 신호 양쪽 모두를 사용한 상기 오브젝트의 인식에 따라 상기 오브젝트의 성공적인 인식을 나타내는 출력 신호를 생성하는 것인, 오브젝트를 검출하기 위한 센서.In claim 10,
further comprising a two-dimensional space-based recognition system arranged to capture a two-dimensional image of the face of the object and undertake recognition of the object according to the two-dimensional image, wherein the recognition processor is configured to: and generating an output signal indicative of successful recognition of the object upon recognition of the object using both the one-dimensional time-based reflection signals.
상기 인식 프로세서는 상기 오브젝트를 인식하기 위해 상기 시간-기반 반사 시그니처 또는 대응하는 템플릿과 비교되는 오브젝트-특정 1-차원 시간-기반 신호 트레이스 데이터 또는 대응하는 수학적 템플릿을 저장하는 것인, 오브젝트를 검출하기 위한 센서.In claim 10,
wherein the recognition processor stores object-specific one-dimensional time-based signal trace data or a corresponding mathematical template that is compared to the time-based reflection signature or a corresponding template to recognize the object. sensor for.
상기 오브젝트-특정 1-차원 시간-기반 신호 트레이스 데이터는 트레이닝 단계 동안 캡처되는 각 오브젝트-특정 시간-기반 신호 트레이스들의 샘플들의 세트들 각각을 포함하고, 상기 인식 프로세서는 매칭시킬 상기 오브젝트-특정 시간-기반 신호 트레이스들을 재생성하기 위해 상기 샘플들의 세트 사이를 보간하는 것인, 오브젝트를 검출하기 위한 센서.In claim 14,
The object-specific one-dimensional time-based signal trace data includes each set of samples of each object-specific time-based signal trace captured during a training phase, and the recognition processor determines the object-specific time-based signal trace to be matched. A sensor for detecting an object, interpolating between the set of samples to reproduce underlying signal traces.
상기 오브젝트는 인간 대상체이고, 상기 오브젝트의 얼굴은 인간 대상체의 얼굴인 것인, 오브젝트를 검출하기 위한 센서.In claim 9,
A sensor for detecting an object, wherein the object is a human subject, and the face of the object is the face of the human subject.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/970,539 | 2018-05-03 | ||
US15/970,539 US10691926B2 (en) | 2018-05-03 | 2018-05-03 | Single-pixel sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190127566A KR20190127566A (en) | 2019-11-13 |
KR102635069B1 true KR102635069B1 (en) | 2024-02-07 |
Family
ID=68384232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190050769A KR102635069B1 (en) | 2018-05-03 | 2019-04-30 | Single-pixel sensor |
Country Status (4)
Country | Link |
---|---|
US (1) | US10691926B2 (en) |
JP (1) | JP6864030B2 (en) |
KR (1) | KR102635069B1 (en) |
CN (1) | CN110443106B (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020154408A (en) * | 2019-03-18 | 2020-09-24 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and information processing system |
US10726246B1 (en) * | 2019-06-24 | 2020-07-28 | Accenture Global Solutions Limited | Automated vending machine with customer and identification authentication |
USD963407S1 (en) | 2019-06-24 | 2022-09-13 | Accenture Global Solutions Limited | Beverage dispensing machine |
US10947103B2 (en) | 2019-06-24 | 2021-03-16 | Accenture Global Solutions Limited | Beverage dispensing machine for achieving target pours for different beverages |
EP3869395A1 (en) | 2020-02-21 | 2021-08-25 | Accenture Global Solutions Limited | Identity and liveness verification |
WO2021231139A1 (en) * | 2020-05-09 | 2021-11-18 | The Regents Of The University Of California | Machine vision using diffractive spectral encoding |
CN118570651A (en) * | 2024-07-31 | 2024-08-30 | 南京理工大学 | Single-pixel spectrum imaging method with enhanced cross-band detail drive |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130237800A1 (en) | 2012-03-08 | 2013-09-12 | Canon Kabushiki Kaisha | Object information acquiring apparatus |
US20160231420A1 (en) | 2013-10-22 | 2016-08-11 | Flir Systems, Inc. | System and method for detecting an object or recess on a surface |
JP2017062169A (en) | 2015-09-25 | 2017-03-30 | 株式会社リコー | Circuit device, light detection device, object detection device, sensing device, moving body device, light detection method and object detection method |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6757018B1 (en) | 1998-12-18 | 2004-06-29 | Agilent Technologies, Inc. | CMOS image sensor with pixel level gain control |
JP2002160395A (en) | 2000-11-22 | 2002-06-04 | Fuji Photo Film Co Ltd | Method and device for recording image |
KR20020075960A (en) | 2002-05-20 | 2002-10-09 | 주식회사 코난테크놀로지 | Method for detecting face region using neural network |
US6803998B2 (en) * | 2002-08-20 | 2004-10-12 | Applied Materials, Inc. | Ultra low cost position and status monitoring using fiber optic delay lines |
JP4874593B2 (en) * | 2005-07-25 | 2012-02-15 | コニカミノルタオプト株式会社 | Video display device and head mounted display |
US8295610B1 (en) | 2010-01-06 | 2012-10-23 | Apple Inc. | Feature scaling for face detection |
US9407833B2 (en) * | 2010-01-22 | 2016-08-02 | The Trustees Of Columbia University In The City Of New York | Systems, methods, and media for recording an image using an optical diffuser |
JP2012060411A (en) | 2010-09-09 | 2012-03-22 | Hamamatsu Metrix Kk | Multiband one-dimensional line sensor camera |
KR101251836B1 (en) * | 2011-09-02 | 2013-04-09 | 현대자동차주식회사 | Driver condition detecting device with IR sensor |
JP5950296B2 (en) * | 2012-01-27 | 2016-07-13 | 国立研究開発法人産業技術総合研究所 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
US8884229B2 (en) | 2012-02-22 | 2014-11-11 | Excelitas Technologies Singapore Pte. Ltd. | Passive infrared range finding proximity detector |
US9549158B2 (en) | 2012-04-18 | 2017-01-17 | Brightway Vision Ltd. | Controllable single pixel sensors |
US8958005B1 (en) | 2012-08-30 | 2015-02-17 | Google Inc. | Single pixel camera |
JP5867355B2 (en) * | 2012-10-02 | 2016-02-24 | 株式会社デンソー | Status monitoring device and status monitoring program |
US9532071B2 (en) | 2012-10-02 | 2016-12-27 | Mitsuo Hayashi | Resampling apparatus, method, and recording medium having resampling program recorded therein for digital image |
KR101977711B1 (en) * | 2012-10-12 | 2019-05-13 | 삼성전자주식회사 | Depth sensor, image capturing method thereof and image processing system having the depth sensor |
KR101422549B1 (en) | 2012-11-13 | 2014-07-24 | 재단법인대구경북과학기술원 | Method and system for face recognition |
US20150085136A1 (en) | 2013-09-26 | 2015-03-26 | Xerox Corporation | Hybrid single-pixel camera switching mode for spatial and spot/area measurements |
KR102249824B1 (en) * | 2014-02-24 | 2021-05-10 | 삼성전자주식회사 | Apparatus and Method for sensing body imformation thereof |
KR101649891B1 (en) * | 2014-05-08 | 2016-08-23 | 한국원자력연구원 | Single sensor based stereoscopic radiation imager and method for recoding high-speed radiation image using thereof |
KR101653228B1 (en) | 2014-05-15 | 2016-09-01 | 주식회사 뷰웍스 | Tdi line image sensor |
US9554100B2 (en) | 2014-09-30 | 2017-01-24 | Qualcomm Incorporated | Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor |
EP3158498A4 (en) * | 2014-11-15 | 2017-08-16 | Beijing Kuangshi Technology Co. Ltd. | Face detection using machine learning |
US10740658B2 (en) * | 2016-09-08 | 2020-08-11 | Mentor Graphics Corporation | Object recognition and classification using multiple sensor modalities |
EP3301476B1 (en) * | 2016-09-28 | 2023-03-15 | STMicroelectronics (Research & Development) Limited | Apparatus having a camera and a time of flight single photon avalanche diode based range detecting module for controlling the camera and corresponding method |
DE102016014141A1 (en) * | 2016-11-25 | 2017-05-18 | Daimler Ag | sensor device |
US10810912B2 (en) * | 2017-03-15 | 2020-10-20 | Aether Inc. | Face recognition triggered digital assistant and LED light ring for a smart mirror |
US10621838B2 (en) * | 2017-12-15 | 2020-04-14 | Google Llc | External video clip distribution with metadata from a smart-home environment |
US10699126B2 (en) * | 2018-01-09 | 2020-06-30 | Qualcomm Incorporated | Adaptive object detection and recognition |
-
2018
- 2018-05-03 US US15/970,539 patent/US10691926B2/en active Active
-
2019
- 2019-04-26 JP JP2019085570A patent/JP6864030B2/en active Active
- 2019-04-30 KR KR1020190050769A patent/KR102635069B1/en active IP Right Grant
- 2019-04-30 CN CN201910358001.6A patent/CN110443106B/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130237800A1 (en) | 2012-03-08 | 2013-09-12 | Canon Kabushiki Kaisha | Object information acquiring apparatus |
US20160231420A1 (en) | 2013-10-22 | 2016-08-11 | Flir Systems, Inc. | System and method for detecting an object or recess on a surface |
JP2017062169A (en) | 2015-09-25 | 2017-03-30 | 株式会社リコー | Circuit device, light detection device, object detection device, sensing device, moving body device, light detection method and object detection method |
Also Published As
Publication number | Publication date |
---|---|
KR20190127566A (en) | 2019-11-13 |
CN110443106B (en) | 2023-11-17 |
JP2019194587A (en) | 2019-11-07 |
US10691926B2 (en) | 2020-06-23 |
JP6864030B2 (en) | 2021-04-21 |
US20190340418A1 (en) | 2019-11-07 |
CN110443106A (en) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102635069B1 (en) | Single-pixel sensor | |
US10438046B2 (en) | Multifunction fingerprint sensor having optical sensing against fingerprint spoofing | |
US9361507B1 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
EP2648158B1 (en) | Biometric authentication device and biometric authentication method | |
US8374405B2 (en) | Camera device and identity recognition method utilizing the same | |
US9008375B2 (en) | Security improvements for iris recognition systems | |
US20040037450A1 (en) | Method, apparatus and system for using computer vision to identify facial characteristics | |
KR20230149320A (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
KR102009000B1 (en) | Anti-spoofing method and system of a device having a fingerprint sensor | |
EP3673406B1 (en) | Laser speckle analysis for biometric authentication | |
Hussein et al. | Fingerprint presentation attack detection using a novel multi-spectral capture device and patch-based convolutional neural networks | |
KR20180134280A (en) | Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information | |
Kotwal et al. | Multispectral deep embeddings as a countermeasure to custom silicone mask presentation attacks | |
EP3701603B1 (en) | Vcsel based biometric identification device | |
KR20220052828A (en) | Biometric authentication apparatus and biometric authentication method | |
KR20170070754A (en) | Security system using uwb radar and method for providing security service thereof | |
EP3564850A1 (en) | Single-pixel sensor | |
Furman et al. | Contactless fingerprint devices usability test | |
US20150287305A1 (en) | Intelligent container | |
US11216679B2 (en) | Biometric authentication apparatus and biometric authentication method | |
KR102673019B1 (en) | Identification devices and electronic devices | |
Liu et al. | A review of advances in iris image acquisition system | |
US20230410548A1 (en) | Imaging apparatus and imaging method | |
US20220114359A1 (en) | Passive image depth sensing for object verification based on chromatic differentiation | |
US11423638B2 (en) | Multizone illumination for optical face identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |