CH716053A1 - Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance. - Google Patents

Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance. Download PDF

Info

Publication number
CH716053A1
CH716053A1 CH00486/19A CH4862019A CH716053A1 CH 716053 A1 CH716053 A1 CH 716053A1 CH 00486/19 A CH00486/19 A CH 00486/19A CH 4862019 A CH4862019 A CH 4862019A CH 716053 A1 CH716053 A1 CH 716053A1
Authority
CH
Switzerland
Prior art keywords
image data
body part
posture
biometric
person
Prior art date
Application number
CH00486/19A
Other languages
German (de)
Inventor
Herp Arnold
Bergqvist Johan
Original Assignee
Smart Secure Id Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Secure Id Ag filed Critical Smart Secure Id Ag
Priority to CH00486/19A priority Critical patent/CH716053A1/en
Priority to CN202080026328.4A priority patent/CN113678138A/en
Priority to EP20717828.6A priority patent/EP3953858A1/en
Priority to US17/602,464 priority patent/US11900731B2/en
Priority to AU2020271607A priority patent/AU2020271607A1/en
Priority to PCT/EP2020/059718 priority patent/WO2020207947A1/en
Publication of CH716053A1 publication Critical patent/CH716053A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Eine biometrische Bildgebungsvorrichtung zum Erfassen von Bilddaten eines Körperteils einer Person umfasst mindestens einen Sensor für sichtbares Licht zum Erfassen von Bilddaten des Körperteils im sichtbaren Lichtspektrum und einen Sensor für Nahinfrarotlicht zum Erfassen von Bilddaten des Körperteils im Nahinfrarotlichtspektrum. Die biometrische Bildgebungsvorrichtung umfasst eine Laufzeitkamera, die so konfiguriert ist, dass sie dreidimensionale Bilddaten des Körperteils der Person erfasst. Die biometrische Bildgebungsvorrichtung ist so konfiguriert, dass sie ein Bildgebungsverfahren ausführt, das die folgenden Schritte umfasst: Erfassen von dreidimensionalen Bilddaten einer aktuellen Körperteilhaltung; Bestimmen einer Differenz zwischen einer gewünschten Körperteilhaltung (402) und der aktuellen Körperteilhaltung (401) auf der Grundlage der dreidimensionalen Bilddaten; Bereitstellen einer Benutzerführung für die Person auf der Grundlage der bestimmten Differenz, die es der Person ermöglicht, die Körperteilhaltung in Richtung der gewünschten Haltung anzupassen; und Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum. Die Benutzerführung umfasst z.B. des Anzeigen einer Libelle (403) auf einem Display.A biometric imaging device for acquiring image data of a body part of a person comprises at least one sensor for visible light for acquiring image data of the body part in the visible light spectrum and a sensor for near-infrared light for acquiring image data of the body part in the near-infrared light spectrum. The biometric imaging device includes a time-of-flight camera that is configured to capture three-dimensional image data of the person's body part. The biometric imaging device is configured to carry out an imaging method comprising the following steps: acquiring three-dimensional image data of a current body part posture; Determining a difference between a desired body part posture (402) and the current body part posture (401) on the basis of the three-dimensional image data; Providing user guidance to the person based on the determined difference that enables the person to adjust the body part posture in the direction of the desired posture; and acquiring at least one of the image data in the visible light spectrum and the image data in the infrared light spectrum. The user guidance includes e.g. displaying a level (403) on a display.

Description

Technisches GebietTechnical area

[0001] Die vorliegende Offenbarung bezieht sich auf eine biometrische Bildgebungsvorrichtung und ein biometrisches Bildgebungsverfahren zum Erfassen von Bilddaten eines Körperteils einer Person. Insbesondere bezieht sich die vorliegende Offenbarung auf eine biometrische Bildgebungsvorrichtung und ein biometrisches Bildgebungsverfahren zum Erfassen von Bilddaten eines Körperteils einer Person, die eine verbesserte Bilddatenqualität ermöglichen. The present disclosure relates to a biometric imaging device and a biometric imaging method for acquiring image data of a body part of a person. In particular, the present disclosure relates to a biometric imaging device and a biometric imaging method for acquiring image data of a body part of a person, which enable improved image data quality.

Allgemeiner Stand der TechnikGeneral state of the art

[0002] Biometrische Authentifizierungsvorrichtungen, die biometrische Bildgebungsvorrichtungen zum Erfassen von Bilddaten eines Körperteils einer Person enthalten, werden in großem Umfang für die Authentifizierung von Personen verwendet, z.B. im Zusammenhang mit der Zugangskontrolle zu Ressourcen wie zum Beispiel Gebäuden, Räumen, Computern, Smartphones, elektronischen Bankkonten, Wahlsystemen, Schul- oder Universitätsprüfungsunterlagen, Grenzen, Firmenregistern usw. Biometric authentication devices, which include biometric imaging devices for capturing image data of a body part of a person, are widely used for the authentication of persons, e.g. in connection with access control to resources such as buildings, rooms, computers, smartphones, electronic bank accounts, voting systems, school or university examination papers, borders, company registers, etc.

[0003] In einigen Ausführungsformen sind biometrische Bildgebungsvorrichtungen so konfiguriert, dass sie Bilddaten eines Körperteils einer Person, z.B. einer Hand der Person, erfassen, so dass aus den erfassten Bilddaten individuelle und typische biometrische Merkmale bestimmt werden können. Erfasste Bilddaten der Hand oder eines Körperteils der Person können sich auf Bilddaten beziehen, die mit einem Sensor für Nahinfrarotlicht (z.B. 700 nm bis 900 nm) erfasst wurden, auf Bilddaten, die mit einem Sensor für sichtbares Licht (z.B. 400 nm bis 600 nm)erfasst wurden, oder einer Kombination davon. Biometrische Merkmale die aus Bilddaten bestimmt wurden können sich auf Venenmuster, Handabdrücke, Lebenslinien usw. der Hand beziehen. Im Nahinfrarotlicht erfasste Bilddaten ermöglichen die Bestimmung von Merkmalen, die sich auf Venenmuster der Hand beziehen. Im sichtbaren Licht erfasste Bilddaten ermöglichen die Bestimmung von Merkmalen, die sich auf Handabdrücke und Lebenslinien der Hand beziehen. In some embodiments, biometric imaging devices are configured to receive image data of a body part of a person, e.g. one hand of the person, so that individual and typical biometric features can be determined from the captured image data. Acquired image data of the hand or a part of the person's body can relate to image data acquired with a sensor for near-infrared light (e.g. 700 nm to 900 nm), to image data acquired with a sensor for visible light (e.g. 400 nm to 600 nm) or a combination thereof. Biometric features determined from image data can relate to vein patterns, handprints, lifelines, etc. of the hand. Image data captured in near-infrared light enable the determination of features related to vein patterns in the hand. Image data captured in visible light enable the determination of features that relate to handprints and lifelines of the hand.

[0004] Die Authentifizierung von Personen basiert auf vorgespeicherten biometrischen Merkmalen, die unter der Kontrolle einer dazu berechtigten und vertrauenswürdigen Instanz registriert wurden. Diese Instanz überprüft die Identität einer Person anhand eines Ausweises, wie z.B. eines Reisepasses. Entsprechende Bilddaten der Hand der Person werden erfasst und aus den erfassten Bilddaten werden biometrische Merkmale der Hand oder eines Körperteils der Person bestimmt. Die bestimmten biometrischen Merkmale werden in einer Datenbank als vorgespeicherte biometrische Merkmale gespeichert. In einigen Ausführungsformen können die vorgespeicherten biometrischen Merkmale die erfassten Bilddaten teilweise oder vollständig enthalten. Die bestimmten biometrischen Merkmale der Hand oder eines Körperteils, die erfassten Bilddaten der Hand oder eine Kombination davon können sich auf Venenmuster, Handabdrücke, Lebenslinien usw. beziehen. The authentication of people is based on pre-stored biometric features that were registered under the control of an authorized and trustworthy entity. This entity checks the identity of a person using an ID, such as a passport. Corresponding image data of the person's hand are recorded and biometric features of the hand or a part of the person's body are determined from the recorded image data. The specific biometric features are stored in a database as pre-stored biometric features. In some embodiments, the pre-stored biometric features can partially or completely contain the captured image data. The specific biometric features of the hand or a body part, the captured image data of the hand, or a combination thereof can relate to vein patterns, hand prints, lifelines, etc.

[0005] Später, wenn die Authentifizierung einer Person erforderlich ist, erfasst eine biometrische Authentifizierungsvorrichtung Bilddaten der Hand oder eines Körperteils der Person. Biometrische Merkmale der Hand oder eines Körperteils der Person werden bestimmt und mit vorgespeicherten biometrischen Merkmalen und/oder vorgespeicherten Bilddaten verglichen. Die Authentifizierung wird für die Person genehmigt, wenn eine Übereinstimmung innerhalb der vorgespeicherten biometrischen Merkmale gefunden wird, andernfalls wird die Authentifizierung abgelehnt. Later, when authentication of a person is required, a biometric authentication device captures image data of the person's hand or part of the body. Biometric features of the hand or of a body part of the person are determined and compared with pre-stored biometric features and / or pre-stored image data. Authentication is approved for the person if a match is found within the pre-stored biometric features, otherwise authentication is denied.

[0006] Um reproduzierbare Ergebnisse und eine ausreichende Authentifizierungsgenauigkeit zu erzielen, muss die biometrische Bildgebungsvorrichtung Bilddaten des Körperteils oder der Hand der Person mit hoher Qualität sowohl im sichtbaren Lichtspektrum als auch im Nahinfrarotlichtspektrum erfassen. Insbesondere die Beleuchtung mit sichtbarem Licht und Nahinfrarotlicht muss eine hohe Homogenität und gleichmäßige Intensität aufweisen. Die Erfassung von Bilddaten von Körperteilen von Personen ist erforderlich, um qualitativ hochwertige Bilddaten unter verschiedenen Umweltbedingungen zu bereitzustellen. Zum Beispiel kann es sein, dass bei Nachrüstinstallationen die zuvor installierte Beleuchtung nicht optimal für die Installation biometrischer Bildgebungsvorrichtungen ausgelegt ist. Um die gewünschte Benutzerfreundlichkeit zu erreichen, werden biometrische Bildgebungsvorrichtungen oft so installiert, dass die Person den Körperteil in eine bequeme Haltung bringen kann. Zum Beispiel kann die Person wünschen, die flache Hand in eine horizontale Haltung in Bezug auf den Boden oder in eine Haltung mit einer Neigung von maximal 45° in Bezug auf den Boden zu bringen. Allerdings kann die Hintergrundbeleuchtung die Qualität der Bilddaten, die mit biometrischen Bildgebungsvorrichtungen erfasst wurden, die installiert wurden, um ein gewünschtes Maß an Benutzerfreundlichkeit zu bieten, stark beeinträchtigen. Andere Anwendungen biometrischer Bildgebungsvorrichtungen beziehen sich auf Laptops oder Smartphones, die bei Tageslicht, Sonne, Regen, in der Nacht usw. eingesetzt werden. Es ist jedoch erforderlich, dass die erfassten Bilddaten auch unter solch stark variierenden Umweltbedingungen von hoher Qualität sind. Wenn biometrische Merkmale von der ganzen Hand und den Fingern bestimmt werden müssen, wird es besonders schwierig, Bilddaten von hoher Qualität zu erfassen, weil die Hintergrundbeleuchtung nicht abgedeckt wird, wie im Fall der Bestimmung biometrischer Merkmale, die sich nur auf einen Teilbereich der Handfläche beziehen. Ein wichtiges Qualitätsmerkmal der erfassten Bilddaten bezieht sich auf die so genannten „Regions of Interest“, die eindeutig identifiziert werden müssen. Daraus ergibt sich die Anforderung, dass die Bilddaten an den Handkanten einen hohen Kontrast aufweisen müssen, um den Umriss der Hand eindeutig und reproduzierbar bestimmen zu können. In order to achieve reproducible results and sufficient authentication accuracy, the biometric imaging device must acquire image data of the body part or the hand of the person with high quality both in the visible light spectrum and in the near-infrared light spectrum. In particular, the illumination with visible light and near-infrared light must have a high degree of homogeneity and uniform intensity. The acquisition of image data of parts of the body of people is necessary in order to provide high-quality image data under various environmental conditions. For example, in retrofit installations, the previously installed lighting may not be optimally designed for the installation of biometric imaging devices. In order to achieve the desired ease of use, biometric imaging devices are often installed so that the person can position the body part in a comfortable position. For example, the person may wish to place the flat hand in a horizontal position with respect to the floor or in a position with a maximum inclination of 45 ° with respect to the floor. However, the backlight can severely affect the quality of image data captured with biometric imaging devices that are installed to provide a desired level of usability. Other applications of biometric imaging devices relate to laptops or smartphones that are used in daylight, sun, rain, at night, etc. However, it is necessary for the captured image data to be of high quality even under such widely varying environmental conditions. When biometric features of the whole hand and fingers have to be determined, it becomes particularly difficult to acquire high quality image data because the backlight is not covered, as in the case of determining biometric features that relate only to a portion of the palm . An important quality feature of the captured image data relates to the so-called "Regions of Interest", which must be clearly identified. This results in the requirement that the image data on the edges of the hand must have a high contrast in order to be able to determine the outline of the hand clearly and reproducibly.

[0007] US2005286744A1 offenbart das Erfassen von Bildern einer Handfläche. Zur Unterstützung eines Handgelenks wird eine stirnseitige Führung bereitgestellt. Die stirnseitige Führung ermöglicht die natürliche Führung der Handfläche zu einem Bildgebungsbereich der Sensoreinheit. Die Handfläche kann richtig positioniert werden. US2005286744A1 discloses capturing images of a palm. A front guide is provided to support a wrist. The frontal guidance enables the palm to be guided naturally to an imaging area of the sensor unit. The palm can be positioned correctly.

[0008] US2006023919A1 offenbart das Bereitstellen einer Führung, so dass die Bildgebung biometrischer Informationen auf geeignete Weise durchgeführt wird. Eine Bildgebungsvorrichtung wird veranlasst, eine Vielzahl von Bildgebungsvorgängen (einschließlich Entfernungsmessung) in kurzen Intervallen durchzuführen. Ein Führungsbildschirm wird entsprechend den Analyseergebnissen angezeigt. Die Führung enthält die Meldungen „Bitte legen Sie Ihre Hand wieder auf die Authentifizierungsvorrichtung“, „Ihre Hand ist zu weit weg“, „Spreizen Sie Ihre Finger“, „Bitte linke Hand parallel zur Vorrichtung“. Eine Führung wird in Verbindung mit einer mechanischen Führung offenbart. US2006023919A1 discloses providing guidance so that biometric information imaging is performed in an appropriate manner. An imaging device is caused to perform a variety of imaging operations (including ranging) at short intervals. A guidance screen is displayed according to the analysis results. The guided tour contains the messages "Please put your hand back on the authentication device", "Your hand is too far away", "Spread your fingers", "Please left hand parallel to the device". A guide is disclosed in connection with a mechanical guide.

Kurzdarstellung der ErfindungSummary of the invention

[0009] Es ist eine Aufgabe der Erfindung, eine biometrische Bildgebungsvorrichtung und ein biometrisches Bildgebungsverfahren bereitzustellen, die mindestens einige der Nachteile des Standes der Technik nicht aufweisen. Insbesondere ist es eine Aufgabe der Erfindung, eine biometrische Bildgebungsvorrichtung und ein biometrisches Bildgebungsverfahren bereitzustellen, die eine verbesserte Bilddatenqualität ermöglichen. Insbesondere ist es ein Ziel der Erfindung, eine biometrische Bildgebungsvorrichtung und ein biometrisches Bildgebungsverfahren bereitzustellen, die eine verbesserte Bilddatenqualität unter schwierigen Gegenlichtbedingungen und ohne mechanische Hilfsvorrichtungen wie z.B. eine mechanische Handführung ermöglichen. It is an object of the invention to provide a biometric imaging device and a biometric imaging method that do not suffer from at least some of the disadvantages of the prior art. In particular, it is an object of the invention to provide a biometric imaging device and a biometric imaging method which enable improved image data quality. In particular, it is an object of the invention to provide a biometric imaging device and a biometric imaging method which provide improved image data quality under difficult backlighting conditions and without mechanical auxiliary devices such as e.g. enable mechanical hand guidance.

[0010] Mindestens eine Aufgabe der Erfindung wird durch die biometrische Bildgebungsvorrichtung und das biometrische Bildgebungsverfahren erreicht, die in den beigefügten unabhängigen Ansprüchen definiert sind. Die abhängigen Ansprüche legen weitere Ausführungsformen der Erfindung dar. At least one object of the invention is achieved by the biometric imaging device and the biometric imaging method as defined in the accompanying independent claims. The dependent claims set out further embodiments of the invention.

[0011] Mindestens eine Aufgabe der Erfindung wird durch eine biometrische Bildgebungsvorrichtung zur Erfassung von Bilddaten eines Körperteils einer Person erreicht, die mindestens einen Sensor für sichtbares Licht zur Erfassung von Bilddaten des Körperteils im sichtbaren Lichtspektrum und einen Sensor für Nahinfrarotlicht zur Erfassung von Bilddaten des Körperteils im Nahinfrarotlichtspektrum umfasst. Die biometrische Bildgebungsvorrichtung umfasst eine Laufzeitkamera, die so konfiguriert ist, dass sie dreidimensionale Bilddaten des Körperteils der Person erfasst. Die biometrische Bildgebungsvorrichtung ist so konfiguriert, dass sie ein Bildgebungsverfahren ausführt, das die folgenden Schritte umfasst: Erfassen von dreidimensionalen Bilddaten einer aktuellen Körperteilhaltung; Bestimmen einer Differenz zwischen einer gewünschten Körperteilhaltung und der aktuellen Körperteilhaltung auf der Grundlage der dreidimensionalen Bilddaten; Bereitstellen einer Benutzerführung für die Person auf der Grundlage der bestimmten Differenz, die es der Person ermöglicht, die Körperteilhaltung in Richtung der gewünschten Haltung anzupassen; und Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum. Die gewünschte Körperteilhaltung kann schwierige Gegenlichtbedingungen berücksichtigen. Die gewünschte Körperteilhaltung kann dynamisch bestimmt werden, zum Beispiel in Übereinstimmung mit erfassten dreidimensionalen Bilddaten. Die gewünschte Körperteilhaltung kann bestimmte Faktoren wie die Lage der Lichtquellen, die Helligkeit der Lichtquellen usw. berücksichtigen. Ohne Nutzung weiterer Hilfsmittel, wie einer mechanischen Führung, wird der Benutzer in die Lage versetzt, die Körperteilhaltung entsprechend der gewünschten Körperteilhaltung anzupassen, und die Qualität der erfassten Bilddaten wird verbessert. At least one object of the invention is achieved by a biometric imaging device for capturing image data of a body part of a person, the at least one sensor for visible light for capturing image data of the body part in the visible light spectrum and a sensor for near infrared light for capturing image data of the body part in the near-infrared light spectrum. The biometric imaging device includes a time-of-flight camera that is configured to capture three-dimensional image data of the person's body part. The biometric imaging device is configured to carry out an imaging method comprising the following steps: acquiring three-dimensional image data of a current body part posture; Determining a difference between a desired body part posture and the current body part posture on the basis of the three-dimensional image data; Providing user guidance to the person based on the determined difference that enables the person to adjust the body part posture in the direction of the desired posture; and acquiring at least one of the image data in the visible light spectrum and the image data in the infrared light spectrum. The desired body part posture can take into account difficult backlighting conditions. The desired body part posture can be determined dynamically, for example in accordance with captured three-dimensional image data. The desired body part posture can take into account certain factors such as the position of the light sources, the brightness of the light sources, etc. Without the use of further aids, such as a mechanical guide, the user is enabled to adjust the body part posture in accordance with the desired body part posture, and the quality of the captured image data is improved.

[0012] Die Erfassung von Bilddaten im sichtbaren Lichtspektrum und/oder die Erfassung von Bilddaten im Nahinfrarotspektrum kann auf der Grundlage von dreidimensionalen Bilddaten, die von der Laufzeitkamera erfasst werden, optimiert werden. Die Optimierung kann sich zum Beispiel auf die Brennweite und/oder Schärfentiefe des Sensors für sichtbares Licht beziehen. Die Optimierung kann sich zum Beispiel auf die Brennweite und/oder Schärfentiefe des Sensors für Nahinfrarotlicht beziehen. Im Falle der Erfassung von Bilddaten einer Handflächenseite oder eines Handrückens kann eine Optimierung beispielsweise ermöglichen, dass Falten oder Hautfalten mit detaillierter Auflösung erfasst werden können, z.B. durch Ergänzung der Lebenslinien der Handflächenseite mit weiteren Details. Die Optimierung auf der Grundlage dreidimensionaler Bilddaten kann sich auf die Bestimmung einer gewünschten Körperteilhaltung mit einer vordefinierten Entfernung zum Sensor für sichtbares Licht und/oder zum Sensor für Nahinfrarotlicht beziehen, wobei Brennweite und/oder Schärfentiefe berücksichtigt werden. Dementsprechend sind keine teuren Linsen, wie z.B. ausreichend lichtstarke elektrisch anpassungsfähige Flüssiglinsen, erforderlich. Darüber hinaus ist keine rechnerisch aufwendige Frequenzanalyse der Bilddaten im sichtbaren Licht oder im Nahinfrarotlichtspektrum in Echtzeit erforderlich. Darüber hinaus ermöglichen dreidimensionale Bilddaten, die von der Laufzeitkamera erfasst werden, die präzise Messung der absoluten Abmessungen eines Körperteils, wie z.B. einer Hand. The acquisition of image data in the visible light spectrum and / or the acquisition of image data in the near-infrared spectrum can be optimized on the basis of three-dimensional image data that are acquired by the time-of-flight camera. The optimization can relate, for example, to the focal length and / or depth of field of the sensor for visible light. The optimization can relate, for example, to the focal length and / or depth of field of the sensor for near-infrared light. In the case of the acquisition of image data of a palm side or the back of a hand, an optimization can, for example, enable wrinkles or skin folds to be recorded with detailed resolution, e.g. by adding further details to the lifelines on the palm side. The optimization based on three-dimensional image data can relate to the determination of a desired body part posture with a predefined distance to the sensor for visible light and / or to the sensor for near-infrared light, with the focal length and / or depth of field being taken into account. Accordingly, expensive lenses such as e.g. Sufficiently powerful electrically adaptable liquid lenses are required. In addition, no computationally complex frequency analysis of the image data in visible light or in the near-infrared light spectrum is required in real time. In addition, three-dimensional image data captured by the time-of-flight camera enable precise measurement of the absolute dimensions of a body part, such as one hand.

[0013] In einer Ausführungsform beziehen sich die aktuelle und die gewünschte Körperteilhaltung auf einen oder mehrere relative Entfernungen, eine relative Ausrichtung und eine Geste. In einigen Ausführungsformen sind die relative Entfernung und/oder die relative Ausrichtung in Bezug auf den Sensor für sichtbares Licht und/oder in Bezug auf den Sensor für Nahinfrarotlicht definiert. In one embodiment, the current and the desired body part posture relate to one or more relative distances, a relative orientation and a gesture. In some embodiments, the relative distance and / or the relative orientation are defined with respect to the visible light sensor and / or with respect to the near-infrared light sensor.

[0014] In einer Ausführungsform bezieht sich die Benutzerführung auf die Anpassung einer relativen Entfernung, einer relativen Ausrichtung und einer Geste der aktuellen Körperteilhaltung in einem oder mehreren Fällen. Die relative Entfernung kann sich auf die Entfernung zwischen der biometrischen Bildgebungsvorrichtung und dem Körperteil beziehen. Die relative Ausrichtung kann sich auf die relative Ausrichtung zwischen der biometrischen Bildgebungsvorrichtung und dem Körperteil beziehen. Die relative Entfernung und/oder die Ausrichtung können von den Eigenschaften der Umgebung der biometrischen Bildgebungsvorrichtung, wie Hintergrundbeleuchtung, reflektierende Oberflächen usw., abhängen. Die Geste kann sich auf Bewegungen des Körperteils beziehen, wie z.B. das Strecken oder Spreizen der Finger einer Hand. In one embodiment, the user guidance relates to the adjustment of a relative distance, a relative orientation and a gesture of the current body part posture in one or more cases. The relative distance can refer to the distance between the biometric imaging device and the body part. The relative orientation can refer to the relative orientation between the biometric imaging device and the body part. The relative distance and / or orientation may depend on the characteristics of the surroundings of the biometric imaging device, such as backlighting, reflective surfaces, etc. The gesture can relate to movements of the body part, e.g. stretching or spreading the fingers of one hand.

[0015] In einer Ausführungsform umfasst die Benutzerführung eine oder mehrere visuelle Führungen, die auf einem Display angezeigt werden, und akustische Führungen, die über einen Lautsprecher wiedergegeben werden. Eine akustische Führung ist möglicherweise weniger bevorzugt, weil der Person die Sprache nicht bekannt ist. Die akustische Führung kann allgemeine Signale wie Warnsignale, Informationssignale usw. umfassen. Die visuelle Führung kann Darstellungen des Körperteils umfassen, die Hervorhebungen wie z.B. farbige Teile enthalten können. In one embodiment, the user guide comprises one or more visual guides that are displayed on a display and audible guides that are reproduced through a loudspeaker. Voice guidance may be less preferred because the person is not familiar with the language. The acoustic guidance can include general signals such as warning signals, information signals, etc. The visual guide may include representations of the body part that include highlights such as e.g. may contain colored parts.

[0016] In einer Ausführungsform umfasst die Benutzerführung das Anzeigen einer Darstellung der gewünschten Körperteilhaltung und eine Darstellung der aktuellen Körperteilhaltung auf einem Display. Die Person wird in die Lage versetzt, die Körperteilhaltung genauer anzupassen. In one embodiment, the user guidance includes displaying a representation of the desired body part posture and a representation of the current body part posture on a display. The person is enabled to adjust the body part posture more precisely.

[0017] In einer Ausführungsform umfasst die Benutzerführung das Anzeigen einer Darstellung einer Libelle auf einem Display, die die Differenz zwischen der aktuellen Körperteilhaltung und der gewünschten Körperteilhaltung anzeigt. Die Person wird in die Lage versetzt, die Körperteilhaltung genauer anzupassen. In one embodiment, the user guidance comprises displaying a representation of a dragonfly on a display, which shows the difference between the current body part posture and the desired body part posture. The person is enabled to adjust the body part posture more precisely.

[0018] In einer Ausführungsform ist die biometrische Bildgebungsvorrichtung ferner so konfiguriert, dass sie einen oder mehrere Schritte des Bildgebungsverfahrens mehr als einmal wiederholt. Die Person wird in die Lage versetzt, die Körperteilhaltung genauer anzupassen. In one embodiment, the biometric imaging device is further configured to repeat one or more steps of the imaging process more than once. The person is enabled to adjust the body part posture more precisely.

[0019] In einer Ausführungsform ist die biometrische Bildgebungsvorrichtung ferner so konfiguriert, dass für den Fall, dass die ermittelte Differenz innerhalb des vordefinierten Bereichs liegt, eine Verzögerung von weniger als 100 Millisekunden, vorzugsweise weniger als 10 Millisekunden, zwischen der Bestimmung der Differenz und der Erfassung von mindestens einem der Bilddaten im sichtbaren Spektrum und der Bilddaten im Infrarotspektrum aufrechterhalten wird. Bilddaten, die für biometrische Merkmale relevant sind, werden erfasst, sobald sich die Körperteilhaltung in der gewünschten Körperhaltung befindet. In one embodiment, the biometric imaging device is further configured so that in the event that the determined difference is within the predefined range, a delay of less than 100 milliseconds, preferably less than 10 milliseconds, between the determination of the difference and the Capture of at least one of the image data in the visible spectrum and the image data in the infrared spectrum is maintained. Image data that are relevant for biometric features are recorded as soon as the body part posture is in the desired posture.

[0020] In einer Ausführungsform ist die biometrische Bildgebungsvorrichtung ferner so konfiguriert, dass sie einen interessierenden Bereich des Körperteils auf der Grundlage von mindestens einem der dreidimensionalen Bilddaten, der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Nahinfrarotlichtspektrum bestimmt und in Übereinstimmung mit dem interessierenden Bereich mindestens eine der gewünschten Körperteilhaltung anpasst und mindestens ein Bilddatum der Bilddaten in sichtbaren Lichtspektren und der Bilddaten im Infrarotlichtspektrum erfasst. Zum Beispiel darf das Nahinfrarotlichtspektrum kein Venenmuster enthalten, wenn es sich um die Handfläche einer Frau handelt, und in diesem Fall kann die gewünschte Haltung auf den Handrücken der Frau geändert werden. Zum Beispiel kann ein interessierender rechteckiger Bereich eines Teils der Handfläche nicht genügend biometrische Merkmale enthalten, und in diesem Fall kann die gewünschte Körperhaltung und/oder die Erfassung der Bilddaten geändert werden, um die Erfassung von Bilddaten eines größeren Bereichs der Handfläche zu ermöglichen, zum Beispiel auch unter Einbeziehung aller Finger. In one embodiment, the biometric imaging device is further configured to determine an area of interest of the body part based on at least one of the three-dimensional image data, the image data in the visible light spectrum and the image data in the near-infrared light spectrum and in accordance with the area of interest at least adapts one of the desired body part postures and records at least one image datum of the image data in visible light spectra and the image data in the infrared light spectrum. For example, the near-infrared light spectrum must not contain a vein pattern if it is a woman's palm, and in that case the desired posture can be changed on the back of the woman's hand. For example, a rectangular area of interest of part of the palm of the hand may not contain enough biometric features, in which case the desired posture and / or the acquisition of the image data can be changed to enable the acquisition of image data of a larger area of the palm, for example including all fingers.

[0021] Mindestens eine Aufgabe der Erfindung wird auch durch ein biometrisches Bildgebungsverfahren zur Erfassung von Bilddaten eines Körperteils einer Person erreicht, wobei der mindestens ein Sensor für sichtbares Licht zur Erfassung von Bilddaten des Körperteils im sichtbaren Lichtspektrum und ein Sensor für Nahinfrarotlicht zur Erfassung von Bilddaten des Körperteils im Nahinfrarotlichtspektrum bereitgestellt wird. Das Verfahren umfasst: Bereitstellen einer Laufzeitkamera, die für die Erfassung dreidimensionaler Bilddaten des Körperteils der Person konfiguriert ist; und Ausführen eines Bildgebungsverfahrens, das die folgenden Schritte umfasst: Erfassen von dreidimensionalen Bilddaten einer aktuellen Körperteilhaltung; Bestimmen einer Differenz zwischen einer gewünschten Körperteilhaltung und der aktuellen Körperteilhaltung auf der Grundlage der dreidimensionalen Bilddaten; Bereitstellen einer Benutzerführung für die Person auf der Grundlage der bestimmten Differenz, die es der Person ermöglicht, die Körperteilhaltung in Richtung der gewünschten Haltung anzupassen; und Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum. At least one object of the invention is also achieved by a biometric imaging method for capturing image data of a body part of a person, the at least one sensor for visible light for capturing image data of the body part in the visible light spectrum and one sensor for near infrared light for capturing image data of the body part is provided in the near-infrared light spectrum. The method comprises: providing a time-of-flight camera which is configured to acquire three-dimensional image data of the body part of the person; and executing an imaging method comprising the following steps: acquiring three-dimensional image data of a current body part posture; Determining a difference between a desired body part posture and the current body part posture on the basis of the three-dimensional image data; Providing user guidance to the person based on the determined difference that enables the person to adjust the body part posture in the direction of the desired posture; and acquiring at least one of the image data in the visible light spectrum and the image data in the infrared light spectrum.

[0022] In einer Ausführungsform bezieht sich die Benutzerführung auf die Anpassung einer relativen Entfernung, einer relativen Ausrichtung und einer Geste der aktuellen Körperteilhaltung in einem oder mehreren Fällen. In one embodiment, the user guidance relates to the adjustment of a relative distance, a relative orientation and a gesture of the current body part posture in one or more cases.

[0023] In einer Ausführungsform umfasst die Benutzerführung das Anzeigen einer Darstellung der gewünschten Körperteilhaltung und eine Darstellung der aktuellen Körperteilhaltung auf einem Display. In one embodiment, the user guidance includes displaying a representation of the desired body part posture and a representation of the current body part posture on a display.

[0024] In einer Ausführungsform umfasst das biometrische Bildgebungsverfahren ferner: das Wiederholen eines oder mehrerer Schritte des Bildgebungsverfahrens mehr als einmal. In one embodiment, the biometric imaging method further comprises: repeating one or more steps of the imaging method more than once.

[0025] In einer Ausführungsform umfasst das biometrische Bildgebungsverfahren ferner, für den Fall, dass die ermittelte Differenz innerhalb des vordefinierten Bereichs liegt, das Aufrechterhalten einer Verzögerung von weniger als 100 Millisekunden, vorzugsweise weniger als 10 Millisekunden, zwischen der Bestimmung der Differenz und der Erfassung von mindestens einem der Bilddaten im sichtbaren Spektrum und der Bilddaten im Infrarotspektrum. In one embodiment, the biometric imaging method further comprises, in the event that the determined difference is within the predefined range, maintaining a delay of less than 100 milliseconds, preferably less than 10 milliseconds, between the determination of the difference and the detection of at least one of the image data in the visible spectrum and the image data in the infrared spectrum.

[0026] In einer Ausführungsform umfasst das biometrische Bildgebungsverfahren ferner das Bestimmen eines interessierenden Bereichs des Körperteils auf der Grundlage von mindestens einem von dreidimensionalen Bilddaten, Bilddaten im sichtbaren Lichtspektrum und Bilddaten im Nahinfrarotlichtspektrum und das Anpassen in Übereinstimmung mit dem interessierenden Bereich mindestens einer der gewünschten Körperteilhaltungen und das Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum. In one embodiment, the biometric imaging method further comprises determining an area of interest of the body part based on at least one of three-dimensional image data, image data in the visible light spectrum, and image data in the near-infrared light spectrum, and adjusting at least one of the desired body part postures in accordance with the area of interest and acquiring at least one of the image data in the visible light spectrum and the image data in the infrared light spectrum.

Kurze Erläuterung der FigurenBrief explanation of the figures

[0027] Im Folgenden wird die Erfindung anhand von Ausführungsformen, die in den Figuren dargestellt sind, näher beschrieben. Die Figuren zeigen: <tb>Fig. 1<SEP>illustriert schematisch die Handfläche der linken Hand einer ersten Person; <tb>Fig. 2<SEP>illustriert schematisch die Handfläche der rechten Hand einer zweiten Person; <tb>Fig. 3<SEP>illustriert schematisch das Venennetz der Rückseite der rechten Hand 3 einer dritten Person; <tb>Fig. 4<SEP>illustriert schematisch die Hand einer Person und eine biometrische Authentifizierungsvorrichtung; <tb>Fig. 5<SEP>illustriert schematisch eine Laufzeitkamera; <tb>Fig. 6<SEP>illustriert schematisch eine in einem Gebäude installierte biometrische Bildgebungsvorrichtung; <tb>Fig. 7a, 7b, 7c, 7d<SEP>illustrieren schematisch die Benutzerführung in Bezug auf ein Bildgebungsverfahren, das von der biometrischen Bildgebungsvorrichtung ausgeführt wird; und <tb>Fig. 8<SEP>illustriert schematisch ein Verfahren zum Erfassen von Bilddaten einer Hand eines Benutzers.In the following, the invention is described in more detail with reference to embodiments that are shown in the figures. The figures show: <tb> Fig. 1 <SEP> schematically illustrates the palm of the left hand of a first person; <tb> Fig. 2 <SEP> schematically illustrates the palm of the right hand of a second person; <tb> Fig. 3 <SEP> schematically illustrates the vein network of the back of the right hand 3 of a third person; <tb> Fig. 4 <SEP> schematically illustrates a person's hand and a biometric authentication device; <tb> Fig. 5 <SEP> schematically illustrates a time-of-flight camera; <tb> Fig. 6 <SEP> schematically illustrates a biometric imaging device installed in a building; <tb> Fig. 7a, 7b, 7c, 7d <SEP> schematically illustrate the user guidance in relation to an imaging method that is carried out by the biometric imaging device; and <tb> Fig. 8 <SEP> schematically illustrates a method for acquiring image data of a hand of a user.

Ausführungsformen der ErfindungEmbodiments of the invention

[0028] Figur 1 illustriert schematisch die Handfläche der linken Hand 1 einer ersten Person. Die linke Hand 1 hat einen Daumen t, einen Zeigefinger i, einen Mittelfinger m, einen Ringfinger r und einen kleinen Finger l. Figur 2 illustriert schematisch die Handfläche der rechten Hand 2 einer zweiten Person. Die rechte Hand 2 hat einen Daumen t, einen Zeigefinger i, einen Mittelfinger m, einen Ringfinger r und einen kleinen Finger l. FIG. 1 schematically illustrates the palm of the left hand 1 of a first person. The left hand 1 has a thumb t, an index finger i, a middle finger m, a ring finger r and a little finger l. FIG. 2 schematically illustrates the palm of the right hand 2 of a second person. The right hand 2 has a thumb t, an index finger i, a middle finger m, a ring finger r and a little finger l.

[0029] Figur 1 und Figur 2 zeigen schematisch Bilder der Handflächen der linken und rechten Hand 1, 2, die mit einem Sensor für sichtbares Licht (z. B. 400 nm bis 600 nm) aufgenommen wurden. Die Hände 1, 2 haben Handabdrücke P oder Lebenslinien, die im sichtbaren Licht identifiziert werden können. Zusätzlich oder alternativ können Venenmuster der Hände 1, 2 aus Bilddaten bestimmt werden, die im Nahinfrarotlicht (z.B. 700 nm bis 900 nm) aufgenommen wurden. Figur 1 und Figur 2 zeigen keine Venenmuster. Figure 1 and Figure 2 show schematically images of the palms of the left and right hands 1, 2, which were recorded with a sensor for visible light (z. B. 400 nm to 600 nm). The hands 1, 2 have handprints P or lifelines that can be identified in visible light. Additionally or alternatively, vein patterns of the hands 1, 2 can be determined from image data recorded in near-infrared light (e.g. 700 nm to 900 nm). Figure 1 and Figure 2 show no vein patterns.

[0030] Wie in Figur 1 und Figur 2 illustriert, enthalten die Handabdrücke P oder Lebenslinien der Hände 1, 2 dieser beiden Personen individuelle biometrische Merkmale, wie bestimmte Längen, Positionen, Krümmungen usw. Durch den Vergleich mit biometrischen Merkmalen, die aus Körperteilen von registrierten Personen vorgespeichert wurden, wird die Authentifizierung einer bestimmten Person ermöglicht, insbesondere in Kombination mit biometrischen Merkmalen, die aus entsprechenden Venenmustern ermittelt wurden. Darüber hinaus kann die Authentifizierung einer Person auch auf biometrischen Merkmalen des Handrückens beruhen, die aus Bilddaten bestimmt werden, die im sichtbaren Licht, im Nahinfrarotlicht oder einer Kombination davon erfasst wurden. Es ist jedoch derzeit nicht bekannt, ob biometrische Merkmale des Handrückens, die aus Bilddaten ermittelt wurden, die mit einem Sensor für sichtbares Licht erfasst wurden, eine ausreichende Authentifizierung einer Person ermöglichen. Wenn man auf den Handrücken angewiesen ist, wird gegenwärtig angenommen, dass mit einem Sensor für Nahinfrarotlicht erfasste Bilddaten notwendig sind, um die ausreichende Authentifizierung einer Person zu ermöglichen. As illustrated in Figure 1 and Figure 2, the handprints P or lifelines of the hands 1, 2 of these two people contain individual biometric features, such as certain lengths, positions, curvatures, etc. By comparison with biometric features made from body parts of registered persons have been pre-stored, the authentication of a specific person is made possible, in particular in combination with biometric features that were determined from corresponding vein patterns. In addition, the authentication of a person can also be based on biometric features of the back of the hand, which are determined from image data captured in visible light, near-infrared light, or a combination thereof. However, it is currently not known whether biometric features of the back of the hand, determined from image data captured with a visible light sensor, allow sufficient authentication of a person. When relying on the back of the hand, it is currently believed that image data captured with a near-infrared light sensor is necessary to enable adequate authentication of a person.

[0031] Figur 3 illustriert schematisch das Venennetz der Rückseite der rechten Hand 3 einer dritten Person. Die rechte Hand 3 hat einen Daumen t, einen Zeigefinger i, einen Mittelfinger m, einen Ringfinger r und einen kleinen Finger 1. Wie in Figur 3 illustriert, umfasst der Handrücken 3 Venen, zu denen das dorsale Venennetz 31 (rete venosum dorsale manus) und die dorsalen Mittelhandvenen 32 (Vv. metacarpals dorsales) gehören. Venenmuster können aus Bilddaten bestimmt werden, die mit einem Sensor für Nahinfrarotlicht erfasst wurden, und individuelle biometrische Merkmale können aus den im Nahinfrarotlicht erfassten Bilddaten bestimmt werden. FIG. 3 schematically illustrates the network of veins on the back of the right hand 3 of a third person. The right hand 3 has a thumb t, an index finger i, a middle finger m, a ring finger r and a little finger 1. As illustrated in FIG. 3, the back of the hand comprises 3 veins to which the dorsal venous network 31 (rete venosum dorsale manus) and the dorsal metacarpal veins 32 (Vv. metacarpals dorsales) belong. Vein patterns can be determined from image data captured with a near-infrared light sensor, and individual biometric features can be determined from the image data captured in the near-infrared light.

[0032] Figur 4 illustriert schematisch eine biometrische Bildgebungsvorrichtung 80, die Teil eines biometrischen Authentifizierungsverfahrens sein oder ein solches bereitstellen kann. Die biometrische Bildgebungsvorrichtung 80 umfasst einen biometrischen Sensor 10 und eine Verarbeitungseinheit 20. Die biometrische Bildgebungsvorrichtung 80 kann zum Beispiel an ein Benutzerdisplay 40 angeschlossen werden, um eine Benutzerführung zu ermöglichen. Die Verarbeitungseinheit 20 kann an den biometrischen Sensor 10 angeschlossen werden, wie in Figur 4 illustriert. Die Verarbeitungseinheit 20 kann sich an einem entfernten Standort innerhalb einer Datenverarbeitungsinfrastruktur, wie einem Host-Computer, Server, einer Cloud usw., befinden. Die Verarbeitungseinheit 20 kann einen oder mehrere Prozessoren umfassen und kann über gespeicherte Computerbefehle verfügen, die von dem einen oder den mehreren Prozessoren ausgeführt werden können, um die in der vorliegenden Offenbarung beschriebenen Funktionen zu ermöglichen. Das Benutzerdisplay 40 kann fest in der Nähe des biometrischen Sensors 10 angeordnet werden. Das Benutzerdisplay 40 kann sich auf eine Benutzervorrichtung wie ein Notebook, ein Smartphone, eine Smartwatch usw. beziehen, wobei die Verarbeitungseinheit 20 zum Beispiel über eine drahtlose Verbindung wie z. B. Bluetooth mit dem Benutzerdisplay 40 kommunizieren kann. Die biometrische Bildgebungsvorrichtung 80 kann in einer Benutzervorrichtung wie einem Notebook, Smartphone, einer Smartwatch usw. enthalten sein. Wie in Figur 4 illustriert, kann eine aktuelle Haltung der Hand des Benutzers 401 und eine gewünschte Haltung der Hand des Benutzers 402 auf dem Display 40 angezeigt werden. FIG. 4 schematically illustrates a biometric imaging device 80 which can be part of a biometric authentication method or which can provide one. The biometric imaging device 80 comprises a biometric sensor 10 and a processing unit 20. The biometric imaging device 80 can, for example, be connected to a user display 40 in order to enable user guidance. The processing unit 20 can be connected to the biometric sensor 10, as illustrated in FIG. The processing unit 20 may be located at a remote location within a computing infrastructure such as a host computer, server, cloud, etc. The processing unit 20 may include one or more processors and may have stored computer instructions that can be executed by the one or more processors to enable the functions described in the present disclosure. The user display 40 can be arranged permanently in the vicinity of the biometric sensor 10. The user display 40 may relate to a user device such as a notebook, smartphone, smart watch, etc., with the processing unit 20 being, for example, via a wireless connection such as e.g. B. Bluetooth can communicate with the user display 40. The biometric imaging device 80 may be included in a user device such as a notebook, smartphone, smart watch, and so on. As illustrated in FIG. 4, a current position of the hand of the user 401 and a desired position of the hand of the user 402 can be displayed on the display 40.

[0033] Der biometrische Sensor 10 ermöglicht die Erfassung von Bilddaten der Hand 4 einer Person. Der biometrische Sensor 10 umfasst einen Sensor für sichtbares Licht 101 zur Erfassung von Bilddaten im sichtbaren Lichtspektrum, einen Sensor für Nahinfrarotlicht 102 zur Erfassung von Bilddaten im Nahinfrarotlichtspektrum und eine Laufzeitkamera 103 zur Erfassung von dreidimensionalen Bilddaten. Einer oder mehrere aus dem Sensor für das sichtbare Licht 101, dem Sensor für das Nahinfrarotlicht 102 und der Laufzeitkamera 103 können in einem einzigen Sensor enthalten sein. Darüber hinaus enthält der biometrische Sensor 10 Lichtquellen 104. Figur 4 illustriert acht Lichtquellen 104, die auf einem Kreis um die Sensoren 101, 102 und die Laufzeitkamera 103 angeordnet sind. Die Lichtquellen 104 können eine unterschiedliche Anzahl von Lichtquellen enthalten und/oder auf andere Weise angeordnet sein. Die Lichtquellen 104 können maßgeschneiderte Linsen enthalten, um eine homogene Lichtverteilung zu erreichen. Die Lichtquellen 104 können eine oder mehrere Lichtquellen enthalten, die Beleuchtung im sichtbaren Lichtspektrum bereitstellen und die Erfassung von Bilddaten mit dem Sensor für sichtbares Licht 101 im sichtbaren Lichtspektrum ermöglichen. Die Lichtquellen 104 können eine oder mehrere Lichtquellen enthalten, die für Beleuchtung im Nahinfrarotlicht sorgen und die Erfassung von Bilddaten mit dem Sensor für Nahinfrarotlicht 102 im Nahinfrarotlicht ermöglichen. Eine Kalibrierung kann insbesondere in Bezug auf die geometrische Lage des Sensors für sichtbares Licht 101, des Sensors für Nahinfrarotlicht 102 und der Laufzeitkamera 103 erfolgen, wie z.B. die translatorische Verschiebung zwischen dem Sensor für sichtbares Licht 101, dem Sensor für Nahinfrarotlicht 102 und der Laufzeitkamera 103. Darüber hinaus kann eine Kalibrierung in Bezug auf einen Skalierungsfaktor der von der Laufzeitkamera 103 erfassten Bilddaten, wie z.B. die absolute Größe der Objekte in den erfassten Bilddaten, vorgesehen werden. Die Kalibrierung kann innerhalb des biometrischen Sensors 10 durch Nachbearbeitung in einem dedizierten Computer wie der Verarbeitungseinheit 20 oder einer Kombination davon erfolgen. Die Kalibrierung kann vorsehen, dass die Objekte in den Bilddaten, die vom Sensor für sichtbares Licht 101, vom Sensor für Nahinfrarotlicht 102 und von der Laufzeitkamera 103 erfasst werden, zueinander ausgerichtet werden. The biometric sensor 10 enables the acquisition of image data of the hand 4 of a person. The biometric sensor 10 comprises a sensor for visible light 101 for acquiring image data in the visible light spectrum, a sensor for near-infrared light 102 for acquiring image data in the near-infrared light spectrum and a transit time camera 103 for acquiring three-dimensional image data. One or more of the visible light sensor 101, the near infrared light sensor 102, and the time of flight camera 103 may be included in a single sensor. In addition, the biometric sensor 10 contains light sources 104. FIG. 4 illustrates eight light sources 104 which are arranged on a circle around the sensors 101, 102 and the transit time camera 103. The light sources 104 can contain a different number of light sources and / or be arranged in a different manner. The light sources 104 can contain customized lenses in order to achieve a homogeneous light distribution. The light sources 104 can contain one or more light sources that provide illumination in the visible light spectrum and enable the acquisition of image data with the visible light sensor 101 in the visible light spectrum. The light sources 104 may include one or more light sources that provide illumination in the near-infrared light and enable the acquisition of image data with the near-infrared light sensor 102 in the near-infrared light. A calibration can take place in particular with regard to the geometric position of the sensor for visible light 101, the sensor for near-infrared light 102 and the time-of-flight camera 103, e.g. the translational shift between the visible light sensor 101, the near-infrared light sensor 102 and the time-of-flight camera 103. In addition, a calibration with respect to a scaling factor of the image data acquired by the time-of-flight camera 103, such as e.g. the absolute size of the objects in the captured image data. The calibration can take place within the biometric sensor 10 by post-processing in a dedicated computer such as the processing unit 20 or a combination thereof. The calibration can provide that the objects in the image data that are detected by the sensor for visible light 101, by the sensor for near-infrared light 102 and by the time of flight camera 103 are aligned with one another.

[0034] Der Sensor für sichtbares Licht 101 kann einen für sichtbares Licht empfindlichen Chip enthalten, der 2D-Bilddaten (2D: zweidimensional) entsprechend der Intensitätsverteilung des sichtbaren Lichts bereitstellt, die von einer 3D-Szene erzeugt wird (3D: dreidimensional). Der Nahinfrarotlichtsensor 102 kann einen für Nahinfrarotlicht empfindlichen Chip enthalten, der 2D-Bilddaten (2D: zweidimensional) entsprechend mit der Intensitätsverteilung des Nahinfrarotlichtes bereitstellt, die von einer 3D-Szene erzeugt wird (3D: dreidimensional). Der Sensor für sichtbares Licht 101 und der Sensor für Nahinfrarotlicht 102 können Linsen, Puffer, Regler, Verarbeitungselektronik usw. enthalten. Der Sensor für sichtbares Licht 101 und der Sensor für Nahinfrarotlicht 102 können sich auf kommerziell erhältliche Sensoren beziehen, wie z.B. auf den e2v-Halbleiter SAS EV76C570 CMOS-Bildsensor, der mit einem optischen Sperrfilter <500 nm Wellenlänge für den Sensor für sichtbares Licht 101 und mit einem optischen Sperrfilter von >700 nm für den Sensor für Nahinfrarotlicht 102 ausgestattet ist, oder wie z. B. den OmniVision OV4686 RGB-Ir-Sensor, wobei der Sensor für sichtbares Licht 101 und der Sensor für Nahinfrarotlicht 102 in einem Chip kombiniert sind und einen RGB-Ir-Filter enthalten). Die Lichtquellen 104 können einen Generator für sichtbares Licht und/oder Nahinfrarotlicht, wie z.B. eine LED (LED: lichtemittierende Diode), enthalten. Die Lichtquellen 104 können sich auf kommerziell erhältliche Lichtquellen beziehen, wie z.B. Hochleistungs-LEDs der Serie SMB1N von Roithner Laser Technik GmbH, Wien. The visible light sensor 101 may include a visible light sensitive chip that provides 2D image data (2D: two-dimensional) corresponding to the intensity distribution of visible light generated by a 3D scene (3D: three-dimensional). The near-infrared light sensor 102 may include a near-infrared light-sensitive chip that provides 2D image data (2D: two-dimensional) corresponding to the intensity distribution of the near-infrared light generated by a 3D scene (3D: three-dimensional). The visible light sensor 101 and the near infrared light sensor 102 may include lenses, buffers, controllers, processing electronics, and so on. The visible light sensor 101 and the near infrared light sensor 102 may refer to commercially available sensors such as e.g. on the e2v semiconductor SAS EV76C570 CMOS image sensor, which is equipped with an optical blocking filter <500 nm wavelength for the visible light sensor 101 and with an optical blocking filter> 700 nm for the near infrared light sensor 102, or B. the OmniVision OV4686 RGB-Ir sensor, where the sensor for visible light 101 and the sensor for near-infrared light 102 are combined in one chip and contain an RGB-Ir filter). The light sources 104 may include a visible light and / or near infrared light generator such as e.g. an LED (LED: light emitting diode) included. The light sources 104 can refer to commercially available light sources such as e.g. High-performance LEDs of the SMB1N series from Roithner Laser Technik GmbH, Vienna.

[0035] Figur 5 illustriert schematisch eine Laufzeitkamera 103. Die Laufzeitkamera 103 umfasst einen Sequenzregler 1031, einen Modulationsregler 1032, eine Pixelmatrix 1033, einen A/D-Wandler 1034 (A/D: analog zu digital), eine LED oder VCSEL 1035 (LED: lichtemittierende Diode; VCSEL: oberflächenemittierender Laser mit vertikalem Hohlraum) und ein Objektiv 1036. Der Sequenzregler steuert den Modulationsregler 1032 und den A/D-Wandler 1034. Der Modulationsregler 1032 steuert die LED oder den VCSEL 1035 und die Pixelmatrix 1033. Die Pixelmatrix 1033 stellt dem A/D-Wandler 1034 Signale bereit. Der Sequenzregler 1031 interagiert mit einem Host-Regler 1037, zum Beispiel über den I<2>C-Bus (I<2>C: I-Squared-C serial data bus). Die LED oder der VCSEL 1035 beleuchten eine 3D-Szene 1038. Nach einer Laufzeit empfängt das Objektiv 1036 das von der 3D-Szene 1038 reflektierte Licht. Der A/D-Wandler 1034 stellt dem Host-Regler 1037 rohe 3D-Bilddaten (3D: dreidimensional) bereit, zum Beispiel über die MIPI CSI-2 oder PIF (MIPI): Mobile Industrie-Prozessor-Schnittstelle; CSI: serielle Kameraschnittstelle; PIF (MIPI: Mobile Industry Processor Interface): parallele Schnittstelle). Der Host-Regler führt eine Tiefenkartenberechnung durch und stellt ein Amplitudenbild 103a der 3D-Szene 1038 und ein Tiefenbild 103d der 3D-Szene bereit. Wie in Figur 5 illustriert, enthält der Hintergrund des Amplitudenbildes 103a zum Beispiel Lichtschatten einer Wand hinter einer Person, während der Hintergrund des Tiefenbildes 103d einen einzigen Wert, z.B. schwarz, hat, weil die Wand hinter der Person in einem bestimmten Abstand zur Laufzeitkamera 103 angeordnet ist. Die Laufzeitkamera 103 kann sich auf eine REAL3™ der Firma Infineon™ beziehen, und kann die folgenden Spezifikationen umfassen: direkte Messung von Tiefe und Amplitude in jedem Pixel; höchste Genauigkeit; geringe Rechenlast; aktiv moduliertes Infrarotlicht und patentierte SBI-Schaltung (Suppression of Background Illumination) in jedem Pixel; volle Funktionsfähigkeit bei allen Lichtverhältnissen: Dunkelheit und helles Sonnenlicht; monokulare Systemarchitektur ohne mechanische Grundlinie; kleinste Größe und hohe Designflexibilität; keine Einschränkung beim Betrieb im Nahbereich; keine besonderen Anforderungen an die mechanische Stabilität; keine mechanische Ausrichtung und Winkelkorrektur; keine Rekalibrierung oder Gefahr der De-Kalibrierung durch Stürze, Vibrationen oder thermische Biegung; einfache und sehr schnelle einmalige Kalibrierung; kosteneffiziente Herstellung. FIG. 5 schematically illustrates a runtime camera 103. The runtime camera 103 comprises a sequence controller 1031, a modulation controller 1032, a pixel matrix 1033, an A / D converter 1034 (A / D: analog to digital), an LED or VCSEL 1035 ( LED: light emitting diode; VCSEL: surface emitting laser with vertical cavity) and a lens 1036. The sequence controller controls the modulation controller 1032 and the A / D converter 1034. The modulation controller 1032 controls the LED or the VCSEL 1035 and the pixel matrix 1033. The pixel matrix 1033 provides signals to the A / D converter 1034. The sequence controller 1031 interacts with a host controller 1037, for example via the I <2> C-bus (I <2> C: I-Squared-C serial data bus). The LED or the VCSEL 1035 illuminate a 3D scene 1038. After a running time, the lens 1036 receives the light reflected from the 3D scene 1038. The A / D converter 1034 provides the host controller 1037 with raw 3D image data (3D: three-dimensional), for example via the MIPI CSI-2 or PIF (MIPI): Mobile industrial processor interface; CSI: serial camera interface; PIF (MIPI: Mobile Industry Processor Interface): parallel interface). The host controller performs a depth map calculation and provides an amplitude image 103a of the 3D scene 1038 and a depth image 103d of the 3D scene. As illustrated in Figure 5, the background of the amplitude image 103a contains, for example, light shadows from a wall behind a person, while the background of the depth image 103d contains a single value, e.g. black, because the wall behind the person is arranged at a certain distance from the transit time camera 103. The transit time camera 103 can refer to a REAL3 ™ from Infineon ™ and can include the following specifications: direct measurement of depth and amplitude in each pixel; highest accuracy; low computing load; actively modulated infrared light and patented SBI circuit (Suppression of Background Illumination) in each pixel; full functionality in all light conditions: darkness and bright sunlight; monocular system architecture without mechanical baseline; smallest size and high design flexibility; no restriction when operating in close proximity; no special requirements for mechanical stability; no mechanical alignment and angle correction; no recalibration or risk of de-calibration due to falls, vibrations or thermal bending; simple and very fast one-time calibration; cost efficient manufacturing.

[0036] Figur 6 illustriert schematisch eine biometrische Bildgebungsvorrichtung 80, die in einem Gebäude 6 mit einem Eingang 61 installiert ist. Der Zugang zum Gebäude 6 wird durch eine biometrische Authentifizierungsvorrichtung geregelt, die eine biometrische Bildgebungsvorrichtung 80 enthält. Wie in Figur 6 illustriert, ist die biometrische Bildgebungsvorrichtung 80 an einem Ort in der Nähe des Eingangs 61 installiert. Die biometrische Bildgebungsvorrichtung 80 ist so konfiguriert, dass sie Bilddaten von einem Körperteil, z.B. einer Hand 4 einer Person erfasst, die Zugang zum Gebäude 6 anfordert. Gegenlicht, z.B. durch Lichtquellen 62, die zur Schaffung angenehmer Lichtverhältnisse installiert wurden, kann die Qualität der von der biometrischen Bildgebungsvorrichtung 80 erfassten Bilddaten stark verschlechtern. FIG. 6 schematically illustrates a biometric imaging device 80 which is installed in a building 6 with an entrance 61. Access to the building 6 is regulated by a biometric authentication device which includes a biometric imaging device 80. As illustrated in FIG. 6, the biometric imaging device 80 is installed in a location near the entrance 61. The biometric imaging device 80 is configured to receive image data from a body part, e.g. a hand 4 recorded by a person requesting access to the building 6. Back light, e.g. by means of light sources 62 that were installed to create pleasant lighting conditions, the quality of the image data captured by the biometric imaging device 80 can deteriorate significantly.

[0037] Um Bilddaten mit verbesserter Qualität zu erfassen, ist die biometrische Bildgebungsvorrichtung 80 so konfiguriert, dass es ein Bildgebungsverfahren ausführt, das die folgenden Schritte umfasst: Erfassen von dreidimensionalen Bilddaten einer aktuellen Haltung der Hand 4; Bestimmen einer Differenz zwischen einer gewünschten Haltung der Hand 4 und der aktuellen Haltung der Hand 4 auf der Grundlage der dreidimensionalen Bilddaten; Bereitstellen einer Benutzerführung 401, 402 für die Person auf der Grundlage der bestimmten Differenz, die es der Person ermöglicht, die Haltung der Hand 4 in Richtung der gewünschten Haltung anzupassen; und Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum der Hand 4. In order to acquire image data with improved quality, the biometric imaging device 80 is configured to carry out an imaging method comprising the steps of: acquiring three-dimensional image data of a current posture of the hand 4; Determining a difference between a desired posture of the hand 4 and the current posture of the hand 4 on the basis of the three-dimensional image data; Providing a user guide 401, 402 for the person on the basis of the determined difference, which enables the person to adjust the posture of the hand 4 in the direction of the desired posture; and acquiring at least one of the image data in the visible light spectrum and the image data in the infrared light spectrum of the hand 4.

[0038] Die Figuren 7a, 7b, 7c, 7d illustrieren schematisch die Benutzerführung in Bezug auf ein Bildgebungsverfahren, das von der biometrischen Bildgebungsvorrichtung 80 ausgeführt wird. Die Benutzerführung wird auf einem Display 40 angezeigt. Das Display 40 kann fest an einem Ort in der Nähe der biometrischen Vorrichtung 80 installiert werden. Das Display 40 kann sich auf eine Benutzervorrichtung, wie einen Tablet-Computer, ein Smartphone usw. beziehen. Figures 7a, 7b, 7c, 7d schematically illustrate the user guidance in relation to an imaging method that is carried out by the biometric imaging device 80. The user guidance is shown on a display 40. The display 40 can be permanently installed in a location near the biometric device 80. The display 40 may relate to a user device such as a tablet computer, smartphone, and so on.

[0039] Wie in Figur 7a illustriert, wird eine Darstellung einer gewünschten Haltung 402 der Hand 4 angezeigt. Das Anzeigen der Darstellung der gewünschten Haltung 402 basiert auf dreidimensionalen Bilddaten, die mit der Laufzeitkamera 103 aufgenommen wurden, und kann der Hand 4 entsprechend kalibriert werden. Die Kalibrierung entsprechend der Hand 4 ist wichtig, um eine korrekte Führung von Händen unterschiedlicher Größe zu ermöglichen, wie z.B. der Hand eines Mannes, einer Frau oder eines Kindes. Wie in Figur 7a illustriert, wird eine Darstellung der aktuellen Haltung 402 der Hand 4 gezeigt. Die Darstellung der aktuellen Körperhaltung 401 basiert auf dreidimensionalen Bilddaten, die mit der Laufzeitkamera 103 aufgenommen wurden. As illustrated in FIG. 7a, a representation of a desired posture 402 of the hand 4 is displayed. The display of the representation of the desired posture 402 is based on three-dimensional image data that were recorded with the transit time camera 103, and the hand 4 can be calibrated accordingly. The calibration corresponding to the hand 4 is important to enable correct guidance of hands of different sizes, e.g. the hand of a man, woman or child. As illustrated in FIG. 7a, a representation of the current posture 402 of the hand 4 is shown. The representation of the current posture 401 is based on three-dimensional image data that were recorded with the transit time camera 103.

[0040] In dem Beispiel nach Figur 7a ist die aktuelle Haltung der Hand 4 zu weit von der biometrischen Bildgebungsvorrichtung 80 entfernt, was dadurch angezeigt wird, dass die Darstellung der aktuellen Haltung 401 in einer kleineren Größe angezeigt wird als die Darstellung der gewünschten Haltung 402. Dementsprechend wird die Person in die Lage versetzt, die Haltung der Hand 4 in Richtung der gewünschten Haltung anzupassen, nämlich die Hand näher an die biometrische Bildgebungsvorrichtung 80 zu bewegen. In the example according to FIG. 7a, the current position of the hand 4 is too far away from the biometric imaging device 80, which is indicated by the fact that the representation of the current posture 401 is displayed in a smaller size than the representation of the desired posture 402 Accordingly, the person is enabled to adjust the posture of the hand 4 in the direction of the desired posture, namely to move the hand closer to the biometric imaging device 80.

[0041] In dem Beispiel nach Figur 7b ist die aktuelle Haltung der Hand 4 immer noch zu weit von der biometrischen Bildgebungsvorrichtung 80 entfernt, was dadurch angezeigt wird, dass die Darstellung der aktuellen Haltung 401 in einer kleineren Größe angezeigt wird als die Darstellung der gewünschten Haltung 402. Im Hinblick auf das Beispiel nach Figur 7a wird der Abstand jedoch verringert, und es können weitere Informationen angezeigt werden, wie z.B. eine Libelle 403, um weitere Führung zur Anpassung der Handhaltung 4 zu geben. Die Libelle 403, die auf dem Handrücken der Darstellung der Hand in der aktuellen Haltung 401 angezeigt wird, dient der Benutzerführung in Bezug auf eine Differenz zwischen der aktuellen und der gewünschten Handneigung. Dementsprechend wird die Person in die Lage versetzt, die Haltung der Hand 4 in Richtung der gewünschten Haltung anzupassen, nämlich die Hand noch näher an die biometrische Bildgebungsvorrichtung 80 heranzubewegen und die Neigung der Hand anzupassen. In the example of Figure 7b, the current posture of the hand 4 is still too far away from the biometric imaging device 80, which is indicated by the fact that the representation of the current posture 401 is displayed in a smaller size than the representation of the desired Posture 402. With regard to the example according to FIG. 7a, however, the distance is reduced and further information can be displayed, such as, for example a spirit level 403 to provide further guidance for adjusting the hand position 4. The level 403, which is displayed on the back of the hand of the representation of the hand in the current posture 401, is used to guide the user with regard to a difference between the current and the desired hand inclination. Accordingly, the person is enabled to adjust the posture of the hand 4 in the direction of the desired posture, namely to move the hand even closer to the biometric imaging device 80 and to adapt the inclination of the hand.

[0042] In dem Beispiel nach Figur 7c ist die aktuelle Haltung der Hand 4 ungefähr in der gewünschten Entfernung von der biometrischen Bildgebungsvorrichtung<>80, was dadurch angezeigt wird, dass die Darstellung der aktuellen Haltung 401 in derselben Größe angezeigt wird wie die Darstellung der gewünschten Haltung 402. Die Haltung der Hand 4 hat jedoch noch nicht die richtige Neigung, was durch die Libelle 403 angezeigt wird, die zusammen mit der Darstellung der Hand in der aktuellen Haltung 401 angezeigt wird. Dementsprechend wird die Person in die Lage versetzt, die Haltung der Hand 4 in Richtung der gewünschten Haltung anzupassen, nämlich die Neigung der Hand noch mehr anzupassen. In the example according to FIG. 7c, the current posture of the hand 4 is approximately at the desired distance from the biometric imaging device 80, which is indicated by the fact that the representation of the current posture 401 is displayed in the same size as the representation of FIG desired posture 402. However, the posture of the hand 4 does not yet have the correct inclination, which is indicated by the level 403, which is displayed together with the representation of the hand in the current posture 401. Accordingly, the person is enabled to adjust the posture of the hand 4 in the direction of the desired posture, namely to adjust the inclination of the hand even more.

[0043] In dem Beispiel nach Figur 7d ist die Differenz zwischen der aktuellen Haltung der Hand 4 und der gewünschten Haltung der Hand 4 auf einem ausreichend kleinen Niveau. Die biometrische Bildgebungsvorrichtung 80 erfasst mindestens ein Bilddatum der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Nahinfrarotlichtspektrum. Da die Haltung der Hand 4 mit einer gewünschten Haltung übereinstimmt, die insbesondere die Gegenlichtbedingungen, optimale Fokussierungsbedingungen usw. berücksichtigen kann, hat sich die Qualität der erfassten Bilddaten verbessert. In the example according to Figure 7d, the difference between the current position of the hand 4 and the desired position of the hand 4 is at a sufficiently small level. The biometric imaging device 80 records at least one image data item of the image data in the visible light spectrum and the image data in the near-infrared light spectrum. Since the posture of the hand 4 coincides with a desired posture, which can particularly take into account the backlight conditions, optimal focusing conditions, etc., the quality of the captured image data has improved.

[0044] Figur 8 illustriert schematisch ein Verfahren zum Erfassen von Bilddaten einer Hand 4 einer Person. Das Verfahren umfasst ein Bildgebungsverfahren mit den folgenden Schritten. In Schritt S1 werden dreidimensionale Bilddaten einer aktuellen Haltung der Hand 4 mit einer Laufzeitkamera 103 erfasst. In Schritt S2 wird auf der Grundlage der dreidimensionalen Bilddaten eine Differenz zwischen einer gewünschten Haltung der Hand 4 und der aktuellen Haltung der Hand 4 bestimmt. In Schritt S3 wird auf der Grundlage der bestimmten Differenz der Person eine Benutzerführung 401, 402 bereitgestellt, die es der Person ermöglicht, die Haltung der Hand 4 in Richtung der gewünschten Haltung anzupassen. In Schritt S4 wird mindestens ein Bilddatum der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum der Hand 4 erfasst. Zum Beispiel werden die Schritte S1 bis S3 kontinuierlich wiederholt, bis in Schritt S2 festgestellt wird, dass die Differenz kleiner als ein vordefinierter Schwellenwert ist, und Schritt S2 von Schritt S4 gefolgt wird. FIG. 8 schematically illustrates a method for capturing image data of a hand 4 of a person. The method includes an imaging procedure with the following steps. In step S1, three-dimensional image data of a current posture of the hand 4 are recorded with a transit time camera 103. In step S2, a difference between a desired posture of hand 4 and the current posture of hand 4 is determined on the basis of the three-dimensional image data. In step S3, based on the determined difference for the person, a user guide 401, 402 is provided which enables the person to adjust the position of the hand 4 in the direction of the desired position. In step S4, at least one image datum of the image data in the visible light spectrum and the image data in the infrared light spectrum of the hand 4 is recorded. For example, steps S1 to S3 are repeated continuously until it is determined in step S2 that the difference is less than a predefined threshold value, and step S2 is followed by step S4.

BezugszeichenReference number

[0045] 1, 2, 3 Hand der ersten, zweiten und dritten Person t, i, m, r, 1 Daumen, Zeigefinger, Mittelfinger, Ringfinger, kleiner Finger P Handabdruck oder Lebenslinien 31, 32 dorsales Venennetz, dorsale Mittelhandvenen 4 Hand einer Person 10 biometrischer Sensor 101 Sensor für sichtbares Licht 102 Sensor für Nahinfrarotlicht 103 Laufzeitkamera 104 Lichtquellen 20 Verarbeitungseinheit 80 Biometrische Bildgebungsvorrichtung 40 Display 401, 402 aktuelle Haltung der Hand des Benutzers, gewünschte Haltung der Hand des Benutzers 403 Libelle 1, 2, 3 hands of the first, second and third person t, i, m, r, 1 thumb, index finger, middle finger, ring finger, little finger P handprint or lifelines 31, 32 dorsal vein network, dorsal metacarpal veins 4 hand one Person 10 biometric sensor 101 sensor for visible light 102 sensor for near infrared light 103 transit time camera 104 light sources 20 processing unit 80 biometric imaging device 40 display 401, 402 current position of the hand of the user, desired position of the hand of the user 403 dragonfly

Claims (15)

1. Biometrische Bildgebungsvorrichtung (10) zum Erfassen von Bilddaten eines Körperteils (4) einer Person, wobei die biometrische Bildgebungsvorrichtung (10) mindestens einen Sensor für sichtbares Licht (101) zum Erfassen von Bilddaten des Körperteils im sichtbaren Lichtspektrum und einen Sensor für Nahinfrarotlicht- (102) zum Erfassen von Bilddaten des Körperteils im Nahinfrarotlichtspektrum umfasst, wobei: die biometrische Bildgebungsvorrichtung (10) eine Laufzeitkamera (103) umfasst, die so konfiguriert ist, dass sie dreidimensionale Bilddaten des Körperteils (4) der Person erfasst; und die biometrische Bildgebungsvorrichtung (10) so konfiguriert ist, dass sie ein Bildgebungsverfahren ausführt, das die folgenden Schritte umfasst: Erfassen der dreidimensionalen Bilddaten einer aktuellen Körperteilhaltung; Bestimmen einer Differenz zwischen einer gewünschten Körperteilhaltung und der aktuellen Körperteilhaltung auf der Grundlage der dreidimensionalen Bilddaten; Bereitstellen eine Benutzerführung (401, 402) für die Person auf der Grundlage der bestimmten Differenz, die es der Person ermöglicht, die Körperteilhaltung in Richtung der gewünschten Haltung anzupassen; und Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Nahinfrarotlichtspektrum.1. Biometric imaging device (10) for capturing image data of a body part (4) of a person, the biometric imaging device (10) having at least one sensor for visible light (101) for capturing image data of the body part in the visible light spectrum and a sensor for near-infrared light (102) for acquiring image data of the body part in the near-infrared light spectrum, wherein: the biometric imaging device (10) comprises a time-of-flight camera (103) which is configured to capture three-dimensional image data of the body part (4) of the person; and the biometric imaging device (10) is configured to perform an imaging process comprising the steps of: Acquiring the three-dimensional image data of a current body part posture; Determining a difference between a desired body part posture and the current body part posture on the basis of the three-dimensional image data; Providing user guidance (401, 402) for the person based on the determined difference, which enables the person to adjust the body part posture in the direction of the desired posture; and acquiring at least one of the image data in the visible light spectrum and the image data in the near-infrared light spectrum. 2. Biometrische Bildgebungsvorrichtung (10) nach dem vorhergehenden Anspruch, wobei sich die aktuelle und die gewünschte Körperteilhaltung auf einen oder mehrere relative Entfernungen, eine relative Ausrichtung und eine Geste beziehen.2. Biometric imaging device (10) according to the preceding claim, wherein the current and the desired body part posture relate to one or more relative distances, a relative orientation and a gesture. 3. Biometrische Bildgebungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei sich die Benutzerführung (401, 402) auf eine oder mehrere der folgenden Punkte bezieht: Anpassen einer relativen Entfernung, einer relativen Ausrichtung und der aktuellen Körperteilhaltung.3. Biometric imaging device (10) according to one of the preceding claims, wherein the user guidance (401, 402) relates to one or more of the following points: adapting a relative distance, a relative orientation and the current body part posture. 4. Biometrische Bildgebungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Benutzerführung (401, 402) eine oder mehrere visuelle Führungen, die auf einem Display (40) angezeigt werden, und akustische Führungen, die auf einem Lautsprecher wiedergegeben werden, umfasst.4. Biometric imaging device (10) according to one of the preceding claims, wherein the user guide (401, 402) comprises one or more visual guides that are displayed on a display (40) and acoustic guides that are reproduced on a loudspeaker. 5. Biometrische Bildgebungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Benutzerführung (401, 402) das Anzeigen einer Darstellung der gewünschten Körperteilhaltung (401) und einer Darstellung der aktuellen Körperteilhaltung (402) auf einem Display (40) umfasst.5. Biometric imaging device (10) according to one of the preceding claims, wherein the user guidance (401, 402) comprises displaying a representation of the desired body part posture (401) and a representation of the current body part posture (402) on a display (40). 6. Biometrische Bildgebungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Benutzerführung (402) das Anzeigen einer Darstellung auf einem Display (40) einer Libelle (403) umfasst, die die Differenz zwischen der aktuellen Körperteilhaltung und der gewünschten Körperteilhaltung anzeigt.6. Biometric imaging device (10) according to one of the preceding claims, wherein the user guidance (402) comprises displaying a representation on a display (40) of a dragonfly (403) which shows the difference between the current body part posture and the desired body part posture. 7. Biometrische Bildgebungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, die ferner konfiguriert ist, um einen oder mehrere Schritte des Bildgebungsverfahrens mehr als einmal zu wiederholen.7. Biometric imaging device (10) according to one of the preceding claims, further configured to repeat one or more steps of the imaging method more than once. 8. Biometrische Bildgebungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, die ferner so konfiguriert ist, dass für den Fall, dass die ermittelte Differenz innerhalb des vordefinierten Bereichs liegt, eine Verzögerung von weniger als 100 Millisekunden, vorzugsweise weniger als 10 Millisekunden, zwischen der Bestimmung der Differenz und der Erfassung von mindestens einem der Bilddaten im sichtbaren Spektrum und der Bilddaten im Infrarotspektrum aufrechterhalten wird.8. Biometric imaging device (10) according to one of the preceding claims, which is further configured such that, in the event that the determined difference is within the predefined range, a delay of less than 100 milliseconds, preferably less than 10 milliseconds, between the Determination of the difference and the acquisition of at least one of the image data in the visible spectrum and the image data in the infrared spectrum is maintained. 9. Biometrische Bildgebungsvorrichtung (10) nach einem der vorstehenden Ansprüche, die ferner so konfiguriert ist, dass sie einen interessierenden Bereich des Körperteils auf der Grundlage von mindestens einem der dreidimensionalen Bilddaten, der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Nahinfrarotlichtspektrum bestimmt, und in Übereinstimmung mit dem interessierenden Bereich mindestens eine der gewünschten Körperteilhaltungen anpasst und mindestens ein Bilddatum der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum erfasst.The biometric imaging device (10) according to any preceding claim, further configured to determine an area of interest of the body part based on at least one of the three-dimensional image data, the image data in the visible light spectrum, and the image data in the near-infrared light spectrum, and in Matching with the area of interest adjusts at least one of the desired body part postures and records at least one image datum of the image data in the visible light spectrum and the image data in the infrared light spectrum. 10. Biometrisches Bildgebungsverfahren zum Erfassen von Bilddaten eines Körperteils (4) einer Person, wobei mindestens einer von einem Sensor (101) für sichtbares Licht zum Erfassen von Bilddaten des Körperteils im sichtbaren Lichtspektrum und einem Sensor (102) für Nahinfrarotlicht zum Erfassen von Bilddaten des Körperteils im Nahinfrarotlichtspektrum bereitgestellt wird, wobei das Verfahren umfasst: Bereitstellen einer Laufzeitkamera (103), die so konfiguriert ist, dass sie dreidimensionale Bilddaten des Körperteils (4) der Person erfasst; und Ausführen eines Bildgebungsverfahrens, das die folgenden Schritte umfasst: Erfassen der dreidimensionalen Bilddaten einer aktuellen Körperteilhaltung; Bestimmen einer Differenz zwischen einer gewünschten Körperteilhaltung und der aktuellen Körperteilhaltung auf der Grundlage der dreidimensionalen Bilddaten; Bereitstellen eine Benutzerführung für die Person auf der Grundlage der bestimmten Differenz, die es der Person ermöglicht, die Körperteilhaltung in Richtung der gewünschten Haltung anzupassen; und Erfassen von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Nahinfrarotlichtspektrum.10. Biometric imaging method for capturing image data of a body part (4) of a person, wherein at least one of a sensor (101) for visible light for capturing image data of the body part in the visible light spectrum and a sensor (102) for near infrared light for capturing image data of the Body part is provided in the near-infrared light spectrum, the method comprising: Providing a time of flight camera (103) which is configured such that it captures three-dimensional image data of the body part (4) of the person; and Perform an imaging procedure that includes the following steps: Acquiring the three-dimensional image data of a current body part posture; Determining a difference between a desired body part posture and the current body part posture on the basis of the three-dimensional image data; Providing user guidance to the person based on the determined difference that enables the person to adjust the body part posture toward the desired posture; and Acquisition of at least one of the image data in the visible light spectrum and the image data in the near-infrared light spectrum. 11. Biometrisches Bildgebungsverfahren nach Anspruch 10, wobei sich die Benutzerführung (401, 402) auf eine oder mehrere der folgenden Punkte bezieht: Anpassen einer relativen Entfernung, einer relativen Ausrichtung und einer Geste der aktuellen Körperteilhaltung.11. The biometric imaging method according to claim 10, wherein the user guidance (401, 402) relates to one or more of the following points: adjusting a relative distance, a relative orientation and a gesture of the current body part posture. 12. Biometrisches Bildgebungsverfahren nach den Ansprüchen 10 oder 11, wobei die Benutzerführung (401, 402) das Anzeigen einer Darstellung der gewünschten Körperteilhaltung (401) und einer Darstellung der aktuellen Körperteilhaltung (402) auf einem Display (40) umfasst.12. The biometric imaging method according to claims 10 or 11, wherein the user guidance (401, 402) comprises displaying a representation of the desired body part posture (401) and a representation of the current body part posture (402) on a display (40). 13. Biometrisches Bildgebungsverfahren nach einem der Ansprüche 10 bis 12, das ferner das Wiederholen eines oder mehrerer Schritte des Bildgebungsverfahrens mehr als einmal umfasst.13. The biometric imaging method according to claim 10, further comprising repeating one or more steps of the imaging method more than once. 14. Biometrisches Bildgebungsverfahren nach einem der Ansprüche 10 bis 13, das ferner das Aufrechterhalten einer Verzögerung von weniger als 100 Millisekunden, vorzugsweise weniger als 10 Millisekunden, zwischen der Bestimmung der Differenz und der Erfassung von mindestens einem der Bilddaten im sichtbaren Spektrum und der Bilddaten im Infrarotspektrum umfasst, falls die bestimmte Differenz innerhalb des vordefinierten Bereichs liegt.14. Biometric imaging method according to one of claims 10 to 13, further comprising maintaining a delay of less than 100 milliseconds, preferably less than 10 milliseconds, between the determination of the difference and the acquisition of at least one of the image data in the visible spectrum and the image data in the Includes infrared spectrum if the determined difference is within the predefined range. 15. Biometrisches Bildgebungsverfahren nach einem der Ansprüche 10 bis 14, das ferner das Bestimmen eines interessierenden Bereichs des Körperteils auf der Grundlage von mindestens einem aus den dreidimensionalen Bilddaten, den Bilddaten im sichtbaren Lichtspektrum und den Bilddaten im Nahinfrarotlichtspektrum und das Anpassen in Übereinstimmung mit dem interessierenden Bereich von mindestens einer der gewünschten Körperteilhaltungen und von mindestens einem der Bilddaten im sichtbaren Lichtspektrum und der Bilddaten im Infrarotlichtspektrum umfasst.15. The biometric imaging method according to claim 10, further comprising determining an area of interest of the body part based on at least one of the three-dimensional image data, the image data in the visible light spectrum, and the image data in the near infrared light spectrum, and adjusting in accordance with the interest Comprises the range of at least one of the desired body part postures and of at least one of the image data in the visible light spectrum and the image data in the infrared light spectrum.
CH00486/19A 2019-04-10 2019-04-10 Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance. CH716053A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CH00486/19A CH716053A1 (en) 2019-04-10 2019-04-10 Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance.
CN202080026328.4A CN113678138A (en) 2019-04-10 2020-04-06 Biometric imaging apparatus and biometric imaging method for capturing image data of a body part of a person capable of improving image data quality
EP20717828.6A EP3953858A1 (en) 2019-04-10 2020-04-06 Biometrics imaging device and biometrics imaging method for capturing image data of a body part of a person which enable improved image data quality
US17/602,464 US11900731B2 (en) 2019-04-10 2020-04-06 Biometrics imaging device and biometrics imaging method for capturing image data of a body part of a person which enable improved image data quality
AU2020271607A AU2020271607A1 (en) 2019-04-10 2020-04-06 Biometrics imaging device and biometrics imaging method for capturing image data of a body part of a person which enable improved image data quality
PCT/EP2020/059718 WO2020207947A1 (en) 2019-04-10 2020-04-06 Biometrics imaging device and biometrics imaging method for capturing image data of a body part of a person which enable improved image data quality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CH00486/19A CH716053A1 (en) 2019-04-10 2019-04-10 Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance.

Publications (1)

Publication Number Publication Date
CH716053A1 true CH716053A1 (en) 2020-10-15

Family

ID=67909234

Family Applications (1)

Application Number Title Priority Date Filing Date
CH00486/19A CH716053A1 (en) 2019-04-10 2019-04-10 Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance.

Country Status (6)

Country Link
US (1) US11900731B2 (en)
EP (1) EP3953858A1 (en)
CN (1) CN113678138A (en)
AU (1) AU2020271607A1 (en)
CH (1) CH716053A1 (en)
WO (1) WO2020207947A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4002166A1 (en) 2020-11-11 2022-05-25 PalmPay AG Method and system for biometric authentication for large numbers of enrolled persons

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4515850B2 (en) 2004-07-30 2010-08-04 富士通株式会社 Biometric device guidance screen control method, biometric device and program thereof
JP4546169B2 (en) 2004-06-28 2010-09-15 富士通株式会社 An imaging device for palm authentication
US20060018523A1 (en) 2004-07-23 2006-01-26 Sanyo Electric Co., Ltd. Enrollment apparatus and enrollment method, and authentication apparatus and authentication method
JP4786483B2 (en) 2006-09-14 2011-10-05 富士通株式会社 Biometric guidance control method for biometric authentication device and biometric authentication device
JP5810581B2 (en) 2011-03-29 2015-11-11 富士通株式会社 Biological information processing apparatus, biological information processing method, and biological information processing program
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
JP6089610B2 (en) * 2012-11-13 2017-03-08 富士通株式会社 Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
KR102332320B1 (en) * 2014-02-21 2021-11-29 삼성전자주식회사 Multi-band biometric camera system having iris color recognition
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
EP3576016A4 (en) * 2018-04-12 2020-03-18 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Face recognition method and apparatus, and mobile terminal and storage medium
CH716052A1 (en) 2019-04-10 2020-10-15 Smart Secure Id Ag Biometric authentication device and biometric authentication method for authenticating a person with reduced computing complexity.

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SAMOIL STEVEN ET AL: "Multispectral Hand Biometrics", 2014 FIFTH INTERNATIONAL CONFERENCE ON EMERGING SECURITY TECHNOLOGIES, IEEE, 10 September 2014 (2014-09-10), pages 24 - 29, XP032703228, DOI: 10.1109/EST.2014.10 *
SVOBODA JAN ET AL: "Contactless biometric hand geometry recognition using a low-cost 3D camera", 2015 INTERNATIONAL CONFERENCE ON BIOMETRICS (ICB), IEEE, 19 May 2015 (2015-05-19), pages 452 - 457, XP033166138, DOI: 10.1109/ICB.2015.7139109 *

Also Published As

Publication number Publication date
EP3953858A1 (en) 2022-02-16
US11900731B2 (en) 2024-02-13
CN113678138A (en) 2021-11-19
US20220207922A1 (en) 2022-06-30
WO2020207947A1 (en) 2020-10-15
AU2020271607A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
CN107949863B (en) Authentication device and authentication method using biometric information
DE102008016215B4 (en) Information device operating unit
EP3103059A1 (en) 3-d image analyzer for determining viewing direction
DE202014103729U1 (en) Augmented reality with motion detection
DE112013005337T5 (en) Object detection and tracking with variable field lighting devices
DE102012108567A1 (en) Method and apparatus for obtaining depth information using a light pattern
CN106408510B (en) A kind of method and system for the U.S. face masking-out obtaining facial image
EP2915022B1 (en) Method for inputting a control command for a component of a motor vehicle
CN108875485A (en) A kind of base map input method, apparatus and system
DE102010001331A1 (en) Iris-deburring method based on global and local iris image statistics
EP1342150A2 (en) Measuring method for determining the position of an object in front of a screen and a device for carrying out said method
DE112016006069T5 (en) STEREO DEPTH CAMERA WITH VCSEL PROJECTOR WITH CONTROLLED PROJECTION LINES
DE102008024462A1 (en) Interactive imaging system, interactive device and method of operation thereof
US20170004355A1 (en) Apparatus, system, method and computer program product for recognizing face
JP2006099614A (en) Living body discrimination apparatus and living body discrimination method
CN108764139B (en) Face detection method, mobile terminal and computer readable storage medium
WO2015044051A1 (en) Positioning method for positioning a mobile device in relation to a security feature of a document
EP1408441A2 (en) Device for contactless optical capture of biometric property of at least one part of the body
CH716053A1 (en) Biometric formation device and biometric formation method for acquiring image data of a body part of a person with user guidance.
CH716052A1 (en) Biometric authentication device and biometric authentication method for authenticating a person with reduced computing complexity.
Armato et al. Comparitive study on photometric normalization algorithms for an innovative, robust and real-time eye gaze tracker
DE102021109684A1 (en) Methods and systems for controlling the mode of operation of features in an electronic device
CN109960963A (en) Contactless palmmprint acquisition device and its method
Zukal et al. Interest points as a focus measure in multi-spectral imaging
DE102015005370A1 (en) Procedure for fingerprint recognition

Legal Events

Date Code Title Description
NV New agent

Representative=s name: PRINS INTELLECTUAL PROPERTY AG, CH