CH713061B1 - System and method for contactless biometric authentication. - Google Patents

System and method for contactless biometric authentication. Download PDF

Info

Publication number
CH713061B1
CH713061B1 CH01404/16A CH14042016A CH713061B1 CH 713061 B1 CH713061 B1 CH 713061B1 CH 01404/16 A CH01404/16 A CH 01404/16A CH 14042016 A CH14042016 A CH 14042016A CH 713061 B1 CH713061 B1 CH 713061B1
Authority
CH
Switzerland
Prior art keywords
body part
unit
biometric
identification data
image
Prior art date
Application number
CH01404/16A
Other languages
German (de)
Other versions
CH713061A1 (en
Inventor
Bergqvist Johan
Original Assignee
Smart Secure Id Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Secure Id Ag filed Critical Smart Secure Id Ag
Priority to CH01404/16A priority Critical patent/CH713061B1/en
Priority to PCT/EP2017/076685 priority patent/WO2018073335A1/en
Publication of CH713061A1 publication Critical patent/CH713061A1/en
Publication of CH713061B1 publication Critical patent/CH713061B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1394Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Die Erfindung betrifft ein biometrisches Authentifizierungssystem zum Erfassen biometrischer Kenndaten von einem Körperteil einer Person und zum Vergleichen der erfassten biometrischen Kenndaten mit von dem Körperteil bereits erfassten registrierten biometrischen Kenndaten zum Authentifizieren der Person, umfassend: eine Beleuchtungseinheit (110) zum Beleuchten des Körperteils; eine Bilderfassungseinheit (114) zum Erfassen eines Bildes des beleuchteten Körperteils; eine Verarbeitungseinheit (118) zum Extrahieren der biometrischen Kenndaten von dem durch die Bilderfassungseinheit (114) erfassten Bild; und eine Authentifizierungseinheit (120) zum Vergleichen der extrahierten biometrischen Daten mit registrierten Kenndaten zum Authentifizieren der Person; wobei die Beleuchtungseinheit (110) mit mindestens einer Mustermaske (112) versehen ist, um ein Maskenmuster auf den Körperteil zu projizieren, sodass das erfasste Bild das projizierte Maskenmuster umfasst.The invention relates to a biometric authentication system for capturing biometric identification data from a body part of a person and for comparing the captured biometric identification data with registered biometric identification data already captured from the body part for authenticating the person, comprising: a lighting unit (110) for illuminating the body part; an image capturing unit (114) for capturing an image of the illuminated body part; a processing unit (118) for extracting the biometric identification data from the image captured by the image capture unit (114); and an authentication unit (120) for comparing the extracted biometric data with registered identification data for authenticating the person; wherein the lighting unit (110) is provided with at least one pattern mask (112) in order to project a mask pattern onto the body part so that the captured image includes the projected mask pattern.

Description

Technisches Gebiet der ErfindungTechnical field of the invention

[0001] Die vorliegende Erfindung betrifft das Feld der biometrischen Authentifizierung und insbesondere ein System und Verfahren zur berührungslosen biometrischen Authentifizierung, wobei das Authentifizierungsverfahren auch die Lebendigkeit der zu authentifizierenden Person überprüft. The present invention relates to the field of biometric authentication and in particular to a system and method for contactless biometric authentication, the authentication method also checking the liveliness of the person to be authenticated.

Allgemeiner Stand der TechnikGeneral state of the art

[0002] Authentifizierungsmethoden haben im Feld der biometrischen Authentifizierung weite Verbreitung und Anwendung gefunden. Die Notwendigkeit, Menschen zu authentifizieren, besteht schon seit längerer Zeit. Die Ereignisse, welche eine solche Notwendigkeit auslösen, umfassen finanzielle Transaktionen, das Einreisen in fremde Länder, Wählen, das Ablegen einer Prüfung, das Gründen eines Unternehmens, Zugang zu Gebäuden, etc. Biometrische Authentifizierungsverfahren verwenden die spezifischen und einzigartigen Merkmale eines bestimmten Körperteils von Personen. Glücklicherweise bestehen Menschen aus komplexen Organsystemen, welche ein hohes Maß an Einzigartigkeit aufweisen. Das am häufigsten zu Authentifizierungszwecken verwendete organische Merkmal sind Fingerabdrücke Andere Verfahren verwenden die Iris des menschlichen Auges, Blutgefäßmuster unter der Haut der Hand oder das Gesicht. Diese Verfahren basieren üblicherweise auf Bildverarbeitung und -erkennung. Wieder andere Verfahren schließen die Verwendung der Stimme ein. Authentication methods have found widespread use and application in the field of biometric authentication. The need to authenticate people has been around for a long time. The events that create such a need include financial transactions, entering foreign countries, voting, taking an exam, starting a business, access to buildings, etc. Biometric authentication methods use the specific and unique characteristics of a particular body part of an individual . Fortunately, humans are made up of complex organ systems that have a high degree of uniqueness. The most common organic feature used for authentication purposes is fingerprints. Other methods use the iris of the human eye, blood vessel patterns under the skin of the hand, or the face. These methods are usually based on image processing and recognition. Still other methods involve the use of voice.

[0003] Eine der am häufigsten verwendeten biometrischen Authentifizierungen basiert auf dem Fingerabdruck, wobei dabei jedoch das Risiko einer Umgehung durch Verwendung unechter/künstlicher Fingerabdrücke besteht. Ein anderes Problem der Fingerabdruckauthentifizierung besteht darin, dass der Anwender Berührungskontakt mit der Oberfläche haben muss, was Hygienefragen nach sich ziehen kann, wenn dieselbe Authentifizierungsvorrichtung von mehreren Personen verwendet wird oder abgelagerter Schmutz oder Fett auf der Oberfläche zu einer Fehlfunktion der Authentifizierungsvorrichtung führen kann. One of the most frequently used biometric authentication is based on the fingerprint, but there is a risk of circumvention through the use of false / artificial fingerprints. Another problem with fingerprint authentication is that the user has to have physical contact with the surface, which can result in hygiene issues if the same authentication device is used by several people or if dirt or grease deposited on the surface can lead to a malfunction of the authentication device.

[0004] Andere Authentifizierungsverfahren, ebenfalls berührungslos, verwenden den Handabdruck, Handflächenvenen- oder Fingervenenbilder. Beispiele sind bekannt aus US20080107309, EP2244224, US9355236, EP1612718, US9223955, US6813010, US7359531, EP1612717 oder EP1387309. Other authentication methods, also contactless, use the handprint, palm vein or finger vein images. Examples are known from US20080107309, EP2244224, US9355236, EP1612718, US9223955, US6813010, US7359531, EP1612717 or EP1387309.

[0005] Es besteht ein Bedarf für berührungslose biometrische Authentifizierung, wobei das Authentifizierungsverfahren auch die Lebendigkeit der zu authentifizierenden Person überprüft. Einige Systeme verwenden 3D-Kameras oder mehrere Kameras oder sogar modulierte oder strukturierte Projektorlichtquellen für diese Vorgänge. Da diese Systeme und Vorrichtungen üblicherweise sehr komplex sind, besteht nach wie vor die Notwendigkeit, diese Vorgänge auf eine wirtschaftlichere und robustere Weise mit minimaler Systemgestaltung auszuführen. There is a need for contactless biometric authentication, the authentication method also checking the liveliness of the person to be authenticated. Some systems use 3D cameras or multiple cameras or even modulated or structured projector light sources for these operations. Because these systems and devices are typically very complex, there remains a need to perform these operations in a more economical and robust manner with minimal system design.

Kurzdarstellung der ErfindungSummary of the invention

[0006] Es ist eine Aufgabe der Erfindung, ein System, eine Vorrichtung und ein Verfahren bereitzustellen, um eine berührungslose biometrische Authentifizierung, welche die Möglichkeit aufweist, die Lebendigkeit zu überprüfen, auf kosteneffiziente und robuste Weise auszuführen. It is an object of the invention to provide a system, a device and a method to carry out a contactless biometric authentication, which has the possibility of checking the liveliness, in a cost-efficient and robust manner.

[0007] Dies wird durch ein biometrisches Authentifizierungssystem nach Anspruch 1, ein biometrisches Authentifizierungsverfahren nach Anspruch 8 und eine biometrische Authentifizierungsvorrichtung nach Anspruch 13 erzielt. This is achieved by a biometric authentication system according to claim 1, a biometric authentication method according to claim 8 and a biometric authentication device according to claim 13.

[0008] Das biometrische Authentifizierungssystem zum Erfassen biometrischer Kenndaten eines Körperteils einer Person und zum Vergleichen der erfassten biometrischen Kenndaten mit von diesem Körperteil bereits erfassten registrierten biometrischen Kenndaten zum Authentifizieren der Person, umfassend: eine Beleuchtungseinheit zum Beleuchten des Körperteils; eine Bilderfassungseinheit zum Erfassen eines Bildes des beleuchteten Körperteils; eine Verarbeitungseinheit zum Extrahieren der biometrischen Kenndaten vom durch die Bilderfassungseinheit erfassten Bild; und eine Authentifizierungseinheit zum Vergleichen der extrahierten biometrischen Daten mit registrierten Kenndaten zum Authentifizieren der Person. Die Beleuchtungseinheit des Systems ist mit mindestens einer Mustermaske versehen, um ein Maskenmuster auf den Körperteil zu projizieren, sodass das Maskenmuster Bestandteil des erfassten Bilds ist. The biometric authentication system for acquiring biometric identification data of a body part of a person and for comparing the acquired biometric identification data with registered biometric identification data already acquired from this body part for authenticating the person, comprising: a lighting unit for illuminating the body part; an image capturing unit for capturing an image of the illuminated body part; a processing unit for extracting the biometric identification data from the image captured by the image capture unit; and an authentication unit for comparing the extracted biometric data with registered identification data for authenticating the person. The lighting unit of the system is provided with at least one pattern mask in order to project a mask pattern onto the body part, so that the mask pattern is part of the captured image.

[0009] Das projizierte Maskenmuster, welches vorzugsweise aus identisch geformten Vielecken desselben Bereichs besteht, kann verwendet werden, um den optimalen Abstand zwischen Körpertei und Beleuchtung oder Erfassungseinheit auf eine vollkommen berührungslose Weise zu finden, indem die Durchschnittsgröße der einzelnen auf den Körperteil projizierten Musterformen mit der Größe der einzelnen, während eines früheren Kalibrierungsschritts erhaltenen Musterformen verglichen wird. Dasselbe Maskenmuster, das auf den Körperteil projiziert wird und somit Bestandteil des erfassten Bildes ist, kann auch verwendet werden, einen Bereich von Interesse des Körperteils zu definieren und die biometrischen Kenndaten zu extrahieren indem die einzelnen Musterformen ermittelt werden, die Strukturen von Interesse des Körperteils (zum Beispiel Handabdruck und Handflächenvenen) aufweisen. Außerdem können dieselben Maskenmuster verwendet werden, um einen Lebendigkeitstest auf Grundlage der Unebenheiten des Körperteils auszuführen. Unebenheiten des Körperteils führen zu einer Verzerrung des Maskenmusters. Diese Verzerrung kann von einem unechten Körperteil schwerlich rekonstruiert werden, und kann daher als ein Hinweis auf Lebendigkeit einer zu authentifizierenden Person verwendet werden. The projected mask pattern, which preferably consists of identically shaped polygons of the same area, can be used to find the optimal distance between body part and lighting or detection unit in a completely contactless manner by the average size of the individual pattern shapes projected onto the body part the size of the individual pattern shapes obtained during a previous calibration step is compared. The same mask pattern that is projected onto the body part and is therefore part of the captured image can also be used to define an area of interest of the body part and to extract the biometric characteristics by determining the individual pattern shapes, the structures of interest of the body part ( e.g. handprint and palm veins). In addition, the same mask patterns can be used to conduct a liveliness test based on the unevenness of the body part. Unevenness of the body part leads to a distortion of the mask pattern. This distortion can hardly be reconstructed from a false body part and can therefore be used as an indication of the liveliness of a person to be authenticated.

[0010] Weitere Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen dargelegt. Further embodiments of the invention are set out in the dependent claims.

[0011] In einigen Ausführungsformen kann die Mustermaske ein regelmäßiges Muster von Vielecken, vorzugsweise Dreiecken, Vierecken, Quadraten, Fünfecken oder Sechsecken, aufweisen Das heißt, die Vielecke weisen identische Formen und Flächen auf. In some embodiments, the pattern mask can have a regular pattern of polygons, preferably triangles, rectangles, squares, pentagons or hexagons, that is, the polygons have identical shapes and areas.

[0012] In einigen Ausführungsformen kann die Beleuchtungseinheit mindestens eine Lichtquelle sichtbaren Lichts und/oder mindestens eine Lichtquelle Nah-Infrarotlichts (NIR) umfassen, wobei die Lichtquelle vorzugsweise eine Mehrzahl von Leuchtdioden (LEDs) umfasst. Die Lichtquelle oder LEDs können kreisförmig rund um die Erfassungseinheit angeordnet sein. Unterschiedliche Lichtquellen können abwechselnd angeordnet sein. Vorzugsweise umfasst die Beleuchtungseinheit Lichtquellen für sichtbares und für NIR-Licht, um zum Beispiel Handabdrücke/Falten beziehungsweise Handflächenvenen zu erfassen. Auf diese Weise kann die Authentifizierungsanalyse auf Vielecken basieren, welche Handabdruck und Handflächenvenen umfassen. In some embodiments, the lighting unit can comprise at least one light source of visible light and / or at least one light source near infrared light (NIR), wherein the light source preferably comprises a plurality of light emitting diodes (LEDs). The light source or LEDs can be arranged in a circle around the detection unit. Different light sources can be arranged alternately. The lighting unit preferably comprises light sources for visible and for NIR light, for example in order to detect handprints / wrinkles or palm veins. In this way, the authentication analysis can be based on polygons which include handprints and palm veins.

[0013] In einigen Ausführungsformen kann das biometrische Authentifizierungssystem ferner eine optische Führungseinheit umfassen, die imstande ist, den optimalen Abstand zwischen Körperteil und Erfassungseinheit auf Grundlage des auf den Körperteil projizierten Maskenmusters zu ermitteln. Die optische Führungseinheit kann den optimalen Abstand zum Beispiel durch ein grünes Licht anzeigen. Falls der Abstand zur Beleuchtungs-/Erfassungseinheit zu gering oder zu groß ist, kann ein rotes Licht aufleuchten. Zusätzlich kann bei Annäherung an den optimalen Abstand eine allmähliche Änderung von rot über gelb auf grün bereitgestellt sein. Auf diese Weise erhält der Benutzer Informationen darüber, ob er seine Hand in die richtige Richtung bewegt. In some embodiments, the biometric authentication system can further comprise an optical guide unit which is able to determine the optimal distance between the body part and the detection unit on the basis of the mask pattern projected onto the body part. The optical guide unit can display the optimal distance, for example by means of a green light. If the distance to the lighting / detection unit is too short or too great, a red light can light up. In addition, as the optimum distance is approached, a gradual change from red to yellow to green can be provided. In this way, the user receives information about whether he is moving his hand in the right direction.

[0014] In einigen Ausführungsformen kann die Erfassungseinheit eine Mikrolinsenanordnung zur Erlangung von Tiefeninformationen des Körperteils umfassen. Die Mikrolinsenanordnung ist eine optionale Funktion, da bereits das auf den Körperteil projizierte Maskenmuster aufgrund der Verzerrung des Musters bestimmte Tiefeninformationen bereitstellt. In some embodiments, the detection unit can comprise a microlens array for obtaining depth information of the body part. The microlens arrangement is an optional function, since the mask pattern projected onto the body part already provides certain depth information due to the distortion of the pattern.

[0015] Ferner betrifft die Erfindung ein Verfahren zum Erfassen biometrischer Kenndaten eines Körperteils einer Person und zum Vergleichen der erfassten biometrischen Kenndaten mit von diesem Körperteil bereits erfassten registrierten Kenndaten zum Authentifizieren der Person, umfassend die Schritte: Beleuchten des Körperteils unter Verwendung einer Beleuchtungseinheit, die mit mindestens einer Mustermaske versehen ist, um ein Maskenmuster auf den Körperteil zu projizieren; Erfassen eines Bildes des beleuchteten Körperteils, welches das projizierte Maskenmuster umfasst, unter Verwendung einer Bilderfassungseinheit; Extrahieren der biometrischen Kenndaten von dem durch die Erfassungseinheit erfassten Bild unter Verwendung einer Verarbeitungseinheit; Vergleichen der extrahierten biometrischen Daten mit registrierten Kenndaten zur Authentifizierung der Person unter Verwendung einer Authentifizierungseinheit. The invention further relates to a method for capturing biometric identification data of a body part of a person and for comparing the captured biometric identification data with registered identification data already captured by this body part for authenticating the person, comprising the steps of: illuminating the body part using a lighting unit that is provided with at least one pattern mask for projecting a mask pattern onto the body part; Capturing an image of the illuminated body part including the projected mask pattern using an image capturing unit; Extracting the biometric identification data from the image captured by the capture unit using a processing unit; Comparing the extracted biometric data with registered identification data for authenticating the person using an authentication unit.

[0016] In einigen Ausführungsformen kann die Mustermaske ein regelmäßiges Muster von Vielecken, vorzugsweise Dreiecken, Vierecken, Quadraten, Fünfecken oder Sechsecken, aufweisen, und wird dazu verwendet, den optimalen Abstand zwischen Körperteil und Erfassungseinheit zu ermitteln. In some embodiments, the pattern mask can have a regular pattern of polygons, preferably triangles, squares, squares, pentagons or hexagons, and is used to determine the optimal distance between the body part and the detection unit.

[0017] In einigen Ausführungsformen wird das Maskenmuster zur Führung des Körperteils verwendet, um einen optimalen Abstand zwischen Körperteil und Erfassungseinheit zu ermitteln. Dies kann durch den Vergleich der durchschnittlichen Größe/Fläche der Vielecke des projizierten Maskenmusters mit der Größe/Fläche der Vielecke, die während eines Kalibrierungsschritts erlangt worden ist, erfolgen. In some embodiments, the mask pattern is used to guide the body part in order to determine an optimal distance between the body part and the detection unit. This can be done by comparing the average size / area of the polygons of the projected mask pattern with the size / area of the polygons obtained during a calibration step.

[0018] In einigen Ausführungsformen kann die Beleuchtungseinheit den Körperteil mit sichtbarem Licht und NIR-Licht beleuchten , um kombinierte Bilder zu erhalten, welche sowohl Strukturen des Körperteils, die unter sichtbarem Licht (z.B. Handabdruck) bzw. unter NIR-Licht (z.B. Handflächenvenen) erkennbar sind, als auch das Maskenmuster umfassen. Das kombinierte Bild wird dann zur Extraktion der biometrischen Kenndaten verwendet. In some embodiments, the lighting unit can illuminate the body part with visible light and NIR light in order to obtain combined images that show both structures of the body part under visible light (e.g. handprint) or under NIR light (e.g. palm veins) are recognizable, as well as include the mask pattern. The combined image is then used to extract the biometric identification data.

[0019] In einigen Ausführungsformen kann das Maskenmuster zum Extrahieren der biometrischen Kenndaten verwendet werden. Zum Beispiel teilt das Maskenmuster das Bild in mehrere kleine Flächen/Bereiche auf, welche in Bezug auf das Vorhandensein biometrischer Kenndaten (z.B. Handabdruck und/oder Handflächenvenen) analysiert werden können. In some embodiments, the mask pattern can be used to extract the biometric identification data. For example, the mask pattern divides the image into several small areas / areas, which can be analyzed with regard to the presence of biometric characteristics (e.g. handprint and / or palm veins).

[0020] Die Erfindung betrifft ferner eine biometrische Authentifizierungsvorrichtung zum Erfassen von Bildern zur Durchführung des oben beschriebenen Verfahrens. Die Vorrichtung umfasst eine Beleuchtungseinheit zum Beleuchten des Körperteils; eine Bilderfassungseinheit zum Erfassen eines Bilds des beleuchteten Körperteils; wobei die Beleuchtungseinheit mit mindestens einer Mustermaske versehen ist, um ein Maskenmuster auf den Körperteil zu projizieren, sodass das erfasste Bild das projizierte Maskenmuster umfasst. The invention also relates to a biometric authentication device for capturing images for performing the method described above. The device comprises a lighting unit for illuminating the body part; an image capturing unit for capturing an image of the illuminated body part; wherein the lighting unit is provided with at least one pattern mask in order to project a mask pattern onto the body part, so that the captured image includes the projected mask pattern.

[0021] In einigen Ausführungsformen umfasst die Vorrichtung ferner eine Verarbeitungseinheit oder Mittel zum Verbinden der Vorrichtung mit einer Verarbeitungseinheit. Die Verarbeitungseinheit extrahiert die biometrischen Kenndaten vom durch die Erfassungseinheit erfassten Bild. In some embodiments the device further comprises a processing unit or means for connecting the device to a processing unit. The processing unit extracts the biometric characteristic data from the image captured by the capture unit.

[0022] In einigen Ausführungsformen umfasst die Vorrichtung ferner eine Authentifizierungseinheit oder Mittel zum Verbinden der Vorrichtung mit einer Authentifizierungseinheit. Die Authentifizierungseinheit vergleicht die extrahierten biometrischen Daten mit registrierten Kenndaten zur Authentifizierung der Person. In some embodiments, the device further comprises an authentication unit or means for connecting the device to an authentication unit. The authentication unit compares the extracted biometric data with registered identification data to authenticate the person.

[0023] Gemäß einer erweiterten Ausführungsform kann die Authentifizierung durch Auf-und-Ab-Bewegung oder Vorwärts-/Rückwärtsbewegung oder seitlicher Bewegung der Handfläche oder irgendeiner eigenständigen Schwenk-, Nick- oder Rollbewegung gestartet oder signalisiert werden. Danach wird der Bereich von Interesse als solcher definiert, der ein Vorhandensein von Handflächenfalten und Handflächenvenen aufweist, welche dann in sichtbarem und NIR-Licht erfasst werden, wie gemäß einer Ausführungsform der Erfindung dargestellt. According to an extended embodiment, the authentication can be started or signaled by up-and-down movement or forward / backward movement or lateral movement of the palm or any independent pan, nod or roll movement. Thereafter, the area of interest is defined as having the presence of palm wrinkles and palm veins, which are then detected in visible and NIR light, as illustrated in accordance with an embodiment of the invention.

[0024] Gemäß einer anderen erweiterten Ausführungsform wird durch den stereoskopischen Effekt ein 3D-Modell der Handfläche erzeugt, wenn die Hand auf und ab oder in irgendeiner der Schwenk-, Nick- oder Rollbewegungen bewegt wird, wodurch eine Serie von Bildern mit verschiedenen LED-Mustern in verschiedenen Brennweiten entsteht, um ein 3D-Bild der Handfläche und Venen zu erzeugen. Dieses kann auch für den Lebendigkeitstest benutzt werden. According to another extended embodiment, a 3D model of the palm of the hand is generated by the stereoscopic effect when the hand is moved up and down or in any of the panning, pitching or rolling movements, whereby a series of images with different LED- Patterns at different focal lengths are created to create a 3D image of the palm and veins. This can also be used for the liveliness test.

[0025] Gemäß einer anderen erweiterten Ausführungsform wird ein Bereich von Interesse mittels der folgenden Schritte ermittelt. Der erste Schritt ist die Ermittlung der Handgelenksposition der zu authentifizierenden Hand. Ist die Handgelenksposition ermittelt, werden die Bereiche strahlenförmig dargestellt. In einem anderen Szenario ist der nächste Schritt nach der Ermittlung der Handgelenksposition die Ermittlung der Daumenposition und das strahlenförmige Darstellen der Bereiche, um den Daumen mit den anderen Fingern zu verbinden und sämtliche Gelenke miteinander zu verbinden. According to another expanded embodiment, an area of interest is determined using the following steps. The first step is to determine the wrist position of the hand to be authenticated. Once the wrist position has been determined, the areas are shown as rays. In another scenario, the next step after determining the wrist position is determining the thumb position and radiating the areas in order to connect the thumb to the other fingers and to connect all the joints to one another.

[0026] Gemäß einer anderen erweiterten Ausführungsform befindet sich die Handfläche in eine ersten Position, in welcher die Seite der Handfläche für den Sensor sichtbar ist, d.h. die Handrücken- und Handtellerseite steht im rechten Winkel zum Sensor. Die Handinnenfläche wird derart gedreht, dass sie parallel und zur Oberfläche des Sensors gerichtet angeordnet ist. Bei Durchfü rung der Drehbewegung werden die äußersten sichtbaren Punkte während dem Beugen der Handfläche zum Bereich von Interesse. Dies kann auch zur Durchführung eines Lebendigkeitstest benutzt werden. According to another extended embodiment, the palm is in a first position in which the side of the palm is visible to the sensor, i.e. the back of the hand and palm side are at right angles to the sensor. The palm of the hand is rotated in such a way that it is arranged parallel and directed towards the surface of the sensor. When performing the twisting motion, the outermost visible points become the area of interest as the palm of the hand is flexed. This can also be used to conduct a liveliness test.

[0027] Gemäß einer anderen eweiterten Ausführungsfo wird der Benutzer für einen Lebendigkeitstest gebeten, seine Handfläche zu einer Faust zu schließen und die Extraktion des Bereichs von Interesse wird entlang der sich schließenden Fingerrillen auf der Oberseite markiert, um ein Quadrat zu zeichnen. Diese Aktion wird immer dann als Lebendigkeitstest benutzt, wenn ein Risiko einer falschen Handflächenauthentifizierung besteht. Bei Versuchen, das System durch Verwendung einer gefälschten/künstlichen Handfläche zu hacken, kann ein Benutzer stichprobenartig gebeten werden, diese Geste als Lebendigkeitstest auszuführen. According to another expanded embodiment, for a liveliness test, the user is asked to close his palm into a fist and the extraction of the area of interest is marked along the closing finger grooves on the top to draw a square. This action is used as a liveliness test whenever there is a risk of incorrect palm authentication. Attempts to hack the system through the use of a fake / artificial palm may randomly ask a user to perform this gesture as a liveliness test.

[0028] Gemäß einer anderer erweiterten Ausführungsform wird der Benutzer für einen Lebendigkeitstest gebeten, seine Finger zu öffnen und zu schließen und die Extraktion des Bereichs von Interesse wird entlang der aktiven Fingerriflen auf der Oberseite markiert, um ein Vieleck zu zeichnen. Diese Aktion wird immer dann als Lebendigkeitstest benutzt, wenn ein Risiko einer falschen Handflächenauthentifizierung besteht. Bei Versuchen, das System durch Verwendung einer gefälschten/künstlichen Handfläche zu hacken, kann ein Benutzer stichprobenartig gebeten werden, diese Geste als Lebendigkeitstest auszuführen. According to another expanded embodiment, for a liveliness test, the user is asked to open and close their fingers and the extraction of the area of interest is marked along the active finger ridges on the top to draw a polygon. This action is used as a liveliness test whenever there is a risk of incorrect palm authentication. Attempts to hack the system through the use of a fake / artificial palm may randomly ask a user to perform this gesture as a liveliness test.

[0029] Die vorliegende Erfindung stellt ein berührungsloses biometrisches Authentifizierungssystem bereit. Um ein hygienischeres Verfahren sicherzustellen, erfordert die vorliegende Erfindung nicht, dass der Benutzer seine Hand auf eine Kontaktfläche legt, wodurch das Authentifizierungsverfahren garantiert, dass der Benutzer während des Authentifizierungsvorgangs die Vorrichtung nirgends berühren muss. Ferner offenbart die Erfindung verschiedene Verfahren zum Überprüfen der Lebendigkeit der sich authentifizierenden Person. Dies trägt dazu bei, betrügerische Praktiken bei der Verwendung biometrischer Authentifizierung durch Hand oder Finger hintanzuhalten. The present invention provides a non-contact biometric authentication system. In order to ensure a more hygienic method, the present invention does not require that the user place his hand on a contact surface, whereby the authentication method guarantees that the user does not have to touch the device anywhere during the authentication process. Furthermore, the invention discloses various methods for checking the liveliness of the authenticating person. This helps deter fraudulent practices in the use of hand or finger biometric authentication.

Kurze Erklärung zu den FigurenBrief explanation of the figures

[0030] Die vorangehenden und sonstigen Merkmale von Ausführungsformen werden offensichtlicher aus der folgenden ausführlichen Beschreibung der Ausführungsformen in Verbindung mit den begleitenden Zeichnungen. Elemente in den Figuren erscheinen nicht notwendigerweise im Maßstab gezeichnet, um ihre Klarheit zu steigern und das Verständnis dieser verschiedenen Elemente und Ausführungsformen der Erfindung zu verbessern. Daher weisen die Zeichnungen im Interesse der Klarheit und Verdeutlichung eine verallgemeinerte Form auf, wobei: Fig. 1 ein Blockdiagramm eines Systems zur berührungslosen biometrischen Authentifizierung darstellt. Fig. 2 eine Vorrichtung umfassend eine Beleuchtungseinheit und eine Erfassungseinheit darstellt. Fig. 3a ein durch Verwendung einer NIR-Lichtquelle erfasstes Bild ohne Mustermaske darstellt. Fig. 3b ein durch Verwendung einer NIR-Lichtquelle erfasstes Bild mit Mustermaske darstellt. Fig. 4 ein Kalibrierungssystem darstellt, in welchem die optimale Position der Hand ermittelt wird. Fig. 5a eine Art und Weise darstellt, in welcher eine Handfläche vor der Beleuchtungseinheit positioniert wird, sowie auch die Art und Weise, in welcher das Licht von der Handfläche gestreut wird. Fig. 5b eine Funktion einer optischen Führungseinheit darstellt. Fig. 6 unterschiedliche Positionen darstellt, in welche die Handfläche bewegt werden kann. Fig. 7 ein Verfahren zur Ermittlung eines Bereichs von Interesse einer Handfläche darstellt. Fig. 8 ein Verfahren darstellt, in welchem die Merkmale einer Handfläche im Einklang mit einer Ausführungsform der Erfindung extrahiert werden. Fig. 9 verschiedene Merkmalpunkte im Bereich der Handfläche darstellt. Fig. 10 ein neuronales Netzwerk einer Mehrzahl von Neuronen darstellt. Fig. 11 ein Maskenmuster aus Sechsecken (links) und ein verzerrtes Maskenmuster aufgrund von unebenen Körperteilen (rechts) darstellt. Fig 12 eine mögliche Art und Weise zur Definition von Musterblöcken durch Verwendung der Mustermaske darstellt.The foregoing and other features of embodiments will become more apparent from the following detailed description of the embodiments in conjunction with the accompanying drawings. Elements in the figures do not necessarily appear to be drawn to scale for the sake of clarity and understanding of these various elements and embodiments of the invention. Therefore, in the interests of clarity and clarity, the drawings are in generalized form, wherein: FIG. 1 is a block diagram of a system for contactless biometric authentication. Fig. 2 shows a device comprising a lighting unit and a detection unit. Fig. 3a shows an image acquired using a NIR light source without a pattern mask. 3b shows an image with a pattern mask captured by using a NIR light source. Fig. 4 shows a calibration system in which the optimal position of the hand is determined. Figure 5a illustrates a manner in which a palm is positioned in front of the lighting unit, as well as the manner in which the light from the palm is scattered. Fig. 5b illustrates a function of an optical guide unit. Figure 6 illustrates different positions into which the palm can be moved. Figure 7 illustrates a method of determining an area of interest on a palm. Figure 8 illustrates a method in which the features of a palm are extracted in accordance with an embodiment of the invention. 9 shows various feature points in the area of the palm. Figure 10 illustrates a neural network of a plurality of neurons. 11 illustrates a mask pattern made up of hexagons (left) and a distorted mask pattern due to uneven body parts (right). Figure 12 illustrates one possible way of defining pattern blocks using the pattern mask.

Beschreibung der ErfindungDescription of the invention

[0031] In der folgenden ausführlichen Beschreibung wird Bezug auf die begleitenden Zeichnungen genommen, welche einen Bestandteil derselben darstellen und in welchen zur Veranschaulichung bestimmte Ausführungsformen, die ausgeführt werden können, gezeigt sind. Diese Ausführungsformen sind ausreichend detailliert beschrieben, um fachkundigen Personen zu ermöglichen, die Erfindung umzusetzen, und es wird davon ausgegangen, dass andere Ausführungsformen verwendet werden können und dass logische, mechanische und sonstige Änderungen innerhalb des Umfangs der Ausführungsformen vorgenommen werden können. Die folgende ausführliche Beschreibung ist also nicht als Einschränkung des Umfangs der Erfindung anzusehen; stattdessen ist die Erfindung durch die angehängten Patentansprüche zu definieren. In the following detailed description, reference is made to the accompanying drawings which form a part hereof, and in which there are shown certain illustrative embodiments that may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention, and it is understood that other embodiments can be used and that changes can be made in logic, mechanical, and other changes within the scope of the embodiments. Thus, the following detailed description is not to be considered as limiting the scope of the invention; instead, the invention is to be defined by the appended claims.

[0032] Die vorliegende Erfindung vermeidet die Nachteile nach dem Stand der Technik durch Bereitstellung eines berührungslosen biometrischen Authentifizierungssystems, welches dazu dient, die zu authentifizierende Person ohne Verwendung von 3D-Kameras oder eines Projektorsystems zu authentifizieren sowie auch deren Lebendigkeit zu überprüfen. The present invention avoids the disadvantages of the prior art by providing a contactless biometric authentication system which is used to authenticate the person to be authenticated without using 3D cameras or a projector system and also to check their liveliness.

[0033] Fig. 1 stellt ein Blockdiagramm eines Systems zur berührungslosen biometrischen Authentifizierung im Einklang mit einer Ausführungsform der Erfindung dar. Das System umfasst mindestens eine Beleuchtungseinheit 110 umfassend mindestens eine Lichtquelle sichtbaren Lichts und/oder mindestens eine Lichtquelle von Nah-Infrarotlicht (NIR). Die Lichtquelle kann eine Mehrzahl von Leuchtdioden (LEDs) umfassen. Die LEDs können kreisförmig angeordnet sein. LEDs sichtbaren Lichts und NIR-Licht-LEDs können abwechselnd angeordnet sein. 1 shows a block diagram of a system for contactless biometric authentication in accordance with an embodiment of the invention. The system comprises at least one lighting unit 110 comprising at least one light source of visible light and / or at least one light source of near infrared light (NIR) . The light source can comprise a plurality of light emitting diodes (LEDs). The LEDs can be arranged in a circle. Visible light LEDs and NIR light LEDs can be arranged alternately.

[0034] Die Beleuchtungseinheit 110 oder ihre einzelnen Lichtquellen sind mit mindestens einem Muster 112 maskiert. Das Muster ist vorzugsweise als eine regelmäßige Gruppe von Vielecken derselben Fläche (siehe Fig. 11, links) definiert. Vorzugsweise liegt die Größe eines Vielecks im Bereich von 1 mm oder weist eine Fläche von ungefähr 1 mm<2>auf. Es können verschiedene Typen oder Formen von Vielecken verwendet werden, zum Beispiel Dreieck, Viereck, Quadrat, Fünfeck oder Sechseck. Auch andere Formen sind möglich. Mustermasken auf verschiedenen LEDs können in verschiedenen Winkeln zueinander angeordnet sein. Ist zum Beispiel eine Mustermaske an zwei am weitesten entfernten LEDs in einer kreisförmigen Anordnung angeordnet, so können diese für Berechnungszwecke verwendet werden, da die zwischen ihnen liegenden Abstände eine Triangulierung zur Berechnung des optimalen Abstands des Körperteils von der Beleuchtungs- oder Erfassungseinheit oder zur Ermittlung der Flächenausdehnung des Körperteils bilden. Die LED-Lichter mit unterschiedlichen Mustermasken werden dazu verwendet anzuzeigen, in welchem optimalen Abstand die Hand über dem Sensor der Erfassungseinheit platziert werden muss. Diese Anordnung hilft auch dabei, durch eindeutige Erkennung der Hand gegenüber dem übrigen Hintergrund den Bereich von Interesse zu definieren. The lighting unit 110 or its individual light sources are masked with at least one pattern 112. The pattern is preferably defined as a regular group of polygons of the same area (see Fig. 11, left). The size of a polygon is preferably in the region of 1 mm or has an area of approximately 1 mm 2. Various types or shapes of polygons can be used, for example triangle, square, square, pentagon, or hexagon. Other shapes are also possible. Pattern masks on different LEDs can be arranged at different angles to one another. If, for example, a pattern mask is arranged on two LEDs furthest away in a circular arrangement, then these can be used for calculation purposes, since the distances between them are triangulation for calculating the optimal distance of the body part from the lighting or detection unit or for determining the Form area extension of the body part. The LED lights with different pattern masks are used to indicate the optimal distance at which the hand must be placed over the sensor of the registration unit. This arrangement also helps to define the area of interest by clearly recognizing the hand against the rest of the background.

[0035] Ferner umfasst das System eine Bilderfassungseinheit 114 zum Erfassen des Bildes eines Körperteils, zum Beispiel einer Hand, der zu authentifizierenden Person. Die Bilderfassungseinheit 114 weist eine Kamera und eine oder mehrere Linsen 116 auf. Die Erfassungseinheit kann eine Mikrolinsenanordnung aufweisen, um Tiefeninformationen des Körperteils zu erfassen, welche Bilder mit verschiedener Brennweite oder Deformation der Oberfläche, und somit 3D-Informationen, bereitstellen Das System weist ferner eine Verarbeitungseinheit 118 auf zur Verarbeitung der Bilder und zum Extrahieren verschiedener biometrischer Kenndaten, wie zum Beispiel Handflächenfalten/-Abdruck und/oder Handflächenvenen, aus dem erfassten Bild. Das System weist auch eine Authentifizierungseinheit 120 auf, wobei die Authentifizierungseinheit 120 die vom erfassten Bild extrahierten biometrischen Kenndaten mit zuvor extrahierten und registrierten Kenndaten zur Authentifizierung der Person vergleicht. Die registrierten Daten können in einer Speichereinheit der Authentifizierungseinheit oder in einer eigenen Speichereinheit gespeichert sein. The system further comprises an image acquisition unit 114 for acquiring the image of a body part, for example a hand, of the person to be authenticated. The image acquisition unit 114 has a camera and one or more lenses 116. The acquisition unit can have a microlens array in order to acquire depth information of the body part, which provides images with different focal lengths or deformation of the surface, and thus 3D information. The system also has a processing unit 118 for processing the images and for extracting various biometric characteristics, such as palm folds / imprints and / or palm veins, from the captured image. The system also has an authentication unit 120, the authentication unit 120 comparing the biometric identification data extracted from the captured image with previously extracted and registered identification data for authenticating the person. The registered data can be stored in a storage unit of the authentication unit or in its own storage unit.

[0036] Die beschriebenen Einheiten können alle Teil einer einzigen Vorrichtung sein. Die Verarbeitungseinheit, die Authentifizierungseinheit oder die Speichereinheit können jeweils auch von der Vorrichtung getrennt und über Kommunikationsmittel miteinander oder mit der Vorrichtung verbunden sein. Fig. 2 stellt eine Vorrichtung umfassend eine Beleuchtungseinheit 110 zusammen mit einer Bilderfassungseinheit 114 dar. In diesem Fall sind die Lichtquellen in einem Kreisring angeordnet. Die LEDs mit NIR und jene mit sichtbarer Lichtquelle sind abwechselnd angeordnet. The units described can all be part of a single device. The processing unit, the authentication unit or the storage unit can each also be separate from the device and connected to one another or to the device via communication means. 2 shows a device comprising a lighting unit 110 together with an image capturing unit 114. In this case, the light sources are arranged in a circular ring. The LEDs with NIR and those with a visible light source are arranged alternately.

[0037] Im Einklang mit einer Ausführungsform offenbart die Erfindung ferner ein Verfahren zur berührungslosen biometrischen Authentifizierung. Die Authentifizierung erfolgt durch Erfassung von Bildern durch eine Bilderfassungseinheit 114. Die Bilderfassungseinheit 114 kann eine 2D-Kamera (nachstehend als Kamera bezeichnet) verwenden. Die Kamera erfasst das maskierte Bild der Hand von der maskierten Lichtquelle. Wenn sie mit einer Mikrolinsenanordnung versehen ist, kann die Kamera auch ein Tiefenbild erfassen, indem sie das durch die Mikrolinsenanordnung geschaffene Bild aufbaut (Fig. 11). Dabei wird die Mikrolinsenanordnung verwendet, um verschiedene Brennweiten desselben Bildes zu extrahieren und davon das Tiefenbild oder Oberflächendeformitätsinformationen des Körperteils zu extrahieren. In accordance with one embodiment, the invention further discloses a method for contactless biometric authentication. The authentication is performed by capturing images by an image capturing unit 114. The image capturing unit 114 may use a 2D camera (hereinafter referred to as a camera). The camera captures the masked image of the hand from the masked light source. If it is provided with a microlens array, the camera can also capture a depth image by building up the image created by the microlens array (FIG. 11). The microlens array is used to extract different focal lengths of the same image and to extract the depth image or surface deformity information of the body part therefrom.

[0038] Fig. 3a stellt ein durch eine NIR-Lichtquelle ohne Mustermaske erfasstes Bild dar, während Fig. 3b das mit einer Mustermaske erfasste Bild darstellt. 3a shows an image captured by a NIR light source without a pattern mask, while FIG. 3b shows the image captured with a pattern mask.

[0039] Bei Verwendung einer Mustermaske erscheint ein Maskenmuster als ein geometrisches Muster, das zum Beispiel auf einer ebenen Fläche vorbestimmt werden kann. Ein manueller oder automatischer Kalibriertest kann für die Kamera ohne das Vorhandensein des Körperteils durchgeführt werden, um den Bereich von Interesse optimal abzubilden, indem eine ebene Fläche im gewünschten Abstand von der Beleuchtungseinheit und der Erfassungseinheit angeordnet wird. Nach der manuellen oder automatischen Kalibrierung zeigt ein visuelles Führungsinstrument oder eine Führungseinhei an, in welchem Abstand die Hand auf Grundlage der vorbestimmten geometrischen Mustergröße der Hand platziert werden soll. Die Führungseinheit wird nachfolgend ausführlicher erklärt. When using a pattern mask, a mask pattern appears as a geometric pattern that can be predetermined on a flat surface, for example. A manual or automatic calibration test can be carried out for the camera without the presence of the body part in order to optimally image the area of interest by arranging a flat surface at the desired distance from the lighting unit and the detection unit. After manual or automatic calibration, a visual guide instrument or guide indicates the distance at which the hand should be placed based on the predetermined geometric pattern size of the hand. The guide unit is explained in more detail below.

[0040] Fig. 4 stellt ein Kalibriersystem dar, in welchem die optimale Position der Handfläche auf Grundlage des auf die Handfläche projizierten Maskenmusters ermittelt wird. Hier wird eine berührungslose biometrische Authentifizierungsvorrichtung 100 aufweisend mindestens die Beleuchtungseinheit 110 mit einer Mustermaske 112 und die Erfassungseinheit an einer vorbestimmten Position in Bezug auf ein Gestell 511 einer Kalibriervorrichtung 500 platziert. Das Gestell 511 hält eine vorbefestigte ebene Platte 512 in einem bekannten Abstand in Bezug auf die vorbestimmte Position der Authentifizierungsvorrichtung. Die Bildverarbeitungseinheit erfasst das Maskenmuster auf einer vorbefestigten ebenen Platte 512 in einem bekannten Abstand. Die Bildverarbeitungseinheit 118 erfasst das Maskenmuster und speichert die Musterinformationen (Musterbereich, Mustergröße, etc.) für eine zukünftige Erkennung des optimalen Abstands einer Handfläche zur Authentifizierung. Wenn später eine Handfläche vor der Authentifizierungsvorrichtung platziert wird, erfasst die Bildverarbeitungseinheit 118 das Maskenmuster auf der Handfläche, extrahiert die Musterinformationen und vergleicht diese mit den zuvor während der Kalibrierung gespeicherten Musterinformationen. 4 shows a calibration system in which the optimal position of the palm is determined on the basis of the mask pattern projected onto the palm. Here, a contactless biometric authentication device 100 comprising at least the lighting unit 110 with a sample mask 112 and the detection unit is placed at a predetermined position in relation to a frame 511 of a calibration device 500. The frame 511 holds a pre-attached flat plate 512 a known distance with respect to the predetermined position of the authentication device. The image processing unit captures the mask pattern on a pre-attached flat plate 512 at a known distance. The image processing unit 118 detects the mask pattern and stores the pattern information (pattern area, pattern size, etc.) for future recognition of the optimal distance of a palm for authentication. When a palm is later placed in front of the authentication device, the image processing unit 118 detects the mask pattern on the palm, extracts the pattern information and compares it with the pattern information previously stored during the calibration.

[0041] Nach der Kalibrierung zeigt die optische Führungseinheit an, in welcher Höhe die Handfläche auf Grundlage der Größenänderung des Maskenmusters platziert werden muss, welches mit dem zuvor gespeicherten Kalibrierungsmaskenmuster verglichen wird. Wenn sich die Handfläche zu nahe an (Fig. 5b, Mitte) oder zu weit von (Fig. 5b, links) der Erfassungseinheit befindet, erscheint ein rotfarbiges Licht, vorzugsweise auf die Handfläche projiziert. Wenn die Handfläche im optimalen Abstand platziert ist (die tatsächliche Maskenmustergröße entspricht der Kalibrierungsmaskenmustergröße), erscheint ein grünfarbiges Licht (Fig. 5b, rechts), vorzugsweise auf die Handfläche projiziert. Der Benutzer bemerkt die Farbe, die, wenn eine Lücke zwischen den Fingern besteht, um die Finger herum, oder um die ganze Handfläche herum reflektiert wird. Oder, wenn keine Lücke zwischen den Fingern besteht, bemerkt der Benutzer die Farbe des Lichts vom Licht, das von der Handfläche zurück zum Sensorbereich reflektiert wird, den der Benutzer in Seiten- oder Profilansicht betrachtet. Zusätzlich kann sich das Farblicht allmählich von rot über gelb und schließlich zu grün verändern, wodurch es anzeigt, ob die Handfläche in der richtigen Richtung von der Erfassungseinheit weg oder zu ihr hin bewegt wird. Auf diese Weise kann die korrekte Position leicht gefunden werden. Wenn sich die Farbe zum Beispiel von gelb zu rot verändert, erkennt der Benutzer, dass er die Handfläche in die falsche Richtung bewegt. After the calibration, the optical guide unit shows the height at which the palm of the hand must be placed on the basis of the change in size of the mask pattern, which is compared with the previously stored calibration mask pattern. If the palm is too close (FIG. 5b, middle) or too far from (FIG. 5b, left) the detection unit, a red-colored light appears, preferably projected onto the palm. When the palm is placed at the optimal distance (the actual mask pattern size corresponds to the calibration mask pattern size), a green colored light appears (Fig. 5b, right), preferably projected onto the palm. The user notices the color that, when there is a gap between the fingers, is reflected around the fingers, or around the whole palm. Or, if there is no gap between the fingers, the user will notice the color of the light from the light reflected from the palm back to the sensor area, which the user is looking at in side or profile view. In addition, the colored light can gradually change from red to yellow and finally to green, whereby it indicates whether the palm is being moved in the correct direction away from or towards the detection unit. This way the correct position can be easily found. For example, when the color changes from yellow to red, the user realizes that they are moving the palm in the wrong direction.

[0042] Fig. 5 stellt auf der linken Seite die Art und Weise dar, in welcher eine Handfläche vor der Authentifizierungsvorrichtung 100 positioniert wird, und auf der rechten Seite, auch die Art und Weise, in welcher das Führungslicht 611 der optischen Führungseinheit von die Handfläche gestreut wird. Diese Fig. stellt das von der Handfläche gestreute Führungslicht 613 dar. Das reflektierte Licht wird vom Benutzer rund um die Finger gesehen. Der Benutzer muss die Position der Hand solange verändern, bis auf seiner Handfläche ein grünes Licht reflektiert wird. Das grüne Licht zeigt an, dass der Abstand der Handfläche von der Authentifizierungsvorrichtung optimal ist. Sobald die optimale Position ermittelt wurde, wird die Beleuchtungseinheit 110 für die Authentifizierung aktiviert. Die Kalibrierung auf Grundlage des Maskenmusters ermöglicht das Funktionieren der Authentifizierungsvorrichtung ohne die Notwendigkeit einer Unterstützung zum Platzieren der Hand in der optimalen Position. Die Vorrichtung funktioniert daher vollkommen berührungslos. Fig. 5 shows on the left the way in which a palm is positioned in front of the authentication device 100, and on the right side, also the way in which the guide light 611 of the optical guide unit from the Palm is sprinkled. This figure shows the guide light 613 scattered from the palm of the hand. The reflected light is seen around the fingers by the user. The user has to change the position of the hand until a green light is reflected on the palm of the hand. The green light indicates that the distance between the palm of the hand and the authentication device is optimal. As soon as the optimal position has been determined, the lighting unit 110 is activated for the authentication. The calibration based on the mask pattern enables the authentication device to function without the need for assistance in placing the hand in the optimal position. The device therefore works completely contactless.

[0043] Ein Benutzer muss sich vor der Verwendung im Authentifizierungssystem anmelden. Für die Anmeldung ermittelt der Benutzer den optimalen Abstand von der Vorrichtung, in welchem er seine Handfläche hält, sodass das grüne Licht erscheint. Sobald das grüne Licht erscheint, bewegt der Benutzer, der die Anmeldung durchführen möchte, die Hand in verschiedene Richtungen, zum Beispiel nach links, nach rechts, nach vorne und nach hinten. Die Handfläche wird in der Ebene quer zu den verschiedenen Richtungen bewegt, um verschiedene Teile der Handfläche zu erfassen. Somit kann beim nächsten Mal jeder Teil der Handfläche zur Authentifizierung benutzt werden. Bei diesem Vorgang kann ein Schwellenwert für die Mindestfläche für die Authentifizierung festgelegt werden. Der Schwellenwert gibt somit die Mindestfläche der Handfläche an, die erforderlich ist, dass eine bestimmte Authentifizierung akzeptiert wird. Fig. 6 stellt die verschiedenen Positionen dar, in welche die Handfläche im Einklang mit einer Ausführungsform der Erfindung bewegt wird. A user must log into the authentication system before use. To register, the user determines the optimal distance from the device at which he holds his palm so that the green light appears. As soon as the green light appears, the user who wants to log in moves their hand in different directions, for example left, right, forwards and backwards. The palm is moved in the plane transverse to the different directions in order to grasp different parts of the palm. So next time every part of the palm can be used for authentication. During this process, a threshold can be set for the minimum surface area for authentication. The threshold value thus indicates the minimum area of the palm that is required for a particular authentication to be accepted. Figure 6 illustrates the various positions into which the palm is moved in accordance with an embodiment of the invention.

[0044] Sobald die verschiedenen Teile der Handfläche gescannt sind, wird ein einzelnes Bild der Handfläche aufgebaut. Das Bild umfasst Musterinformationen und Tiefeninformationen aufgrund der Unebenheit der Handfläche (nachfolgend ausführlicher erklärt), welche durch Verwendung einer Mikrolinsenanordnung erfasst werden Ferner umfasst das Bild Handflächenveneninformationen, die unter NIR-Licht erfasst worden sind, sowie Handabdruckinformationen, welche unter sichtbarem Licht erfasst worden sind. Die Handfläche in Fig. 6 zeigt zum Beispiel nur Handabdrücke. Die Handfläche in Fig. 7 zeigt Handabdrücke und Handflächenvenen. Once the various parts of the palm are scanned, a single image of the palm is built up. The image includes pattern information and depth information due to the unevenness of the palm (explained in more detail below), which are captured using a microlens array. Further, the image includes palm vein information captured under NIR light and palm print information captured under visible light. For example, the palm of Figure 6 shows only handprints. The palm of Figure 7 shows handprints and palm veins.

[0045] Fig. 7 stellt die Ermittlung eines Bereichs von Interesse (ROI = region of interest) zur Authentifizierung im Einklang mit einer Ausführungsform der Erfindung dar. Die Handflächenvenenendpunkte werden für die gesamte Handfläche ermittelt. Die ermittelten Handflächenvenenenden werden bis zu den äußersten Punkten verfolgt, um den Bereich von Interesse zu bilden. In Fig. 7 (Mitte) sind die äußersten Venenenden, zum Beispiel 201a, 201b, 201c, 201d, 201e, 201f und 201g, markiert. Die Handfläche weist noch viel mehr Venenenden auf, aber um den Bereich von Interesse zu ermitteln werden nur die äußersten Venenenden berücksichtigt. Sobald diese Enden identifiziert und mit ihren Koordinaten registriert sind, werden die äußersten Endpunkte der Venen 201a, 201b, 201c, 201d, 201e, 201f und 201g verfolgt, um den Bereich von Interesse 202 zu bilden. Somit kann der Bereich von Interesse zur Erlangung der biometrischen Kenndaten durch die Begrenzungen der Handflächenvenen ermittelt werden. Das Maskenmuster kann auch dabei helfen, durch eindeutige Erkennung der Hand gegenüber dem übrigen Hintergrund den Bereich von Interesse zu definieren. 7 illustrates the determination of a region of interest (ROI) for authentication in accordance with an embodiment of the invention. The palm vein endpoints are determined for the entire palm. The identified palm vein ends are traced to the extreme points to form the area of interest. In Fig. 7 (middle) the outermost vein ends, for example 201a, 201b, 201c, 201d, 201e, 201f and 201g, are marked. The palm of the hand has many more vein ends, but only the outermost vein ends are considered to determine the area of interest. Once these ends are identified and registered with their coordinates, the extreme endpoints of veins 201a, 201b, 201c, 201d, 201e, 201f and 201g are traced to form the area of interest 202. Thus, the area of interest for obtaining the biometric identification data can be determined by the boundaries of the palm veins. The mask pattern can also help define the area of interest by clearly recognizing the hand against the rest of the background.

[0046] Die Größe des Maskenmusters auf der Handfläche variiert in Abhängigkeit der Deformität der Handfläche. Die Handfläche weist keine ebene Oberfläche auf, so dass sich die Größe des Maskenmusters in verschiedenen Bereichen der Handfläche in Abhängigkeit ihres Abstands zur Beleuchtungseinheit geringfügig unterscheidet. Die Größe des Maskenmusters im erfassten Bild kann daher als Tiefeninformation verwendet werden. Zum Beispiel ist die Maskenmustergröße in der Mitte der Handfläche geringfügig größer, als im Bereich rund um die Mitte der Handfläche, was bedeutet, dass die Mitte etwas weiter von der Beleuchtungseinheit entfernt ist, als die sie umgebenden Bereiche. Somit resultiert die Unebenheit der Handfläche zu einer Verzerrung des Maskenmusters (siehe Fig. 11, rechts). Diese Unebenheit der Handfläche und die dadurch erlangten Informationen können kaum mit einer künstlichen Handfläche nachgebildet werden und können daher als ein Hinweis auf die Lebendigkeit einer zu authentifizierenden Person benutzt werden. The size of the mask pattern on the palm varies depending on the deformity of the palm. The palm of the hand does not have a flat surface, so that the size of the mask pattern in different areas of the palm of the hand differs slightly depending on its distance from the lighting unit. The size of the mask pattern in the captured image can therefore be used as depth information. For example, the mask pattern size in the center of the palm is slightly larger than in the area around the center of the palm, which means that the center is slightly further away from the lighting unit than the areas surrounding it. Thus, the unevenness of the palm results in a distortion of the mask pattern (see Fig. 11, right). This unevenness of the palm and the information obtained thereby can hardly be reproduced with an artificial palm and can therefore be used as an indication of the liveliness of a person to be authenticated.

[0047] Fig. 8 stellt ein Verfahren dar, bei dem die biometrischen Kenndaten der Handfläche im Einklang mit einer Ausführungsform der Erfindung extrahiert werden. Nach der Definition des Bereichs von Interesse wird das Vorhandensein der Handabdrücke und Handflächenvenen, die unter sichtbarem Licht beziehungsweise NIR-Licht erfasst werden, in einem Musterblock ermittelt. Der Musterblock kann sich auf ein Vieleck oder eine vorher definierte Anzahl von Vielecken der Mustermaske beziehen. Eine Möglichkeit zur Definition von Musterblöcken ist nachfolgend beschrieben. Figure 8 illustrates a method in which the biometric characteristics of the palm of the hand are extracted in accordance with an embodiment of the invention. After defining the area of interest, the presence of the handprints and palm veins that are detected under visible light or NIR light is determined in a sample block. The pattern block can refer to a polygon or a previously defined number of polygons of the pattern mask. One way of defining pattern blocks is described below.

[0048] Das Vorhandensein der Handflächenvenen und Handabdrücke wird wie im Musterblock 301 ermittelt, wo sich eine Handflächenvene und ein Handabdruck überlappen, d.h. sich überkreuzen. Das System identifiziert solche Überlappungen und speichert die Details, wie zum Beispiel die Überlappung des Handabdrucks mit der Handflächenvene mit ihren Polarkoordinaten zusammen mit der Größe/Fläche des Vielecks oder Musterblocks. Die Größe des Vielecks oder Musterblocks, die Polarkoordinaten und/oder Tiefeninformationen, die durch Verwendung einer Mikrolinsenanordnung erfasst worden sind, Handflächenvenen und Merkmale des Handabdrucks werden als gewichtete mathematische Formel gespeichert, die als ein Neuronenknotenpunkt benannt wird. Dieser Neuronenknotenpunkt erkennt, in welche Richtung für die nächste Liste verbundener Neuronen für den Mustervergleich gesprungen werden muss. Nach der Erfassung des Handflächenbildes mit all diesen Neuroneninformationen wird die gesamte Liste der Neuronenknotenpunkte als eine mathematische Formel gespeichert. The presence of the palm veins and handprints is determined as in pattern block 301 where a palm vein and a handprint overlap, i.e., cross. The system identifies such overlaps and stores the details, such as the overlap of the palm vein with the palm vein with its polar coordinates along with the size / area of the polygon or pattern block. The size of the polygon or pattern block, polar coordinates and / or depth information acquired using a microlens array, palm veins and handprint features are stored as a weighted mathematical formula named a neuron node. This neuron node recognizes the direction in which to jump for the next list of connected neurons for the pattern comparison. After capturing the palm image with all of this neuron information, the entire list of neuron nodes is saved as a mathematical formula.

[0049] Fig. 9 stellt verschiedene Musterblöcke im zuvor definierten Bereich von Interesse im Einklang mit einer Ausführungsform der Erfindung dar. Zur weiteren Analyse berücksichtigt das System nur Musterblöcke im Bereich von Interesse, welche Venen- und Abdruckinformationen aufweisen. Sind für einen Merkmalpunkt nur ein Handabdruck oder nur Handflächenvenen vorhanden, so wird dieser Block ignoriert. Figure 9 illustrates various sample blocks in the previously defined area of interest in accordance with an embodiment of the invention. For further analysis, the system only considers sample blocks in the area of interest that have vein and imprint information. If only a handprint or only palm veins are available for a feature point, this block is ignored.

[0050] Fig. 10 stellt ein neuronales Netzwerk mehrerer Neuronenknotenpunkte im Einklang mit einer Ausführungsform der Erfindung dar. Sobald die Merkmale extrahiert worden sind, werden sie als ein Netzwerk von Neuronenknotenpunkten, wie zum Beispiel Neuron 1 (401), Neuron 2 (402), Neuron 3 (403), Neuron 4 (404) und Neuron 5 (405) dargestellt. Betrachten Sie das Neuron 1 (401), welches einen Venenabdruck sowie einen Handabdruck 410a, 410b, 410 c aufweist. Die Handabdruckinformationen von Neuron 1 (401) sind durch Handabdrucklinie 410a mit Neuron 2 (402) verbunden, wobei das Neuron 2 (402) weiter durch Handabdrucklinie 410c mit Neuron 3 (403), durch Handabdrucklinie 410a mit Neuron 4 (404) und durch Handabdrucklinie 410b mit Neuron 5 (405) verbunden ist. Das Neuron 3 (403) ist nur mit Neuron 2 (402) verbunden, wobei Neuron 4 (404) mit Neuron 2 (402) verbunden ist. Das Neuron 5 (405) ist mit Neuron 2 (402) und nicht mit Neuron 1 (401) verbunden, da der Winkel der Handabdrucklinie Richtung Neuron 2 (402) zeigt Diese Informationen wird gelesen als 124, was bedeutet, dass Neuron 1 (401) von Neuron 2 (402) zu Neuron 4 (404) springen kann, sowie 123, was bedeutet, dass Neuron 1 (401) von Neuron 2 (402) zu Neuron 3 (403) springen kann. Dies wird für die gesamte Merkmalneuronenliste im Bereich von Interesse einer Handfläche wiederholt und als ein mathematisches Modell dargestellt. Derselbe Prozess wird für die Handflächenvenenlinien durchgeführt und gespeichert. Figure 10 illustrates a neural network of multiple neuron nodes in accordance with an embodiment of the invention. Once the features have been extracted, they are presented as a network of neuron nodes such as neuron 1 (401), neuron 2 (402) , Neuron 3 (403), Neuron 4 (404) and Neuron 5 (405). Consider neuron 1 (401), which has a vein print and a hand print 410a, 410b, 410c. The handprint information of neuron 1 (401) is connected to neuron 2 (402) by handprint line 410a, and neuron 2 (402) is further connected by handprint line 410c to neuron 3 (403), handprint line 410a to neuron 4 (404), and handprint line 410b is connected to neuron 5 (405). Neuron 3 (403) is connected to neuron 2 (402) only, with neuron 4 (404) connected to neuron 2 (402). Neuron 5 (405) is connected to neuron 2 (402) and not neuron 1 (401) because the angle of the handprint line is pointing towards neuron 2 (402) this information is read as 124 which means that neuron 1 (401 ) can jump from neuron 2 (402) to neuron 4 (404), as well as 123, which means that neuron 1 (401) can jump from neuron 2 (402) to neuron 3 (403). This is repeated for the entire list of feature neurons in the area of interest of a palm and represented as a mathematical model. The same process is done and saved for the palm vein lines.

[0051] Die extrahierten Merkmale können als gewichtete neuronale Knotenpunkte in einem Netzwerk gespeichert werden. Die extrahierten Merkmale umfassen auch das Vorhandensein der Falten auf der Handfläche in Bezug auf das Muster der Maske. In diesem Szenario umfassen die extrahierten Merkmale die Falten der Handfläche in Bezug auf die in der Maske vorhandenen Muster. Jeder Knotenpunkt ist definiert als ein Vorhandensein eines Musters und wie sich die Handflächenfalten und -Venen in diesem Muster überlappen, die Koordinaten der Merkmale, die durch Verwendung einer Mikrolinsenanordnung erfassten Tiefeninformationen und die Größe dieses vorbestimmten geometrischen Musters. Das Netzwerk wird durch schrittweises Springen entlang der Vene oder der Falte erweitert, wo immer ein Muster sowohl ein Handfläc envenen- als auch ein Handflächenfalten-Merkmal aufweist. Dies wird solange wiederholt, bis sämtliche Merkmale extrahiert sind, und wird als mathematisches gewichtetes neuronales Netzwerk dargestellt. The extracted features can be stored as weighted neural nodes in a network. The extracted features also include the presence of the creases on the palm of the hand in relation to the pattern of the mask. In this scenario, the extracted features include the folds of the palm of the hand with respect to the patterns present in the mask. Each nodal point is defined as the presence of a pattern and how the palm folds and veins overlap in that pattern, the coordinates of the features, the depth information acquired using a microlens array, and the size of that predetermined geometric pattern. The network is expanded by gradually jumping along the vein or crease wherever a pattern has both a palm vein and a palm crease feature. This is repeated until all features are extracted and is represented as a mathematical weighted neural network.

[0052] Zum Vergleich zweiter Handflächenbilder im Authentifizierungsprozess führt das System einen mehrstufigen neuromorphischen Algorithmus aus, um den Übereinstimmungsgrad in Bezug auf das in der Datenbank gespeicherte mathematische Modell zu ermitteln. Das System benutzt somit eine mehrphasige Objekterkennung. Dieses mehrphasige Objekterkennungssystem benutzt umfassende Anordnungen informationsreicher Neuronen, um ein biologisch plausibles Modell visueller Informationsverarbeitung aufzubauen. Fig. 12 stellt eine mögliche Art und Weise zur Definition von Musterblöcken 704 durch Verwendung der Mustermaske der Beleuchtungseinheit dar. Das erfasste Bild der Handfläche umfasst Handflächenvenen 702, Handabdrücke 703 und das auf die Handfläche projizierte Maskenmuster 701. Das gezeigte Maskenmuster 701 besteht aus regelmäßigen Vielecken a bis s. Um für die weitere Analyse einen Musterblock 704 zu definieren, werden Vielecke ermittelt, welche Handflächenvenen 702 und Handabdrücke 703 enthalten. In diesem Fall wäre das Vieleck g, welches eine Überkreuzung einer Handflächenvene 702 und des Handflächenabdrucks 703 aufweist (Fig. 12, links). Der Musterblock 704 wird dann durch das Vieleck g und seine umgebenden Vielecke b, c, f, h, I und m definiert (Fig. 12, rechts). In order to compare two palm images in the authentication process, the system executes a multi-stage neuromorphic algorithm in order to determine the degree of agreement with respect to the mathematical model stored in the database. The system thus uses a multi-phase object recognition. This multi-phase object recognition system uses extensive arrays of information-rich neurons to build a biologically plausible model of visual information processing. 12 illustrates one possible way of defining pattern blocks 704 by using the pattern mask of the lighting unit. The captured image of the palm includes palm veins 702, handprints 703 and the mask pattern 701 projected onto the palm. The mask pattern 701 shown consists of regular polygons a to s. In order to define a pattern block 704 for the further analysis, polygons are determined which contain palm veins 702 and handprints 703. In this case the polygon would be g, which has a crossing of a palm vein 702 and the palm print 703 (FIG. 12, left). The pattern block 704 is then defined by polygon g and its surrounding polygons b, c, f, h, I and m (Fig. 12, right).

[0053] Die vorstehende Beschreibung der bevorzugten Ausführungsform der vorliegenden Erfindung ist zum Zweck der Veranschaulichung und Beschreibung dargestellt worden. Sie ist nicht als vollständig zu betrachten und beschränkt die Erfindung nicht auf die konkret offenbarte Form. Angesichts der obigen Lehren sind zahlreiche Änderungen und Abweichungen möglich. Es ist nicht beabsichtigt, dass der Umfang der vorliegenden Erfindung durch diese ausführliche Beschreibung in irgendeiner Weise eingeschränkt wird. The foregoing description of the preferred embodiment of the present invention has been presented for purposes of illustration and description. It is not to be regarded as complete and does not limit the invention to the specifically disclosed form. Numerous changes and variations are possible in light of the above teachings. This detailed description is not intended to limit the scope of the present invention in any way.

[0054] Es besteht Einverständnis darüber, dass die vorliegende Erfindung nicht auf die oben besprochenen Ausführungsformen beschränkt ist. Der Fachmann wird in der Lage sein, mit Kenntnis der Erfindung weitere Varianten abzuleiten, welche ebenfalls zum Gegenstand der vorliegenden Erfindung gehören. It is understood that the present invention is not limited to the embodiments discussed above. A person skilled in the art will be able, with knowledge of the invention, to derive further variants which also belong to the subject matter of the present invention.

Claims (14)

1. Biometrisches Authentifizierungssystem zum Erfassen biometrischer Kenndaten von einem Körperteil einer Person und zum Vergleichen der erfassten biometrischen Kenndaten mit von dem Körperteil bereits erfassten registrierten biometrischen Kenndaten zum Authentifizieren der Person, umfassend: eine Beleuchtungseinheit (110) zum Beleuchten des Körperteils; eine Bilderfassungseinheit (114) zum Erfassen eines Bildes des beleuchteten Körperteils; eine Verarbeitungseinheit (118) zum Extrahieren der biometrischen Kenndaten von dem durch die Bilderfassungseinheit (114) erfassten Bild; und eine Authentifizierungseinheit (120) zum Vergleichen der extrahierten biometrischen Daten mit registrierten Kenndaten zum Authentifizieren der Person; dadurch gekennzeichnet, dass die Beleuchtungseinheit (110) mit mindestens einer Mustermaske (112) versehen ist, um ein Maskenmuster (701) auf den Körperteil zu projizieren, sodass das projizierte Maskenmuster im erfassten Bild enthalten ist.A biometric authentication system for acquiring biometric identification data from a body part of a person and for comparing the acquired biometric identification data with registered biometric identification data already acquired from the body part for authenticating the person, comprising: a lighting unit (110) for illuminating the body part; an image capturing unit (114) for capturing an image of the illuminated body part; a processing unit (118) for extracting the biometric identification data from the image captured by the image capture unit (114); and an authentication unit (120) for comparing the extracted biometric data with registered identification data for authenticating the person; characterized in that the lighting unit (110) is provided with at least one pattern mask (112) in order to project a mask pattern (701) onto the body part so that the projected mask pattern is contained in the captured image. 2. Biometrisches Authentifizierungssystem nach Anspruch 1, wobei die Mustermaske ein regelmäßiges Muster aus Vielecken, vorzugsweise Dreiecken, Vierecken, Quadraten, Fünfecken oder Sechsecken, aufweist.2. Biometric authentication system according to claim 1, wherein the pattern mask has a regular pattern of polygons, preferably triangles, squares, squares, pentagons or hexagons. 3. Biometrisches Authentifizierungssystem nach einem der vorstehenden Ansprüche, wobei die Beleuchtungseinheit mindestens eine Lichtquelle sichtbaren Lichts und/oder mindestens eine Lichtquelle Nah-Infrarotlichts umfasst, und wobei die Lichtquelle vorzugsweise eine Mehrzahl von Leuchtdioden umfasst.3. Biometric authentication system according to one of the preceding claims, wherein the lighting unit comprises at least one light source of visible light and / or at least one light source of near-infrared light, and wherein the light source preferably comprises a plurality of light-emitting diodes. 4. Biometrisches Authentifizierungssystem nach Anspruch 3, wobei die Lichtquellen kreisförmig rund um die Erfassungseinheit angeordnet sind.4. Biometric authentication system according to claim 3, wherein the light sources are arranged in a circle around the detection unit. 5. Biometrisches Authentifizierungssystem nach Anspruch 3 oder 4, wobei unterschiedliche Lichtquellen abwechselnd angeordnet sind.5. Biometric authentication system according to claim 3 or 4, wherein different light sources are arranged alternately. 6. Biometrisches Authentifizierungssystem nach einem der vorstehenden Ansprüche, wobei das biometrische Authentifizierungssystem ferner eine optische Führungseinheit umfasst, die imstande ist, den Abstand zwischen Körperteil und Erfassungseinheit auf Grundlage des auf den Körperteil projizierten Maskenmusters zu ermitteln und zu beurteilen, ob dieser zu gering, zu gross oder optimal ist.6. Biometric authentication system according to one of the preceding claims, wherein the biometric authentication system further comprises an optical guide unit which is able to determine the distance between the body part and the detection unit on the basis of the mask pattern projected onto the body part and to assess whether this is too small is large or optimal. 7. Biometrisches Authentifizierungssystem nach einem der vorstehenden Ansprüche, wobei die Erfassungseinheit eine Mikrolinsenanordnung zur Erlangung von Tiefeninformationen des Körperteils umfasst.7. Biometric authentication system according to one of the preceding claims, wherein the detection unit comprises a microlens arrangement for obtaining depth information of the body part. 8. Biometrisches Authentifizierungsverfahren zum Erfassen biometrischer Kenndaten von einem Körperteil einer Person und zum Vergleichen der erfassten biometrischen Kenndaten mit von dem Körperteil bereits erfassten registrierten biometrischen Kenndaten zum Authentifizieren der Person, umfassend die Schritte: Beleuchten des Körperteils unter Verwendung einer Beleuchtungseinheit (110), die mit mindestens einer Mustermaske (112) versehen ist, um ein Maskenmuster auf den Körperteil zu projizieren; Erfassen eines Bildes des beleuchteten Körperteils, welches das projizierte Maskenmuster umfasst, unter Verwendung einer Bilderfassungseinheit (114); Extrahieren der biometrischen Kenndaten von dem durch die Erfassungseinheit (114) erfassten Bild unter Verwendung einer Verarbeitungseinheit (118); Vergleichen der extrahierten biometrischen Daten mit registrierten Kenndaten zur Authentifizierung der Person unter Verwendung einer Authentifizierungseinheit (120).8. Biometric authentication method for capturing biometric identification data from a body part of a person and for comparing the captured biometric identification data with registered biometric identification data already captured from the body part for authenticating the person, comprising the steps of: illuminating the body part using a lighting unit (110) which is provided with at least one pattern mask (112) for projecting a mask pattern onto the body part; Capturing an image of the illuminated body part comprising the projected mask pattern using an image capturing unit (114); Extracting the biometric identification data from the image captured by the capture unit (114) using a processing unit (118); Comparing the extracted biometric data with registered identification data for authenticating the person using an authentication unit (120). 9. Biometrisches Authentifizierungsverfahren nach Anspruch 8, wobei die Mustermaske ein regelmäßiges Muster aus Vielecken, vorzugsweise Dreiecken, Vierecken, Quadraten, Fünfecken oder Sechsecken, aufweist und dazu verwendet wird, den Abstand zwischen Körperteil und Erfassungseinheit zu ermitteln und zu beurteilen, ob dieser zu gering, zu gross oder optimal ist.9. Biometric authentication method according to claim 8, wherein the pattern mask has a regular pattern of polygons, preferably triangles, squares, squares, pentagons or hexagons and is used to determine the distance between the body part and the detection unit and to assess whether it is too small , too big or optimal. 10. Biometrisches Authentifizierungsverfahren nach einem der Ansprüche 8 bis 9, wobei das Maskenmuster zur Führung des Körperteils verwendet wird, um einen Abstand zwischen Körperteil und Erfassungseinheit zu ermitteln und zu beurteilen, ob dieser zu gering, zu gross oder optimal ist.10. Biometric authentication method according to one of claims 8 to 9, wherein the mask pattern is used to guide the body part in order to determine a distance between body part and detection unit and to assess whether this is too small, too large or optimal. 11. Biometrisches Authentifizierungsverfahren nach Anspruch 8 bis 10, wobei die Beleuchtungseinheit den Körperteil mit sichtbaren Licht und NIR-Licht beleuchtet, um kombinierte Bilder zu erhalten, welche Strukturen des Körperteils, die unter sichtbaren Licht beziehungsweise ter NIR-Licht erfassbar sind, und das Maskenmuster aufweisen.11. Biometric authentication method according to claim 8 to 10, wherein the lighting unit illuminates the body part with visible light and NIR light in order to obtain combined images, which structures of the body part which can be detected under visible light or the NIR light, and the mask pattern exhibit. 12. Biometrisches Authentifizierungsverfahren nach Anspruch 11, wobei das Maskenmuster zum Extrahieren der biometrischen Kenndaten verwendet wird.12. The biometric authentication method according to claim 11, wherein the mask pattern is used to extract the biometric identification data. 13. Biometrische Authentifizierungsvorrichtung zum Erfassen von Bildern zur Ausführung des Verfahrens gemäß einem der Ansprüche 8 bis 12, die Vorrichtung umfassend eine Beleuchtungseinheit (110) zum Beleuchten des Körperteils; eine Bilderfassungseinheit (114) zum Erfassen eines Bilds des beleuchteten Körperteils; dadurch gekennzeichnet dass die Beleuchtungseinheit (110) mit mindestens einer Mustermaske (112) versehen ist, um ein Maskenmuster (701) auf den Körperteil zu projizieren, sodass das erfasste Bild das projizierte Maskenmuster umfasst.13. Biometric authentication device for capturing images for performing the method according to one of claims 8 to 12, the device comprising a lighting unit (110) for illuminating the body part; an image capturing unit (114) for capturing an image of the illuminated body part; characterized in that the lighting unit (110) is provided with at least one pattern mask (112) in order to project a mask pattern (701) onto the body part so that the captured image includes the projected mask pattern. 14. Biometrische Authentifizierungsvorrichtung nach Anspruch 13, die Vorrichtung ferner umfassend Mittel zum Verbinden der Vorrichtung mit einer externen Verarbeitungseinheit (118) zum Extrahieren der biometrischen Kenndaten vom durch die Bilderfassungseinheit (114) erfassten Bild und Mittel zum Verbinden der Vorrichtung mit einer Authentifizierungseinheit (120) zum Vergleichen der extrahierten biometrischen Daten mit registrierten Kenndaten zum Authentifizieren der Person.14. The biometric authentication device according to claim 13, the device further comprising means for connecting the device to an external processing unit (118) for extracting the biometric identification data from the image captured by the image capturing unit (114) and means for connecting the device to an authentication unit (120) for comparing the extracted biometric data with registered identification data for authenticating the person.
CH01404/16A 2016-10-19 2016-10-19 System and method for contactless biometric authentication. CH713061B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CH01404/16A CH713061B1 (en) 2016-10-19 2016-10-19 System and method for contactless biometric authentication.
PCT/EP2017/076685 WO2018073335A1 (en) 2016-10-19 2017-10-19 System and method for contactless biometric authentication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CH01404/16A CH713061B1 (en) 2016-10-19 2016-10-19 System and method for contactless biometric authentication.

Publications (2)

Publication Number Publication Date
CH713061A1 CH713061A1 (en) 2018-04-30
CH713061B1 true CH713061B1 (en) 2021-03-31

Family

ID=58158734

Family Applications (1)

Application Number Title Priority Date Filing Date
CH01404/16A CH713061B1 (en) 2016-10-19 2016-10-19 System and method for contactless biometric authentication.

Country Status (2)

Country Link
CH (1) CH713061B1 (en)
WO (1) WO2018073335A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3850534A4 (en) 2018-09-12 2022-04-27 Fingerprint Cards Anacatum IP AB Reconstruction of fingerprint subimages
WO2020136883A1 (en) * 2018-12-28 2020-07-02 株式会社ジェーシービー Authentication system
CN109447052A (en) * 2019-01-09 2019-03-08 东浓智能科技(上海)有限公司 A kind of vena metacarpea identification device being accurately positioned palm position and its implementation
CN111310699A (en) * 2020-02-27 2020-06-19 浙江光珀智能科技有限公司 Palm feature-based identity authentication method and system
DE102021111422A1 (en) 2021-05-04 2022-11-10 IDloop GmbH Device and method for contactless recording of fingerprints and handprints
DE102022115810A1 (en) * 2022-06-24 2024-01-04 IDloop GmbH DEVICE FOR CONTACTLESS RECORDING OF BIOMETRIC DATA FROM SKIN AREAS

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092616A (en) 2000-09-20 2002-03-29 Hitachi Ltd Individual authentication device
JP4387643B2 (en) 2002-07-31 2009-12-16 富士通株式会社 Processing device with personal recognition function
JP4546168B2 (en) 2004-06-28 2010-09-15 富士通株式会社 Biometric authentication system registration method, biometric authentication system and program thereof
DE602005016339D1 (en) 2004-06-28 2009-10-15 Fujitsu Ltd Biometric authentication system and registration procedure
US7609865B2 (en) * 2004-11-08 2009-10-27 Biomagnetics 3D fingerprint and palm print data model and capture devices using multi structured lights and cameras
US20080107309A1 (en) * 2006-11-03 2008-05-08 Cerni Consulting, Llc Method and apparatus for biometric identification
JP4306744B2 (en) * 2007-03-01 2009-08-05 ソニー株式会社 Biometric authentication device
EP2244224B1 (en) 2008-02-15 2013-10-30 Fujitsu Limited Photographic device for biometrics and biometric apparatus
CN201302723Y (en) * 2008-10-29 2009-09-02 北京市新技术应用研究所 Online multi-spectral palm image collecting instrument
DE202011109909U1 (en) * 2010-09-28 2012-06-15 Icognize Gmbh Device for non-contact detection of biometric features
JP5949912B2 (en) * 2012-05-22 2016-07-13 富士通株式会社 Biological information processing apparatus, biological information processing method, and program
US9223955B2 (en) 2014-01-30 2015-12-29 Microsoft Corporation User-authentication gestures
US9355236B1 (en) 2014-04-03 2016-05-31 Fuji Xerox Co., Ltd. System and method for biometric user authentication using 3D in-air hand gestures

Also Published As

Publication number Publication date
CH713061A1 (en) 2018-04-30
WO2018073335A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
CH713061B1 (en) System and method for contactless biometric authentication.
DE60220494T2 (en) Iris recognition method and system using the same
DE102012108838A1 (en) Method and device for recording fingerprints based on fingerprint scanners in reliably high quality
DE19609455C2 (en) Face image processing system
EP1073988B1 (en) System for contactless recognition of hand and finger lines
DE602004004469T2 (en) Arrangement and method for personal identification
DE69724713T2 (en) Animal body identification system
DE60313941T2 (en) Person detection by face detection and motion detection
DE60133788T2 (en) An image processing apparatus and method for determining features of faces
DE19847261A1 (en) Process and system for person recognition with model-based face finding
DE112009000949T5 (en) Detection of a free driving path for a vehicle
EP3245943A1 (en) Method for the contactless determination and processing of sleep movement data
DE112011105435B4 (en) eyelid detection device
DE112011105445B4 (en) Red-eye detection device
DE10100615A1 (en) Hand recognition with position determination
DE112016006913T5 (en) Image processing apparatus, operating method of the image processing apparatus, and operation program of the image processing apparatus
EP1627343B1 (en) Method and device for the recognition of biometric data following recording from at least two directions
DE112017005263T5 (en) REAL-TIME ACTIVITY MONITORING USING THERMO-TAGS
DE19516662A1 (en) Identification method for three-dimensional objects
EP3214602B1 (en) Method for three-dimensional recording of objects
EP3142068B1 (en) Method for three-dimensional recording of objects
DE102017222675A1 (en) Person recognition by means of a camera
EP2972071B1 (en) Device for measuring a slaughter animal body object
DE102010054168B4 (en) Method, device and program for determining the torsional component of the eye position
EP2355007A2 (en) 3D object measuring system and method

Legal Events

Date Code Title Description
PUE Assignment

Owner name: SMART SECURE ID AG, CH

Free format text: FORMER OWNER: SMART SECURE ID IN SWEDEN AB, SE

PFA Name/firm changed

Owner name: SMART SECURE ID AG, CH

Free format text: FORMER OWNER: SMART SECURE ID AG, CH

NV New agent

Representative=s name: PRINS INTELLECTUAL PROPERTY AG, CH