DE102016009619A1 - Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data - Google Patents

Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data Download PDF

Info

Publication number
DE102016009619A1
DE102016009619A1 DE102016009619.5A DE102016009619A DE102016009619A1 DE 102016009619 A1 DE102016009619 A1 DE 102016009619A1 DE 102016009619 A DE102016009619 A DE 102016009619A DE 102016009619 A1 DE102016009619 A1 DE 102016009619A1
Authority
DE
Germany
Prior art keywords
person
camera
image
specific data
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016009619.5A
Other languages
German (de)
Inventor
wird später genannt werden Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lueth & Duemchen Automatisierungsprojekt GmbH
Original Assignee
Lueth & Duemchen Automatisierungsprojekt GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lueth & Duemchen Automatisierungsprojekt GmbH filed Critical Lueth & Duemchen Automatisierungsprojekt GmbH
Priority to DE102016009619.5A priority Critical patent/DE102016009619A1/en
Publication of DE102016009619A1 publication Critical patent/DE102016009619A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Abstract

Für eine ”Vorrichtung zur Erfassung personenspezifischer Daten” wird vorgeschlagen, Betrugsversuche mit flachen Abbildungen wie ausgedruckten Bildern oder abgespielten Videos dadurch zu verhindern oder wenigstens zu erschweren, dass die fehlende räumliche Ausdehnung von ausgedruckten Bildern oder Videos als ein Ausschlusskriterium angewendet wird. Dazu wird das Prinzip der ”unechten” Stereoskopie angewendet. Die überprüfung, ob das Kameraobjekt eine räumliche Ausdehnung aufweist, ist auf die im Folgenden beschriebene Weise vorzunehmen: 1. Die Kamera (6) wird in der für die Aufnahme des Gesichtsbildes optimalen Höhe positioniert. 2. Mit der Kamera (6) wird ein erstes Bild (13) von der Person (1) aufgenommen. 3. Die Position der Kamera (6) wird in vertikaler Richtung um einen festgesetzten Betrag verändert. Es werden 6 cm als Maß für die Höhenänderung (16) der Kamera (6) vorgeschlagen. Das entspricht etwa dem Augenabstand einer Person (1). 4. Mit der Kamera (6) wird ein zweites Bild (14) von der Person (1) aufgenommen. 5. Es wird eine Korrespondenzanalyse in vertikaler Richtung durchgeführt, die das erste Bild (13) mit dem zweiten Bild (14) vergleicht. Durch die Korrespondenzanalyse werden Disparitäten (20) ermittelt und in einer Ergebnismatrix gespeichert. Dabei ist jede Position der Matrix einem Pixel des ersten Bildes (13) oder zweiten Bildes (14) zugeordnet. 5. Aus der Ergebnismatrix wird die Entscheidung abgeleitet, ob das vor der Kamera (6) befindliche Objekt, von dem die Bilder aufgenommen wurden, eine räumliche Ausdehnung hat. Dazu wird die Ergebnismatrix mit mathematischen Methoden bewertet.For a "personal data collection device", it is proposed to prevent or at least complicate fraud with flat images, such as printed images or video, by using the lack of spatial extent of printed images or videos as an exclusion criterion. For this purpose, the principle of "spurious" stereoscopy is used. Checking whether the camera object has a spatial extension is carried out in the manner described below: 1. The camera (6) is positioned at the optimum height for taking the facial image. 2. A first image (13) of the person (1) is taken with the camera (6). 3. The position of the camera (6) is changed in the vertical direction by a set amount. There are proposed 6 cm as a measure of the change in height (16) of the camera (6). This corresponds approximately to the distance between the eyes of a person (1). 4. With the camera (6), a second image (14) of the person (1) is recorded. 5. A correspondence analysis in the vertical direction is performed, comparing the first image (13) with the second image (14). The correspondence analysis determines disparities (20) and stores them in a result matrix. Each position of the matrix is associated with a pixel of the first image (13) or second image (14). 5. From the result matrix, the decision is made as to whether the object in front of the camera (6) from which the images were taken has a spatial extent. For this purpose, the result matrix is evaluated using mathematical methods.

Description

Technisches GebietTechnical area

Die Erfindung betrifft ein Verfahren zum Nachweis der räumlichen Ausdehnung eines Kameraobjektes als Bestandteil einer Lebenderkennung für Vorrichtungen zur Erfassung personenspezifischer Daten.The invention relates to a method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data.

Bekannter Stand der TechnikKnown state of the art

Diese Erfindung bezieht sich beispielsweise auf die ”Vorrichtung zur Erfassung personenspezifischer Daten”, die in der Offenlegungsschrift DE 10 2013 203 433 A1 beschrieben ist. Die dort beschriebene Vorrichtung dient der automatischen Erfassung personenspezifischer Daten, insbesondere auch des Gesichtsbildes der Person (1). Sie enthält eine Kamera (6), eine Beleuchtungseinrichtung (7), einen vor der Kamera (6) angeordneten semitransparenten Spiegel (8) und eine Steuerungseinheit (2) zur Durchführung der Bilderfassung. Sie kann weiterhin eine Antriebseinheit (10) enthalten, mit der die Kamera (6) in vertikaler Richtung positioniert werden kann. Mit der Antriebseinheit (10) wird die Kamera (6) so positioniert, dass sie sich in einer optimalen Höhe für eine Aufnahme des Gesichtsbildes befindet.This invention relates, for example, to the "Personal Data Collection Device" described in the Laid-Open Publication DE 10 2013 203 433 A1 is described. The device described there serves for the automatic acquisition of person-specific data, in particular also the facial image of the person ( 1 ). It contains a camera ( 6 ), a lighting device ( 7 ), one in front of the camera ( 6 ) arranged semitransparent mirror ( 8th ) and a control unit ( 2 ) for performing image acquisition. It can also be a drive unit ( 10 ) with which the camera ( 6 ) can be positioned in the vertical direction. With the drive unit ( 10 ) the camera ( 6 ) is positioned so that it is at an optimum height for taking a picture of the face.

Wesentliche Aussagen zum Stand der Technik der Lebenderkennung bei Aufnahmen von Gesichtsbildern mit Kameras kann dem Schreiben ”Überwindungsszenarien für biometrische Systeme” von Stefan Hein und Markus Mahrla, vom 18. Oktober 2004 , entnommen werden. Es seien hier einige Textstellen zitiert.Significant statements on the state of the art of living detection when taking pictures of facial images with cameras can write "Overcoming Scenarios for Biometric Systems" by Stefan Hein and Markus Mahrla, 18 October 2004 , are taken. Here are some passages cited.

”Unter Lebenderkennung wird die Überprüfung verstanden, ob die jeweiligen biometrischen Merkmale von einem lebenden Organismus und nicht von einer künstlichen Fälschung erzeugt wurden.” "Living detection is understood as the verification of whether the biometric features were generated by a living organism rather than an artificial counterfeit."

”Beispielsweise macht die zunehmende Verbreitung von teilweise auch immer kleiner werdenden Digitalkameras (Bsp. Handykamera) es heutzutage zum Kinderspiel, mehrere Fotos von einer Person unbemerkt aufzunehmen und für die Zwecke einer Verifikation mittels Gesichtserkennung zu missbrauchen.” ”Aktuelle Verfahren zur Lebenderkennung machen sich gewisse Eigenschaften der Haut, sowie Bewegungen beispielsweise in Gesicht und Auge zu nutze. Zu den typischen Hauteigenschaften gehören Farbe, elektrische Leitfähigkeit, Reflexionsverhalten und Wärmeabstrahlung. Die Überprüfung auf elektrische Leitfähigkeit lässt sich gut in Fingerabdrucksensoren oder Handgeometriesscannern integrieren; Hautreflexion und Farbe sind auch ohne weiteres bei Gesichtserkennungssystemen realisierbar. Die Temperaturunterschiede der Haut können mit Hilfe einfacher Infrarotabtastung analysiert werden. Die Tatsache, dass wir unser biometrisches Merkmal nie in vollständige Ruhe versetzen können, macht es der Lebenderkennung möglich, kleinste Bewegungen zu registrieren, die auf einen lebenden Organismus schließen lassen. So können Bewegungen von Lippen, Augenlidern und Kopf hilfreich beim Unterscheiden von lebenden Personen und Gesichtsattrappen sein. Bei der Iriserkennung ist bekannt, dass sich durch Helligkeitseinfluss die Pupille erweitert. Dieser Effekt und andere Eigenschaften wie die Wölbung der Augen sind hilfreiche Indizien, um künstliche Augen von echten zu differenzieren.”"For example, the increasing prevalence of digital cameras, some of which are becoming ever smaller (eg a mobile phone camera) makes it child's play to take several photos unnoticed by a person and misuse them for the purposes of verification by means of facial recognition." "Current methods of detecting a person's life are certain Properties of the skin, as well as movements, for example, in the face and eye to use. Typical skin properties include color, electrical conductivity, reflection behavior and heat radiation. The electrical conductivity check integrates well with fingerprint or hand geometry scanners; Skin reflection and color are also easily implemented in facial recognition systems. The temperature differences of the skin can be analyzed by simple infrared scanning. The fact that we can never put our biometric feature to complete rest makes it possible for live recognition to register minute movements that suggest a living organism. Thus, movements of the lips, eyelids and head can be helpful in distinguishing living persons and facial dummies. In the case of iris recognition, it is known that the pupil widens due to the influence of brightness. This effect and other features such as the curvature of the eyes are helpful indicators to differentiate artificial eyes from real ones. "

Zur Bewertung der Wirksamkeit einer Lebenderkennung kann der Internetseite ”http://www.secupedia.info/wiki/Lebenderkennung” (28.07.2016) die folgenden Aussagen entnommen werden: ”Für die Bewertung der Systemüberwindungssicherheit bei den unterschiedlichen Verfahren zur Fälschungsabwehr ist nicht allein die technische Möglichkeit zur Überwindung des jeweiligen biometrischen Verfahrens zu berücksichtigen, sondern auch der dafür technisch und zeitlich erforderliche Aufwand, der eine Aussage über die Wahrscheinlichkeit einer Überwindung ermöglicht. Zudem ist immer eine Sicherheitsanalyse des jeweiligen Gesamtsystems erforderlich. Grundsätzlich wird durch Lebenderkennung die Überwindungssicherheit eines biometrischen Zugangssystems erhöht.” To assess the effectiveness of a living detection, the Internet site "Http://www.secupedia.info/wiki/Lenderenderkennung" (28.07.2016) The following statements are to be taken: "For the evaluation of the system overcoming security with the different methods for counterfeit defense not only the technical possibility for overcoming the respective biometric procedure is to be considered, but also the technically and temporally necessary expenditure, which a statement about the probability of a Overcoming possible. In addition, a safety analysis of the respective overall system is always required. Basically, life detection increases the overcoming security of a biometric access system. "

Es sind Stereokameras bekannt, die 2 Kameras (6) enthalten, deren optische Achsen (15) parallel verlaufen und die etwa in einem Abstand zueinander angeordnet sind, der dem des menschlichen Augenpaares entspricht. Mit diesen beiden Kameras (6) wird gleichzeitig je ein Bild aufgenommen. Beide Bilder zusammen enthalten die Information über die räumliche Ausdehnung des Kameraobjektes.There are stereo cameras known that 2 cameras ( 6 ) whose optical axes ( 15 ) run parallel and which are arranged approximately at a distance from each other, which corresponds to that of the human eye pair. With these two cameras ( 6 ) a picture is taken simultaneously. Both images together contain the information about the spatial extent of the camera object.

Schon vor der Erfindung der Stereokameras war die sogenannte ”unechte” Stereoskopie bekannt, bei der mit einer Kamera (6) 2 Bilder von unterschiedlichen Positionen mit etwa parallelem Blickwinkel aufgenommen wurden.Even before the invention of the stereo cameras, the so-called "fake" stereoscopy was known in which with a camera ( 6 ) 2 pictures taken from different positions with approximately parallel viewing angles.

Bekannt ist auch die Erstellung eines 3D-Bildes mittels Projektion von erkennbaren Mustern, beispielsweise farbigen Linien, in das Gesicht der abzubildenden Person (1). Dieses Verfahren wird auch als Streifenlichtscanning bezeichnet. Damit können sehr genaue dreidimensionale Informationen ermittelt werden.Also known is the creation of a 3D image by projection of recognizable patterns, such as colored lines, in the face of the person to be imaged ( 1 ). This method is also called strip light scanning. This allows very accurate three-dimensional information to be determined.

Es ist Stand der Technik, dass Systeme, die mit nur einer Kamera (6) Bilder erfassen, keinen Nachweis der räumlichen Ausdehnung durchführen.It is state of the art that systems using only one camera ( 6 ) Capture images, no proof of spatial extent perform.

Das der Erfindung zugrunde liegende Problem The problem underlying the invention

Die Aufnahme von Personendaten, inklusive Gesichtsbilder, wird heute oft automatisiert vorgenommen. Das gilt insbesondere auch für die ”Vorrichtung zur Erfassung personenspezifischer Daten”, die in der Offenlegungsschrift DE 10 2013 203 433 A1 beschrieben ist. Da durch den Einsatz derartiger Vorrichtungen keine Person (1) mehr für die Bedienung der Vorrichtung zur Bildaufnahme notwendig ist, wird dieser Vorgang auch durch niemanden überwacht. Es können also auch Betrugsversuche durchgeführt werden, ohne dass das von einer beaufsichtigenden Person (1) bemerkt wird. Solche Betrugsversuche sind beispielsweise das Vorhalten einer flachen Abbildung, wie beispielsweise einer auf Papier ausgedruckten Fotografie einer Person (1) oder eines Flachbildschirms, auf dem ein Video von einer Person (1) abgespielt wird, vor die Kamera (6).The inclusion of personal data, including facial images, is often automated today. This also applies in particular to the "device for collecting person-specific data", which is disclosed in the published patent application DE 10 2013 203 433 A1 is described. Since no persons are involved in the use of such devices ( 1 ) is more necessary for the operation of the device for image acquisition, this process is also monitored by anyone. Fraud attempts can therefore also be carried out without the assistance of a supervising person ( 1 ) is noticed. Such fraud attempts include, for example, the provision of a flat image, such as a photograph of a person printed on paper ( 1 ) or a flat screen displaying a video of a person ( 1 ) is played in front of the camera ( 6 ).

Die ErfindungThe invention

Es wird vorgeschlagen, die Betrugsversuche mit ausgedruckten Bildern oder abgespielten Videos dadurch zu verhindern oder wenigstens zu erschweren, dass die fehlende räumliche Ausdehnung von ausgedruckten Bildern oder Videos als ein Ausschlusskriterium angewendet wird. Dazu wird das Prinzip der ”unechten” Stereoskopie angewendet.It is proposed to prevent, or at least to complicate, fraudulent attempts at printed images or video clips by using the lack of spatial extent of printed images or videos as an exclusion criterion. For this purpose, the principle of "spurious" stereoscopy is used.

Für eine ”Vorrichtung zur Erfassung personenspezifischer Daten”, die in der Offenlegungsschrift DE 10 2013 203 433 A1 beschrieben ist, die automatisch Bilder von Personen (1) aufnimmt, wobei die Position der Kamera (6) in vertikaler Richtung verschoben werden kann, wird vorgeschlagen, die Überprüfung, ob das Kameraobjekt eine räumliche Ausdehnung aufweist, auf die im Folgenden beschriebene Weise vorzunehmen:

  • 1. Die Kamera (6) wird in der für die Aufnahme des Gesichtsbildes optimalen Höhe positioniert. Dieser Vorgang wird gemäß Anspruch 9 der Offenlegungsschrift DE 10 2013 203 433 A1 durchgeführt.
  • 2. Mit der Kamera (6) wird ein erstes Bild (13) von der Person (1) auf genommen.
  • 3. Die Position der Kamera (6) wird in vertikaler Richtung um einen festgesetzten Betrag verändert. Es werden 6 cm als Maß für die Höhenänderung (16) der Kamera (6) vorgeschlagen. Das entspricht etwa dem Augenabstand einer Person (1).
  • 4. Mit der Kamera (6) wird ein zweites Bild (14) von der Person (1) aufgenommen.
  • 5. Es wird eine Korrespondenzanalyse in vertikaler Richtung durchgeführt, die das erste Bild (13) mit dem zweiten Bild (14) vergleicht. Durch die Korrespondenzanalyse werden Disparitäten (20) ermittelt und in einer Ergebnismatrix speichert. Dabei ist jede Position der Matrix einem Pixel des ersten Bildes (13) oder zweiten Bildes (14) zugeordnet.
  • 5. Aus der Ergebnismatrix wird die Entscheidung abgeleitet, ob das vor der Kamera (6) befindliche Objekt, von dem die Bilder aufgenommen wurden, eine räumliche Ausdehnung hat. Dazu wird die Ergebnismatrix mit mathematischen Methoden bewertet.
For a "personal data collection device" described in the Laid-Open Publication DE 10 2013 203 433 A1 is described, which automatically takes pictures of people ( 1 ), whereby the position of the camera ( 6 ) can be shifted in the vertical direction, it is proposed to make the check whether the camera object has a spatial extent in the manner described below:
  • 1. The camera ( 6 ) is positioned at the optimum height for taking the facial image. This process is according to claim 9 of the published patent application DE 10 2013 203 433 A1 carried out.
  • 2. With the camera ( 6 ), a first picture ( 13 ) of the person ( 1 ).
  • 3. The position of the camera ( 6 ) is changed in the vertical direction by a set amount. It will be 6 cm as a measure of the height change ( 16 ) the camera ( 6 ) proposed. This corresponds approximately to the eye relief of a person ( 1 ).
  • 4. With the camera ( 6 ), a second picture ( 14 ) of the person ( 1 ).
  • 5. A correspondence analysis is carried out in the vertical direction, showing the first image ( 13 ) with the second image ( 14 ) compares. The correspondence analysis analyzes disparities ( 20 ) and stored in a result matrix. Each position of the matrix is a pixel of the first image ( 13 ) or second image ( 14 ).
  • 5. From the results matrix, the decision is made whether this is in front of the camera ( 6 ), from which the images were taken, has a spatial extent. For this purpose, the result matrix is evaluated using mathematical methods.

Durch die erfindungsgemäße Anwendung des Verfahrens weist die Vorrichtung zur Erfassung des Gesichtsbildes die Eigenschaften der bevorzugten Standard-Stereogeometrie auf. Die Standardstereogeometrie wird üblicherweise auf zwei Kameras (6) angewendet, die einen horizontalen Abstand zueinander aufweisen. Sie hat die folgenden Eigenschaften:

  • – Die Bildebenen sind identisch, sie entsprechen also lediglich zwei unterschiedlichen Ausschnitten derselben Ebene.
  • – Die Zeilen der beiden Stereobilder liegen parallel zur Verbindungsgeraden zwischen den optischen Zentren. Diese Verbindungsgerade wird auch Basislinie genannt.
  • – Die Bildkoordinaten der beiden Kameras (6) werden so definiert, dass zueinander kollineare Bildzeilen der Stereobilder die gleiche Zeilenkoordinate besitzen.
By the application of the method according to the invention, the device for detecting the facial image has the properties of the preferred standard stereo geometry. The standard stereo geometry is usually used on two cameras ( 6 ) applied, which have a horizontal distance from each other. It has the following properties:
  • - The image planes are identical, so they only correspond to two different sections of the same plane.
  • - The lines of the two stereo images are parallel to the connecting line between the optical centers. This connecting line is also called the baseline.
  • - The image coordinates of the two cameras ( 6 ) are defined such that mutually collinear image lines of the stereo images have the same line coordinate.

Die Anwendung der Standardstereogeometrie ist für die Gewinnung von Tiefeninformation von Vorteil, weil sowohl die Korrespondenzanalyse als auch die Triangulation vereinfacht werden.The application of standard stereo geometry is advantageous for obtaining depth information because both correspondence analysis and triangulation are simplified.

Bei den in der Praxis üblichen Stereo-Verfahren zur Gewinnung von Tiefeninformation werden die Kameras (6) mit einem horizontalen Abstand zueinander angeordnet. Dem entsprechend wird auch die Korrespondenzanalyse in horizontaler Richtung durchgeführt.In the usual in practice stereo method for obtaining depth information, the cameras ( 6 ) are arranged at a horizontal distance from each other. Accordingly, the correspondence analysis is carried out in the horizontal direction.

Bei der erfindungsgemäßen Anwendung wird aber die Kameraposition in vertikaler Richtung verändert. Die Stereogeometrie ist also entsprechend zu verändern und weist nun die folgenden Eigenschaften auf:

  • – Die beiden Bildebenen sind ebenfalls identisch, sie entsprechen also lediglich zwei unterschiedlichen Ausschnitten derselben Ebene.
  • – Anstatt der Zeilen liegen die Spalten der beiden Stereobilder parallel zur Basislinie.
  • – Die Bildkoordinaten der beiden Kameras werden so definiert, dass zueinander kollineare Bildspalten (17) der Stereobilder die gleiche Spaltenkoordinate besitzen.
In the application according to the invention, however, the camera position is changed in the vertical direction. The stereo geometry has to be changed accordingly and now has the following properties:
  • - The two image planes are also identical, so they only correspond to two different sections of the same plane.
  • - Instead of the rows, the columns of the two stereo images are parallel to the baseline.
  • The image coordinates of the two cameras are defined in such a way that collinear image columns ( 17 ) of the stereo images have the same column coordinate.

Erfindungsgemäß werden bei der Triangulation die x-Achse und y-Achse vertauscht.According to the x-axis and y-axis are reversed in the triangulation.

Als Korrespondenzanalyse kann beispielsweise das Block-Matching-Verfahren angewendet werden. Durch die Korrespondenzanalyse werden Punkte des ersten Bildes (13) als korrespondierende Punkte (19) im zweiten Bild (14) gefunden. Für jeden korrespondierenden Punkt (19) wird die Disparität (20) als die Pixel-Differenz in vertikaler Richtung bestimmt. Eine lebende Person (1) hat immer eine dreidimensionale Ausdehnung. Abgebildete Bereiche der Person (1), die sich in unterschiedlichem Abstand zur Kamera (6) befinden, beispielsweise die Augen und die Nasenspitze, bewirken bei der Korrespondenzanalyse Punkte mit unterschiedlicher Disparität (20). In Kamerabildern, die von einer ebenen Abbildung aufgenommen wurden, haben alle korrespondierenden Punkte (19) etwa die gleiche Disparität (20), wobei der absolute Wert der Disparität (20) vor allem von der Veränderung der Kameraposition in vertikaler Richtung abhängt. As a correspondence analysis, for example, the block matching method can be used. Through the correspondence analysis, points of the first image ( 13 ) as corresponding points ( 19 ) In the second picture ( 14 ) found. For each corresponding point ( 19 ), the disparity ( 20 ) is determined as the pixel difference in the vertical direction. A living person ( 1 ) always has a three-dimensional extent. Pictured areas of the person ( 1 ), which are at different distances from the camera ( 6 ), for example the eyes and the tip of the nose, cause points with different disparity in the correspondence analysis ( 20 ). In camera images taken from a plane image, all corresponding points ( 19 ) about the same disparity ( 20 ), where the absolute value of the disparity ( 20 ) depends mainly on the change of the camera position in the vertical direction.

Die Ergebnisse eines durchgeführten Block-Matching-Verfahrens hängen wesentlich von der angewendeten Größe des Blockes (18) ab. Mit zunehmender Blockgröße findet das Block-Matching-Verfahren immer weniger korrespondierende Punkte (19), wenn es sich um ein Kameraobjekt mit räumlicher Ausdehnung handelt. Bei Kameraobjekten, die keine räumliche Ausdehnung haben, tritt dieser Effekt in wesentlich schwächerem Maße auf. Um aus der Ergebnismatrix die Entscheidung abzuleiten, ob sich vor der Kamera (6) ein dreidimensionaler Körper befindet oder nicht, kann die Anzahl der korrespondierenden Punkte (19) gezählt werden. Wenn die Anzahl der korrespondierenden Punkte (19) einen Schwellwert überschreitet, wurden durch die Kamera (6) Bilder von einer flachen Abbildung und nicht von einer Person (1) aufgenommen. Die Lebenderkennung ist dann fehlgeschlagen. Wenn eine Auswertung mit dieser Variante erfolgt, dann muss das Block-Matching-Verfahren mit großen Blöcken (18) durchgeführt werden. Ein sinnvolles Maß für die Blockgröße kann beispielsweise empirisch ermittelt werden.The results of a performed block-matching procedure essentially depend on the size of the block used ( 18 ). As the block size increases, the block matching method finds fewer and fewer corresponding points ( 19 ), if it is a camera object with spatial extent. For camera objects that have no spatial extent, this effect occurs to a much lesser extent. To derive from the result matrix the decision whether in front of the camera ( 6 ) is a three-dimensional body or not, the number of corresponding points ( 19 ) are counted. If the number of corresponding points ( 19 ) exceeds a threshold, the camera ( 6 ) Pictures of a flat illustration and not of a person ( 1 ). The live detection then failed. If an evaluation is done with this variant, then the block matching procedure with large blocks ( 18 ) be performed. A meaningful measure of the block size can be determined empirically, for example.

Für eine weitere Variante der Auswertung muss das Block-Matching-Verfahren so eingestellt werden, dass es die Disparitäten (20) korrespondierender Punkte (19) in einem weiten Bereich optimal ermittelt. Von der Ergebnismatrix wird dann die Dichtefunktion aller Disparitäten (20) ermittelt. Die Dichtefunktion wird mit einer Dichtefunktion von Disparitäten (20) verglichen, die zuvor mit einer natürlichen Person ermittelt wurde. Wenn beide Funktionen korrelieren, dann gilt die Lebenderkennung als bestanden.For another variant of the evaluation, the block matching method has to be set so as to reduce the disparities ( 20 ) corresponding points ( 19 ) is optimally determined over a wide range. The result matrix then becomes the density function of all disparities ( 20 ). The density function uses a density function of disparities ( 20 ) previously determined with a natural person. If both functions correlate, then the live recognition is passed.

Als weitere technische Ausgestaltung kann eine merkmalbasierte Korrespondenzanalyse angewendet werden. Dazu werden im ersten Bild (13) und im zweiten Bild (14) jeweils markante Punkte durch einen dafür geeigneten Algorithmus der Bildverarbeitung extrahiert. Beispielsweise können der SIFT-Algorithmus oder der SURF-Algorithmus für die Ermittlung von markanten Punkten eingesetzt werden. Sowohl der SIFT-Algorithmus als auch der SURF-Algorithmus ermitteln zu jedem ermittelten markanten Punkt einen Deskriptor. Dieser Deskriptor ist jeweils ein Datensatz, in dem die kennzeichnenden Eigenschaften des jeweiligen markanten Punktes gespeichert sind. In einem weiteren Schritt werden korrespondierende markante Punkte (19) und die zugehörigen Disparitäten (20) in vertikaler Richtung aus den beiden Bildern ermittelt. Dazu werden die Deskriptoren der markanten Punkte aus dem ersten Bild (13) mit den Deskriptoren der markanten Punkte aus dem zweiten Bild (14) verglichen. Für den Vergleich zweier Deskriptoren wird eine Distanzfunktion eingeführt. Für den SIFT-Algorithmus und den SURF-Algorithmus können die Vektordistanz oder die Ratiodistanz benutzt werden. Die konkreten mathematischen Grundlagen dazu sind in der Literatur beschrieben. Markante Punkte aus dem ersten Bild (13) und dem zweiten Bild (14) sind dann korrespondierend, wenn der Vergleich von deren Deskriptoren die größte Ähnlichkeit ergibt. Von diesen korrespondierenden Punkten werden dann die Disparitäten (20) ermittelt und in einer Ergebnismatrix gespeichert. Die Bewertung erfolgt hier ebenfalls dadurch, dass von der Ergebnismatrix die Dichtefunktion aller Disparitäten (20) ermittelt wird. Die Dichtefunktion wird mit einer Dichtefunktion verglichen, die zuvor mit einer natürlichen Person (1) ermittelt wurde. Wenn beide Funktionen korrelieren, dann gilt die Lebenderkennung als bestanden.As a further technical embodiment, a feature-based correspondence analysis can be used. In the first picture ( 13 ) and in the second picture ( 14 ) each prominent points extracted by a suitable algorithm of image processing. For example, the SIFT algorithm or the SURF algorithm can be used for the determination of prominent points. Both the SIFT algorithm and the SURF algorithm determine a descriptor for each distinct landmark. This descriptor is in each case a data record in which the characterizing properties of the respective prominent point are stored. In a further step, corresponding prominent points ( 19 ) and the associated disparities ( 20 ) in the vertical direction from the two images. For this purpose, the descriptors of the prominent points from the first image ( 13 ) with the descriptors of the prominent points from the second picture ( 14 ) compared. For the comparison of two descriptors a distance function is introduced. For the SIFT algorithm and the SURF algorithm, the vector distance or the ratio distance can be used. The concrete mathematical foundations are described in the literature. Striking points from the first picture ( 13 ) and the second image ( 14 ) are corresponding if the comparison of their descriptors gives the greatest similarity. From these corresponding points then the disparities ( 20 ) and stored in a result matrix. The evaluation also takes place here in that the density matrix of all disparities ( 20 ) is determined. The density function is compared to a density function that was previously done with a natural person ( 1 ) was determined. If both functions correlate, then the live recognition is passed.

In einer weiterführenden technischen Ausgestaltung werden von der Person (1) nacheinander mehrere Bilder aufgenommen, wobei die Beleuchtung jeweils aus einer anderen Richtung erfolgt. Die jeweils unterschiedliche Richtung der Beleuchtung bewirkt die Entstehung charakteristischer Schatten aufgrund der dreidimensionalen Ausdehnung der aufzunehmenden Person (1). Die charakteristischen Schatten können durch Algorithmen der Bildverarbeitung in den aufgenommenen Bildern erkannt werden. Wenn die Erkennung der charakteristischen Schatten erfolgreich durchgeführt werden kann, gilt die Lebenderkennung als bestanden.In a further technical embodiment, the person ( 1 ) successively taken multiple images, the illumination is in each case from a different direction. The respective different direction of the illumination causes the formation of characteristic shadows due to the three-dimensional extent of the person to be photographed ( 1 ). The characteristic shadows can be recognized by image processing algorithms in the recorded images. If the recognition of the characteristic shadows can be successfully performed, the live recognition is passed.

In einer weiterführenden technischen Ausführung wird mittels Streifenlichtscanning ein dreidimensionales Modell vom Gesicht der Person (1) erzeugt. Dazu werden in definierten Abständen zu der Kamera (6) Projektoren angeordnet, die ein Lichtmuster auf das Gesicht der aufzunehmenden Person (6) projizieren. Aus dem dreidimensionalen Modell vom Gesicht wird die Verteilung der Koordinaten ermittelt, die zu der optischen Achse (15) der Kamera (6) parallel sind. Weiterhin wird der Korrelationskoeffizient aus der Verteilung dieser Koordinaten und einer Verteilung die als Referenz von mehreren Personen (1) ermittelt wurde ermittelt. Wenn der Korrelationskoeffizient einen Schwellwert überschreitet, gilt die Lebenderkennung als bestanden.In a further technical embodiment, a three-dimensional model of the face of the person is 1 ) generated. For this purpose, at defined distances to the camera ( 6 ) Projectors arranged a light pattern on the face of the person to be photographed ( 6 ) project. The three-dimensional model of the face is used to determine the distribution of the coordinates to the optical axis ( 15 ) the camera ( 6 ) are parallel. Furthermore, the correlation coefficient is calculated from the distribution of these coordinates and a distribution as a reference of several persons ( 1 ) was determined. If the Correlation coefficient exceeds a threshold value, the live detection is passed.

In einer weiterführenden technischen Ausgestaltung kann das dreidimensionale Modell vom Gesicht der aufzunehmen Person (1) mit einem dreidimensionalen Referenzmodell auf Ähnlichkeit geprüft werden. Dazu sind Algorithmen in der Literatur beschrieben.In a further technical embodiment, the three-dimensional model of the person's face ( 1 ) with a three-dimensional reference model for similarity. For this algorithms are described in the literature.

Es wird vorgeschlagen, ein Gerät nach DE 10 2013 203 433 A1 um ein Display (9) zu erweitern, dass direkt über der Kamera (6) in den semitransparenten Spiegel (8) integriert wird. Die Anzeige von Inhalten in diesem Display (9) wird die Aufmerksamkeit der Person (1) auf sich ziehen. Dadurch werden Augenbewegung und Kopfhaltung der Person (1) in günstiger Weise für die Bildaufnahme beeinflusst. Den gleichen Effekt kann mit einer Beleuchtung erreicht werden, die ringförmig um die Kamera (6) angeordnet ist.It is suggested to put a device after DE 10 2013 203 433 A1 around a display ( 9 ) to extend that directly above the camera ( 6 ) in the semitransparent mirror ( 8th ) is integrated. The display of content in this display ( 9 ) the attention of the person ( 1 ) to attract. This will cause eye movement and head posture of the person ( 1 ) are favorably influenced for image acquisition. The same effect can be achieved with a ring-shaped illumination around the camera ( 6 ) is arranged.

Ausführungsbeispielembodiment

Beispielhaft wird eine technische Ausgestaltung der Erfindung erläutert, die auf eine ”Vorrichtung zur Erfassung personenspezifischer Daten” angewendet wird, so wie sie in der Offenlegungsschrift DE 10 2013 203 433 A1 beschrieben ist. Der Offenlegungsschrift DE 10 2013 203 433 A1 kann ab dem Absatz [0086] die Beschreibung eines Ablaufs einer Erfassung der Personendaten entnommen werden. Dort wird beschrieben, wie nach dem Einschalten der ”Vorrichtung zur Erfassung personenspezifischer Daten” das Programm zur Ansteuerung aller Elemente durch die Steuerungseinheit (2) automatisch gestartet wird, wie die Vorrichtung in einen Grundzustand gefahren wird und wie dabei die Kamera (6) auf eine Höhe von 1700 mm positioniert wird. Weiterhin wird dort beschrieben, wie die Aufnahme von Personendaten erfolgt und dabei die Kamera (6) so positioniert wird, dass die Augenposition der im Kamerabild abgebildeten Person (1) in vertikaler Richtung einen vorgegebenen Wert erreicht. Im Absatz [0093] wird dann beschrieben, wie die Kamerabilder eingezogen werden, um sie als Personendaten zu erfassen. Gemäß Offenlegungsschrift DE 10 2013 203 433 A1 ist an dieser Stelle die Erfassung von Kamerabildern abgeschlossen, wobei ausschließlich in einer einzigen, optimalen Kameraposition Bilder eingezogen wurden. Als Ergebnis liegen zunächst 3 Kamerabilder vor, die mit ein und derselben optimalen Kameraposition von der beleuchteten Person (1) aufgenommen wurden und von denen sich die Person (1) eins auswählen kann.By way of example, a technical embodiment of the invention will be explained, which is applied to a "device for collecting personal data", as in the published patent application DE 10 2013 203 433 A1 is described. The published patent DE 10 2013 203 433 A1 For example, from the paragraph [0086], the description of a process of acquiring the personal data may be taken. It describes how, after switching on the "device for recording person-specific data", the program for controlling all elements by the control unit ( 2 ) is started automatically as the device is driven into a ground state and how the camera ( 6 ) is positioned at a height of 1700 mm. Furthermore, it describes how the recording of personal data takes place while the camera ( 6 ) is positioned so that the eye position of the person depicted in the camera image ( 1 ) reaches a predetermined value in the vertical direction. Paragraph [0093] then describes how the camera images are retracted to capture them as personal data. According to published patent DE 10 2013 203 433 A1 At this point, the capture of camera images is completed, with only in a single, optimal camera position images were fed. As a result, there are at first 3 camera images which, with one and the same optimum camera position, are illuminated by the illuminated person ( 1 ) and of which the person ( 1 ) can select one.

Gemäß dieser Erfindung wird der in der Offenlegungsschrift DE 10 2013 203 433 A1 beschriebene Ablauf durch die Prüfung der räumlichen Ausdehnung des Kameraobjektes ergänzt. Dazu wird zunächst vom Programm eines der 3 Kamerabilder der beleuchteten Person (1) als erstes Kamerabild (13) ausgewählt. Danach wird die Kamera (6) durch die Antriebseinheit (10) 6 cm nach oben gefahren. Dann wird die Beleuchtungseinrichtung (7) eingeschaltet und ein Bild als das zweite Kamerabild (14) eingezogen. Das Programm führt jetzt mit dem ersten Bild (13) und mit dem zweiten Bild (14) ein Block-Matching-Verfahren durch und speichert die ermittelten Disparitäten (20) in einer Ergebnismatrix. Die Blockgröße für das Block-Matching-Verfahren wird so groß gewählt, dass nur noch in flachen Kameraobjekten Disparitäten (20) ermittelt werden können. Ein konkreter Wert für die Blockgröße, der diese Eigenschaft erfüllt, wurde vor der Inbetriebnahme durch Versuche ermittelt.According to this invention is in the published patent application DE 10 2013 203 433 A1 described sequence supplemented by the examination of the spatial extent of the camera object. For this purpose, first of the program one of the 3 camera images of the illuminated person ( 1 ) as the first camera image ( 13 ). After that, the camera ( 6 ) by the drive unit ( 10 ) 6 cm upwards. Then the lighting device ( 7 ) and an image as the second camera image ( 14 ) moved in. The program now leads to the first image ( 13 ) and with the second image ( 14 ) performs a block matching procedure and stores the determined disparities ( 20 ) in a result matrix. The block size for the block matching method is chosen so large that only in flat camera objects disparities ( 20 ) can be determined. A concrete value for the block size that satisfies this property was determined prior to commissioning by experiments.

Dann bestimmt das Programm die Anzahl der Disparitäten (20), die durch das Block-Matching-Verfahren ermittelt werden konnten. Wenn die Anzahl der durch das Programm bestimmten Disparitäten (20) einen Schwellwert überschreitet, dann wurde erkannt, dass die Bilder von einem Objekt ohne räumliche Ausdehnung aufgenommen wurden und die Vorrichtung gibt den Satz ”Die aufgenommenen Bilder sind für eine Erfassung nicht zugelassen.” mittels Sprachausgabe durch die Lautsprecher aus.Then the program determines the number of disparities ( 20 ), which could be determined by the block matching method. If the number of disparities determined by the program ( 20 ) exceeds a threshold, then it has been recognized that the images were taken from a non-spatial object and the device outputs the sentence "The captured images are not allowed for capture." by voice output through the speakers.

In einer weiterführenden technischen Ausgestaltung werden in regelmäßiger Folge bereits Bilder aufgenommen, während die Kamera (6) so positioniert wird, dass die Augenposition der im Kamerabild abgebildeten Person (1) in vertikaler Richtung einen vorgegebenen Wert erreicht. Wenn vorgesehene Kameraposition erreicht ist, dann ist das letzte bereits aufgenommene Bild das erste Kamerabild (13). Das als personenspezifische Daten aufgenommene Bild ist das zweite Kamerabild (14). Mit den so aufgenommenen Bildern wird dann die Lebenderkennung erfindungsgemäß durchgeführt.In a further technical embodiment, images are taken in regular sequence, while the camera ( 6 ) is positioned so that the eye position of the person depicted in the camera image ( 1 ) reaches a predetermined value in the vertical direction. If the intended camera position is reached, then the last picture taken is the first camera picture ( 13 ). The image taken as person-specific data is the second camera image ( 14 ). With the pictures thus taken, the live recognition is then carried out according to the invention.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Personperson
22
Steuerungseinheitcontrol unit
33
SpeicherStorage
44
Prozessorprocessor
55
Schnittstelleinterface
66
Kameracamera
77
Beleuchtungseinrichtunglighting device
88th
Semitransparenter SpiegelSemitransparent mirror
99
Displaydisplay
1010
Antriebseinheitdrive unit
1111
EinrichtungFacility
1212
Datenleitungdata line
1313
Erstes BildFirst picture
1414
Zweites BildSecond picture
1515
Optische AchseOptical axis
1616
Höhenänderungaltitude change
1717
Kollineare BildspalteCollinear image column
18 18
Blockblock
1919
Korrespondierender PunktCorresponding point
2020
Disparitätdisparity
2121
Korrespondierender markanter PunktCorresponding distinctive point

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102013203433 A1 [0002, 0011, 0013, 0013, 0026, 0027, 0027, 0027, 0028] DE 102013203433 A1 [0002, 0011, 0013, 0013, 0026, 0027, 0027, 0027, 0028]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • ”Überwindungsszenarien für biometrische Systeme” von Stefan Hein und Markus Mahrla, vom 18. Oktober 2004 [0003] "Overcoming Scenarios for Biometric Systems" by Stefan Hein and Markus Mahrla, October 18, 2004 [0003]
  • ”http://www.secupedia.info/wiki/Lebenderkennung” (28.07.2016) [0006] "Http://www.secupedia.info/wiki/Learning_recognition" (28/07/2016) [0006]

Claims (4)

Verfahren zum Nachweis der räumlichen Ausdehnung eines Kameraobjektes als Bestandteil einer Lebenderkennung für Vorrichtungen zur Erfassung personenspezifischer Daten, inklusive des Gesichtsbildes einer Person (1), das die Überprüfung vornimmt, ob das Gesichtsbild von einer realen Person (1) oder von einer flachen Abbildung stammt, mit den folgenden Eigenschaften: 1. Die Vorrichtung umfasst eine Kamera (6) zur Aufnahme des Gesichtsbildes als personenspezifische Daten. 2. Die Vorrichtung umfasst eine Antriebseinheit (10), mit der die Position der Kamera (6) in vertikaler Richtung verstellt werden kann. 3. Die Vorrichtung umfasst eine Beleuchtungseinrichtung (7), die für die frontseitige Beleuchtung der Person (1) ausgebildet ist. 4. Die Vorrichtung umfasst einen semi-transparenten Spiegel (8), der zwischen der Person (1) und der Kamera (6) angeordnet ist und dessen Spiegeloberfläche senkrecht zur optischen Achse (15) der Kamera (6) zur Aufnahme des Gesichtsbildes ausgerichtet ist. 5. Die Vorrichtung umfasst eine Steuerungseinheit (2), die einen Speicher (3) und einen Prozessor (4) umfasst und auf der ein Programm arbeitet, das den folgenden Ablauf durchführt: 6.1. Mit der Kamera (1) wird ein erstes Gesichtsbild von der Person (1) als personenspezifische Daten aufgenommen. 6.2. Die Position der Kamera (6) wird in vertikaler Richtung verändert. 6.3. Mit der Kamera (6) wird ein zweites Gesichtsbild von der Person (1) aufgenommen. 6.4. Es wird eine Korrespondenzanalyse in vertikaler Richtung durchgeführt, die die Disparitäten (20) korrespondierender Punkte (19) aus dem ersten Gesichtsbild (13) und dem zweiten Gesichtsbild (14) bestimmt und in einer Ergebnismatrix speichert. 6.5. Das erste Gesichtsbild wird als personenspezifische Daten zugelassen, wenn durch die Analyse der Ergebnismatrix mit mathematischen Methoden festgestellt wird, dass die durch die Kamera (6) aufgenommene Person (1) eine dreidimensionale Ausdehnung hat oder das erste Gesichtsbild wird als personenspezifische Daten verworfen, wenn mit mathematischen Mitteln festgestellt wird, dass die durch die Kamera (6) aufgenommene Person (1) eine zweidimensionale Ausdehnung hat.Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data, including the face image of a person ( 1 ), which checks whether the facial image of a real person ( 1 ) or from a flat image with the following characteristics: 1. The device comprises a camera ( 6 ) for recording the facial image as person-specific data. 2. The device comprises a drive unit ( 10 ), with which the position of the camera ( 6 ) can be adjusted in the vertical direction. 3. The device comprises a lighting device ( 7 ) used for the front lighting of the person ( 1 ) is trained. 4. The device comprises a semi-transparent mirror ( 8th ), between the person ( 1 ) and the camera ( 6 ) and whose mirror surface is perpendicular to the optical axis ( 15 ) the camera ( 6 ) is aligned to receive the facial image. 5. The device comprises a control unit ( 2 ), which has a memory ( 3 ) and a processor ( 4 ) and on which a program operates, which carries out the following procedure: 6.1. With the camera ( 1 ) is a first facial image of the person ( 1 ) as person-specific data. 6.2. The position of the camera ( 6 ) is changed in the vertical direction. 6.3. With the camera ( 6 ) is a second facial image of the person ( 1 ). 6.4. A correspondence analysis in the vertical direction is carried out, which analyzes the disparities ( 20 ) corresponding points ( 19 ) from the first face image ( 13 ) and the second face image ( 14 ) and stored in a result matrix. 6.5. The first face image is allowed as person-specific data if, by analyzing the result matrix with mathematical methods, it is determined by the camera ( 6 ) person ( 1 ) has a three-dimensional extent or the first face image is discarded as person-specific data if it is determined by mathematical means that the camera ( 6 ) person ( 1 ) has a two-dimensional extent. Verfahren zum Nachweis der räumlichen Ausdehnung eines Kameraobjektes als Bestandteil einer Lebenderkennung für Vorrichtungen zur Erfassung personenspezifischer Daten, inklusive des Gesichtsbildes einer Person (1), das die Überprüfung vornimmt, ob das Gesichtsbild von einer realen Person (1) oder von einer flachen Abbildung stammt, nach Anspruch 1, wobei als Korrespondenzanalyse ein Block-Matching-Verfahren in vertikaler Richtung durchgeführt wird, für das eine Blockgröße eingestellt ist, mit der Disparitäten (20) nur gefunden werden, wenn das Kameraobjekt eine zweidimensionale Ausdehnung aufweist, wobei das erste Gesichtsbild (13) als personenspezifische Daten verworfen wird, wenn die Anzahl der bestimmten Disparitäten einen Schwellwert überschreitet.Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data, including the face image of a person ( 1 ), which checks whether the facial image of a real person ( 1 ) or from a flat image, according to claim 1, wherein as a correspondence analysis, a block matching method is carried out in the vertical direction, for which a block size is set, with the disparities ( 20 ) can only be found if the camera object has a two-dimensional extent, wherein the first face image ( 13 ) is discarded as person-specific data when the number of determined disparities exceeds a threshold. Verfahren zum Nachweis der räumlichen Ausdehnung eines Kameraobjektes als Bestandteil einer Lebenderkennung für Vorrichtungen zur Erfassung personenspezifischer Daten, inklusive des Gesichtsbildes einer Person (1), das die Überprüfung vornimmt, ob das Gesichtsbild von einer realen Person (1) oder von einer flachen Abbildung stammt, nach Anspruch 1, wobei als Korrespondenzanalyse ein Block-Matching-Verfahren in vertikaler Richtung durchgeführt wird, das so konfiguriert ist, dass es sowohl in Abbildungen von Kameraobjekten mit zweidimensionaler als auch dreidimensionaler Ausdehnung optimal Disparitäten (2) bestimmen kann, wobei das erste Gesichtsbild (13) als personenspezifische Daten zugelassen wird, wenn die Häufigkeitsverteilung der ermittelten Disparitäten (20) mit einer Häufigkeitsverteilung korreliert, die mit auf dieselbe Weise mit natürlichen Personen (1) ermittelt wurde.Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data, including the face image of a person ( 1 ), which checks whether the facial image of a real person ( 1 ) or from a flat image, according to claim 1, wherein as a correspondence analysis, a block matching method is performed in the vertical direction, which is configured so that it optimally disparities both in images of camera objects with two-dimensional and three-dimensional extent ( 2 ), where the first face image ( 13 ) is permitted as person-specific data if the frequency distribution of the disparities ( 20 ) is correlated with a frequency distribution that coincides with natural persons ( 1 ) was determined. Verfahren zum Nachweis der räumlichen Ausdehnung eines Kameraobjektes als Bestandteil einer Lebenderkennung für Vorrichtungen zur Erfassung personenspezifischer Daten, inklusive des Gesichtsbildes einer Person (1), das die Überprüfung vornimmt, ob das Gesichtsbild von einer realen Person (1) oder von einer flachen Abbildung stammt, nach Anspruch 1, wobei eine merkmalbasierte Korrespondenzanalyse in vertikaler Richtung durchgeführt wird, wobei das erste Gesichtsbild als personenspezifische Daten zugelassen wird, wenn die Häufigkeitsverteilung der ermittelten Disparitäten (20) mit einer Häufigkeitsverteilung korreliert, die mit natürlichen Personen (1) ermittelt wurde.Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data, including the face image of a person ( 1 ), which checks whether the facial image of a real person ( 1 ) or from a flat image, according to claim 1, wherein a feature-based correspondence analysis is performed in the vertical direction, wherein the first face image is permitted as person-specific data, if the frequency distribution of the determined disparities ( 20 ) correlates with a frequency distribution associated with natural persons ( 1 ) was determined.
DE102016009619.5A 2016-07-29 2016-07-29 Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data Ceased DE102016009619A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016009619.5A DE102016009619A1 (en) 2016-07-29 2016-07-29 Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016009619.5A DE102016009619A1 (en) 2016-07-29 2016-07-29 Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data

Publications (1)

Publication Number Publication Date
DE102016009619A1 true DE102016009619A1 (en) 2018-02-01

Family

ID=60951325

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016009619.5A Ceased DE102016009619A1 (en) 2016-07-29 2016-07-29 Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data

Country Status (1)

Country Link
DE (1) DE102016009619A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596061A (en) * 2018-04-12 2018-09-28 Oppo广东移动通信有限公司 Face identification method, device and mobile terminal, storage medium
CN111339958A (en) * 2020-02-28 2020-06-26 山东笛卡尔智能科技有限公司 Monocular vision-based face in-vivo detection method and system
CN111783599A (en) * 2020-06-24 2020-10-16 东风汽车有限公司 Face living body identification method and electronic equipment
CN112926464A (en) * 2021-03-01 2021-06-08 创新奇智(重庆)科技有限公司 Face living body detection method and device
EP3839859A1 (en) * 2019-12-17 2021-06-23 Wincor Nixdorf International GmbH Self-service registration terminal, method and control device
US11410458B2 (en) 2018-04-12 2022-08-09 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Face identification method and apparatus, mobile terminal and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013203433A1 (en) 2013-02-28 2014-08-28 Bundesdruckerei Gmbh Device for collecting person-specific data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013203433A1 (en) 2013-02-28 2014-08-28 Bundesdruckerei Gmbh Device for collecting person-specific data

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"http://www.secupedia.info/wiki/Lebenderkennung" (28.07.2016)
"Überwindungsszenarien für biometrische Systeme" von Stefan Hein und Markus Mahrla, vom 18. Oktober 2004

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596061A (en) * 2018-04-12 2018-09-28 Oppo广东移动通信有限公司 Face identification method, device and mobile terminal, storage medium
US11410458B2 (en) 2018-04-12 2022-08-09 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Face identification method and apparatus, mobile terminal and storage medium
EP3839859A1 (en) * 2019-12-17 2021-06-23 Wincor Nixdorf International GmbH Self-service registration terminal, method and control device
WO2021122189A1 (en) * 2019-12-17 2021-06-24 Wincor Nixdorf International Gmbh Self-service checkout terminal, method and control device
CN111339958A (en) * 2020-02-28 2020-06-26 山东笛卡尔智能科技有限公司 Monocular vision-based face in-vivo detection method and system
CN111339958B (en) * 2020-02-28 2023-08-29 南京鑫之派智能科技有限公司 Face living body detection method and system based on monocular vision
CN111783599A (en) * 2020-06-24 2020-10-16 东风汽车有限公司 Face living body identification method and electronic equipment
CN111783599B (en) * 2020-06-24 2023-08-18 东风汽车有限公司 Face living body identification method and electronic equipment
CN112926464A (en) * 2021-03-01 2021-06-08 创新奇智(重庆)科技有限公司 Face living body detection method and device
CN112926464B (en) * 2021-03-01 2023-08-29 创新奇智(重庆)科技有限公司 Face living body detection method and device

Similar Documents

Publication Publication Date Title
DE102016009619A1 (en) Method for detecting the spatial extent of a camera object as part of a living recognition for devices for recording person-specific data
EP1413972B1 (en) Examination of images of persons
EP3047424B1 (en) Apparatus, system and method for identifying a person
DE60220494T2 (en) Iris recognition method and system using the same
DE102007056528B3 (en) Method and device for finding and tracking pairs of eyes
DE69934068T2 (en) DETERMINATION OF THE POSITION OF EYES BY LIGHT REFLEX DETECTION AND CORRECTION OF DEFECTS IN A RECORDED IMAGE
EP1073988B1 (en) System for contactless recognition of hand and finger lines
EP2962250B1 (en) Device for capturing person-specific data
DE112015001656T5 (en) Image processing method and apparatus
WO2018137863A1 (en) Method and device and computer program for determining a representation of a spectacle lens edge
DE102015223891A1 (en) Line of sight tracking device and method of tracking a line of sight
EP3425560B1 (en) Device and method for detecting biometric features of a person's face
DE102011054658A1 (en) Method for distinguishing between a real face and a two-dimensional image of the face in a biometric capture process
DE102016122649B3 (en) Biometric method
WO2021185507A1 (en) Anonymisation device, monitoring apparatus, method, computer programme, and storage medium
EP3924710B1 (en) Method and device for measuring the local refractive power and/or refractive power distribution of a spectacle lens
EP3959497B1 (en) Method and device for measuring the local refractive power or refractive power distribution of a spectacle lens
DE102016011992A1 (en) A method of detecting the lifestyles by detecting scheduled reflections in a person's eye for personal data capture devices
DE102016104487A1 (en) Mobile electronic device with facial recognition
DE102015112411A1 (en) System for the stereoscopic display of images of an endoscope
EP2355007A2 (en) 3D object measuring system and method
EP3663976B1 (en) Method for detecting fingerprints
DE102020123927A1 (en) Method for recognizing a driver of a motor vehicle and motor vehicle as being alive
DE102010054168B4 (en) Method, device and program for determining the torsional component of the eye position
DE102021117532A1 (en) Apparatus and method for generating a biometric image of a person's face

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final