DE102018214699A1 - Personenerkennungseinrichtung und Verfahren - Google Patents

Personenerkennungseinrichtung und Verfahren Download PDF

Info

Publication number
DE102018214699A1
DE102018214699A1 DE102018214699.3A DE102018214699A DE102018214699A1 DE 102018214699 A1 DE102018214699 A1 DE 102018214699A1 DE 102018214699 A DE102018214699 A DE 102018214699A DE 102018214699 A1 DE102018214699 A1 DE 102018214699A1
Authority
DE
Germany
Prior art keywords
image
person
area
surveillance
evaluation module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018214699.3A
Other languages
English (en)
Inventor
Gregor Blott
Damian Koesters
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018214699.3A priority Critical patent/DE102018214699A1/de
Priority to US16/553,281 priority patent/US11373385B2/en
Publication of DE102018214699A1 publication Critical patent/DE102018214699A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

Personenerkennungseinrichtung zur Personenwiedererkennung in einem Überwachungsbereich, mit einer Kameravorrichtung und einem Auswertemodul, wobei die Kameravorrichtung eine erste Kameraeinheit und eine zweite Kameraeinheit umfasst, wobei die erste Kameraeinheit ausgebildet ist, ein erstes Überwachungsbild eines Abschnitts des Überwachungsbereichs aufzunehmen, wobei die zweite Kameraeinheit ausgebildet ist, ein zweites Überwachungsbild des Abschnitts des Überwachungsbereichs aufzunehmen, wobei die Kameravorrichtung ausgebildet ist, das erste Überwachungsbild und das zweite Überwachungsbild dem Auswertemodul bereitzustellen, wobei das Auswertemodul ausgebildet ist, basierend auf dem ersten Überwachungsbild und dem zweiten Überwachungsbild eine Person im Überwachungsbereich wiederzuerkennen, wobei die zweite Kameraeinheit einen Sperrfilter zur Wellenlängenbeschneidung einfallenden Lichtes in einem Sperrbereich aufweist.

Description

  • Stand der Technik
  • Personenerkennungseinrichtung zur Personenwiedererkennung in einem Überwachungsbereich, mit einer Kameravorrichtung und einem Auswertemodul, wobei die Kameravorrichtung eine erste Kameraeinheit und eine zweite Kameraeinheit umfasst, wobei die erste Kameraeinheit ausgebildet ist, ein erstes Überwachungsbild eines Abschnitts des Überwachungsbereiches aufzunehmen und die zweite Kameraeinheit ausgebildet ist, ein zweites Überwachungsbild des Abschnitts des Überwachungsbereiches aufzunehmen, wobei die Kameravorrichtung ausgebildet ist, das erste Überwachungsbild und das zweite Überwachungsbild dem Auswertemodul bereitzustellen.
  • Die Nachfrage nach Personenwiedererkennungsalgorithmen und Vorrichtungen (Person-Re-Identification: PRID) für die Videoüberwachungstechnik steigt in den letzten Jahren enorm. Personen im Nahbereich von Kameras lassen sich mit hoher Genauigkeit anhand ihrer Gesichter wiedererkennen (Face-Recognition). Im erweiterten Nahbereich, beziehungsweise im Fernbereich, können solche Algorithmen basierend auf Face-Recognition nicht robust arbeiten, da insbesondere die Abbildung der Gesichter auf dem Bild zu klein für eine Wiedererkennung ist und ferner die Personen nicht immer direkt in Kameras blicken. Ferner ist es schwierig, mit Verdeckungen durch andere Personen, Kinderwägen, Rollstühle oder Gebäudeteile in den Wiedererkennungsalgorithmen umzugehen. Abhilfe könnten zwar Kameralinsen mit größerer fokalen Länge schaffen, allerdings wird dadurch der Überwachungsbereich stark reduziert.
  • Die Druckschrift DE 10 2009 027 911 Al, die wohl den nächstkommenden Stand der Technik bildet, beschreibt ein System zur Wahrnehmung wenigstens einer Person in einer Umgebung eines Kraftfahrzeuges. Das System umfasst wenigstens einen Generator zur Erzeugung eines Audiosignals, eine Einrichtung zum Ein- und Ausschalten des Generators und/oder zur Steuerung der Lautstärke des Audiosignals. Das System weist ferner ein Personenerkennungssystem auf, mit welchem eine Person und/oder ein Gegenstand in der Umgebung des Kraftfahrzeuges erfassbar ist und von der Einrichtung in Abhängigkeit von der wenigstens einen Person und/oder dem Gegenstand der wenigstens eine Generator ein- und/oder ausschaltbar ist und so die Lautstärke des Audiosignals steuerbar ist.
  • Offenbarung der Erfindung
  • Es wird eine Personenerkennungseinrichtung zur Personenwiedererkennung in einem Überwachungsbereich mit den Merkmalen des Anspruchs 1 bereitgestellt. Ferner wird ein Verfahren zur Überwachung eines Überwachungsbereiches bereitgestellt. Bevorzugte und/oder vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren.
  • Es wird eine Personenerkennungseinrichtung zur Personenwiedererkennung in einem Überwachungsbereich vorgeschlagen. Insbesondere ist die Personenerkennungseinrichtung zur Personenwiedererkennung in einem Innenraumbereich, alternativ in einem Außenraumbereich. Beispielsweise ist der Überwachungsbereich ein Innenraum, wie ein Flughafen oder ein Bahnhof oder ein Außenraumbereich, wie ein Park oder öffentliche Straßen. Insbesondere kann mittels der Personenerkennungseinrichtung eine vorhandene Person, gesuchte oder eine bestimmbare Person nach Ähnlichkeit im Überwachungsbereich gesucht und/oder wiedergefunden werden. Mittels der Personenerkennungseinrichtung kann ein Benutzer insbesondere schnell in relevante Bereiche und/oder Segmente der Daten und/oder des Überwachungsbereiches fokussieren, wo die Person wiedergefunden wurde.
  • Die Personenerkennungseinrichtung weist eine Kameravorrichtung auf.
  • Die Kameravorrichtung weist eine erste Kameraeinheit und eine zweite Kameraeinheit auf. Insbesondere können erste Kameraeinheit und zweite Kameraeinheit in einem gemeinsamen Gehäuse angeordnet sein. Erste Kameraeinheit und zweite Kameraeinheit sind vorzugsweise um eine Basislänge zueinander versetzt. Insbesondere sind erste Kameraeinheit und zweite Kameraeinheit so angeordnet, dass diese eine Szene und/oder einen Abschnitt des Überwachungsbereiches aus unterschiedlichen Perspektiven überwachen. Die erste Kameraeinheit ist ausgebildet, ein erstes Überwachungsbild und/oder eine Sequenz aus ersten Überwachungsbildern eines Abschnitts des Überwachungsbereiches aufzunehmen. Die zweite Kameraeinheit ist ausgebildet, ein zweites Überwachungsbild und/oder eine Sequenz aus zweiten Überwachungsbildern des Abschnittes des Überwachungsbereiches aufzunehmen. Insbesondere können das erste Überwachungsbild und/oder das zweite Überwachungsbild einen Bereich des Überwachungsbereiches aufnehmen und/oder abbilden, welcher Größer ist als der Abschnitt. Erstes Überwachungsbild und zweites Überwachungsbild weisen einen gemeinsamen Überlapp einer abgebildeten Teilmenge des Überwachungsbereiches auf, welcher insbesondere den Abschnitt des Überwachungsbereiches bildet. Erste Kameraeinheit und/oder zweite Kameraeinheit sind vorzugsweise Digitalkameras. Erste Kameraeinheit und zweite Kameraeinheit sind im Speziellen als Farbkameras ausgebildet. Im Speziellen kann es vorgesehen sein, dass erste Kameraeinheit und/oder zweite Kameraeinheit sensitiv im Nahinfrarotbereich, im Infrarotbereich oder UV-Bereich sind. Erstes Überwachungsbild und/oder zweites Überwachungsbild bilden insbesondere ein Farbbild, können aber auch über ein extra Infrarotpixel verfügen.
  • Die Personenerkennungseinrichtung weist ein Auswertemodul auf. Das Auswertemodul kann als ein Hardware- oder ein Software-Modul ausgebildet sein. Insbesondere ist es vorgesehen, dass das Auswertemodul von einer Rechnereinheit gebildet wird. Im Speziellen bildet das Auswertemodul ein zentrales Auswertemodul, wobei das Auswertemodul beispielsweise mit einer Mehrzahl an Kameravorrichtung verbunden ist. Die Kameravorrichtung ist ausgebildet, das erste Überwachungsbild und das zweite Überwachungsbild dem Auswertemodul bereitzustellen. Dazu sind Kameravorrichtung und Auswertemodul datentechnisch miteinander verbunden, beispielsweise über eine Funkverbindung, alternativ über eine Drahtverbindung. Im Speziellen sind dem Auswertemodul erstes Überwachungsbild und zweites Überwachungsbild von einer Mehrzahl an Kameravorrichtungen bereitgestellt.
  • Das Auswertemodul ist ausgebildet, basierend auf dem ersten Überwachungsbild und dem zweiten Überwachungsbild eine Person im Überwachungsbereich wiederzuerkennen. Insbesondere kann das Auswertemodul ausgebildet sein, aus dem ersten Überwachungsbild und dem zweiten Überwachungsbild ein Zwischenbild zu generieren und basierend auf dem Zwischenbild die Person im Überwachungsbereich wiederzuerkennen. Beispielsweise sind der Personenerkennungseinrichtung und/oder dem Auswertemodul eine wiederzuerkennende Person eingegeben und/oder bereitgestellt, dies kann beispielsweise durch eine Eingabevorrichtung erfolgen, welche optional von der Personenerkennungseinrichtung umfasst ist. Das Auswertemodul ist beispielsweise ausgebildet, in dem ersten Überwachungsbild und/oder dem zweiten Überwachungsbild und/oder dem Zwischenbild nach der wiederzuerkennenden Person zu suchen und/oder Merkmale der wiederzuerkennenden Person in den diesen suchen. Im Speziellen kann es vorgesehen sein, dass das Auswertemodul ausgebildet ist, bei Wiedererkennen der wiederzuerkennenden Person das Überwachungsbild mit der wiedererkannten Person auf einer Ausgabeeinheit, beispielsweise einem Monitor, auszugeben.
  • Erfindungsgemäß ist es vorgesehen, dass die zweite Kamera einen Sperrfilter aufweist. Der Sperrfilter ist zur Wellenlängenbeschneidung von einfallendem Licht ausgebildet. Die Wellenlängenbeschneidung erfolgt in einem Sperrbereich. Beispielsweise ist der Sperrfilter vor dem Objektiv der zweiten Kameraeinheit angeordnet. Vorzugsweise ist der Sperrfilter als ein reflektierender Sperrfilter ausgebildet. Der Sperrfilter kann beispielsweise ein Farbfilter und/oder Konversionsfilter sein. Ferner kann der Sperrfilter ein UV-Sperrfilter oder ein Effektfilter sein. Der Sperrbereich kann ein offener Wellenlängenbereich sein, beispielsweise nach oben oder nach unten offen, alternativ kann der Sperrbereich ein geschlossenes Wellenlängenintervall sein, beispielsweise von 200-250 Nanometer.
  • Der Erfindung liegt die Überlegung zugrunde, dass die Personenwiedererkennung auf zwei unterschiedlichen Überwachungsbildern beruht, wovon ein Überwachungsbild im Wellenlängenbereich mittels eines Sperrfilters beschnitten ist.
  • Eine Ausgestaltung der Erfindung sieht vor, dass das Auswertemodul ausgebildet ist, basierend auf dem ersten Überwachungsbild und dem zweiten Überwachungsbild ein Kanalbild (Differenzbild) des Abschnitts zu generieren. Das Kanalbild zeigt insbesondere den Abschnitt des Überwachungsbereiches im Wellenlängenbereich des Sperrbereichs. Beispielsweise ist das Auswertemodul ausgebildet, das Kanalbild durch, insbesondere intelligente, Differenzbildung zwischen erstem Überwachungsbild und zweitem Überwachungsbild zu generieren, im Speziellen kann die Differenzbildung eine gewichtete Differenzbildung zwischen den beiden Überwachungsbildern darstellen. Unter intelligenter Differenzbildung wird verstanden, dass gleiche Bereiche aus dem Objektraum auf gleiche Bereiche im Bildraum transformiert bzw. registriert werden. Durch den räumlichen Abstand der Kameras ist diese Anpassung notwendig um nicht unterschiedliche Bereiche miteinander zu vergleichen.
  • Das Auswertemodul ist dabei ausgebildet, basierend auf dem Kanalbild die Person im Abschnitt wiederzuerkennen. Beispielsweise sind Wiedererkennungsmerkmale der Person im Wellenlängenbereich des Sperrbereichs besonders gut erkennbar und somit im Kanalbild wieder zu finden. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass die resultierenden Farben in den Bildern sich über ein Integral der spektralen Empfindlichkeit bilden und es durch den beschriebenen Aufbau möglich ist, durch pixelweise Registrierung der beiden Überwachungsbilder und anschließender Differenzbildung ein Kanalbild zu generieren, das insbesondere nahezu vollständig dem Abschnitt im Sperrbereich entspricht.
  • Besonders bevorzugt ist es, dass der Sperrfilter ein Infrarotsperrfilter ist. Der Infrarotsperrfilter ist vorzugsweise ein Interferenzfilter und/oder ein dichroitischer Filter. Mittels des Infrarotsperrfilters ist insbesondere infrarotes Licht vom Einfall auf und/oder in die zweite Kameraeinheit ausgeschlossen. Im Speziellen ist der Infrarotsperrfilter ein Sperrfilter für den nahen Infrarotbereich. Besonders bevorzugt ist der Infrarotsperrfilter ein Sperrfilter, welcher Licht mit einer Wellenlänge größer als 700 Nanometer herausfiltert. Alternativ und/oder ergänzend kann der Infrarotfilter ein Infrarotfilter für den Nahinfrarotbereich IR-B sein, welcher Infrarotlicht mit einer Wellenlänge größer als 1,4 Mikrometer herausfiltert. Bei dieser Ausgestaltung ist es vorgesehen, dass das Kanalbild ein IR-Kanalbild und/oder ein NIR-Kanalbild bildet. Das IR- und/oder NIR-Kanalbild zeigt den Abschnitt des Überwachungsbereiches als ein NIR-Bild oder als ein IR-Bild. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass Stoffe, insbesondere textile Stoffe, Farbanteile besonders in den IR-Bereich streuen. Insbesondere ist auch IR- und NIR-Licht dahingehend gut zu verwerten, dass dieses die Abbildungsqualität in der Überwachungskamera fördert und Unschärfen oder Farbverwaschungen reduziert werden können. Ferner ist es eine Überlegung dieser Ausgestaltung, dass eine Vielzahl von Pigmenten quasi transparent im NIR- und/oder IR-Bereich sind. Viele Pigmente haben keine oder nur eine geringe Absorption im NIR- und IR-Bereich. Dies führt insbesondere dazu, dass NIR-Bilder und/oder IR-Bilder mehr Information über das Material und/oder die Textur umfassen. Wegen der Transparenz von Farbpigmenten im IR- und NIR-Bereich sind solche Bilder einheitlicher und/oder konsistenter innerhalb eines Materials und/oder eines Bereichs. Somit kann mittels NIR- und/oder IR-Bildern eine Information über das Material bestimmt werden. Ferner bildet die Textur eine intrinsische Größe in den NIR- und/oder IR-Bildern. Nachdem viele Farbstoffe und/oder Pigmente transparent im NIR- und/oder IR-Bereich sind, ist die Textur in diesem Wellenlängenbereich einfacher zu bestimmen. Ferner zeichnet sich ein NIR- und/oder IR-Bild durch einen stärkeren Kontrast aus.
  • Besonders bevorzugt ist es, dass die Kameravorrichtung eine Stereokamera bildet. Die Stereokamera ist insbesondere zur stereoskopischen Auswertung des Abschnitts im Überwachungsbereich ausgebildet und/oder das Auswertemodul ist ausgebildet, basierend auf dem ersten Überwachungsbild und dem zweiten Überwachungsbild ein Stereobild zu generieren. Das erste Überwachungsbild und das zweite Überwachungsbild bilden im Speziellen stereoskopische Halbbilder. Im Speziellen sind erste Kameraeinheit und zweite Kameraeinheit in einem Abstand, genannt Basislänge, voneinander beabstandet. Durch die Anordnung von erster Kameraeinheit und zweiter Kameraeinheit im Abstand der Basislänge voneinander zeigen erstes Überwachungsbild und zweites Überwachungsbild den Abschnitt des Überwachungsbereiches aus unterschiedlicher Perspektive. Insbesondere ist das Auswertemodul ausgebildet, basierend auf dem Stereobild und/oder der stereoskopischen Auswertung einen räumlichen Eindruck und/oder eine räumliche Auswertung des Abschnitts im Überwachungsbereich durchführen zu können. Insbesondere sind Abstände von Objekten im Abschnitt zueinander bestimmbar. Ferner kann das Auswertemodul ausgebildet sein, basierend auf der stereoskopischen Auswertung und/oder dem Stereobild eine Person und/oder einen Gegenstand im Überwachungsbereich zu tracken.
  • Besonders bevorzugt ist es, dass das Auswertemodul ausgebildet ist, die Person im Überwachungsbereich und/oder im Abschnitt des Überwachungsbereichs basierend auf dem Stereobild und/oder der stereoskopischen Auswertung wiederzuerkennen. Insbesondere kann das Auswertemodul ausgebildet sein, basierend auf der stereoskopischen Auswertung und/oder einem Tracking der Person aus vorangegangenen Aufnahmen und/oder Überwachungsbildern die Person im Überwachungsbereich und/oder Abschnitt wiederzuerkennen. Beispielsweise liefert das Tracking, dass das die Person sich wahrscheinlich in eine gewisse Richtung bewegen wird, wobei das Auswertemodul basierend auf dieser Information den Bereich einschränken kann, in dem nach der Person bevorzugt gesucht wird. Dieser Ausgestaltung liegt die Überlegung zugrunde, eine sichere Möglichkeit der Personenwiedererkennung bereitzustellen und möglichst viele Informationen aus den Überwachungsbildern generieren zu können.
  • Optional ist es vorgesehen, dass der Überwachungsbereich und/oder der Abschnitt des Überwachungsbereichs einen erweiterten Nahbereich und/oder einen Fernbereich der Kameravorrichtung, der ersten Kameraeinheit und/oder der zweiten Kameraeinheit bildet. Als Nahbereich wird insbesondere ein Bereich in einem Abstand der Kamera zwischen einem und zehn Metern verstanden. Als erweiterter Nahbereich wird beispielsweise ein Bereich in einem Abstand der Kamera von fünf bis fünfzehn Metern verstanden. Als Fernbereich wird ein Bereich in einem Abstand zur Kameraeinheit und/oder Kameravorrichtung verstanden, der zwischen neun und dreißig Meter entfernt liegt. Ferner kann der Fernbereich einen Superfernbereich umfassen und/oder von diesem ergänzt werden, der einen Abstand zur Kameraeinheit und/oder Kameravorrichtung aufweist, der größer ist als zwanzig Meter. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass so mit der Personenerkennungseinrichtung ein großer Bereich, insbesondere kostengünstig mit wenig Materialaufwand, überwacht werden kann und die Person darin wiedererkannt werden kann. Ferner ist es eine Überlegung der Erfindung, dass im Fernbereich und/oder im erweiterten Nahbereich Gesichter kaum mehr erkennbar sind und/oder schlecht auswertbar sind und durch die Verwendung von zwei Kameras und einem Filter in der Kamera weiterhin ein Wiedererkennen der Person möglich ist.
  • Besonders bevorzugt ist es, dass das Auswertemodul ausgebildet ist, die Person auf Basis von Farbmerkmalen wiederzuerkennen. Als Farbmerkmal werden beispielsweise farbige Flächen und/oder Farbintensitäten im ersten Überwachungsbild, im zweiten Überwachungsbild und/oder im Kanalbild verstanden. Ferner kann das Farbmerkmal als eine Wellenlängenverteilung aufgefasst werden. Farbmerkmale können auch Kontraste umfassen und/oder Farbverläufe. Beispielsweise ist es bekannt, dass die wiederzuerkennende Person ein rotes T-Shirt trägt und das Rot in einem gewissen Farb- und/oder Wellenlängenbereich liegt. Durch das Suchen dieser Wellenlänge und/oder dieses Farbtons kann die Person in dem Überwachungsbereich wiedererkannt werden.
  • Besonders bevorzugt ist es, dass das Auswertemodul ausgebildet ist, die Person basierend auf Textur- und/oder Textilmerkmalen wiederzuerkennen. Insbesondere ist das Auswertemodul ausgebildet, die Überwachungsbilder und im Speziellen das Kanalbild auf Texturmerkmale und/oder Textilmerkmale zu untersuchen. Insbesondere ist es eine Überlegung, dass im Kanalbild, insbesondere im IR-Bild, Texturinformationen besonders gut erkennbar sind, da ein solches Bild besonders gut abgebildet werden kann. Als Texturmerkmale werden insbesondere Bereiche in den Überwachungsbildern und/oder im Kanalbild verstanden, die eine Struktur und/oder Beschaffenheit beschreiben. Insbesondere werden unter Texturmerkmalen Eigenschaften verstanden, welche die Grobheit, den Kontrast, die Direktionalität der Linienähnlichkeit, der Regularität und/oder der Grobheit betreffen. Insbesondere weisen unterschiedliche Materialien unterschiedliche Textur- und/oder Textilmerkmale auf, welche zur Wiedererkennung der Person herangezogen werden können.
  • Das Auswertemodul ist im Speziellen ausgebildet, die Texturmerkmale, die Textilmerkmale und/oder die Farbmerkmale im Kanalbild zu bestimmen und darauf basierend die Person wiederzuerkennen. Im Kanalbild sind Texturmerkmale, Textilmerkmale und/oder Farbmerkmale besonders gut abgebildet und/oder auswertbar. Im Speziellen ist im IR-Bild, welches das Kanalbild bildet, die Texturbestimmung besonders vorteilhaft.
  • Eine Ausgestaltung der Erfindung sieht vor, dass das Auswertemodul ausgebildet ist, das erste Überwachungsbild, das zweite Überwachungsbild und/oder das Kanalbild zu segmentieren. Als Segmentieren wird insbesondere verstanden, das Überwachungsbild und/oder das Kanalbild in Bereiche einzuteilen, welche inhaltlich, strukturell und/oder farblich zusammengehören. Beispielsweise ist das Auswertemodul ausgebildet, Bereiche im Überwachungsbild und/oder im Kanalbild zu einem gemeinsamen Bereich zu segmentieren, wenn diese eine gleiche Farbe, eine gleiche Struktur, Textur oder anderweitige übereinstimmende Information aufweisen. Besonders bevorzugt ist es, dass das Auswertemodul ausgebildet ist, im ersten Überwachungsbild, im zweiten Überwachungsbild und/oder im Kanalbild einen Bereich zu segmentieren, auf welchem eine Person zu sehen ist. Beispielsweise kann die Person segmentiert werden auf Basis von Informationen, welche die Geometrie, das Verhalten und/oder die Größe einer Person beschreiben. Ferner ist das Auswertemodul beispielsweise ausgebildet, einen Kleidungsbereich zu bestimmen und/oder zu segmentieren, wobei der Kleidungsbereich ein Teilbereich des Überwachungsbildes und/oder des Kanalbildes ist. Der Kleidungsbereich beschreibt beispielsweise einen Pullover-, T-Shirt- und/oder Hosenbereich der segmentierten Person. Im Speziellen ist das Auswertemodul ausgebildet, basierend auf dem Kleidungsbereich und/oder der segmentierten Person die Personenwiedererkennung durchzuführen. Beispielsweise ist das Auswertemodul ausgebildet, die Kleidungsbereiche auf Texturmerkmale, Textilmerkmale und/oder Farbmerkmale zu untersuchen und darauf basierend die Person gegebenenfalls wiederzuerkennen.
  • Eine Ausgestaltung der Erfindung sieht vor, dass das Auswertemodul Stoff- und/oder Texturdaten in und/oder als eine Referenzdatenbank aufweist und/oder umfasst. In der Referenzdatenbank sind Struktureigenschaften, Stoffeigenschaften und/oder Textureigenschaften unterschiedlicher Materialien und/oder Stoffe hinterlegt. Beispielsweise umfassen die Stoff- und/oder Textureigenschaften Informationen zum Absorptionsverhalten und/oder Reflexionsverhalten in unterschiedlichen Wellenlängenbereichen. Die Texturdaten umfassen beispielsweise Informationen darüber, wie üblicherweise ein Stoff und/oder ein Textil in Überwachungsbildern und/oder Kanalbildern erscheinen wird. Das Auswertemodul ist insbesondere ausgebildet, basierend auf der Referenzdatenbank, dem ersten Überwachungsbild, dem zweiten Überwachungsbild und/oder dem Kanalbild die Person wiederzuerkennen. Insbesondere kann auf der Personenerkennungseinrichtung von einem Benutzer eingestellt werden, welchen Stoff die Person trägt, wobei dann mittels des Auswertemoduls die Person wiedererkennbar ist.
  • Insbesondere umfassen die Stoff- und/oder Texturdaten Informationen zum Reflexionsverhalten des Stoffes, der Textur und/oder von Farben in dem Spektralbereich. Insbesondere basiert diese Ausgestaltung auf der Überlegung, dass viele Stoffe und Textile die Farben in den Sperrbereich, insbesondere in den IR-Bereich, reflektieren, sodass basierend auf dem Kanalbild die Person besonders gut wiedererkennbar ist.
  • Besonders bevorzugt ist es, dass das Auswertemodul ausgebildet ist, die Person basierend auf Gesichtsmerkmalen und/oder in dem Kanalbild wiederzuerkennen. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass im Kanalbild, insbesondere als IR- und/oder als NIR-Bild, die Abbildung besonders scharf und kontrastreich ist, dass hier Gesichtsmerkmale gut zur Wiedererkennung der Person genutzt werden können, insbesondere auch im erweiterten Nahbereich.
  • Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zur Wiedererkennung einer Person in einem Überwachungsbereich. Dazu wird mit einer ersten Kameraeinheit ein erstes Überwachungsbild eines Abschnitts des Überwachungsbereichs aufgenommen. Mit einer zweiten Kameraeinheit wird ein zweites Überwachungsbild des Abschnitts des Überwachungsbereichs aufgenommen. Insbesondere wird mit der ersten Kameraeinheit und der zweiten Kameraeinheit der Abschnitt des Überwachungsbereichs aus unterschiedlichen Perspektiven aufgenommen. Das zweite Überwachungsbild wird mit einem Sperrfilter aufgenommen, sodass das zweite Überwachungsbild im aufgenommenen und/oder abgebildeten Wellenlängenbereich beschnitten ist. Basierend auf dem ersten Überwachungsbild und dem zweiten Überwachungsbild wird eine wiederzuerkennende Person im Abschnitt bestimmt und/oder gesucht. Insbesondere ist es vorgesehen, aus dem ersten Überwachungsbild und dem zweiten Überwachungsbild ein Kanalbild zu generieren, beispielsweise durch Differenzbildung, wobei das Kanalbild den Abschnitt des Überwachungsbereichs im Wellenlängenbereich des Sperrbereichs zeigt. Basierend auf dem Kanalbild wird dann insbesondere die Person gesucht und/oder wiedererkannt.
  • Bevorzugte und/oder vorteilhafte Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
    • 1 ein Ausführungsbeispiel der Personenerkennungseinrichtung;
    • 2 Wellenlängenverteilung und Sperrbereich als ein Ausführungsbeispiel.
  • 1 zeigt schematisch eine Personenerkennungseinrichtung 1. Die Personenerkennungseinrichtung 1 weist eine erste Kameraeinheit 2 und eine zweite Kameraeinheit 3 auf sowie ein Auswertemodul 4. Erste Kameraeinheit 2 und zweite Kameraeinheit 3 bilden eine Kameravorrichtung, wobei die beiden Kameraeinheiten in einem gemeinsamen Gehäuse angeordnet sein können, oder wie hier separat installiert und/oder angebracht sein können. Die erste Kameraeinrichtung 2 und die zweite Kameraeinrichtung 3 sind zur bildtechnischen, insbesondere videotechnischen Überwachung eines Überwachungsbereiches 5 ausgebildet. Der Überwachungsbereich 5 ist vorzugsweise ein Innenraumbereich, beispielsweise ein Bahnhof oder ein Flughafen. Alternativ kann der Überwachungsbereich 5 ein Außenbereich sein, beispielsweise eine Parkfläche oder eine Straße, wobei in diesem Fall die erste Kameraeinheit 2 und die zweite Kameraeinheit 3 insbesondere wetterfest und/oder wasserdicht ausgebildet sind.
  • Die erste Kameraeinheit 2 und die zweite Kameraeinheit 3 sind als Digitalkameras ausgebildet und bilden Farbkameras. Insbesondere weisen die erste Kameraeinheit 2 und die zweite Kameraeinheit 3 jeweils einen Bildsensor auf, welcher einfallendes Licht in ein Bild wandeln kann. Die erste Kameraeinheit 2 weist einen Öffnungswinkel 6 auf, wobei der Öffnungswinkel 6 insbesondere durch das Objektiv bestimmt ist. Die Kameraeinheit 2 ist zur Abbildung eines Bereichs des Überwachungsbereichs 5 ausgebildet, wobei dieser Bereich innerhalb des Öffnungswinkels 6 liegt. Die zweite Kameraeinheit 3 weist ebenfalls einen Öffnungswinkel 7 auf, wobei auch dieser Öffnungswinkel insbesondere durch ein Objektiv der zweiten Kameraeinheit 3 bestimmt ist. Die zweite Kameraeinheit 3 ist ausgebildet, einen Teil des Überwachungsbereichs 5 abzubilden, welcher innerhalb des Öffnungswinkels 7 liegt. Insbesondere wird von der ersten Kameraeinheit 2 und der zweiten Kameraeinheit 3 jeweils ein Bereich des Überwachungsbereichs 5 abgebildet, der im Fernbereich liegt. Die erste Kameraeinheit 2 und die zweite Kameraeinheit 3 sind so angeordnet, dass diese einen überlappenden Bereich und/oder einen gemeinsamen Bereich im Überwachungsbereich 5 abbilden, wobei dieser Bereich den Abschnitt 8 bildet. Im Abschnitt 8 des Überwachungsbereichs 5 befindet sich eine Person 9, die wiederzuerkennen ist und/oder im Überwachungsbereich verfolgt werden soll. Die Person 9 trägt insbesondere ein Kleidungsstück 10, hier einen Rock, welcher durch ein Textil, insbesondere mit Textur- und Farbmerkmalen, bestimmt ist.
  • Die erste Kameraeinheit 2 und die zweite Kameraeinheit 3 sind datentechnisch mit dem Auswertemodul 4 verbunden. Das Auswertemodul 4 bildet insbesondere ein zentrales Auswertemodul in Form einer Rechnereinheit. Die erste Kameraeinheit 2 ist zur Aufnahme eines ersten Überwachungsbildes 11 ausgebildet, welches insbesondere den Abschnitt 8 mit der Person 9 zeigt und/oder abbildet. Die zweite Kameraeinheit 3 ist zur Aufnahme eines zweiten Überwachungsbildes 12 ausgebildet, wobei das zweite Überwachungsbild 12 den Abschnitt 8 mit der Person 9 zeigt. Das erste Überwachungsbild und das zweite Überwachungsbild 12 sind dem Auswertemodul 4 bereitgestellt.
  • Die zweite Kameraeinheit 3 weist einen Sperrfilter 13 auf. Der Sperrfilter 13 wird insbesondere von einem IR-Filter gebildet. Der Sperrfilter 13 ist beispielsweise im Objektiv der Kameraeinrichtung 3 angeordnet. Der Sperrfilter 13 filtert einen Wellenlängenbereich aus dem einfallenden Licht heraus, wobei der Sperrbereich herausgefiltert wird. Insbesondere ist der Sperrbereich ein Infrarotbereich, sodass beispielsweise Wellenlängen mit einer Wellenlänge größer als 700 Nanometer von dem Sperrfilter herausgeschnitten und/oder gefiltert werden. Das zweite Überwachungsbild 12 zeigt damit den Abschnitt 8 mit der Person 9 in einem beschnittenen Wellenlängenbereich, wobei insbesondere der Sperrbereich nicht zur Bilderzeugung beiträgt. Erstes Überwachungsbild 11 und zweites Überwachungsbild 12 bilden damit gemischte Bilddaten. Das Auswertemodul 4 ist ausgebildet, basierend auf dem ersten Überwachungsbild 11 und dem zweiten Überwachungsbild 12 ein Kanalbild 14 zu generieren. Das Kanalbild 14 wird beispielsweise mittels einer Differenzbildung von erstem Überwachungsbild 11 und zweitem Überwachungsbild 12 gebildet. Das Kanalbild 14 zeigt damit den Abschnitt 8 und/oder die Person 9 im Lichte des Sperrbereichs und bildet im Speziellen ein IR- oder ein NIR-Bild. Mittels dieser Differenzbildung, insbesondere im NIR-Bereich und/oder im IR-Bereich, werden Strukturen Texturen und/oder Farbeigenschaften des Kleidungsstücks 10 besonders deutlich. Das Auswertemodul 4 ist ausgebildet, basierend auf dem Kanalbild 14 die Person 9 wiederzuerkennen und/oder wiederzufinden. Insbesondere wird dazu die Textur des Kleidungsstücks 10 im Kanalbild ausgewertet. Im Kanalbild 14 ist die Textur besonders gut erkennbar, insbesondere Muster. Die Auswerteeinheit 4 ist damit ausgebildet, die Person 9 zu erkennen und beispielsweise als Wiedererkennungsdatensatz 15 bereitzustellen, wobei der Wiedererkennungsdatensatz 15 beispielsweise eine ID oder einen Namen der Person 9 aufweist und/oder die Position, in der die Person 9 gefunden wurde.
  • Insbesondere kann das Auswertemodul 4 auch ausgebildet sein, basierend auf dem ersten Überwachungsbild 11 und dem zweiten Überwachungsbild 12 den Abschnitt 8 stereoskopisch und/oder stereometrisch auszuwerten und beispielsweise eine räumliche Ansicht oder ein räumliches Bild des Abschnitts 8 zu generieren. Beispielsweise kann das Auswertemodul 4 damit Abstände im Abschnitt 8 bestimmen und die Position der Person besser oder genauer festlegen.
  • 2 zeigt schematisch die Quantenausbeuten eines Detektors, wobei diese Art von Detektoren insbesondere in der ersten Kameraeinheit 2 und/oder der zweiten Kameraeinheit 3 Einsatz findet. In dem Diagramm sind die Quanteneffizienzen, zu Deutsch Quantenausbeuten, für die unterschiedlichen Sensoren R, G, B gezeigt. Während der Sensor B eine maximale Quantenausbeute bei ungefähr 450 Nanometern aufweist, weist der Sensor G eine maximale Quantenausbeute im Bereich zwischen 500 und 550 Nanometern auf und der Sensor R eine maximale Ausbeute bei etwa 600 Nanometern. Alle drei Sensoren R, G, B weisen eine von 0 verschiedene Quantenausbeute im IR-Bereich auf, welche hier bei größer 700 Nanometer anzusiedeln ist. Somit wird bei der Aufnahme eines Bildes ohne IR-Filter ein Teil des IR-Lichts auch als rot-grünes oder blaues Licht interpretiert. Zusätzlich eingezeichnet ist der Schnittbereich 16, welcher durch den Sperrfilter 13 definiert wird. Hierbei ist erkenntlich, dass durch die Verwendung des Sperrfilters 13 der Wellenlängenbereich größer 700 Nanometer herausgeschnitten wird und nicht zur Aufnahme beiträgt. Basierend auf dieser Beschneidung kann durch Differenzbildung des ersten Überwachungsbildes und des zweiten Überwachungsbildes 12 ein nahezu IR-Bild 14 hergestellt werden. Vorausgesetzt die Bilder wurden zuvor zueinander registriert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009027911 [0003]

Claims (14)

  1. Personenerkennungseinrichtung (1) zur Personenwiedererkennung in einem Überwachungsbereich (5), mit einer Kameravorrichtung und einem Auswertemodul (4), wobei die Kameravorrichtung eine erste Kameraeinheit (2) und eine zweite Kameraeinheit (3) umfasst, wobei die erste Kameraeinheit (2) ausgebildet ist, ein erstes Überwachungsbild (11) eines Abschnitts (8) des Überwachungsbereichs (5) aufzunehmen, wobei die zweite Kameraeinheit (3) ausgebildet ist, ein zweites Überwachungsbild (11) des Abschnitts (8) des Überwachungsbereichs (5) aufzunehmen, wobei die Kameravorrichtung ausgebildet ist, das erste Überwachungsbild (11) und das zweite Überwachungsbild (12) dem Auswertemodul (4) bereitzustellen, wobei das Auswertemodul (4) ausgebildet ist, basierend auf dem ersten Überwachungsbild (11) und dem zweiten Überwachungsbild (12) eine Person (9) im Überwachungsbereich (5) wiederzuerkennen, dadurch gekennzeichnet, dass die zweite Kameraeinheit (3) einen Sperrfilter (13) zur Wellenlängenbeschneidung einfallenden Lichtes in einem Sperrbereich aufweist.
  2. Personenerkennungseinrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist, basierend auf dem ersten Überwachungsbild (11) und dem zweiten Überwachungsbild (12) ein Kanalbild des Abschnitts (8) im Sperrbereich zu generieren und die wiederzuerkennende Person (9) basierend auf dem Kanalbild (14) zu bestimmen.
  3. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Sperrfilter (13) einen Infrarotsperrfilter bildet und das Kanalbild (14) in IR-Kanalbild bildet.
  4. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Kameravorrichtung eine Stereokamera zur stereoskopischen Auswertung bildet und/oder das Auswertemodul (4) ausgebildet ist, basierend auf dem ersten Überwachungsbild (11) und dem zweiten Überwachungsbild (12) ein Stereobild zu generieren.
  5. Personenerkennungseinrichtung (1) nach Anspruch 4, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist, die Person (9) im Überwachungsbereich (5) basierend dem Stereobild und/oder der stereoskopischen Auswertung wiederzuerkennen.
  6. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Überwachungsbereich (5) und/oder der Abschnitt (8) des Überwachungsbereichs (5) einen erweiterten Nahbereich und/oder Fernbereich bildet.
  7. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist, die Person (9) auf Basis von Farbenmerkmalen wiederzuerkennen.
  8. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist, die Person (9) basierend auf Textur- und/oder Textilmerkmalen wiederzuerkennen.
  9. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist, die Textur- und/oder Textilmerkmale basierend auf dem Kanalbild (14) zu bestimmen.
  10. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist eine Person (9) im ersten Überwachungsbild (11), im zweiten Überwachungsbild (12) und/oder im Kanalbild (14) zu segmentieren und einen Kleidungsbereich zu bestimmen, wobei die Personenwiederkennung auf dem Kleidungsbereich basiert.
  11. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertungsmodul (4) Stoff- und/oder Texturdaten in einer Referenzdatenbank aufweist.
  12. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Stoff- und/oder Texturdaten Informationen zum Reflektionsverhalten des Stoffs von Farben in den Sperrbereich.
  13. Personenerkennungseinrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertemodul (4) ausgebildet ist, die Person (9) basierend Gesichtsmerkmalen und dem Kanalbild (14) wiederzuerkennen.
  14. Verfahren zur Wiedererkennung einer Person (9) in einem Überwachungsbereich (5), wobei mit einer ersten Kameraeinheit (2) ein erstes Überwachungsbild (11) eines Abschnitts (8) des Überwachungsbereichs (5) aufgenommen wird und mit einer zweiten Kameraeinheit (3) ein zweites Überwachungsbild (12) des Abschnitts (8) des Überwachungsbereichs (5) aufgenommen wird, wobei das zweite Überwachungsbild (12) mit einem Sperrfilter (13) aufgenommen wird, wobei basierend auf dem ersten Überwachungsbild (11) und dem zweiten Überwachungsbild (12) eine wiederzuerkennende Person (9) im Abschnitt (8) bestimmt und/oder gesucht wird.
DE102018214699.3A 2018-08-30 2018-08-30 Personenerkennungseinrichtung und Verfahren Pending DE102018214699A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018214699.3A DE102018214699A1 (de) 2018-08-30 2018-08-30 Personenerkennungseinrichtung und Verfahren
US16/553,281 US11373385B2 (en) 2018-08-30 2019-08-28 Person recognition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018214699.3A DE102018214699A1 (de) 2018-08-30 2018-08-30 Personenerkennungseinrichtung und Verfahren

Publications (1)

Publication Number Publication Date
DE102018214699A1 true DE102018214699A1 (de) 2020-03-05

Family

ID=69527302

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018214699.3A Pending DE102018214699A1 (de) 2018-08-30 2018-08-30 Personenerkennungseinrichtung und Verfahren

Country Status (2)

Country Link
US (1) US11373385B2 (de)
DE (1) DE102018214699A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10819905B1 (en) * 2019-09-13 2020-10-27 Guangdong Media Kitchen Appliance Manufacturing Co., Ltd. System and method for temperature sensing in cooking appliance with data fusion

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
JP2006047067A (ja) * 2004-08-03 2006-02-16 Funai Electric Co Ltd 人体検出装置及び人体検出方法
US20060056667A1 (en) * 2004-09-16 2006-03-16 Waters Richard C Identifying faces from multiple images acquired from widely separated viewpoints
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
DE102009027911A1 (de) 2009-07-22 2011-01-27 Robert Bosch Gmbh Fußgängerwarnsystem für ein Elektro- oder Hybridfahrzeug
US8577092B2 (en) * 2010-11-11 2013-11-05 Lg Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
WO2016040874A1 (en) * 2014-09-11 2016-03-17 Carnegie Mellon University Associating a user identity with a mobile device identity
US9393697B1 (en) * 2015-04-02 2016-07-19 Disney Enterprises, Inc System and method using foot recognition to create a customized guest experience

Also Published As

Publication number Publication date
US20200074204A1 (en) 2020-03-05
US11373385B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
DE60118189T2 (de) Nah-infrarote verkleidungsdetektion
DE69934068T2 (de) Bestimmung der position von augen durch blitzreflexerkennung und korrektur von defekten in einem aufgenommenen bild
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
DE10059313A1 (de) Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs
WO2007107259A1 (de) Virtuelles spotlight zur kennzeichnung von interessierenden objekten in bilddaten
DE112010003414T5 (de) Biometrische Multiplex-Bildgebung und biometrischer Dual-Bilderzeugersensor
DE102010023344A1 (de) Kameraobjektiv und Kamerasystem
DE102019133642A1 (de) Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten
DE102013212495A1 (de) Verfahren und Vorrichtung zur Inspektion einer konturierten Fläche,insbesondere des Unterbodens eines Kraftfahrzeugs
DE102015217253A1 (de) Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung
WO2018197389A1 (de) Materialprüfung mit winkelvariabler beleuchtung
WO2011100964A2 (de) Verfahren zur verarbeitung von mehrkanaligen bildaufnahmen für die detektion von verborgenen gegenständen bei der optoelektronischen personenkontrolle
DE69633589T2 (de) Verfahren und Gerät zur Verarbeitung von visuellen Informationen
WO2019048554A1 (de) Verfahren zum auswerten eines optischen erscheinungsbildes in einer fahrzeugumgebung und fahrzeug
DE102008016766A1 (de) Optoelektronischer Sensor und Verfahren zur Detektion von Objekten
EP3696537B1 (de) Vorrichtung und verfahren zur schadenserkennung an einem fahrenden fahrzeug
DE102018214699A1 (de) Personenerkennungseinrichtung und Verfahren
DE102014224903A1 (de) Optischer Umfeldsensor für Fahrzeuge
WO2013143882A1 (de) Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner
EP2711899A2 (de) Vorrichtung zur optischen Gesichtsfelderkennung
DE102007041333A1 (de) Berührungslos arbeitendes Zählsystem
AT521845B1 (de) Verfahren zur Fokuseinstellung einer Filmkamera
EP0124537A1 (de) Verfahren zur ueberwachung eines objektraumes.
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000