DE102018201914A1 - Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes - Google Patents

Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes Download PDF

Info

Publication number
DE102018201914A1
DE102018201914A1 DE102018201914.2A DE102018201914A DE102018201914A1 DE 102018201914 A1 DE102018201914 A1 DE 102018201914A1 DE 102018201914 A DE102018201914 A DE 102018201914A DE 102018201914 A1 DE102018201914 A1 DE 102018201914A1
Authority
DE
Germany
Prior art keywords
camera
person
image
detected
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018201914.2A
Other languages
English (en)
Inventor
Sascha Florian Lange
Gregor Blott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018201914.2A priority Critical patent/DE102018201914A1/de
Priority to CN201910103546.2A priority patent/CN110119667A/zh
Priority to US16/267,455 priority patent/US11126852B2/en
Publication of DE102018201914A1 publication Critical patent/DE102018201914A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera 100, wobei das Verfahren zumindest einen Schritt des Einlesens aufweist, bei dem ein Detektionssignal 135, das eine detektierte Person innerhalb eines Überwachungsbereichs zumindest der Kamera 100 eines Kameranetzwerkes repräsentiert, eingelesen wird. Das Verfahren weist ferner zumindest einen Schritt des Sammelns auf, bei dem eine Mehrzahl von Bildsignalen 140 aus der Kamera 100 unter Verwendung des eingelesenen Detektionssignals 135 gesammelt werden, wobei die gesammelten Bildsignale 140 einen aufgenommenen Bildausschnitt aus je einem Bild der Kamera 100 repräsentieren. Schließlich weist das Verfahren zumindest einen Schritt des Adaptierens auf, bei dem das Modell zur Personen-Wiedererkennung unter Verwendung der gesammelten Bildsignale 140 adaptiert wird, um die detektierte Person in einem Bild der Kamera 100 oder einer zumindest zweiten Kamera des Kameranetzwerkes wiederzuerkennen.

Description

  • Stand der Technik
  • Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Es sind Überwachungssysteme zur Beobachtung eines oder mehrerer Überwachungsbereiche bekannt, wobei auf den und/oder die Überwachungsbereiche zumindest eine oder eine Mehrzahl von Überwachungskameras gerichtet ist. Hierbei wird ein sich im Überwachungsbereich befindliches auffälliges Objekt, beispielsweise eine Person oder ein Fahrzeug, von der Überwachungskamera verfolgt. Die von den Überwachungskameras aufgezeichneten Bildsequenzen und/oder Videosequenzen werden an eine zentrale Einheit, beispielsweise eine Überwachungszentrale, weitergeleitet und dort von einem Überwachungspersonal und/oder automatisiert ausgewertet.
  • Die DE 10 2009 055 127 A1 beschreibt ein Videoüberwachungssystem zur Detektion und Verfolgung eines auffälligen Objekts, wobei das Objekt anhand einer vorgegebenen Modellbeschreibung mittels einer Detektionseinrichtung detektiert und über einen bestimmten Zeitraum von einer Verfolgungseinrichtung verfolgt wird, wobei die Verfolgungseinrichtung eine Mehrzahl von Verfolgungsparametern erfasst und mit der Detektionseinrichtung rückgekoppelt ist, sodass beim wiederholten Detektieren die Verfolgungsparameter der Detektionseinrichtung zugeführt und für das Detektieren des Objekts berücksichtigt werden.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera, ein Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes, weiterhin eine Vorrichtung, die diese Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Ein Modell zur Personen-Wiedererkennung wird unter Verwendung einer Mehrzahl aufgenommener Bildausschnitte einer Kamera so angelernt und adaptiert, dass die auf den Bildausschnitten detektierte Person auch in anderen Kameras eines Kameranetzwerkes wiedererkannt und verfolgt werden kann.
  • Es wird ein Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera vorgestellt, wobei das Verfahren die folgenden Schritte aufweist:
    • Einlesen eines Detektionssignals, das eine detektierte Person innerhalb eines Überwachungsbereichs zumindest der Kamera eines Kameranetzwerkes repräsentiert;
    • Sammeln einer Mehrzahl von Bildsignalen aus der Kamera unter Verwendung des eingelesenen Detektionssignals, wobei die gesammelten Bildsignale einen aufgenommenen Bildausschnitt aus je einem Bild der Kamera repräsentieren; und
    • Adaptieren des Modells zur Personen-Wiedererkennung unter Verwendung der gesammelten Bildsignale, um die detektierte Person in einem Bild der Kamera oder einer zumindest zweiten Kamera des Kameranetzwerkes wiederzu erken n en.
  • Bei einem Modell kann es sich um eine vereinfachte Darstellung eines Ablaufs oder eines komplexen Zusammenhangs handeln. Vorzugsweise ist das Modell als künstliches neuronales Netz ausgebildet, wobei die künstlichen Neuronen in einer vorbestimmten Netzarchitektur angeordnet und verbunden sind, wobei die Verbindungen zum Informationsaustausch dienen. Dabei ist vorgesehen, dass die Intensität des Informationsflusses zwischen zwei Neuronen durch Gewichtung veränderbar ist. Vorzugsweise werden beim Adaptieren des Modells die Gewichte der Verbindungen des neuronalen Netzes geändert. Bei einer Kamera kann es sich um eine fototechnische Apparatur handeln, die statische oder bewegte Bilder auf einem fotografischen Film oder elektronisch auf ein magnetisches Videoband oder digitales Speichermedium aufzeichnen oder über eine Schnittstelle übermitteln kann. Bei einem Kameranetzwerk kann es sich um ein vernetztes Sicherheitssystem mit einer Mehrzahl von stationär angeordneten Kameras handeln, die der Überwachung eines Überwachungsbereichs dienen. Bei einem Überwachungsbereich kann es sich um einen festgelegten, meist öffentlichen Bereich oder Raum, wie beispielsweise in einem Flughafen oder einen Bahnhof, handeln, der von einem Kameranetzwerk überwacht wird, um durch die präventive und repressive Wirkung der Videoüberwachung zu einer nachhaltigen Verbesserung der Sicherheitslage zu führen. Bei einem Bildausschnitt kann es sich um einen Teilbereich einer Szene handeln, der auf dem fotografischen Bild festgehalten wird.
  • Die Vorteile des hier vorgestellten Verfahrensansatzes liegen insbesondere darin, dass durch ein Bestimmen zumindest eines Regelparameters zur aktiven Kameraregelung ein Modell zur Personen-Wiedererkennung so angelernt und trainiert werden kann, dass eine verfügbare Datenmenge zu einer detektierten Person in einem Überwachungsbereich künstlich angereichert wird. Auf Grundlage dieser künstlich angereicherten Datenmenge lassen sich robustere und beleuchtungsinvariante Merkmale zur Personen-Wiedererkennung generieren. Hierdurch kann eine detektierte Person beispielsweise nahtlos durch ein gesamtes Kameranetzwerk verfolgt werden, ohne, dass deren Identität verloren geht oder die Person mit einer anderen verfolgten Person vertauscht wird. Ferner erleichtert der Einsatz einer intelligenter Video- und/oder Bildinhaltsanalyse das Überwachen von kritischen Einrichtungen, beispielsweise von Bahnhöfen, Flughäfen und öffentlichen Plätzen, da intelligente Algorithmen Personen in der Szene automatisch detektieren und über die Zeit verfolgen können. So kann das Überwachungssystem automatisch das Sicherheitspersonal warnen, wenn sich eine Person beispielsweise in einem kritischen oder sensiblen Bereich aufhält oder eine andere Abweichung vom normalen Verhalten erkannt wird.
  • Gemäß einer Ausführungsform können mit einem Schritt des Extrahierens spezifische Personenmerkmalen der detektierten Person aus den gesammelten Bildsignalen extrahiert werden, insbesondere wobei den spezifischen Personenmerkmalen ein Identifikator zur Identifikation der Person zugeordnet wird und wobei im Schritt des Adaptierens die spezifischen Personenmerkmale an die Kamera oder die zweite Kamera des Kameranetzwerkes ausgegeben werden. Anhand dieser Zuordnungsinformationen aus spezifischen Personenmerkmalen verknüpft mit dem Identifikator, kann eine bestimmte Person eindeutig und nahtlos über die Gesamtheit eines Kameranetzwerkes zur Überwachung eines kritischen Bereichs verfolgt und identifiziert werden.
  • Gemäß einer Ausführungsform kann mit einem Schritt des Bestimmens ein Regelparameter zur Einstellung einer Aufnahmeeigenschaft der Kamera oder der zweiten Kamera vorzugsweise unter Verwendung eines gesammelten Bildausschnitts bestimmt werden, insbesondere wobei im Schritt des Sammelns der bestimmte Regelparameter zur Aufnahme von zumindest einem weiteren Bildsignal angewendet werden kann. Hierbei dient der Regelparameter in erster Linie der Anpassung des aufgenommenen bzw. des aufzunehmenden Bildausschnitts an die momentan gemessenen Belichtungsverhältnisse der aufgenommenen bzw. aufzunehmenden Szene und kann ebendies in Abhängigkeit von zukünftig zu erwartenden Belichtungsverhältnissen angepasst werden. Durch eine prädiktive Regelung der Kamera oder der zweiten Kamera mittels des Regelparameters werden die mannigfaltigen Anforderungen bei sich schnell verändernden Szenen erfüllt. Vorzugsweise wird die Kamera oder die zweite Kamera mit den bestimmten Regelparametern eingestellt. Insbesondere werden dabei die Regelparameter in vorbestimmten Einstellbereichen schrittweise und/oder zufällig variiert und damit die Bildausschnitte aufgenommen.
  • Gemäß einer Ausführungsform kann im Schritt des Bestimmens als Regelparameter eine Helligkeit und/oder ein Kontrast und/oder eine Farbdarstellung erkannt werden. Durch ein Anwenden bzw. Anpassen des aufgenommenen bzw. aufzunehmenden Bildausschnitts in Bezug auf Beleuchtung, Kontrast und Farbdarstellung wird eine Erhöhung der DatenVariabilität erreicht, was in einer Verbesserung des Modells zur Personen-Wiedererkennung resultiert. Vorzugsweise wird alternativ oder zusätzlich zu den variierten Regelparametern der Infrarot-Sperrfilter der Kamera deaktiviert und der Bildausschnitt bei deaktiviertem Infrarot-Sperrfilter aufgenommen und zur Adaption des Modells zur Personen-Wiedererkennung verwendet.
  • Gemäß einer Ausführungsform können im Schritt des Sammelns die Bildausschnitte von Bildsignalen entlang einer Bewegungstrajektorie der detektierten Person gesammelt werden. Hierbei werden die entlang der Bewegungstrajektorie aufgenommen Bildausschnitte so gewählt, um auf diesen Bildausschnitten spezifische Merkmale der Person zu extrahieren, mittels derer die detektierte Person auch in anderen Kameras eines Kameranetzwerkes eindeutig zugeordnet werden kann.
  • Es wird ein Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine Kamera oder eine zweite Kamera eines Kameranetzwerkes vorgestellt, wobei das Verfahren die folgenden Schritte aufweist:
    • die Schritte entsprechend einem Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera;
    • Erfassen zumindest eines zweiten Bildsignals, wobei das zweite Bildsignal einen zweiten Bildausschnitt aus einem Bild der Kamera oder der zweiten Kamera repräsentiert; und
    • Erkennen einer detektierten Person auf dem eingelesenen zweiten Bildsignal durch die Kamera oder die zweite Kamera des Kameranetzwerkes unter Verwendung des Modells zur Personen-Wiedererkennung.
  • Gemäß einer Ausführungsform können in den Schritten entsprechend dem Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera die spezifischen Personenmerkmale der detektierten Person auf den gesammelten Bildsignalen an die Kamera oder die zweite Kamera ausgegeben werden, wobei im Schritt des Erkennens die bereits von der ersten Kamera detektierte Person durch die spezifischen Personenmerkmale auf dem durch die Kamera selbst oder die zweite Kamera eingelesenen zweiten Bildsignal ebenfalls erkannt werden. Anhand dieser Zuordnungsinformationen aus spezifischen Personenmerkmalen verknüpft mit einem Identifikator, kann eine bestimmte Person eindeutig und nahtlos über die Gesamtheit eines Kameranetzwerkes zur Überwachung eines kritischen Bereichs verfolgt und identifiziert werden.
  • Gemäß einer Ausführungsform kann in den Schritten entsprechend dem Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera ein bestimmter Regelparameter an die Kamera oder die zweite Kamera ausgegeben werden, wobei im Schritt des Erfassens der bestimmte Regelparameter auf den von der Kamera oder der zweiten Kamera erfassten zweiten Bildausschnitt angewendet wird. Durch eine prädiktive Regelung der Kamera mittels des Regelparameters werden die mannigfaltigen Anforderungen bei schnell veränderlichen Szenen sicher erfüllt und eine bereits von der ersten Kamera detektierte Person ist auch durch die zweite Kamera des Kameranetzwerkes eindeutig identifizierbar.
  • Gemäß einer Ausführungsform können in dem Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung und/oder in dem Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes die erste und die zweite Kamera des Kameranetzwerkes mit einer Rechnereinheit verbunden sein, insbesondere wobei der Schritt des Sammelns und/oder der Schritt des Erkennens auf der Rechnereinheit durchgeführt werden. Hierbei wird die durch die erste und/oder die zweite Kamera aufgenommene Mehrzahl von Bildausschnitten auf der Rechnereinheit gesammelt, um anhand der von den Bildausschnitten extrahierten Personenmerkmale das Modell zur Personen-Wiedererkennung anzulernen.
  • Eines oder mehrere der hier vorgestellten Verfahren kann/können beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einer Vorrichtung oder einem Steuergerät implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren, insbesondere auf einem nichtflüchtigen maschinenlesbaren, Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine schematische Darstellung einer ersten Kamera mit einer Vorrichtung zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera gemäß einem Ausführungsbeispiel;
    • 2 eine schematische Darstellung einer zweiten Kamera mit einer Vorrichtung zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung gemäß einem Ausführungsbeispiel;
    • 3 eine Darstellung zur Erläuterung der Bedeutung einer aktiven Kameraregelung mittels eines Regelparameters bei der Personen-Wiedererkennung gemäß einem Ausführungsbeispiel;
    • 4 eine Darstellung zur Erläuterung der Bedeutung einer aktiven Kameraregelung mittels eines Regelparameters bei der Personen-Wiedererkennung gemäß einem Ausführungsbeispiel;
    • 5 einen vereinfachten Systemaufbau zur Verwendung eines Verfahrens zum Anlernen eines Modells zur Personen-Wiedererkennung sowie eines Verfahrens zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung gemäß einem Ausführungsbeispiel;
    • 6 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera gemäß einem Ausführungsbeispiel; und
    • 7 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung einer ersten Kamera 100 mit einer Vorrichtung 105 zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera 100 gemäß einem Ausführungsbeispiel. Die Vorrichtung 105 zum Anlernen eines Modells zur Personen-Wiedererkennung weist eine Einleseeinrichtung 110, eine Sammeleinrichtung 115, eine Bestimmungseinrichtung 120, eine Extraktionseinrichtung 125 sowie eine Adaptionseinrichtung 130 auf.
  • Die Einleseeinrichtung 110 ist ausgebildet, um ein Detektionssignal 135 einzulesen, wobei das Detektionssignal 135 eine detektierte Person innerhalb eines Überwachungsbereichs zumindest der Kamera 100 eines Kameranetzwerkes repräsentiert. Die Sammeleinrichtung 115 ist ausgebildet, um eine Mehrzahl von Bildsignalen 140 aus der Kamera 100 einzulesen und unter Verwendung des bereits von der Einleseeinrichtung 110 eingelesenen Detektionssignals 135 zu sammeln, wobei die gesammelten Bildsignale 140 einen aufgenommenen Bildausschnitt aus je einem Bild der Kamera 100 repräsentieren. Die Sammeleinrichtung 115 ist zudem ausgebildet, die Bildausschnitte der Bildsignale 140 entlang einer Bewegungstrajektorie der detektierten Person zu sammeln. Gemäß einem Ausführungsbeispiel können die Bildsignale 140 ebenso auf einer extern angeordneten Rechnereinheit gesammelt werden, mit der die Kamera 100 verbunden ist. Die Bestimmungseinrichtung 120 ist ausgebildet einen Regelparameter 145 zur Einstellung einer Aufnahmeeigenschaft der Kamera 100 unter Verwendung der gesammelten Bildsignale 140 bzw. eines von den Bildsignalen 140 repräsentierten Bildausschnitts zu bestimmen. Als Regelparameter 145 kann hierbei eine Helligkeit und/oder ein Kontrast und/oder eine Farbdarstellung erkannt werden. Hierbei ist im Folgenden die Sammeleinrichtung 115 ferner ausgebildet, den erkannten Regelparameter 145 zur Aufnahme von zumindest einem weiteren Bildsignal 140 anzuwenden. Die Extraktionseinrichtung 125 ist ausgebildet, um spezifische Personenmerkmale 150 der detektierten Person aus den gesammelten Bildsignalen 140 zu extrahieren. Hierbei wird den spezifischen Personenmerkmalen 150 zudem ein Identifikator zur Identifikation der Person zugeordnet. Schließlich ist die Adaptionseinrichtung 130 ausgebildet, um das Modell zur Personen-Wiedererkennung unter Verwendung der gesammelten Bildsignale 140 zu adaptieren, um die detektierte Person in einer zumindest zweiten Kamera des Kameranetzwerkes wiederzuerkennen. Hierbei ist die Adaptionseinrichtung 130 ferner ausgebildet, die spezifischen Personenmerkmale 150 sowie den Regelparameter 145 vorhergehend an eine zweite Kamera des Kameranetzwerkes auszugeben.
  • 2 zeigt eine schematische Darstellung einer zweiten Kamera 200 mit einer Vorrichtung 205 zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung gemäß einem Ausführungsbeispiel. Die Vorrichtung 205 zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera 200 eines Kameranetzwerkes weist eine Erfassungseinrichtung 210 und eine Erkennungseinrichtung 215 auf.
  • Die Erfassungseinrichtung 210 ist ausgebildet, um zumindest ein zweites Bildsignal 220 zu erfassen, wobei das zweite Bildsignal 220 einen zweiten Bildausschnitt aus einem Bild der zweiten Kamera 200 repräsentiert. Die Erfassungseinrichtung 210 ist hierbei ferner ausgebildet, den bestimmten Regelparameter 145 zu erfassen und auf den erfassten zweiten Bildausschnitt anzuwenden, wobei der bestimmte Regelparameter 145 zur Einstellung einer Aufnahmeeigenschaft der zweiten Kamera 200 unter Verwendung eines gesammelten Bildausschnitts von der Adaptionseinrichtung der Vorrichtung zum Anlernen eines Modells zur Personen-Wiedererkennung aus 1 an die zweite Kamera 200 ausgegeben wird. Schließlich ist die Erfassungseinrichtung 210 ausgebildet, die extrahierten spezifischen Personenmerkmale 150 zu erfassen. Die Erkennungseinrichtung 215 ist ausgebildet, um eine detektierte Person auf dem eingelesenen zweiten Bildsignal 220 durch die zweite Kamera 200 des Kameranetzwerkes unter Verwendung des Modells zur Personen-Wiedererkennung zu erkennen. Hierbei ist die Erkennungseinrichtung 215 insbesondere ausgebildet, die detektierte Person anhand der spezifischen Personenmerkmale 150 aus dem erfassten zweiten Bildsignal 220 zu erkennen, wobei die spezifischen Personenmerkmale 150 zur Erkennung der detektierten Person aus den gesammelten Bildsignalen von der Adaptionseinrichtung der Vorrichtung zum Anlernen eines Modells zur Personen-Wiedererkennung aus 1 an die zweite Kamera 200 ausgegeben werden. Gemäß einem Ausführungsbeispiel kann die detektierte Person anhand der spezifischen Personenmerkmale aus dem erfassten zweiten Bildsignal 220 ebenso auf einer extern angeordneten Rechnereinheit erkannt werden, mit der die zweite Kamera 200 verbunden ist.
  • 3 zeigt eine Darstellung zur Erläuterung der Bedeutung einer aktiven Kameraregelung mittels eines Regelparameters bei der Personen-Wiedererkennung gemäß einem Ausführungsbeispiel. Die Darstellung weist hierbei vier aufgenommene Bildausschnitte 305, 310, 315, 320 auf, die von einer Kamera ohne aktive Kameraregelung zu vier verschiedenen Zeitpunkten aufgenommen sind.
  • Auf den Bildausschnitte 305, 310, 315, 320 ist eine von der Kamera detektierte Person 325 zu sehen, die über einen bestimmten Zeitraum hinweg entlang einer Bewegungstrajektorie 330 verfolgt wird. Um nun ein Modell anzulernen, welches für die Personen-Wiedererkennung genutzt werden kann, werden entlang der Bewegungstrajektorie 330 der Person 325 eine Mehrzahl von Bildausschnitten 305, 310, 315, 320 der detektierten Person 330 ausgewählt und gesammelt, um auf diesen gesammelten Bildausschnitten 305, 310, 315, 320 spezifische Merkmale der Person 325 zu extrahieren bzw. zu lernen. Das vergrößerte linke Bild 340 zeigt eine übereinandergelegte Gesamtszene der vier aufgenommen und gesammelten Bildausschnitte 305, 310, 315, 320. Die vier Bildausschnitte 305, 310, 315, 320 wurden zu je vier unterschiedlichen Zeitpunkten aufgenommen, wobei der Bildausschnitt 305 zum Zeitpunkt t-3 zuerst aufgenommen wurde, gefolgt von dem Bildausschnitt 310 zum Zeitpunkt t-2, gefolgt von dem Bildausschnitt 315 zum Zeitpunkt t-1. Der Bildausschnitt 320, aufgenommen zum Zeitpunkt t, zeigt den aktuellsten Bildausschnitt.
  • In 3 ist außerdem eine Funktion 345 zur Aktivität der Kameraregelung dargestellt, deren x-Achse gemäß einem Ausführungsbeispiel einen Helligkeitsparameter und deren y-Achse einen Zeitverlauf angibt. Der Graph 350 der Funktion 345 zeigt hierbei eine Inaktivität der Kameraregelung an, wobei deutlich wird, dass hinweg des Zeitverlaufs der Graph 350 als eine Gerade dargestellt ist, da die Kameraregelung für alle vier Bildausschnitte 305, 310, 315, 320 gleichbleibend konstant ist.
  • Wie in 3 zu sehen ist, sind die Bildausschnitte 305, 310, 315, 320 identisch. In einer Kamera, die keine aktive Kamerareglung aufweist, lässt sich daher nur eine begrenzte Anzahl von Bildausschnitten der Person 325 verwerten, da gerade in Szenen mit konstanter Beleuchtung die Variabilität in den Daten gering ist. Dementsprechend sind die drei Bildausschnitte 310, 315, 320 durchgestrichen, da diese zusätzlichen Bildausschnitte 310, 315, 320 zu den Zeitpunkten t-2, t-1 und t keinen Mehrwert bringen. Es kann also nur der Bildausschnitt 305 zum Zeitpunkt t-3 verwendet werden. Eine herkömmliche, konstante Kameraregelung geht von der Annahme aus, dass sich die Szene von Bild zu Bild nicht wesentlich verändert. Der für die sichtbare Szene in 3 berechnete Regelparameter der Kamera wird daher als für die nächsten Bilder gültig bleibend angenommen. Diese Annahme verliert jedoch in einigen Anwendungen ihre Gültigkeit, in denen schnell veränderliche Szenen auftreten, wie beispielsweise bei der Verfolgung einer flüchtigen Person. Bei einer herkömmlichen Kameraregelung tritt somit ein Hinterherhinken auf, so dass der Bildsensor der Kamera die wechselnden Beleuchtungsverhältnisse nicht mehr richtig wiedergeben kann.
  • Ferner bestehen Probleme bei punktuellen Störungsereignissen, wie beispielsweise eine vor der Kamera vorbeilaufende Gruppe an Menschen. Es besteht daher Bedarf an einer aktiven Kameraregelung, welche auch bei schnell veränderlichen Szenen eine zufriedenstellende Umsetzung der aufgenommenen Szene in einem Bildausschnitt erlaubt.
  • Ein weiteres Problem ist, das große Unterschiede in Blickpunkt und Beleuchtung über verschiedene Kameraansichten das Aussehen der Person 325 stark verändern können, was die erneute Identifizierung der Personen 325 in weiteren Kameras eines Kameranetzwerkes erschwert. Die wesentliche Herausforderung liegt in der hohen Variabilität in der Personenerscheinung aufgrund unterschiedlicher Beleuchtungsverhältnisse und/oder verschiedener Kameraansichten und/oder einer Verdeckung der Personen 325 und/oder einem nur vereinzelt rotations-symmetrischem Aussehen der Person 325 sowie aufgrund von nur beschränkt verfügbaren Trainingsdaten, um ein robustes Model zu generieren.
  • 4 zeigt eine Darstellung zur Erläuterung der Bedeutung einer aktiven Kameraregelung mittels eines Regelparameters bei der Personen-Wiedererkennung gemäß einem Ausführungsbeispiel. Die Darstellung weist hierbei vier aufgenommene Bildausschnitte 305, 310, 315, 320 auf, die von einer Kamera mit aktiver Kameraregelung zu vier verschiedenen Zeitpunkten aufgenommen sind.
  • Auf den Bildausschnitte 305, 310, 315, 320 ist eine von der Kamera detektierte Person 325 zu sehen, die über einen bestimmten Zeitraum hinweg entlang einer Bewegungstrajektorie 330 verfolgt wird. Das vergrößerte linke Bild 340 zeigt eine übereinandergelegte Gesamtszene der vier aufgenommen und gesammelten Bildausschnitte 305, 310, 315, 320. Die vier Bildausschnitte 305, 310, 315, 320 wurden zu je vier unterschiedlichen Zeitpunkten aufgenommen, wobei der Bildausschnitt 305 zum Zeitpunkt t-3 zuerst aufgenommen wurde, gefolgt von dem Bildausschnitt 310 zum Zeitpunkt t-2, gefolgt von dem Bildausschnitt 315 zum Zeitpunkt t-1. Der Bildausschnitt 320, aufgenommen zum Zeitpunkt t, zeigt den aktuellsten Bildausschnitt.
  • In 4 ist außerdem eine Funktion 345 zur Aktivität der Kameraregelung dargestellt, deren x-Achse gemäß einem Ausführungsbeispiel einen Helligkeitsparameter und deren y-Achse einen Zeitverlauf angibt. Der Graph 350 der Funktion 345 zeigt hierbei eine Aktivität der Kameraregelung an, wobei deutlich wird, dass hinweg des Zeitverlaufs für jeden der vier aufgenommenen Bildausschnitte 305, 310, 315, 320 die Kameraregelung aktiv verändert ist.
  • Tritt die Person 325 erstmalig in den Sichtbereich der Kamera des Kameranetzwerkes, wird die Mehrzahl von Bildausschnitte 305, 310, 315, 320 dieser Person 325 in einer Rechnereinheit oder einer Sammeleinrichtung der Vorrichtung zum Anlernen des Modells zur Personen-Wiedererkennung abgelegt und gesammelt, wobei aus diesen gesammelten Bildausschnitten 305, 310, 315, 320 spezifische Personenmerkmale der Person 325 extrahiert werden. Diesen spezifischen Personenmerkmalen wird ferner ein eindeutiger Identifikator zugeordnet, wobei es sich bei dem Identifikator um eine Zahlen- und/oder eine Buchstabenkombination handeln kann. Anhand dieser Personendaten wird ein Modell zur Personen-Wiedererkennung angelernt und adaptiert, um dieselbe Person 325 in einer anderen Kamera des Kameranetzwerks wiederzuerkennen und mit den ursprünglich vergebenen spezifischen Personenmerkmalen sowie dem Identifikator zu verknüpfen.
  • Mittels aktiver Kameraregelung wird in jedem aufgenommenen Bildausschnitt 305, 310, 315, 320 eine Aufnahmeeigenschaft der Kamera unter Verwendung eines bestimmten Regelparameters verändert, so dass zu Zeitpunkten t-2, t-1 und t neue Daten für das Training des Modells zur Personen-Wiedererkennung erzeugt werden. Bei dem Regelparameter kann es sich um einen Parameter zur Anpassung einer Helligkeit und/oder eines Kontrasts und/oder einer Farbdarstellung an die Bildausschnitte 305, 310, 315, 320 handeln. Gut zu erkennen ist, dass die Kleidung der Person in 4 minimal ihre Farbe ändert, da die Farbdarstellung durch die Kameraregelung beeinflusst wird.
  • Durch aktive Steuerung der Kameraregelung kann ferner die Datenvariabilität entlang der Bewegungstrajektorie 330 der Person 325 deutlich gesteigert werden. Durch die künstlich angereicherten Daten lassen sich robustere Modelle zur Personen-Wiedererkennung mittels neuronaler Netze trainieren bzw. die Anzahl von Bildausschnitten 305, 310, 315, 320 in einer Rechnereinheit für die Person 325 maßgeblich erhöhen. Die aktive Steuerung der Kameraregelung hat eine direkte Auswirkung auf die Darstellung des Kamerabildes. Durch Unterbrechung der aktiven Kameraregelung kann keine sinnvolle Datenanreicherung mehr erfolgen, was die Genauigkeit der Personen-Wiedererkennung deutlich mindern würde.
  • Heutige Kameras können zudem so geregelt werden, dass sie in einen speziellen Nachtmodus umschalten. In diesem Modus wird zwar auf Grauwertbilder umgeschaltet, allerdings wird der Infrarot-Sperrfilter deaktiviert. Dies hat den Vorteil, dass auch für den Menschen nicht sichtbare Wellenlängen in die Bilder aufgenommen werden. Diese Aufnahmen verfügen dann über erscheinungsbasierte Eigenheiten der Person 325, die der Mensch nicht wahrnehmen kann, für die Personen-Wiedererkennung aber eine zusätzliche Information darstellen und somit den Informationsgehalt erhöhen.
  • 5 zeigt einen vereinfachten Systemaufbau zur Verwendung eines Verfahrens zum Anlernen eines Modells zur Personen-Wiedererkennung sowie eines Verfahrens zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung gemäß einem Ausführungsbeispiel. Der Systemaufbau weist die erste 100 und die zweite 200 Kamera, die in einem Kameranetzwerk 505 angeordnet und miteinander verbunden sind, sowie eine extern angeordnete Rechnereinheit 510 auf, mit der die erste 100 und die zweite 200 Kamera verbunden sind.
  • Sowohl die erste 100 als auch die zweite 200 Kamera sind auf einen zu überwachenden ersten 515 und zweiten Überwachungsbereich 520 gerichtet. In diesem ersten 515 und zweiten 520 Überwachungsbereich wird eine auffällige Person 325 jeweils unter Verwendung eines Detektionssignals 135 detektiert und von der ersten 100 und zweiten Kamera 200 anhand einer Bewegungstrajektorie 330 der Person 325 verfolgt. Die erste Kamera 100 nimmt eine Mehrzahl von Bildsignalen 140 auf, wobei die Bildsignale 140 eine Mehrzahl von Bildausschnitten aus einem Bild 340 der ersten Kamera 100 repräsentieren. Die Bildausschnitte werden hierbei entlang der verfolgten Bewegungstrajektorie 330 der Person 325 aufgenommen. Die aufgenommenen Bildausschnitte werden an die extern angeordnete Rechnereinheit 510 weitergeleitet, wo die Bildausschnitte abgelegt und gesammelt werden. Unter Verwendung der gesammelten Bildausschnitte wird ein Regelparameter 145 zur Einstellung einer Aufnahmeeigenschaft der Kamera 100 bestimmt. Als Regelparameter 145 wird hierbei eine Helligkeit und/oder ein Kontrast und/oder eine Farbdarstellung bestimmt. Im Folgenden wird der bestimmte Regelparameter 145 zur Aufnahme von zumindest einem weiteren Bildsignal 140 angewendet. Neben der Bestimmung des Regelparameters 145 werden unter Verwendung der gesammelten Bildausschnitte spezifische Personenmerkmale 150 der Person 325 extrahiert und der Person 325 wird ein eindeutiger Identifikator zugeordnet. Anhand dieser Personendaten wird nun ein Modell zur Personen-Wiedererkennung angelernt und adaptiert, um dieselbe Person 325 ebenso in der zweiten Kamera 200 des Kameranetzwerks 505 wiederzuerkennen und mit den ursprünglich vergebenen spezifischen Personenmerkmalen 150 sowie dem Identifikator zu verknüpfen, sobald sich die Person 325 in dem Überwachungsbereich 520 der zweiten Kamera 200 aufhält. Hierfür werden der Regelparameter 145 und die spezifischen Merkmale 150 der detektierten Person 325 an die zweite Kamera 200 des Kameranetzwerkes 505 ausgegeben. Die zweite Kamera 200 erfasst ein zweites Bildsignal 220, das einen zweiten Bildausschnitt aus einem Bild 540 der zweiten Kamera 200 repräsentiert. Der bestimmte Regelparameter 145 wird auf den zweiten Bildausschnitt angewendet, und die spezifischen Personenmerkmale 150 der detektierten Person 325 auf dem eingelesenen zweiten Bildsignal 220 erkannt. Somit wird die detektierte Person 325 unter Verwendung des Modells zur Personen-Wiedererkennung von der zweiten Kamera 200 eindeutig erkannt.
  • Denkbar ist auch, dass das zweite Bildsignal 220 durch die erste Kamera 100 (beispielsweise zu einem späteren Zeitponkt) aufgenommen und zur Erkennung der Person im von der ersten Kamera 100 überwachten Bereich (zu dem entsprechenden späteren Zeitpunkt) verwendet wird. Es ist daher nicht unbedingt notwendig, dass die Adaption des Modells nur für den Fall erfolgt, dass eine Person unter Verwendung der Daten der Kamera 100 in einem vor der zweiten Kamera 200 erfassten Bild erkannt wird, sondern die Anpassung des Modells kann auch wiederum für die Personenerkennung aus Bildausschnitten von durch die Kamera 100 erfassten Bildern verwendet werden.
  • 6 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 600 zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera gemäß einem Ausführungsbeispiel. Das Verfahren 600 kann unter Verwendung der in 1 vorgestellten Vorrichtung zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera verwendet werden.
  • Das Verfahren 600 weist zunächst einen Schritt 605 auf, bei dem ein Detektionssignal, das eine detektierte Person innerhalb eines Überwachungsbereichs zumindest der Kamera eines Kameranetzwerkes repräsentiert, eingelesen wird. Anschließend weist das Verfahren 600 einen Schritt 610 auf, bei dem eine Mehrzahl von Bildsignalen aus der Kamera unter Verwendung des eingelesenen Detektionssignals gesammelt werden, wobei die gesammelten Bildsignale einen aufgenommenen Bildausschnitt aus je einem Bild der Kamera repräsentieren. Die Bildausschnitte der Bildsignale werden hierbei entlang einer Bewegungstrajektorie der detektierten Person gesammelt. Gemäß einem Ausführungsbeispiel kann der Schritt 610 ebenso auf einer extern angeordneten Rechnereinheit ausgeführt werden. In einem Schritt 615 des Verfahrens 600, wird ein Regelparameter zur Einstellung einer Aufnahmeeigenschaft der Kamera unter Verwendung eines gesammelten Bildausschnitts bestimmt. Als Regelparameter kann hierbei eine Helligkeit und/oder ein Kontrast und/oder eine Farbdarstellung erkannt werden. Anschließend kann insbesondere der Schritt 610 des Verfahrens 600 erneut ausgeführt werden, um den bestimmten Regelparameter zur Aufnahme von zumindest einem weiteren Bildsignal anzuwenden. In einem weiteren Schritt 620 des Verfahrens 600, werden spezifische Personenmerkmale der detektierten Person aus den gesammelten Bildsignalen extrahiert, insbesondere wobei den spezifischen Personenmerkmalen ein Identifikator zur Identifikation der Person zugeordnet wird. Schließlich weist das Verfahren 600 einen Schritt 625 auf, bei dem das Modell zur Personen-Wiedererkennung unter Verwendung der gesammelten Bildsignale adaptiert wird, um die detektierte Person in einem Bild der Kamera oder einer zumindest zweiten Kamera des Kameranetzwerkes wiederzuerkennen, wobei ebenfalls im Schritt 625 die spezifischen Personenmerkmale an die Kamera oder die zweite Kamera des Kameranetzwerkes ausgegeben werden.
  • 7 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 700 zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung gemäß einem Ausführungsbeispiel. Das Verfahren 700 kann unter Verwendung der in 2 vorgestellten Vorrichtung zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung verwendet werden. Bevor das Verfahren 700 zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung ausgeführt werden kann, ist es notwendig, dass die Schritte des Verfahrens zum Anlernen eines Modells zur Personen-Wiedererkennung aus 6 ausgeführt werden.
  • Das Verfahren 700 weist zunächst einen Schritt 705 auf, bei dem zumindest ein zweites Bildsignal erfasst wird, wobei das zweite Bildsignal einen zweiten Bildausschnitt aus einem Bild der Kamera oder der zweiten Kamera repräsentiert. Hierbei ist der im vorhergehenden Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung bestimmte Regelparameter an die Kamera oder die zweite Kamera auszugeben, sodass im Schritt 705 des Verfahrens 700 ferner der bestimmte Regelparameter auf den erfassten zweiten Bildausschnitt angewendet werden kann. Schließlich weist das Verfahren 700 einen Schritt 710 auf, bei dem eine detektierte Person auf dem eingelesenen zweiten Bildsignal durch die Kamera oder die zweite Kamera des Kameranetzwerkes unter Verwendung des Modells zur Personen-Wiedererkennung erkannt wird. Hierbei sind die im vorhergehenden Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung spezifischen Personenmerkmale der detektierten Person auf den gesammelten Bildsignalen an die Kamera oder die zweite Kamera auszugeben, sodass im Schritt 710 des Verfahrens 700 ferner die spezifischen Personenmerkmale der detektierten Person auf dem eingelesenen zweiten Bildsignal erkannt werden können.
  • Gemäß einem Ausführungsbeispiel kann der Schritt 710 ebenso auf einer externen angeordneten Rechnereinheit ausgeführt werden.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009055127 A1 [0003]

Claims (12)

  1. Verfahren (600) zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera (100), wobei das Verfahren (600) die folgenden Schritte aufweist: Einlesen (605) eines Detektionssignals (135), das eine detektierte Person (325) innerhalb eines Überwachungsbereichs (515) zumindest der Kamera (100) eines Kameranetzwerkes (505) repräsentiert; Sammeln (610) einer Mehrzahl von Bildsignalen (140) aus der Kamera (100) unter Verwendung des eingelesenen Detektionssignals (135), wobei die gesammelten Bildsignale (140) einen aufgenommenen Bildausschnitt (305, 310, 315, 320) aus je einem Bild (340) der Kamera (100) repräsentieren; und Adaptieren (625) des Modells zur Personen-Wiedererkennung unter Verwendung der gesammelten Bildsignale (140), um die detektierte Person (325) in einem Bild der Kamera (100) oder einer zumindest zweiten Kamera (200) des Kameranetzwerkes (505) wiederzuerkennen.
  2. Verfahren (600) gemäß einem der vorangegangenen Ansprüche mit einem Schritt des Extrahierens (620) von spezifischen Personenmerkmalen (150) der detektierten Person (325) aus den gesammelten Bildsignalen (140), insbesondere wobei den spezifischen Personenmerkmalen (150) ein Identifikator zur Identifikation der Person (325) zugeordnet wird, wobei im Schritt des Adaptierens (625) die spezifischen Personenmerkmale (150) an die Kamera (100) oder die zweite Kamera (200) des Kameranetzwerkes (505) ausgegeben werden.
  3. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Bestimmens (615) eines Regelparameters (145) zur Einstellung einer Aufnahmeeigenschaft der Kamera (100) oder der zweiten Kamera (200) insbesondere unter Verwendung eines gesammelten Bildausschnitts (305, 310, 315, 320), insbesondere wobei im Schritt des Sammelns (610) der bestimmte Regelparameter (145) zur Aufnahme von zumindest einem weiteren Bildsignal (140) angewendet wird.
  4. Verfahren (600) gemäß Anspruch 3, bei dem im Schritt des Bestimmens (615) als Regelparameter (145) eine Helligkeit und/oder ein Kontrast und/oder eine Farbdarstellung erkannt wird.
  5. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Sammelns (610) die Bildausschnitte (305, 310, 315, 320) von Bildsignalen (140) entlang einer Bewegungstrajektorie (330) der detektierten Person (325) gesammelt werden.
  6. Verfahren (700) zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine Kamera oder eine zweite Kamera (200) eines Kameranetzwerkes (505), wobei das Verfahren (700) die folgenden Schritte aufweist: die Schritte (605, 610, 615, 620, 625) entsprechend einem Verfahren (600) gemäß einem der Ansprüche 1 bis 5; Erfassen (705) zumindest eines zweiten Bildsignals (220), wobei das zweite Bildsignal (220) einen zweiten Bildausschnitt aus einem Bild (540) der Kamera (100) oder der zweiten Kamera (200) repräsentiert; und Erkennen (710) einer detektierten Person (325) auf dem eingelesenen zweiten Bildsignal (220) durch die Kamera (100) oder die zweite Kamera (200) des Kameranetzwerkes (505) unter Verwendung des Modells zur Personen-Wiedererkennung.
  7. Verfahren (700) gemäß Anspruch 6, bei dem in den Schritten entsprechend einem Verfahren (600) gemäß einem der Ansprüche 1 bis 5 die spezifischen Personenmerkmale (150) der detektierten Person (325) auf den gesammelten Bildsignalen (140) an die Kamera oder die zweite Kamera (200) ausgegeben werden, wobei im Schritt des Erkennens (710) der detektierten Person (325) die spezifischen Personenmerkmale (150) auf dem eingelesenen zweiten Bildsignal (220) erkannt werden.
  8. Verfahren (700) gemäß Anspruch 6, bei dem in den Schritten entsprechend einem Verfahren (600) gemäß einem der Ansprüche 1 bis 5 ein bestimmter Regelparameter (135) an die Kamera oder die zweite Kamera (200) ausgegeben wird, wobei im Schritt des Erfassens (705) der bestimmte Regelparameter (145) auf den erfassten zweiten Bildausschnitt angewendet wird.
  9. Verfahren (600) gemäß den Ansprüchen 1 bis 5 und/oder Verfahren (700) gemäß den Ansprüchen 6 bis 8, wobei die erste (100) und die zweite (200) Kamera des Kameranetzwerkes (505) mit einer Rechnereinheit (510) verbunden sind, insbesondere wobei der Schritt des Sammelns (610) und/oder der Schritt des Erkennens (710) auf der Rechnereinheit (510) durchgeführt werden.
  10. Vorrichtung (105; 205), die eingerichtet ist, um Schritte eines der Verfahren (600; 700) gemäß den Ansprüchen 1 bis 8 in entsprechenden Einheiten auszuführen und/oder anzusteuern.
  11. Computerprogramm, das dazu eingerichtet ist, ein Verfahren (600; 700) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern.
  12. Maschinenlesbares, insbesondere nichtflüchtiges maschinenlesbares, Speichermedium, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.
DE102018201914.2A 2018-02-07 2018-02-07 Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes Pending DE102018201914A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018201914.2A DE102018201914A1 (de) 2018-02-07 2018-02-07 Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes
CN201910103546.2A CN110119667A (zh) 2018-02-07 2019-02-01 用于学习用于人员重新识别的模型的方法和用于由所学习的模型来识别人员的方法
US16/267,455 US11126852B2 (en) 2018-02-07 2019-02-05 Method for training a person recognition model using images from a camera, and method for recognizing persons from a trained person recognition model by means of a second camera in a camera network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018201914.2A DE102018201914A1 (de) 2018-02-07 2018-02-07 Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes

Publications (1)

Publication Number Publication Date
DE102018201914A1 true DE102018201914A1 (de) 2019-08-08

Family

ID=67308887

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018201914.2A Pending DE102018201914A1 (de) 2018-02-07 2018-02-07 Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes

Country Status (3)

Country Link
US (1) US11126852B2 (de)
CN (1) CN110119667A (de)
DE (1) DE102018201914A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443833B (zh) * 2018-05-04 2023-09-26 佳能株式会社 对象跟踪方法和设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009055127A1 (de) 2009-12-22 2011-06-30 Robert Bosch GmbH, 70469 Vorrichtung und Verfahren zum Überwachen von Videoobjekten

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7796154B2 (en) * 2005-03-07 2010-09-14 International Business Machines Corporation Automatic multiscale image acquisition from a steerable camera
US8311276B2 (en) * 2008-01-07 2012-11-13 JVC Kenwood Corporation Object tracking apparatus calculating tendency of color change in image data regions
WO2010045271A1 (en) * 2008-10-14 2010-04-22 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-d pose of the target
US8103056B2 (en) * 2008-10-15 2012-01-24 Honeywell International Inc. Method for target geo-referencing using video analytics
US9113119B2 (en) * 2011-12-20 2015-08-18 Pelco, Inc. Method and system for color adjustment
DE102015205738A1 (de) * 2015-03-30 2016-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Bewegungsmesssystem einer Maschine und Verfahren zum Betreiben des Bewegungsmesssystems
CN104992142B (zh) * 2015-06-03 2018-04-17 江苏大学 一种基于深度学习和属性学习相结合的行人识别方法
CN105407276A (zh) * 2015-11-03 2016-03-16 北京旷视科技有限公司 拍照方法和设备
US10325351B2 (en) * 2016-03-11 2019-06-18 Qualcomm Technologies, Inc. Systems and methods for normalizing an image
CN106203260A (zh) * 2016-06-27 2016-12-07 南京邮电大学 基于多摄像机监控网络的行人识别与跟踪方法
US11379688B2 (en) * 2017-03-16 2022-07-05 Packsize Llc Systems and methods for keypoint detection with convolutional neural networks
US10692000B2 (en) * 2017-03-20 2020-06-23 Sap Se Training machine learning models
US10636173B1 (en) * 2017-09-28 2020-04-28 Alarm.Com Incorporated Dynamic calibration of surveillance devices
US20190243376A1 (en) * 2018-02-05 2019-08-08 Qualcomm Incorporated Actively Complementing Exposure Settings for Autonomous Navigation
US20190244030A1 (en) * 2018-02-07 2019-08-08 Hitachi, Ltd. Object tracking in video using better object area
US20200151692A1 (en) * 2018-04-18 2020-05-14 Sbot Technologies, Inc. d/b/a Caper Inc. Systems and methods for training data generation for object identification and self-checkout anti-theft

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009055127A1 (de) 2009-12-22 2011-06-30 Robert Bosch GmbH, 70469 Vorrichtung und Verfahren zum Überwachen von Videoobjekten

Also Published As

Publication number Publication date
CN110119667A (zh) 2019-08-13
US11126852B2 (en) 2021-09-21
US20190244026A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
EP1395945B1 (de) Verfahren zur faelschungserkennung bei der fingerabdruckerkennung unter verwendung einer texturklassifikation von grauwertdifferenzbildern
DE102017107264A1 (de) Sichtbasierte regenerkennung unter verwendung des tiefen lernens
EP2034461B1 (de) Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
DE102007029476A1 (de) Bildverarbeitungsvorrichtung zur Schattendetektion bzw. -unterdrückung, Verfahren und Computerprogramm
EP3291172B1 (de) Verfahren zur ermittlung von ergebnisbilddaten
WO2009003793A2 (de) Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm
EP2517149A2 (de) Vorrichtung und verfahren zum überwachen von videoobjekten
DE102019103963A1 (de) Ildgebungsvorrichtung
DE102016122649B3 (de) Biometrisches Verfahren
DE102012020301A1 (de) Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter
EP1180258B1 (de) Mustererkennung mittels prüfung zusätzlicher merkmale nach teilverarbeitung
EP2483834B1 (de) Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild
DE102014100364A1 (de) Klassierer für Augen-abseits-der-Straße-Klassifizierung mit Brille
DE102018201914A1 (de) Verfahren zum Anlernen eines Modells zur Personen-Wiedererkennung unter Verwendung von Bildern einer Kamera und Verfahren zum Erkennen von Personen aus einem angelernten Modell zur Personen-Wiedererkennung durch eine zweite Kamera eines Kameranetzwerkes
WO1997004428A1 (de) Interaktives überwachungssystem
DE102018201909A1 (de) Verfahren und Vorrichtung zur Objekterkennung
EP3616858A2 (de) Verfahren und vorrichtung zur dokumentation eines status eines autonomen roboters
EP2359308B1 (de) Vorrichtung zur erzeugung und/oder verarbeitung einer objektsignatur, überwachungsvorrichtung, verfahren und computerprogramm
DE102010002312A1 (de) Verfahren und Vorrichtung zur Analyse eines Bildes einer Bilderfassungseinrichtung für ein Fahrzeug
DE102017222675A1 (de) Personenerkennung mittels einer Kamera
DE102021208423A1 (de) Verfahren und Computerprogramm zum Absichern eines Wahrnehmungssystems gegen Kontaminationen eines Bildgebungssensors des Wahrnehmungssystems und Wahrnehmungssystem eines automatisierten Fahrsystems
EP3772017A1 (de) Bahnsignalerkennung für autonome schienenfahrzeuge
EP2355007A2 (de) System und Verfahren zur dreidimensionalen Objektvermessung
DE102015011926A1 (de) Verfahren zum Betrieb eines Kamerasystems in einem Kraftfahrzeug und Kraftfahrzeug

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000