DE102011011931A1 - Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem - Google Patents

Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem Download PDF

Info

Publication number
DE102011011931A1
DE102011011931A1 DE102011011931A DE102011011931A DE102011011931A1 DE 102011011931 A1 DE102011011931 A1 DE 102011011931A1 DE 102011011931 A DE102011011931 A DE 102011011931A DE 102011011931 A DE102011011931 A DE 102011011931A DE 102011011931 A1 DE102011011931 A1 DE 102011011931A1
Authority
DE
Germany
Prior art keywords
objects
time
tracks
images
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011011931A
Other languages
English (en)
Inventor
Marko Stefanovic
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hella GmbH and Co KGaA
Original Assignee
Hella KGaA Huek and Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hella KGaA Huek and Co filed Critical Hella KGaA Huek and Co
Priority to DE102011011931A priority Critical patent/DE102011011931A1/de
Priority to US14/000,107 priority patent/US9589191B2/en
Priority to DE112012000873T priority patent/DE112012000873A5/de
Priority to PCT/EP2012/052818 priority patent/WO2012110654A1/de
Publication of DE102011011931A1 publication Critical patent/DE102011011931A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position

Abstract

Die Erfindung betrifft ein Verfahren zur Auswertung einer Mehrzahl zeitlich versetzter Bilder mit den Schritten
— Detektieren von einer Mehrzahl von Objekten in einem ersten Bild und Speichern der Mehrzahl von Objekten jeweils mit einer Ersterfassungszeit und/oder einem Ersterfassungsort als Tracks, vorzugsweise in einer Trackliste,
— Detektieren einer Mehrzahl von Objekten in weiteren Bildern und Identifizieren der jeweils detektierten Objekte als dem jeweils gespeicherten Track zugeordnetes Objekt, wobei der jeweilige Track durch die aktuelle Position des identifizierten Objekts aktualisiert wird und in den jeweiligen weiteren Bildern jeweils erstmalig detektierte Objekte mit zugeordneten Tracks gespeichert werden. Erfindungsgemäß wird für mindesten eines der Bilder eine Anzahl der gespeicherten Tracks bestimmt.

Description

  • Die Erfindung betrifft ein Verfahren zur Auswertung einer Mehrzahl versetzter Bilder.
  • Nach dem Stand der Technik ist es bekannt, zeitlich versetzte Bilder auf in den Bildern enthaltende Objekte zu untersuchen. In zeitlich späteren Bildern gefundene Objekte werden dabei nach Plausibilitätskriterien, d. h. beispielsweise nach ihrer Form und ihrer aktuellen Position, als Objekte aus zeitlich früheren Bildern identifiziert. Zwar ist das Identifizieren von Objekten in zeitlich späteren Bildern als aus den zeitlich früheren Bildern bekannte Objekte durch derartige Verfahren nach dem Stand der Technik zuverlässig möglich, jedoch ergibt sich das Problem, dass häufig fehlerhaft zusätzliche Objekte erkannt werden.
  • Beispielsweise kann Sensorrauschen oder dergleichen als zusätzliches Objekt detektiert werden. Außerdem sollen in vielen Anwendungsfällen nur bestimmte Objekte detektiert werden. Beispielsweise sollen bei Überwachungsbildern die Bilder zumeist nur auf darauf zu erkennende Personen hin untersucht werden.
  • Des Weiteren besteht der Bedarf, weitere Informationen aus den Bildern zu extrahieren.
  • Aufgabe der Erfindung ist es, ein Verfahren zur Auswertung von einer Mehrzahl zeitlich versetzter Bilder zu schaffen, das ein Erfassen von Objekten gestattet und einem Nutzer zusätzliche Informationen bezüglich der detektierten Objekte zur Verfügung stellt, wobei ein zuverlässiges Bestimmen der zu berücksichtigenden Objekte gewährleistet wird.
  • Diese Aufgabe wird durch ein Verfahren nach Anspruch 1, eine Vorrichtung nach Anspruch 12 sowie ein Überwachungssystem nach Anspruch 13 gelöst. Vorteilhafte Weiterbildungen und Ausgestaltungen ergeben sich mit den Merkmalen der Unteransprüche.
  • Gemäß dem erfindungsgemäßen Verfahren wird zunächst eine Mehrzahl von Objekten in einem ersten Bild detektiert. Die Objekte werden jeweils mit einer Ersterfassungszeit und/oder einem Ersterfassungsort des jeweiligen Objekts als Tracks gespeichert. Insbesondere können die Tracks in einer Trackliste gespeichert werden. Ein Initiieren eines Parameters, der die seit der Ersterfassung vergangene Zeit (beispielsweise angegeben in der Anzahl der seit der Ersterfassung aufgenommenen Bilder) angibt, soll hierbei auch als ein Speichern einer Erfassungszeit gelten.
  • Nachfolgend wird jeweils eine Mehrzahl von Objekten in weiteren Bildern detektiert, wobei jeweils eine Position des Objekts bestimmt wird. Bei dem ersten und/oder bei den weiteren Bildern kann es sich auch um beliebig geformte Teilbereiche bzw. Ausschnitte von Bildern handeln. Die in den weiteren Bildern detektierten Objekte werden, sofern es sich um Objekte handelt, die bereits in einem Track gespeichert wurden, als das dem jeweiligen Track zugeordnete Objekt identifiziert. Der jeweilige Track wird dann durch die aktuelle Position des jeweiligen Objekts aktualisiert. Im jeweiligen Bild erstmalig detektierte Objekte werden jeweils mit zugeordnetem Track gespeichert.
  • Bei dem erfindungsgemäßen Verfahren wird für mindestens eines der Bilder eine Anzahl der gespeicherten Tracks bestimmt und vorzugsweise ausgegeben. Dies ist beispielsweise im Bereich der Ladenüberwachungen von besonderem Vorteil, da somit ein einfaches Erstellen von Statistiken zum Kundenaufkommen ermöglicht wird. Ein Zählen der zu berücksichtigenden Objekte hat jedoch auch in vielen anderen Bereichen Vorteile. So ist beispielsweise ein zuverlässiges und schnelles Bestimmen des Verkehrsaufkommens bei Verkehrsüberwachungskameras möglich. Ebenso ist das Verfahren bei der Überwachung von Gepäckstücken von Vorteil.
  • Ein Ausgeben der Tracks kann vorzugsweise kontinuierlich oder in Abhängigkeit von einer Mehrzahl von Bildern oder auf Befehl eines Nutzers erfolgen.
  • Vorzugsweise wird für die Objekte bzw. Tracks jeweils eine zurückgelegte Wegstreckenlänge, ein Abstand und/oder eine Zeitdifferenz von der Ersterfassungszeit als Erfassungsdauer des jeweiligen Objekts bestimmt. Als euklidischer Abstand können der tatsächliche räumliche Abstand (z. B. in 3D-Weltkoordinaten) und/oder der Abstand in den einzelnen Raumrichtungen (beispielsweise der Abstand in horizontaler x-Richtung und/oder vertikaler z-Richtung oder auch in allen drei Raumkoordinaten) bestimmt werden. In gleicher Weise können eine Gesamtwegstreckenlänge und/oder eine Wegstreckenlänge in einzelne Raumrichtungen bestimmt werden.
  • Die Wegstreckenlänge, der Abstand und/oder die Erfassungsdauer (diese Eigenschaften werden auch als Qualitäten bezeichnet) werden nachfolgend jeweils mit einem vorgegebenen Schwellenwert verglichen. Anschießend wird das jeweilige Objekt bzw. der jeweilige Track als zu berücksichtigendes Objekt bzw. Track oder als nicht zu berücksichtigendes Objekt bzw. Track klassiert. Ob das Objekt bzw. der Track als zu berücksichtigendes Objekt bzw. Track oder als nicht zu berücksichtigendes Objekt bzw. Track klassiert wird, hängt vom Ergebnis des Vergleichs der Wegstrecke, des Abstands und/oder der Erfassungsdauer mit den jeweiligen vorgegebenen Schwellenwerten ab.
  • In einer idealen Welt wäre der aktuelle Füllstand, d. h. die aktuelle Zahl der zu berücksichtigen Objekte gleich der Anzahl der gespeicherten Tracks in der Trackliste. Durch Sensorrauschen oder Störstellen (Objekte im Bild) existieren jedoch meist mehr Tracks als zu berücksichtigende Objekte. Durch den Vergleich und die nachfolgende Klassierung werden personentypische Kriterien, wie das Zurücklegen einer Wegstrecke und/oder der Verbleib für eine vorgegebene Mindestaufenthaltsdauer im Bildbereich zur Beurteilung, ob es sich um ein zu berücksichtigendes Objekt handelt oder nicht, herangezogen. Hierdurch können Fehlerkennungen nahezu vollständig ausgeschlossen werden.
  • Je nach Ausführungsform des Verfahrens kann es von Vorteil sein, wenn nur Objekte in einem bestimmten Teilbereich der Bilder als zu berücksichtigende Tracks klassiert werden bzw. wenn nur Tracks, denen ein im Teilbereich angeordnetes Objekt zugeordnet ist beim Bestimmen der Anzahl der gespeicherten Tracks berücksichtigt werden. Ebenso kann auf ein Speichern der Objekte mit Ersterfassungszeit und Ersterfassungsort, die nicht mindestens einmal in dem Teilbereich detektiert wurden, verzichtet werden. Dadurch, dass nur ein gewisser Teilbereich der Bilder herangezogen wird, kann die Auswertung auf einen für einen Nutzer relevanten Bereich eingeschränkt werden. Wird beispielsweise ein Verkaufsstand mittels einer Kamera überwacht, kann der den Verkaufsstand direkt umgebende Bereich als Teilbereich (auch als ROI, Region of Interest oder als Überwachungsbereich bezeichnet) definiert werden.
  • In einer weiteren Ausführungsform der Erfindung wird eine Austrittszeit des jeweiligen Objekts aus der Mehrzahl von Bildern und/oder dem Teilbereich bestimmt und gespeichert. Als Austrittszeit ist hierbei die Zeit definiert, zu der das jeweilige Objekt zum letzten Mal auf den Bildern bzw. in dem Teilbereich der Bilder detektiert wird.
  • Die Austrittszeit und Ersterfassungszeit oder eine hieraus berechnete Zeitdifferenz kann an einen Nutzer oder zur weiteren Datenverarbeitung an einen Computer ausgegeben werden. Dies ist insbesondere vorteilhaft, wenn Aufenthaltsdauern von Personen im Bildbereich bzw. im Teilbereich bestimmt werden sollen. Derartige Informationen sind zur Optimierung von Verkaufsständen, Kaufhäusern oder dergleichen von Interesse. Ein Bestimmen und Ausgeben der Austrittszeit bzw. der Zeitdifferenz zwischen Ersterfassungszeit und Austrittszeit kann auch an sich, d. h. ohne ein Bestimmen der Anzahl der gespeicherten Tracks als vorteilhaft angesehen werden.
  • Als Bilder können beispielsweise Bilder eines Bilderfassungssystems (hierbei kann es sich beispielsweise um eine einfache Kamera, eine Stereokamera, TOF-Kamera oder eine beliebige andere Kamera handeln. Sogar Radarerfassungssysteme oder Ultraschallerfassungssysteme können verwendet werden), vorzugsweise in Echtzeit, ausgewertet werden. Durch die Auswertung in Echtzeit, d. h. während des Aufzeichnens der Bilder, kann ein Nutzer Ergebnisse der Überwachungen jederzeit abrufen und entsprechend darauf reagieren. Ebenso kann hierdurch der korrekte Ablauf des Verfahrens von einem Nutzer jederzeit überprüft werden.
  • Um ein Optimieren des Verfahrens jederzeit zu ermöglichen, ist es vorgesehen, dass die vorgegebenen Schwellenwerte während des Detektierens des mindestens einen Objekts durch einen Nutzer oder automatisch (beispielsweise durch einen hierfür vorgesehenen Optimierungsalgorithmus) verändert werden. Stellt sich z. B. heraus, dass den Bildbereich durchquerende Personen den Bildbereich zu schnell verlassen, so dass sie als Objekt mit einem Alter unterhalb des entsprechenden Schwellenwertes festgestellt werden, kann der Schwellenwert entsprechend reduziert werden. Das Verändern durch den Nutzer kann beispielsweise über ein Webinterface erfolgen.
  • Um ein starkes Schwanken der Auswertungsergebnisse zu vermeiden, kann eine zeitlich gemittelte Anzahl der zu berücksichtigenden Objekte bzw. Tracks und/oder eine zeitlich gemittelte Zeitdifferenz zwischen Ersterfassungszeit und Austrittszeit bestimmt werden. In vielen Fällen sind derartige gemittelte Angaben deutlich aussagekräftiger als Aussagen bezüglich eines einzelnen Kamerabildes. Als Beispiel sei erneut auf die Überwachung von Läden hingewiesen, bei der ein Ladenbesitzer nicht an der zu genau einem Zeitpunkt vorliegenden Kundenzahl sondern an einer durchschnittlichen Kundenanzahl und einer durchschnittlichen Aufenthaltsdauer interessiert ist.
  • In einer weiteren Ausführungsform werden mehrere Objekte bzw. Tracks gespeichert, wobei nach Erreichen einer vorgegebenen Objektzahl bzw. Trackzahl und/oder nach Erreichen eines vorgegebenen Speicherbedarfs ein ältestes Objekt überschrieben wird. Hierdurch wird erreicht, dass dann wenn eine Limitierung der Anteile der gespeicherten Objekte durch den zur Verfügung stehenden Speicherplatz auftritt, ein Erfassen von neu auftretenden Objekten weiterhin möglich bleibt. Besonders bevorzugt können Objekte, die noch innerhalb des Bildbereichs und/oder Teilbereichs sind, separat von Objekten, die den Bildbereich und/oder Teilbereich bereits verlassen haben gespeichert sein. In derartigen Ausführungsformen werden nur Objekte überschrieben, die den Bildbereich und/oder Teilbereich bereits verlassen haben. Bevorzugt werden die Objekte bzw. Tracks, die den Bildbereich und/oder Teilbereich verlassen haben, in regelmäßigen Abständen und/oder auf Abfrage ausgegeben. Die ausgegebenen Objekte können dann aus dem vorherigen Speicherort gelöscht werden.
  • Ein besonders zuverlässiges Klassieren der Objekte ist möglich, wenn sowohl die Wegstreckenlänge als auch der Abstand und die Erfassungsdauer bestimmt und mit dem jeweiligen Schwellenwerten verglichen werden. Das Objekt wird dann unter Berücksichtigung aller dieser Kriterien klassiert. Besonders bevorzugt wird das Objekt nur dann als zu berücksichtigendes Objekt eingestuft, wenn sowohl die Wegstreckenlänge als auch der Abstand und die Erfassungsdauer über dem Schwellenwert liegen.
  • Des Weiteren hängt die Klassierung vorzugsweise von einer Historie des Objekts bzw. Tracks ab. Ein Track der einmal als zu berücksichtigender Track klassiert wurde wird dann unabhängig von der dann vorliegenden Position auch in den späteren Bildern als zu berücksichtigender Track klassiert.
  • Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Figuren näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung zur Verdeutlichung einer ersten Ausführungsform des erfindungsgemäßen Verfahrens,
  • 2 eine schematische Darstellung wie in 1 zu einem späteren Zeitpunkt des Verfahrens als in 1 dargestellt,
  • 3 eine schematische Darstellung zur Verdeutlichung einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens,
  • 4 eine schematische Darstellung wie in 3 gezeigt, zu einem späteren Zeitpunkt des Verfahrens und
  • 5 schematische Darstellungen wie in den 3 und 4 gezeigt zu einem noch späteren Zeitpunkt des Verfahrens.
  • Anhand von 1 soll eine erste Ausführungsform des erfindungsgemäßen Verfahrens, bei dem mehrere zeitlich versetzte durch eine Überwachungskamera aufgenommene Bilder ausgewertet werden, verdeutlicht werden. In 1 ist ein Region of Interest (ROI, auch Überwachungsbereich genannt) 1 eines Bildes einer Überwachungskamera dargestellt. In dem ROI ist ein Objekt 2 (hierbei kann es sich beispielsweise um eine Person oder ein Gepäckstück handeln) an mehreren Positionen 3, 4, 5, 6 abgebildet. Dass das Objekt 2 in 1 an mehreren Stellen dargestellt ist, dient lediglich zur Verdeutlichung. Tatsächlich ist das Objekt 2 in jedem einzelnen Bild der Überwachungskamera nur an einer Position angeordnet. Entsprechend befindet sich das Objekt 2 in zeitlicher versetzten Bildern der Überwachungskamera jeweils an einem der Orte 3, 4, 5, 6. Insgesamt legt das Objekt 2 zwischen der Position 3 und der Position 6 den durch die gestrichelten Pfeile angedeuteten Weg 7 zurück. Ein euklidischer Abstand der aktuellen Position 6 des Objekts 2 zur Startposition 3 wird durch den Pfeil 8 verdeutlicht. Die X- und Z-Komponente des Abstands wird durch die Teile 9 und 10 dargestellt.
  • Gemäß dem Ausführungsbeispiel des erfindungsgemäßen Verfahrens wird das Objekt 2 zunächst an einer Position 3 erfasst. Hierbei wird das Objekt 2 zusammen mit der Startposition und der Startzeit des Objekts als Track gespeichert. Das Speichern der Startzeit kann beispielsweise dadurch geschehen, dass dem Objekt ein Parameter „Objektalter” zugeordnet wird, das zum Startzeitpunkt auf null gesetzt und das bei jedem nachfolgenden Kamerabild bzw. jeden Frame, auf dem das Objekt 2 festgestellt wird, erhöht wird.
  • Nachfolgende Kamerabilder werden gemäß dem Verfahren jeweils ebenso auf Objekte untersucht. Dabei wird in jeweils einem der nachfolgenden Kamerabilder ein Objekt an den Positionen 4, 5 oder 6 nachgewiesen. Anhand von Plausibilitätskriterien, wie z. B. der Form des Objekts, wird das an der Position 4, 5 bzw. 6 festgestellte Objekt als das Objekt 2 identifiziert, das bereits zuvor an der Startposition 3 aufgefunden wurde. Nach dem Detektieren des Objekts in jedem der nachfolgenden Bilder wird jeweils ein Alter des Objekts 2, ein Abstand zur Startposition 3 des Objekts 2 sowie eine ausgehend von der Startposition 3 zurückgelegte Wegstrecke 7 bestimmt. In der 1 ist dies beispielhaft für die Position 6 abgebildet.
  • Die zurückgelegte Wegstrecke 7, der euklidische Abstand 8 (beispielsweise in 3D-Weltkoordinaten) und das Objektalter (diese Eigenschaften werden auch als „Qualitäten” des Objekts bezeichnet) werden jeweils mit einem Schwellenwert verglichen. Zusätzlich werden auch die X-Komponente 9 und die Z-Komponente 10 des Abstands sowie der Wegstrecke mit entsprechenden Schwellenwerten verglichen. Liegt die Wegstrecke, der Abstand und das Objektalter jeweils über dem Schwellenwert, wird das Objekt als zu berücksichtigendes Objekt klassiert. Anderenfalls ist nicht auszuschließen, dass das Objekt ein Erfassungsfehler ist. Deshalb wird das Objekt in diesen Fällen nicht berücksichtigt.
  • Auch wenn in 1 nur ein Objekt 2 abgebildet ist, können selbstverständlich mehrere verschiedene Objekte gleichzeitig in denselben Bildern detektiert und als Tracks gespeichert werden. Für jedes der Objekte wird dann bestimmt, ob es sich um ein zu berücksichtigendes Objekt oder um einen möglichen Detektionsfehler handelt. Die Anzahl der Objekte, die als zu berücksichtigende Objekte bzw. Tracks klassiert wurden, wird für jedes Bild berechnet und an einen Nutzer ausgegeben. Hierdurch kann beispielsweise ein Kundenaufkommen innerhalb des ROI 1 bestimmt werden.
  • Anhand von 2 soll verdeutlicht werden, dass ein Abstand in X-Richtung nicht immer identisch zur zurückgelegten Wegstrecke in die entsprechende Richtung sein muss. Bewegt sich das Objekt 2 ausgehend von der Position 6 bezüglich seiner X-Richtung wieder auf die Startposition 3 zu, so dass es zur Position 11 gelangt, beträgt ein Abstand der aktuellen Position 11 zur Startposition 3 in X-Richtung null. Ein in X-Richtung zurückgelegter Weg ist jedoch, ausgehend von der Position 6, weiter angestiegen, da die zwischen den einzelnen Bildern zurückgelegten Wege als Beträge aufaddiert werden.
  • In den 3 bis 5 ist ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens dargestellt, wobei im Rahmen dieses Ausführungsbeispiels eine Verweildauer der Objekte bestimmt wird, die als zu berücksichtigende Objekte klassiert wurden. In 3 ist hierbei die Situation dargestellt, dass zwei Objekte 12 und 13 im Bildbereich 14 einer Überwachungskamera (beispielsweise eine Stereokamera oder TOF-Kamera) angeordnet sind. Beide Objekte 12 und 13 sind jedoch außerhalb des Überwachungsbereichs ROI 1. Entsprechend wird eine Objektposition der beiden Objekte 12 und 13 nicht genauer bestimmt und es werden keinerlei Daten über die Objekte gespeichert. Ebenso wird noch kein Ersterfassungszeitpunkt zugeordnet.
  • In 4 ist dargestellt, dass sich das Objekt 12 von seiner ursprünglichen Position 15 außerhalb des ROIs 1 zu einer Position 16 innerhalb des ROIs bewegt. Sobald das Objekt 12 innerhalb des ROIs 1 nachgewiesen wird, wird eine Ersterfassungsposition, d. h. eine Position, bei der das Objekt zum ersten Mal innerhalb des ROIs 1 nachgewiesen wurde, gespeichert. Außerdem wird eine Ersterfassungszeit definiert. Bewegt sich das Objekt 12 nun innerhalb des ROIs wird das Objekt als zu berücksichtigendes Objekt oder als möglicher Sensorfehler klassiert, wie dies im Zusammenhang mit den 1 und 2 erläutert wurde. Das Objekt 13 bewegt sich zugleich von einer Position 17 zu einer Position 18, wobei beide Positionen außerhalb des ROIs 1 angeordnet sind. Entsprechend werden weiterhin keinerlei Daten über das Objekt 13 gespeichert.
  • Wie in 5 dargestellt, bewegen sich die Objekte 12 und 13 anschließend weiter. Das Objekt 13 verlässt den ROI 1 (auch als Überwachungsbereich bezeichnet) an einer Austrittsposition 19. Nach dem Verlassen des ROIs wird das Objekt zusammen mit seinem Ersterfassungsort und seinem Austrittsort sowie der Gesamtzeit, die es sich im ROI 1 aufgehalten hat, gespeichert. Beispielsweise können diese Daten an einen separaten Speicherort getrennt von den Informationen zu den aktuell im ROI befindlichen Objekten abgelegt werden. Im vorliegenden Beispiel werden die genannten Daten über die Objekte, die den ROI verlassen haben, in einem Ringpuffer 20 gespeichert. Ist der Ringpuffer 20 voll, wenn ein Objekt den ROI 1 verlässt und somit in dem Ringpuffer 20 gespeichert werden soll, wird ein Objekt im Ringpuffer 20, das schon am längsten gespeichert ist, überschrieben. Die Anzahl der überschriebenen Objekte wird ebenfalls gespeichert.
  • Das dargestellte Verfahren kann von einem Benutzer eines Überwachungskamerasystems beispielsweise über ein Webinterface gesteuert werden. Von dem Nutzer können während des Verfahrens jederzeit die Schwellenwerte für die Erfassungszeit, den Abstand oder die zurückgelegte Strecke, geändert werden. Ebenso kann der ROI 1 vom Nutzer jederzeit angepasst werden. Über das Webinterface können die im Ringpuffer gespeicherten Daten jederzeit abgerufen werden. Insbesondere ist ein automatisches Abrufen der im Ringpuffer gespeicherten Daten in vorgegebenen Zeitintervallen, die von einem Nutzer eingestellt werden können, möglich. Nach jeder Abfrage des Ringpuffers werden die ausgegebenen Daten aus dem Ringpuffer gelöscht, um zu vermeiden, dass dieselben Daten mehrfach berücksichtigt werden.
  • Jegliche ermittelten Daten können selbstverständlich auch statistisch aufgearbeitet werden. So kann beispielsweise eine zeitlich gemittelte Aufenthaltsdauer im ROI bestimmt werden. Ebenso kann eine gemittelte Anzahl der Objekte, die als zu berücksichtigende Objekte klassiert wurden, bestimmt werden.
  • Als besonders geeignet hat sich hierbei die Verwendung eines fließenden Mittelwertes Gn+1 = a·F + (1 – a)·Gn erwiesen. Gn+1 ist hierbei der gemittelte Wert zum Zeitpunkt des Bildes n + 1, a ist ein Parameter, der größer als 0 und kleiner als 1 ist, F ist der aktuelle Wert im Bild n + 1 und Gn ist der gemittelte Wert für das Bild. Auch wenn das Verfahren vorangehend hauptsächlich bezogen auf Überwachungskameras erläutert wurde, kann es prinzipiell auf beliebige zeitlich versetzte Bilder eines Bildbereichs angewendet werden.
  • Insgesamt kann das Verfahren auf verschiedensten Gebieten, beispielsweise der Kundenüberwachung zwecks Verkaufsoptimierung, der Überwachung einer Verkehrsdichte auf Straßen oder der Überwachung der Personendichte auf Großveranstaltungen zur Verbesserung der Sicherheit, verwendet werden.

Claims (13)

  1. Verfahren zur Auswertung von einer Mehrzahl zeitlich versetzter Bilder mit den Schritten: – Detektieren von einer Mehrzahl von Objekten in einem ersten Bild und Speichern der Mehrzahl von Objekten jeweils mit einer Ersterfassungszeit und/oder einem Ersterfassungsort als Tracks, vorzugsweise in einer Trackliste, – Detektieren einer Mehrzahl von Objekten in weiteren Bildern und Identifizieren der jeweils detektierten Objekte als dem jeweils gespeicherten Track zugeordnetes Objekt, wobei der jeweilige Track durch die aktuelle Position des identifizierten Objekts aktualisiert wird und in den jeweiligen weiteren Bildern jeweils erstmalig detektierte Objekte mit zugeordneten Tracks gespeichert werden wobei für mindesten eines der Bilder eine Anzahl der gespeicherten Tracks bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für die Objekte bzw. Tracks jeweils eine zurückgelegte Wegstreckenlänge, ein Abstand und/oder eine Zeitdifferenz von der Ersterfassungszeit als Erfassungsdauer bestimmt wird, dass die Wegstreckenlänge, der Abstand und/oder die Erfassungsdauer mit einem jeweils vorgegebenen Schwellenwert verglichen werden und dass die Objekte bzw. Tracks abhängig vom Ergebnis des Vergleichs jeweils als zu berücksichtigende Objekte bzw. Tracks oder als nicht zu berücksichtigende Objekte bzw. Tracks klassiert werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die vorgegebenen Schwellenwerte vor oder während des Detektierens des mindestens einen Objekts durch einen Nutzer und/oder durch einen Optimierungsalgorithmus automatisch verändert werden.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Tracks jeweils nur dann beim Bestimmen der Anzahl von Tracks berücksichtigt und/oder nur dann als zu berücksichtigende Tracks klassiert werden, wenn das jeweilige entsprechende Objekt in einem vorgegebenen Teilbereich der Bilder angeordnet ist.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die bestimmte Anzahl der Tracks oder Objekte kontinuierlich oder in Abhängigkeit von einer Mehrzahl von Bildern oder auf Befehl eines Nutzers ausgegeben wird.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für die Objekte jeweils eine Austrittszeit aus der Mehrzahl von Bildern und/oder dem Teilbereich bestimmt und gespeichert wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Ersterfassungszeit und die Austrittszeit und/oder eine Zeitdifferenz zwischen Ersterfassungszeit und Austrittszeit ausgegeben werden.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Bilder Bildaufnahmen eines Bilderfassungssystems, vorzugsweise eine Kamera, wie eine Stereokamera und besonders vorzugsweise in Echtzeit, ausgewertet werden.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine zeitlich gemittelte Anzahl der Tracks und/oder eine zeitlich gemittelte Zeitdifferenz zwischen Ersterfassungszeit und Austrittszeit bestimmt werden.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mehrere Objekte gespeichert werden, wobei nach Erreichen einer vorgegebenen Objektzahl und/oder nach Erreichen eines vorgegebenen Speicherbedarfs ein ältestes Objekt überschrieben wird.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Objekte Personen oder Gepäckgegenstände sind.
  12. Vorrichtung zur Auswertung von Bildern ausgebildet und programmtechnisch eingerichtet zum Durchführen eines Verfahrens nach einem der vorangehenden Ansprüche.
  13. Überwachungssystem mit mindestens einem Bilderfassungssystem, vorzugsweise einer Kamera und einer Vorrichtung nach Anspruch 12.
DE102011011931A 2011-02-18 2011-02-18 Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem Withdrawn DE102011011931A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102011011931A DE102011011931A1 (de) 2011-02-18 2011-02-18 Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem
US14/000,107 US9589191B2 (en) 2011-02-18 2012-02-17 Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system
DE112012000873T DE112012000873A5 (de) 2011-02-18 2012-02-17 Verfahren zur Auswertung einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem
PCT/EP2012/052818 WO2012110654A1 (de) 2011-02-18 2012-02-17 Verfahren zur auswertung einer mehrzahl zeitlich versetzter bilder, vorrichtung zur auswertung von bildern, überwachungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011011931A DE102011011931A1 (de) 2011-02-18 2011-02-18 Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem

Publications (1)

Publication Number Publication Date
DE102011011931A1 true DE102011011931A1 (de) 2012-08-23

Family

ID=45755338

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102011011931A Withdrawn DE102011011931A1 (de) 2011-02-18 2011-02-18 Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem
DE112012000873T Pending DE112012000873A5 (de) 2011-02-18 2012-02-17 Verfahren zur Auswertung einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112012000873T Pending DE112012000873A5 (de) 2011-02-18 2012-02-17 Verfahren zur Auswertung einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem

Country Status (3)

Country Link
US (1) US9589191B2 (de)
DE (2) DE102011011931A1 (de)
WO (1) WO2012110654A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177195B2 (en) * 2011-09-23 2015-11-03 Shoppertrak Rct Corporation System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device
CN103854227A (zh) * 2012-12-07 2014-06-11 鸿富锦精密工业(深圳)有限公司 人际关系分析系统及方法
JP6579925B2 (ja) * 2015-11-17 2019-09-25 キヤノン株式会社 画像再生装置およびその制御方法ならびにプログラムならびに記録媒体
US11080864B2 (en) * 2018-01-08 2021-08-03 Intel Corporation Feature detection, sorting, and tracking in images using a circular buffer

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009079809A1 (en) * 2007-12-07 2009-07-02 Multi Base Limited Video surveillance system with object tracking and retrieval

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6945303B2 (en) * 2000-08-24 2005-09-20 Weik Iii Martin Herman Intruder, theft and vandalism deterrent management system for controlling a parking area
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
TWI282941B (en) * 2001-03-15 2007-06-21 Toshiba Corp Entrance management apparatus and entrance management method by using face features identification
US20020161780A1 (en) * 2001-04-26 2002-10-31 International Business Machines Corporation Browser rewind and replay feature for transient messages wherein the messages are stored automatically when they are initially rendered and replayed when selected
WO2003104834A2 (en) * 2002-05-07 2003-12-18 Argo-Tech Corporation Tracking system and associated method
US20050104960A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with trajectory hypothesis spawning and local pruning
US7298867B2 (en) * 2004-02-20 2007-11-20 Lockheed Martin Corporation Component association tracker system and method
US7606425B2 (en) * 2004-09-09 2009-10-20 Honeywell International Inc. Unsupervised learning of events in a video sequence
CN101142593B (zh) 2005-03-17 2010-12-15 英国电讯有限公司 跟踪视频序列中的目标的方法
US8064651B2 (en) * 2006-02-15 2011-11-22 Kabushiki Kaisha Toshiba Biometric determination of group membership of recognized individuals
TW200822751A (en) 2006-07-14 2008-05-16 Objectvideo Inc Video analytics for retail business process monitoring
JP4429298B2 (ja) * 2006-08-17 2010-03-10 独立行政法人産業技術総合研究所 対象個数検出装置および対象個数検出方法
DE602006005079D1 (de) * 2006-08-24 2009-03-19 Harman Becker Automotive Sys Verfahren zum Abbilden der Umgebung eines Fahrzeugs und System dafür
US8456528B2 (en) * 2007-03-20 2013-06-04 International Business Machines Corporation System and method for managing the interaction of object detection and tracking systems in video surveillance
TWI348659B (en) * 2007-10-29 2011-09-11 Ind Tech Res Inst Method and system for object detection and tracking
JP2009116600A (ja) * 2007-11-06 2009-05-28 Mitsubishi Electric Corp 入退室管理システム
US8411963B2 (en) * 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
US8913781B2 (en) * 2008-08-20 2014-12-16 SET Corporation Methods and systems for audience monitoring
US8615105B1 (en) * 2010-08-31 2013-12-24 The Boeing Company Object tracking system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009079809A1 (en) * 2007-12-07 2009-07-02 Multi Base Limited Video surveillance system with object tracking and retrieval

Also Published As

Publication number Publication date
WO2012110654A1 (de) 2012-08-23
DE112012000873A5 (de) 2013-11-21
US20140037141A1 (en) 2014-02-06
US9589191B2 (en) 2017-03-07

Similar Documents

Publication Publication Date Title
DE112014007249B4 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE60224324T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Fahrzeugbildern
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
DE102012214852A1 (de) Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
EP2642425A1 (de) Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung
DE112014000591T5 (de) Aufmerksamkeitsgrad-Erfassungsgerät und Aufmerksamkeitsgrad-Erfassungsverfahren
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102006060893A1 (de) Vorrichtung und Verfahren zum Bestimmen eines Freiraums vor einem Fahrzeug
DE102018214510A1 (de) Parkplatzkartenerzeugung auf der Straße
DE102009015007A1 (de) Verfahren zur Auswertung einer Zeitserie von zweidimensionalen Bildern einer Testbolusmessung und medizinische Bildaufnahmeeinrichtung
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102018213268A1 (de) Verfahren zur anwendung in einem fahrzeug
DE102011011931A1 (de) Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem
EP1200945B1 (de) Verfahren zur erkennung von szenenänderungen und überwachungseinrichtung hierzu
EP2483834B1 (de) Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild
DE102018130654A1 (de) Zustandsabschätzungsvorrichtung, Zustandsabschätzungsverfahren und Zustandsabschätzungsprogramm
DE102009007412B4 (de) Verfahren zur Verfolgung wenigstens eines Objekts
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102017222675A1 (de) Personenerkennung mittels einer Kamera
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
DE102017123228A1 (de) Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug
DE102012015282A1 (de) Verfahren zur Detektion eines verdeckten Zustands einer Bilderfassungseinrichtung eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102015204528A1 (de) Vorrichtung und Verfahren zur Objekterkennung in einem Fortbewegungsmittel
DE102012205000B3 (de) Verfahren und Vorrichtung zur Zählung von Objekten
DE102015216352A1 (de) Verfahren zum Erkennen einer möglichen Kollision eines Fahrzeuges mit einem Fußgänger auf Grundlage hochaufgelöster Aufnahmen

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority

Effective date: 20130819