DE102009021765A1 - Verfahren zum automatischen Erkennen einer Situationsänderung - Google Patents

Verfahren zum automatischen Erkennen einer Situationsänderung Download PDF

Info

Publication number
DE102009021765A1
DE102009021765A1 DE200910021765 DE102009021765A DE102009021765A1 DE 102009021765 A1 DE102009021765 A1 DE 102009021765A1 DE 200910021765 DE200910021765 DE 200910021765 DE 102009021765 A DE102009021765 A DE 102009021765A DE 102009021765 A1 DE102009021765 A1 DE 102009021765A1
Authority
DE
Germany
Prior art keywords
behavior
values
comparison
field
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE200910021765
Other languages
English (en)
Inventor
Frederik Meysel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE200910021765 priority Critical patent/DE102009021765A1/de
Priority to EP10004126.8A priority patent/EP2254104B1/de
Publication of DE102009021765A1 publication Critical patent/DE102009021765A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes, wobei das zu überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit den Schritten, a) Erfassen von Daten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde, b) Lernen eines Verhaltens der einzelnen Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, und c) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermittelten Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.

Description

  • Die Erfindung betrifft ein Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes. Die Erfindung betrifft ebenfalls eine Vorrichtung hierzu.
  • Häufig wird unter dem Aspekt der Sicherheit die mitunter sehr komplexe Anforderung gestellt, Orte oder Gebiete, in denen sich viele Akteure oder Objekte bewegen und miteinander interagieren, mittels entsprechender Sensoren zu überwachen. Beispiele für solche Orte oder Gebiete sind Straßen, Parks, Bahnhöfe, öffentliche Plätze, Flughäfen, Autobahnen oder Einkaufszentren. Innerhalb dieser Orte oder Gebiete interagieren die sich daran befindlichen Akteure oder Objekte miteinander, die beispielsweise Fußgänger, Fahrradfahrer, PKWs, Schiffe, Flugzeuge, Sportler oder Kunden sein können. Dabei wird meist bei der Überwachung insbesondere darauf abgestellt, dass die in dem Gebiet befindlichen Objekte oder Akteure innerhalb der festgelegten Rahmenbedingungen bewegen, so dass atypische oder gar bedrohliche Ereignisse durch die jeweiligen Überwacher (z. B. Fluglotsen, Sicherheitsdienste) schnell erkannt werden können.
  • Die zur Überwachung am häufigsten verwendeten Sensoren sind dabei Kameras, die das zu überwachende räumliche Gebiet aufnehmen. Das so aufgenommene Bild einer Kamera wird dann in den meisten Fällen an eine Zentrale weitergeleitet, wo es dann auf einem Bildschirm für einen Operator dargestellt wird. Gerade bei Gebieten mit einer sehr großen räumlichen Ausdehnung kommt es sehr schnell zu einer großen Anzahl von benötigten Kameras, um alle Bereiche des zu überwachenden Gebietes erfassen und abdecken zu können. Für den Operator stellt sich dabei das Problem, dass mit einer Erhöhung der Anzahl der Kameras auch die Anzahl der Bilder, die überwacht werden müssen, erhöht werden. Dies führt letztlich zu einer gesteigerten Komplexität, die im ungünstigsten Fall zu Lasten der Sicherheit geht.
  • Um diese Überwachungskomplexität zu verringern, gibt es zum Einen die Möglichkeit, die Anzahl der zu überwachenden Bilder bzw. allgemein gesprochen, die Anzahl der zur Überwachung benötigten Informationen, zu reduzieren, was letztlich zum Verlust von Informationen führen kann. Zum Anderen gibt es die Möglichkeit, mit Hilfe von Bilderkennungsverfahren die Bildsignale zu analysieren und auf entsprechend programmierte Signaturen hin zu filtern.
  • So beschreibt beispielsweise die US 2003/0107650 A1 ein Überwachungs- und Sicherheitssystem, welches automatische eine Warnung herausgibt, wenn entsprechende Ereignisse, die zuvor programmiert wurden, bei der Überwachung eines Gebietes auftreten. So kann mit diesem System beispielsweise auf einen möglichen Ladendiebstahl aufmerksam gemacht werden, wenn eine Person innerhalb des zu überwachenden Gebietes (hier ein Laden) eine Plastiktüte öffnet. Dazu ist das System derart eingerichtet, dass es die Geräusche innerhalb des Ladens aufnimmt und nach dem charakteristischen Akustikmuster einer sich öffnenden Plastiktüte hin untersucht.
  • Nachteilig dabei ist insbesondere die Tatsache, dass dieses System nur solche Ereignisse erkennt, auf die es speziell programmiert wurde. So ist dieses System nicht ohne Weiters auf eine andere Szenerie oder Umgebung übertragbar.
  • Auch bei der Verkehrskontrolle bzw. bei der Verkehrslagenerfassung spielt Überwachung eine wichtige Rolle. So wird auf deutschen Autobahnen mittels entsprechender Sensoren ständig die Verkehrsdichte erfasst, um so z. B. Verkehrsleiteinrichtungen, wie sie auf der Autobahn A2 installiert sind, in Abhängigkeit der Verkehrsdichte ansteuern zu können.
  • Zu dieser Thematik ist aus der EP 0 798 684 A1 ein Verfahren und ein System zur Verkehrslagenerfassung durch stationäre Datenerfassungseinrichtungen bekannt, bei dem die Datenerfassungseinrichtungen ihre Daten an eine Zentrale weiterleiten, in der diese dann entsprechend ausgewertet werden. Das Ergebnis der Auswertung wird dann an die Datenerfassungseinrichtungen zurückgesendet, damit diese in die Lage versetzt werden, nur noch auf solche Ereignisse zu achten, die letztlich auch zu einer Meldung an die Zentrale führen müssen. Damit soll insbesondere erreicht werden, dass die von der Datenerfassungseinrichtung zur Zentrale zu übertragenden Daten möglichst gering gehalten werden.
  • Nachteilig dabei ist bei diesem System wie auch bei den anderen aus dem Stand der Technik bekannten Systemen, die Tatsache, dass Signaturen der zu detektierenden Ereignisse vom Operator festgelegt werden müssen. Außerdem werden in den Wochen nach der Installation meist häufig weitere Wartungsdurchläufe nötig, um durch Änderungen im beobachteten Bereich, durch Wetteränderungen, Jahreszeiten usw. das System neu anzupassen. Dabei sind diese Systeme meist nur in der Lage, genau festgelegte Vorgänge innerhalb ihres Bereiches zu erkennen.
  • So wird z. B. in der US 2004/0130620 A1 ein Verfahren zur Videoanalyse offenbart, bei dem eine Mehrzahl von Bildsensoren einen auch überlappenden Bereich aufnehmen. Die innerhalb des Überwachungsbereiches sich bewegenden Objekte können dabei mit Hilfe eines entsprechenden Tracking-Algorithmus verfolgt werden, und zwar auch über die Aufnahmegrenzen eines Bildsensors hinweg.
  • Im Hinblick auf die aus dem Stand der Technik bekannten Nachteile ist es Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Detektieren von Ereignissen innerhalb eines zu überwachenden räumlichen Gebietes anzugeben.
  • Die Aufgabe wird mit dem Verfahren der eingangs genannten Art gelöst, wobei das zu überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit den Schritten:
    • a) Erfassen von Werten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde,
    • b) Lernen zumindest eines Verhaltens der Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, und
    • c) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermitteltem Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.
  • Damit wird es möglich, ein Gebiet mit entsprechenden Sensoren zu überwachen, ohne das es speziell auf bestimmte Ereignisse, die es erkennen soll, programmiert werden muss. Dazu werden mit Hilfe der Sensoren, die das Gebiet überwachen, Werte von den Objekten erfasst, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden. Die erfassten Werte sind dabei Werte entsprechender Eigenschaften der Objekte, die mit Hilfe der Sensoren erfasst bzw. ermittelt oder gemessen werden können. Eine solche Objekteigenschaft könnte dabei z. B. die Geschwindigkeit, Richtung oder aber auch ganz allgemein gesprochen die Aktivität eines Objektes innerhalb eines entsprechenden Feldes sein. Es ist aber auch denkbar, dass weitere Informationen über die Objekte als Eigenschaften ermittelt werden können, wie z. B. der Treibstoffvorrat eines Flugzeuges, je nachdem was für eine Art von Sensoren verwendet wird.
  • Darüber hinaus wird beim Erfassen der Werte ermittelt, innerhalb welchen Feldes der entsprechende Wert erfasst wurde, so dass sich ein Datenpaar aus einem Wert einer Objekteigenschaft und dazugehörigen Feld des räumlichen Gebietes ergibt. Im nächsten Schritt wird dann für mindestens eines der Felder ein Verhalten der Objekte bezüglich mindestens einer ihrer Objekteigenschaften gelernt, indem die in dem Feld hinterlegten Werte der Objekteigenschaft mittels statistischer Methoden ausgewertet werden. Somit ergibt sich für jedes Feld des gesamten räumlichen Gebietes ein entsprechendes Verhalten der Objekte bezüglich der überwachten Eigenschaft der Objekte.
  • So kann beispielsweise bei der Überwachung einer Straße für jedes Feld ein Verhalten hinsichtlich der Geschwindigkeit gelernt werden, was sich z. B. in Form der Durchschnittsgeschwindigkeit ausdrücken lässt. Um nun eine Veränderung der beobachten Situation erkennen zu können, die sich letztlich aus einer spontanen Verhaltensänderung einer oder mehrerer Objekte innerhalb der Gesamtszene ergibt, wird das erlernte Verhalten mindestens eines Feldes mit aktuell ermittelten Werten des entsprechenden Feldes verglichen, wobei anhand des Vergleiches auf eine Situationsänderung geschlossen wird.
  • Dabei kann selbstverständlich nicht nur ein Verhalten bezüglich einer Eigenschaft und bezüglich eines Feldes gelernt werden, sondern auch mehrere Verhalten pro Feld und Eigenschaft. Solche Konstellationen treten z. B. in Kreuzungsbereichen auf, in denen es z. B. zwei Häufungspunkte für die Geschwindigkeit gibt, und zwar einmal für Fahrzeuge und einmal für Fußgänger. Die aktuell ermittelten Werte werden dann sowohl mit dem einen als auch mit dem anderen Verhalten verglichen (Schritt c)), wobei eine Situationsänderung dann angenommen wird, wenn sich die aktuellen Werte unter keines der Verhalten subsumieren lassen.
  • So erkennt das oben genannte Verfahren z. B. eine sprunghafte Änderung der Durchschnittsgeschwindigkeit der Fahrzeuge auf der Straße, so dass somit die Bildung eines Staus bzw. das Auflösen eines Staus erkannt wird. Der Vorteil dieses Verfahrens besteht dabei darin, dass durch die Aufteilung des räumlichen Gebietes in eine Mehrzahl von Feldern lokale Situationsänderungen innerhalb eines großen räumlichen Gebietes ohne Weiteres detektierbar sind sowie die Integration mehrerer Sensoren, die das räumliche Gebiet aus unterschiedlichen Sichtweisen aufnehmen, problemlos möglich ist.
  • Darüber hinaus ist bei diesem Verfahren keine spezielle Programmierung auf entsprechend zu detektierende Ereignissen notwendig.
  • Vorteilhafter Weise wird das Verhalten in Schritt b) durch die zuletzt ermittelten Werte des entsprechenden Feldes gelernt, die innerhalb eines bestimmten Zeitraumes liegen. So ist es z. B. denkbar, dass nur solche Werte beim Lernen des Verhaltens berücksichtigt werden, die innerhalb der letzten z. B. fünf Minuten erfasst wurden. Dadurch wird es möglich, dass das System nach einer gewissen Zeit die sich geänderte Situation neu lernt und als typisches Verhalten ansieht.
  • Es ist aber auch denkbar, dass für mehrere diskrete Zeiträume jeweils ein Verhalten gelernt wird, das dem Vergleich zum Erkennen einer Situationsänderung in Schritt c) zugrunde gelegt wird. Dabei ist es denkbar, dass ein Verhalten eines Zeitraumes, der weiter zurückliegt, bei dem Vergleich eine geringere Gewichtung erhält, als jene Zeiträume, die noch nicht so lange her sind, so dass junge Zeiträume eine höhere Gewichtung erhalten als ältere.
  • Besonders vorteilhaft ist es aber auch, dass jeweilige Verhalten der Mehrzahl der Zeiträume zu einem gemeinsamen Verhalten zusammenzuführen, wobei auch hier ältere Zeiträume eine andere Gewichtung bekommen können als jüngere. Durch das Zusammenführen verschiedener erlernter Verhalten unterschiedlichster Zeiträume kann somit ein typisches Verhalten der Objekte innerhalb der zu beobachtenden Szene abgebildet werden. Dabei können die unterschiedlich gelernten Verhalten z. B. mittels Mittelwertbildung zusammengeführt werden.
  • An dieser Stelle sei erwähnt, dass pro Feld und Zeitraum mehrere Verhalten entsprechend der Objekteigenschaften erlernt werden können. So ist es denkbar, dass für eine Objekteigenschaft 1 ein Verhalten gelernt wird und gleichzeitig für eine Objekteigenschaft 2, die z. B. mittels anderer Sensoren aufgenommen wird, ebenfalls ein Verhalten gelernt wird, so dass sich für jede Objekteigenschaft ein entsprechend gelerntes Verhal ten ergibt. Diese pro Objekteigenschaft erlernten Verhalten können dann sowohl einzeln betrachtet als auch zusammengeführt werden.
  • Vorteilhaft ist es, wenn vor dem Vergleich in Schritt c) die Felder maskiert werden, d. h. ausschließlich die Felder zum Vergleich herangezogen werden, für die überhaupt entsprechende Werte hinterlegt sind. Dabei bleiben alle die Felder unberücksichtigt, für die keine oder nur eine sehr geringe Anzahl von Werten hinterlegt sind.
  • Ganz besonders vorteilhaft ist es, wenn zusätzlich zu der Erfassung der Werte eine Positionsangabe ermittelt wird, welche die entsprechende Ortsposition des Objektes innerhalb des räumlichen Gebietes repräsentiert. Diese sog. Ermittlungsposition, welche die Position angibt, an der der Wert innerhalb des räumlichen Gebietes bei dem entsprechenden Objekt ermittelt wurde, wird dann zur Ermittlung des Feldes, mit der der ermittelte Wert verknüpft wird, herangezogen.
  • Damit mehrere Sensoren auch überlappende Bereiche des zu überwachenden Gebietes abdecken können, ist es ganz besonders vorteilhaft, wenn diese oben beschriebene Ermittlungsposition in ein einheitliches Positionskoordinatensystem bzw. in einheitliche Weltkoordinaten umgerechnet wird, damit die Positionsangaben der ermittelten Werte untereinander vergleichbar sind. So können dann die Werte unabhängig von der Sensorposition in die entsprechenden Felder eingetragen werden.
  • In einer konkreten Ausführungsform ist es ganz besonders vorteilhaft, wenn das Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen einem erlernten Verhalten aus Schritt b) und einem anhand statistischer Auswertung von aktuell ermittelten Werten aktuellem Verhalten erfolgt. Dabei wird kontinuierlich ein aktuelles Verhalten für eines oder mehrere Felder ermittelt und mit einem zuvor erlernten Verhalten für die entsprechenden Felder verglichen. Dadurch wird es möglich, Situationsänderungen daran zu erkennen, dass sich das Verhalten der Objekte in nerhalb einer oder mehrerer Felder entsprechend ändert, und zwar bezüglich einer oder mehrerer Objekteigenschaften.
  • In einer anderen Ausführungsform ist es ganz besonders vorteilhaft, wenn eine Situationsänderung in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und aktuellen Werten einer Trajektorie eines konkreten Objektes erkannt wird. Dabei werden Werte bezüglich einer oder mehrerer Objekteigenschaften eines konkreten Objektes erfasst, während sich das Objekt auf einer bestimmten Bahn (Trajektorie) durch das zu überwachende Gebiet bewegt. Diese so aufgenommenen Werte werden dann einer bestimmten Trajektorie des Objektes zugeordnet und mit dem erlernten Verhalten der anderen Objekte verglichen. Weicht das Verhalten bezüglich einer oder mehrerer Objekteigenschaften des konkreten Objektes gegenüber dem erlernten Verhalten der anderen Objekte signifikant ab, so kann auf eine Situationsänderung geschlossen werden. Somit können auch einzelne Objekte identifiziert werden, die sich gegenüber dem typischen Verhalten der gesamten Szene atypisch verhalten, was ebenfalls eine Situationsänderung darstellt.
  • Vorteilhafterweise werden für die statistische Auswertung Mittelwerte, Summen, Produkte und/oder Standardabweichungen gebildet, die dann miteinander verglichen werden können. Dabei sind grundsätzlich alle arithmetischen Operationen möglich, die der Fachmann für statistische Zwecke heranziehen würde. Als Sensoren zur Überwachung des räumlichen Gebietes kommen insbesondere bildgebende Sensoren, die vorteilhafterweise mit Bilderkennungsverfahren ausgestattet sind, Radarsensoren oder RFID Transponder in Betracht. Als zu überwachende Objekte kommen insbesondere Menschen, Tiere, also Lebewesen im Allgemeinen, Straßen-, Schienen-, Luft- oder Wasserfahrzeuge in Betracht sowie Partikel und sonstige Objekte. Besonders vorteilhaft ist es dabei, wenn die genannten Sensoren zum Ermitteln von Eigenschaften wie Aktivität der Objekte, die Geschwindigkeit der Objekte oder deren Richtung eingerichtet sind.
  • Darüber hinaus ist es ganz besonders vorteilhaft, wenn der Vergleich in Schritt c) mit tels eines Schwellenwertvergleiches erfolgt, so dass nicht bereits kleinste Änderungen zum Erkennen einer Situationsänderung führen. So kann der Schwellenwert derart ausgelegt sein, dass sprunghafte Veränderungen im Verhalten der Objekte als Situationsänderung erkannt werden. So kann für jedes Feld bzw. jede Zelle ein Schwellenwert ermittelt werden, der dann für jedes Feld hinterlegt wird, wobei sich der Schwellenwert z. B. aus dem Produkt der Standardabweichung des jeweiligen Feldes mit einem Empfindlichkeitsfaktor wie folgt ergeben kann: Si,j = Vobj(i,j) ± kempf·σi,j mit Si,j als Schwellenwert in dem Feld (i, j), mit Vobj(i,j) als das erlernte Verhalten bezüglich einer Eigenschaft der Objekte im Feld (i, j), mit kempf als eine Empfindlichkeitsfaktor, der für die gesamte Szene bzw. Karte gilt und mit σi,j als Standardabweichung in dem Feld (i, j) bezüglich der erlernten Objekteigenschaft. Durch k kann in der gesamten Karte eine Empfindlichkeit eingestellt werden, die dann aber in jedem Feld zu einem anderen Ergebnis in Abhängigkeit von σ führt. So kann in örtlich nahe beieinander liegenden Feldern in einem Feld eine Situationsänderung erkannt werden, in benachbarten Feldern jedoch nicht, weil hier beispielsweise die Standardabweichung σ sehr hoch ist (z. B. in Kreuzungsgebieten). Somit kann der Schwellwert für jede Zelle einzeln und dynamisch geregelt werden, was das Verfahren noch genauer macht.
  • Dabei können für ein Feld auch mehrere Schwellwerte hinterlegt sein, wenn sich bezüglich einer Objekteigenschaft mehrere typische Verhalten ergeben.
  • Des Weiteren betrifft die Erfindung ein Computerprogrammprodukt zum Ausführen des vorstehenden Verfahrens sowie eine Vorrichtung hierzu.
  • Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft erläutert. Es zeigen:
  • 1a, 1b skizzenhafte Darstellung einer aufgenommenen Szene;
  • 2 Grundschema der Datenstruktur;
  • 3a, 3b, 3c Grundschema von abgeleiteten Informationen;
  • 4 schematische Darstellung der Situationserkennung über mehrere Zeitbereiche;
  • 5 skizzenhafte Darstellung eines Trajektorienvergleiches.
  • Die 1a und 1b zeigen skizzenhaft die Aufnahme einer Straßenkreuzung, die als Ausführungsbeispiel den weiteren Ausführungen zugrunde gelegt werden soll. Die Kreuzung wird dabei anhand zweier Videokameras überwacht, wobei 1a das Bild der ersten Videokamera aus einem ersten Blickwinkel erkennen lässt, während 1b das Bild einer zweiten Videokamera aus einem anderen Blickwinkel erkennen lässt.
  • Mittels einer entsprechenden Software, die nicht Gegenstand des vorliegenden erfindungsgemäßen Verfahrens ist, werden aus den aufgenommenen Bildinformationen Werte bestimmter Objekteigenschaften identifiziert. In diesen Ausführungsbeispielen sind die Objekte Fahrzeuge, welche die Kreuzung passieren. Dabei wird von der Bilderkennungssoftware für jedes Fahrzeug die Geschwindigkeit sowie die Richtung erkannt und entsprechend abgespeichert. Somit wird pro Fahrzeug, welches sich im Sichtfeld der Kameras befindet, kontinuierlich sowohl die Geschwindigkeit als auch die Richtung ermittelt.
  • Wie in 1a und 1b beispielhaft im oberen Bereich der aufgenommen Bilder zu erkennen ist, wird der aufgenommene Bildbereich in eine Mehrzahl von Feldern 1 unterteilt. In 1a und 1b ist dies jedoch nur skizzenhaft angedeutet und erstreckt sich im Normalfall über die ganze Szene. Bei der Erfassung der Geschwindigkeits- und Richtungswerte für jedes Objekt wird zusätzlich die Position ermittelt, an der die entsprechenden Werte ermittelt wurden. Damit diese Werte auch unabhängig von dem Standort der entsprechenden Kamera verwertbar sind, wird diese Positionsinformation in ein Weltkoordinatensystem umgerechnet und entsprechend abgespeichert. Somit ergeben sich für ein Fahrzeug, welches durch den Sichtbereich der beiden Kameras in 1a und 1b fährt, eine Mehrzahl von Geschwindigkeits- und Richtungswerten an unterschiedlichen Positionen bzw. eine Mehrzahl von Geschwindigkeits- und Richtungswerten an gleichen Positionen, da die Werte durch mehrere unterschiedliche Sensoren erfasst werden können.
  • Jedem Geschwindigkeits- und Richtungswert wird nun anhand seiner Position das entsprechende Feld 1 zugeordnet, innerhalb dessen die ermittelte Position liegt. Somit kann jedem gemessenen Geschwindigkeits- und Richtungswert genau ein solches Feld zugeordnet werden. Dies ist schematisch in 2 dargestellt. Mit anderen Worten, es wird in all jenen Feldern, die von dem Objekt während der Bewegung durch das räumliche Gebiet tangiert werden, mindestens ein Geschwindigkeits- und Richtungswert für dieses Objekt hinterlegt. Dabei kommt es nicht darauf an, das Objekt selber zu identifizieren. In 2 sind die schraffierten Felder 2 die Felder, in denen Objektwerte von verschiedenen Objekten hinterlegt wurden. Die weißen Felder hingegen weisen keinerlei hinterlegte Werte auf.
  • Aus dieser Anordnung ergibt sich eine kartenartige Datenstruktur, aus der sich dann mit Hilfe von statistischen Auswertungen weitere kartenartige Datenstrukturen ermitteln lassen, aus denen dann das Verhalten der Objekte innerhalb der Szene abgeleitet werden kann.
  • Eine solche abgeleitete kartenartige Struktur ist in 3 zu erkennen. Bei der 3 handelt es sich um eine Datenstruktur, bei der in jedem Feld der Mittelwert der in diesem Feld hinterlegten Werte gebildet wurde. In diesem Ausführungsbeispiel wurde dies mit der Objekteigenschaft „Geschwindigkeit” durchgeführt. Es lassen sich aber auch andere kartenartige Strukturen ableiten, wie z. B. solche, bei denen für jedes Feld die Standardabweichung als statistische Auswertung ermittelt wird.
  • Dabei werden zunächst für jedes Feld die Werte ermittelt, deren Eigenschaft statistisch abgeleitet werden soll. In diesem Ausführungsbeispiel wären das die Geschwindigkeitswerte. Dann wird für jedes Feld die statistische Auswertung durchgeführt. Da die statistische Auswertung für jedes Feld separat durchgeführt wird, ergeben sich somit für jedes Feld auch unterschiedliche Werte, die in der 3 durch eine unterschiedliche Schraffierung in den einzelnen Feldern dargestellt wird.
  • Durch eine solche statistische Auswertung, wie sie in die 3 gezeigt wird, lässt sich das Verhalten der Objekte hinsichtlich bestimmter Objekteigenschaften innerhalb der Szene ermitteln, wobei das erlernte Verhalten als typisches Verhalten der Objekte verstanden wird. Verändert sich nun die Szene, indem z. B. die Geschwindigkeit langsamer oder schneller wird, so schlägt sich dies letztlich auch in der statistischen Auswertung nieder, so dass aufgrund eines Vergleiches zwischen dem erlernten Verhalten und momentan aktuellen Werten dann auf eine Situationsänderung geschlossen werden kann. Eine solche Situationsänderung ist somit letztlich immer eine Abweichung des Verhaltens der Objekte vom typischen Verhalten der Objekte innerhalb dieser Szene bezüglich mindestens einer Objekteigenschaft.
  • Es sei beispielhaft einmal angenommen, die mittlere Geschwindigkeit liegt dabei je nach Feld zwischen 50 und 60 km/h. Kommt es nun zu einem Stau, so verringert sich naturgemäß die Geschwindigkeit der Fahrzeuge drastisch, was von den Sensoren erkannt wird. Verglichen mit dem erlernten Verhalten, welches eine mittlere Geschwindigkeit zwischen 50 und 60 km/h als typisches Verhalten anzeigt, ist eine Geschwin digkeit von 10 oder 20 km/h eines Objektes innerhalb dieser Szene atypisch, so dass auf eine Situationsänderung geschlossen werden kann. Darüber hinaus würde sich in diesem Fall auch die statistische Auswertung bezüglich der Standardabweichung sprunghaft verändern. Somit kann sehr schnell auf ein atypisches Verhalten der Objekte geschlossen werden, ohne dass zuvor das System wissen musste, worauf es zu achten hat. Dabei kann der Stau allein aus der Veränderung der Standardabweichung erkannt werden, da Stop & Go eine viel größere Standardabweichung erzeugt, als fließender Verkehr, wobei dies auch schon bei relativ kleinen bzw. schwachen Veränderungen festzustellen ist.
  • 4 zeigt beispielhaft den Vergleich zwischen dem erlernten Verhalten und einem aktuellen Verhalten bezüglich der beiden Objekteigenschaften Geschwindigkeit (S) und Richtung (D) anhand der statistischen Auswertung „Mittelwertbildung” (Sμ, Dμ).
  • Über drei in der Vergangenheit liegende diskrete Zeiträume t–3, t–2 und t–1 wurden kartenartige Datenstrukturen gelernt, wie sie zuvor beschrieben wurden. Dazu wurden Datenstrukturen bezüglich der Geschwindigkeit und der Richtung der Objekte innerhalb der beobachteten Szene gelernt. Aus den ermittelten Werten für die Geschwindigkeit S und die Richtung D wurde dann für jedes Feld der Mittelwert abgeleitet, was als kartenartige Datenstruktur 41 und 42 in 4 zu erkennen ist.
  • Aus diesen drei abgeleiteten kartenartigen Datenstrukturen in den Zeiträumen t–3 bis t–1 wurde dann ein gemeinsames Verhalten abgeleitet, welches ebenfalls in Form einer kartenartigen Datenstruktur 43 bzw. 44 abgespeichert wird. Bei der Bildung eines gemeinsamen erlernten Verhaltens kann dabei mit Hilfe unterschiedlicher Gewichtungen z. B. jüngeres erlerntes Verhalten stärker berücksichtigt werden als älteres.
  • Darüber hinaus wurde aus momentan aktuell ermittelten Werten bezüglich der Geschwindigkeit und der Richtung ein aktuelles Verhalten gelernt, welches sich in den abgeleiteten kartenartigen Datenstrukturen 45 und 46 in 4 niederschlägt. In all den genannten Datenstrukturen wurde mit Hilfe der Mittelwertbildung als statistische Auswertung das Verhalten der Objekte innerhalb der Szene abgebildet. Auf Basis des aktuell ermittelten Verhaltens 45 bzw. 46 wird nun der Vergleich mit dem gemeinsam erlernten Verhalten 43 bzw. 44 durchgeführt. In diesem Ausführungsbeispiel wird dazu einfach die Differenz gebildet, d. h. es wird der Mittelwert eines Feldes im erlernten Verhalten mit dem Mittelwert des entsprechend gleichen Feldes im aktuellen Verhalten subtrahiert, so dass sich eine Differenzkarte ergibt. Es sind aber auch andere Vergleichsmöglichkeiten insbesondere mathematischer Art denkbar. Dieser Vergleich wird sowohl mit der Objekteigenschaft „Geschwindigkeit” als auch mit der Objekteigenschaft „Richtung” durchgeführt, wobei nach der Differenzbildung die einzelnen Werte aller Felder aufsummiert werden.
  • Als Ergebnis dieses Vergleiches kommt in diesem Ausführungsbeispiel ein konkreter Skalar heraus, welcher die Unterschiede zwischen dem aktuellen und dem erlernten Verhalten repräsentiert. Es ist dabei leicht zu erkennen, dass je größer der Unterschied zwischen erlerntem und aktuellem Verhalten ist, je größer auch der Skalar ist. Des Weiteren lässt sich aus dieser Anordnung erkennen, dass kleine Änderungen sich nicht wesentlich auf das Gesamtergebnis auswirken, so dass nicht gleich auf eine Situationsänderung geschlossen wird, sobald die Werte lokal auch nur minimal abweichen.
  • Des Weiteren ist in dieser Anordnung zu erkennen, dass bei anhaltender Situationsänderung das System selbstlernend ist und es sich der neuen Situation anpasst. Am obigen Beispiel des Staus orientiert, bedeutet dies, dass zwar der Stau als Situationsänderung zunächst erkannt wird (z. B. anhand einer großen Standardabweichung), nach einer gewissen Zeit aber die langsame Geschwindigkeit des Staus als typisches Verhalten gelernt wird (die Standardabweichung wird wieder kleiner). Das System passt sich somit automatisch ohne dass es neu justiert werden muss an die gegebene Situation an. Löst sich der Stau nach einer gewissen Weile wieder auf, so erhöht sich sprunghaft die Durchschnittsgeschwindigkeit, was ebenfalls wieder als Situationsänderung erkannt wird, da nun wiederum das Verhalten der Objekte von dem erlernten typischen Verhal ten abweicht. Somit kann das System sowohl die Bildung eines Staus als auch dessen Auflösung hinterher ohne Probleme und manuelles Eingreifen erkennen und passt sich durch Mitlernen der Standardabweichung auch an zu erwartende Änderungsstärken an.
  • Auch ist es mit diesem Verfahren möglich, auf bestimmte äußere Einflüsse wie Witterungsbedingungen oder Ausfall von bestimmten Sensoren entsprechend zu reagieren, ohne dass es dafür eines manuellen Eingriffs bedarf. Fällt z. B. ein Sensor aus oder wird der Sensor von einem Fremdkörper teilweise überdeckt, so wird dies zwar von dem Verfahren zunächst als Situationsänderung erkannt, im weiteren Verlauf jedoch als typisch wahrgenommen. Für den späteren Verlauf hat somit der Ausfall bzw. der teilweise Ausfall eines Sensors keine Bedeutung mehr.
  • An dieser Stelle sei angemerkt, dass sowohl die statistische Auswertung „Mittelwertbildung” als auch die genannten Objekteigenschaften nicht auf diese begrenzt sind und nicht einschränkend zu verstehen sind.
  • Dabei kann auch hier mit Schwellenwerten gearbeitet werden, die für jedes Verhalten und der bezüglichen Standardabweichung ermittelt werden. So schwankt der Durchschnittswert (Mittelwert) in einer großen Szene oft nur gering, obwohl sich z. B. auf einer Fahrbahn ein Stau gebildet hat, z. B. weil sich der Stau zunächst nur auf einer Fahrbahn bildet und sich dann auf die anderen Fahrbahnen „ausbreitet” bzw. sich der Stau nur in eine Richtung bildet, während die Gegenfahrbahn frei ist. So kann es zu kompensatorischen Änderungen kommen, die sich gegenseitig aufheben, so dass in der Summe keine Situationsänderung detektiert wird.
  • So ist es besonders vorteilhaft, wenn für jedes Feld die Standardabweichung gespeichert wird, die dann für einen Schwellwertvergleich herangezogen wird, um so selektiv für einzelne Felder Situationsänderungen feststellen zu können. Durch eine Faktorisierung der Standardabweichung kann ein Empfindlichkeit eingestellt werden, so dass sich in manchen Feldern Situationsänderungen ergeben, da hier die Standardabweichungen relativ gering sind, während in anderen Feldern dies als normales Verhalten erkannt wird, was auf relativ große Standardabweichungen zurückzuführen ist.
  • So passt das erfindungsgemäße Verfahren die Standardabweichung in den Feldern, in denen eine starke Änderung auftritt entsprechend über die Zeit an (z. B. bei Entstehung eines Staus), während die anderen Feldern für Veränderungen empfindlich bleiben (z. B. die Gegenfahrbahn, bei der noch kein Stau aufgetreten ist).
  • 5 zeigt schematisch eine andere Ausführungsform, bei der mit Hilfe eines entsprechenden Tracking-Algorithmus ein bestimmtes bzw. konkretes Objekt verfolgt wurde. Dazu wird von dem zu beobachtenden Objekt eine Trajektorie 51 aufgenommen, die eine Mehrzahl von Datenpunkten aufweist. An diesen Datenpunkten wurden dann z. B. entsprechende Werte von zu messenden Objekteigenschaften ermittelt und hinterlegt. Diese Datenpunkte werden nun mit dem erlernten Verhalten der Gesamtszene verglichen, um festzustellen, ob das Objekt sich bezogen auf das Gesamtverhalten aller Objekte typisch oder atypisch verhält. Dies wird gleichzeitig für alle Objekte in der Szene einzeln durchgeführt.
  • Dazu wird jeder Datenpunkt der Trajektorie mit der darunter liegenden kartenartigen Datenstruktur, insbesondere mit den Feldern verglichen, in die der entsprechende Datenpunkt fällt. Am Beispiel von 5 sei dies szenenhaft mit dem Datenpunkt 52 dargestellt. Dabei wird zunächst einmal ermittelt, ob für diesen Datenpunkt der Trajektorie des Objektes überhaupt Werte innerhalb der Karte hinterlegt sind. Dann wird die entsprechende Objekteigenschaft, hier die Geschwindigkeit, mit den hinterlegten Geschwindigkeiten verglichen. So lässt sich z. B. aus dem erlernten Verhalten die mittlere Geschwindigkeit ableiten und mit der Geschwindigkeit des konkreten Datenpunktes 52 entsprechend vergleichen. Dabei kann mit Hilfe von Stabilitätsinformationen und Gewichtungen verhindert werden, dass kleinste Differenzen als atypisches Verhalten erkannt werden.
  • Beispielsweise lässt sich mit diesem Ausführungsbeispiel in 5 erkennen, wenn z. B. Radfahrer sich sehr schnell durch eine Szene bewegen oder Fußgänger, die ziellos laufen oder plötzlich anfangen zu rennen oder über sonst kaum benutzte Flächen wie Wiesen laufen. Auch lässt sich mit diesem System ein Geisterfahrer erkennen. Es lassen sich aber auch andere Objekte wie Flugzeuge damit überwachen, so dass bei der Überwachung eines Flughafens z. B. Situationen erkannt werden, in denen Servicefahrzeuge sich in ungewöhnlichen Bereichen bewegen oder atypische Geschwindigkeiten aufweisen. Auch Starts von selten benutzten Start- und Landebahnen sowie Änderung der Startrichtung und der Einsatz eines Testfahrzeuges lassen sich mit diesem Verfahren erkennen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 2003/0107650 A1 [0005]
    • - EP 0798684 A1 [0008]
    • - US 2004/0130620 A1 [0010]

Claims (18)

  1. Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes, wobei das überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit Schritten: a) Erfassen von Werten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde, b) Lernen zumindest eines Verhaltens der Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, und c) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermittelten Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.
  2. Verfahren nach Anspruch 1, gekennzeichnet durch Lernen des Verhaltens in Schritt b) anhand der statistischen Auswertung der innerhalb eines Zeitraumes zuletzt ermittelten Werte.
  3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch Lernen des Verhaltens für mehr als einen Zeitraum und Erkennen einer Situationsänderung durch Vergleich zwischen dem erlernten Verhalten der jeweiligen Zeiträume und den aktuellen Werten.
  4. Verfahren nach Anspruch 3, gekennzeichnet durch Ermitteln eines gemeinsamen erlernten Verhaltens in Abhängigkeit der in den jeweiligen Zeiträumen erlernten Verhalten und Erkennen einer Situationsänderung durch Vergleich zwischen dem gemeinsamen erlernten Verhalten und den aktuellen Werten.
  5. Verfahren nach Anspruch 4, gekennzeichnet durch Ermitteln des gemeinsamen erlernten Verhaltens durch Mittelwertbildung.
  6. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vergleich in Schritt c) ausschließlich der Felder, für die zumindest ein Wert bezüglich einer der Objekteigenschaften hinterlegt ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erfassen einer die Position des Objektes innerhalb des räumlichen Gebietes bei der Ermittlung eines Wertes einer Eigenschaft angebenden Ermittlungsposition und Ermitteln des entsprechenden Feldes in Abhängigkeit der Ermittlungsposition.
  8. Verfahren nach Anspruch 7, gekennzeichnet durch Umrechnen der Ermittlungsposition in ein einheitliches Positionskoordinatensystem und Ermitteln des entsprechenden Feldes in Abhängigkeit der Ermittlungsposition innerhalb des einheitlichen Positionskoordinatensystems.
  9. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und einem anhand statistischer Auswertung von aktuell ermittelten Werten aktuellen Verhaltens als aktuelle Werte.
  10. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und aktuellen Werten zumindest einer der Objekteigenschaften einer Trajektorie eines konkreten Objektes unter Berücksichtigung der Felder, die von der Trajektorie des Objektes durchlaufen werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Bilden von Mittelwerten, Summen, Produkten und/oder Standardabweichungen als statistische Auswertung.
  12. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch bildgebende Sensoren, insbesondere Bildererkennungsverfahren, Radarsensoren und/oder RFID-Transponder als Sensoren.
  13. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Menschen, Tiere, Straßen-, Schienen-, Luft-, und/oder Wasserfahrzeuge sowie Partikel als Objekte.
  14. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Aktivität, Geschwindigkeit und/oder Richtung als ermittelbare Eigenschaft der Objekte.
  15. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vergleich in Schritt c) mittels eines Schwellwertvergleiches.
  16. Verfahren nach Anspruch 15, gekennzeichnet durch Ermitteln eines Schwellwertes für jedes Feld in Abhängigkeit zumindest eines Verhaltens bezüglich mindestens einer Objekteigenschaft und der Standardabweichung bezüglich der Objekteigenschaft und des jeweiligen Feldes.
  17. Computerprogrammprodukt mit Programmcodemittel zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogrammprodukt auf einer Rechenmaschine ausgeführt wird.
  18. Vorrichtung zur Erkennung einer Situationsänderung mit mindestens einem Sensor, der zur Ermittlung von Werten mindestens einer Eigenschaft von Objekten, die sich innerhalb eines zu überwachenden räumlichen Gebietes befinden, eingerichtet ist, und mit einer Datenverarbeitungsanlage, die zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 16 eingerichtet ist.
DE200910021765 2009-05-18 2009-05-18 Verfahren zum automatischen Erkennen einer Situationsänderung Withdrawn DE102009021765A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE200910021765 DE102009021765A1 (de) 2009-05-18 2009-05-18 Verfahren zum automatischen Erkennen einer Situationsänderung
EP10004126.8A EP2254104B1 (de) 2009-05-18 2010-04-19 Verfahren zum automatischen Erkennen einer Situationsänderung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200910021765 DE102009021765A1 (de) 2009-05-18 2009-05-18 Verfahren zum automatischen Erkennen einer Situationsänderung

Publications (1)

Publication Number Publication Date
DE102009021765A1 true DE102009021765A1 (de) 2010-11-25

Family

ID=42262035

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200910021765 Withdrawn DE102009021765A1 (de) 2009-05-18 2009-05-18 Verfahren zum automatischen Erkennen einer Situationsänderung

Country Status (2)

Country Link
EP (1) EP2254104B1 (de)
DE (1) DE102009021765A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010053150A1 (de) * 2010-11-30 2012-05-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Auswertung einer Verkehrslage
DE102021207997A1 (de) 2021-07-26 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überprüfen einer Vollständigkeit eines Modells einer Verkehrsdynamik an einem Verkehrsknotenpunkt

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587781B2 (en) 2000-08-28 2003-07-01 Estimotion, Inc. Method and system for modeling and processing vehicular traffic data and information and applying thereof
US7620402B2 (en) 2004-07-09 2009-11-17 Itis Uk Limited System and method for geographically locating a mobile device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0595709A1 (de) * 1992-10-29 1994-05-04 Fujikura Ltd. Anomalieüberwachungsvorrichtung
EP0798684A1 (de) 1996-03-25 1997-10-01 MANNESMANN Aktiengesellschaft Verfahren und System zur Verkehrslageerfassung durch stationäre Datenerfassungseinrichtung
US20030107650A1 (en) 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. Surveillance system with suspicious behavior detection
US20040130620A1 (en) 2002-11-12 2004-07-08 Buehler Christopher J. Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
US20050125403A1 (en) * 2003-12-08 2005-06-09 Noboru Wakabayashi System and apparatus for determining abnormalities in daily activity patterns
EP1791363A1 (de) * 2004-08-25 2007-05-30 Matsushita Electric Industrial Co., Ltd. Überwachungs-kamera-einrichtung
US20070279490A1 (en) * 2006-06-05 2007-12-06 Fuji Xerox Co., Ltd. Unusual event detection via collaborative video mining
US20080123975A1 (en) * 2004-09-08 2008-05-29 Nobuyuki Otsu Abnormal Action Detector and Abnormal Action Detecting Method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
US5448484A (en) * 1992-11-03 1995-09-05 Bullock; Darcy M. Neural network-based vehicle detection system and method
DE4300651A1 (de) * 1993-01-08 1994-07-14 Refit Ev Verfahren zur Ermittlung von Verkehrsdaten
US20060074546A1 (en) * 1999-04-19 2006-04-06 Dekock Bruce W System for providing traffic information
JP3243234B2 (ja) * 1999-07-23 2002-01-07 松下電器産業株式会社 混雑度計測方法、計測装置、およびそれを用いたシステム
US6587781B2 (en) * 2000-08-28 2003-07-01 Estimotion, Inc. Method and system for modeling and processing vehicular traffic data and information and applying thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0595709A1 (de) * 1992-10-29 1994-05-04 Fujikura Ltd. Anomalieüberwachungsvorrichtung
EP0798684A1 (de) 1996-03-25 1997-10-01 MANNESMANN Aktiengesellschaft Verfahren und System zur Verkehrslageerfassung durch stationäre Datenerfassungseinrichtung
US20030107650A1 (en) 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. Surveillance system with suspicious behavior detection
US20040130620A1 (en) 2002-11-12 2004-07-08 Buehler Christopher J. Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
US20050125403A1 (en) * 2003-12-08 2005-06-09 Noboru Wakabayashi System and apparatus for determining abnormalities in daily activity patterns
EP1791363A1 (de) * 2004-08-25 2007-05-30 Matsushita Electric Industrial Co., Ltd. Überwachungs-kamera-einrichtung
US20080123975A1 (en) * 2004-09-08 2008-05-29 Nobuyuki Otsu Abnormal Action Detector and Abnormal Action Detecting Method
US20070279490A1 (en) * 2006-06-05 2007-12-06 Fuji Xerox Co., Ltd. Unusual event detection via collaborative video mining

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010053150A1 (de) * 2010-11-30 2012-05-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Auswertung einer Verkehrslage
DE102010053150B4 (de) * 2010-11-30 2018-02-01 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Auswertung einer Verkehrslage
DE102021207997A1 (de) 2021-07-26 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überprüfen einer Vollständigkeit eines Modells einer Verkehrsdynamik an einem Verkehrsknotenpunkt

Also Published As

Publication number Publication date
EP2254104B1 (de) 2014-06-11
EP2254104A3 (de) 2012-11-07
EP2254104A2 (de) 2010-11-24

Similar Documents

Publication Publication Date Title
DE102017203838B4 (de) Verfahren und System zur Umfelderfassung
DE102014008578B4 (de) Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102014201159A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
DE102009033431B4 (de) Verfahren und Vorrichtung zur dynamischen Steuerung einer Signalanlage
EP3181421A1 (de) Verfahren und system zur automatischen steuerung eines folgefahrzeugs mit einem vorderfahrzeug
EP2867093B1 (de) Verfahren und system zur informationsnutzung
DE102011010864A1 (de) Verfahren und System zur Vorhersage von Kollisionen
DE102014009059A1 (de) Seiten-Rückwärts-Alarmsystem für Fahrzeuge und Alarmsteuerverfahren für dieses
EP2110798A1 (de) Verfahren zur Überwachung eines Verkehrswegs für ein Verkehrsmittel einer vorbestimmten Art
WO2017144356A1 (de) Verfahren zum betrieb eines kraftfahrzeugs und kraftfahrzeug
DE102017212644A1 (de) Sensorsystem und Verfahren zum Ermitteln wenigstens einer Verkehrssituation
DE102013019226A1 (de) Vorrichtung zur kamerabasierten Umgebungserfassung für ein Fahrzeug
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
EP2254104B1 (de) Verfahren zum automatischen Erkennen einer Situationsänderung
DE102012009822A1 (de) Verfahren zur Ermittlung einer Größe zur Beschreibung eines lokalenVerkehrs
DE102018251778A1 (de) Verfahren zum Assistieren eines Kraftfahrzeugs
DE102014207054A1 (de) Verfahren zum Betreiben eines Fahrerinformationssystem für Engstellen im Straßenverkehr und Fahrerinformationssystem
DE102009037461A1 (de) Assistenzsystem zur Erhöhung einer Verkehrssicherheit
DE102007032091B3 (de) Verfahren zum Überwachen eines höhengleichen Bahnübergangs
WO2023036545A1 (de) Verfahren und steuerschaltung zum überprüfen, ob ein aktuell aktiver fahrmodus innerhalb seiner odd betrieben wird, sowie system und backend-server
EP4238066A1 (de) Verfahren zum analysieren eines umfelds eines kraftfahrzeugs
DE102020005763A1 (de) Verfahren zur Steuerung eines Fahrzeugs
DE102017218932B4 (de) Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102004047122A1 (de) Verfahren zum Überwachen eines Fahrzeugs

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R120 Application withdrawn or ip right abandoned
R120 Application withdrawn or ip right abandoned

Effective date: 20150505