EP2254104B1 - Verfahren zum automatischen Erkennen einer Situationsänderung - Google Patents

Verfahren zum automatischen Erkennen einer Situationsänderung Download PDF

Info

Publication number
EP2254104B1
EP2254104B1 EP10004126.8A EP10004126A EP2254104B1 EP 2254104 B1 EP2254104 B1 EP 2254104B1 EP 10004126 A EP10004126 A EP 10004126A EP 2254104 B1 EP2254104 B1 EP 2254104B1
Authority
EP
European Patent Office
Prior art keywords
values
behaviour
situation
learned
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Not-in-force
Application number
EP10004126.8A
Other languages
English (en)
French (fr)
Other versions
EP2254104A2 (de
EP2254104A3 (de
Inventor
Frederik Meysel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Publication of EP2254104A2 publication Critical patent/EP2254104A2/de
Publication of EP2254104A3 publication Critical patent/EP2254104A3/de
Application granted granted Critical
Publication of EP2254104B1 publication Critical patent/EP2254104B1/de
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions

Definitions

  • the invention relates to a method for automatic detection of a situation change within a spatial area to be monitored by means of sensors.
  • the invention also relates to a device for this purpose.
  • the most commonly used sensors for monitoring are cameras that record the area to be monitored.
  • the captured image of a camera is then forwarded in most cases to a central, where it is then displayed on a screen for an operator.
  • a central where it is then displayed on a screen for an operator.
  • For the operator there is the problem that with an increase in the number of cameras and the number of images that need to be monitored, are increased. Ultimately, this leads to increased complexity, which in the worst case is at the expense of safety.
  • US 2003/0107650 A1 a monitoring and security system which automatically issues a warning when corresponding events that were previously programmed occur in the monitoring of an area.
  • this system can alert you to possible shoplifting if a person opens a plastic bag inside the area to be monitored (here a shop).
  • the system is set up in such a way that it picks up the noise within the store and examines it for the characteristic acoustic pattern of an opening plastic bag.
  • So z. B. in the US 2004/0130620 Al discloses a method for video analysis, in which a plurality of image sensors record an overlapping area, the objects within the surveillance area moving objects can be tracked by means of a corresponding tracking algorithm, even across the recording limits of an image sensor.
  • a behavior of the objects is then determined for at least one of the fields at least one of its object properties is learned by evaluating the values of the object property stored in the field by means of statistical methods. This results in a corresponding behavior of the objects with respect to the monitored property of the objects for each field of the entire spatial area.
  • a behavior in terms of speed can be learned what z. B. expressed in terms of average speed.
  • the learned behavior of at least one field is compared with currently determined values of the corresponding field, whereby based on the comparison on a situation change is closed.
  • the behavior in step b) is learned by the last ascertained values of the corresponding field, which lie within a certain period of time. So it is z. B. conceivable that only those values are taken into account when learning the behavior that within the last z. For example, five minutes were recorded. This makes it possible for the system to re-learn the changed situation after a certain time and to view it as typical behavior.
  • a behavior is learned for a plurality of discrete periods, which is the basis for the comparison for recognizing a situation change in step c). It is conceivable that a behavior of a period that lies farther back in the comparison is given a lower weighting than those periods that were not so long ago, so that young periods receive a higher weighting than older ones.
  • a position indication is determined which represents the corresponding spatial position of the object within the spatial area.
  • This so-called determination position which indicates the position at which the value was determined within the spatial area at the corresponding object, is then used to determine the field with which the determined value is linked.
  • the above-described determination position is converted into a uniform position coordinate system or uniform world coordinates so that the position information of the determined values can be compared with one another. In this way, the values can be entered in the corresponding fields regardless of the sensor position.
  • step c) it is particularly advantageous if the detection of a situation change in step c) takes place as a function of the comparison between a learned behavior from step b) and a behavior based on the statistical evaluation of currently determined values.
  • a current behavior for one or more fields is continuously determined and compared with a previously learned behavior for the corresponding fields. This makes it possible to detect changes in the situation that affect the behavior of the objects within one or more fields, with respect to one or more object properties.
  • a situation change is detected as a function of the comparison between the learned behavior from step b) and current values of a trajectory of a specific object.
  • values relating to one or more object properties of a specific object are detected, while the object moves on a specific path (trajectory) through the area to be monitored. These values recorded in this way are then assigned to a specific trajectory of the object and compared with the learned behavior of the other objects. If the behavior with respect to one or more object properties of the specific object deviates significantly compared with the learned behavior of the other objects, it is possible to conclude that the situation has changed.
  • individual objects can be identified, which behave atypically compared to the typical behavior of the entire scene, which also represents a situation change.
  • mean values, sums, products and / or standard deviations are formed for the statistical evaluation, which can then be compared with one another. In principle, all arithmetic operations are possible which the expert would use for statistical purposes.
  • Particularly suitable sensors for monitoring the spatial area are imaging sensors which are advantageously equipped with image recognition methods, radar sensors or RFID transponders.
  • objects to be monitored come in particular people, animals, ie living beings in general, road, rail, air or water vehicles into consideration as well as particles and other objects, It is particularly advantageous if the sensors mentioned for determining properties such as activity of Objects that are set to speed the objects or their direction.
  • the threshold value can be designed in such a way that sudden changes in the behavior of the objects are recognized as a situation change.
  • threshold values can also be stored for a field if several typical behaviors arise with regard to an object property.
  • the invention relates to a computer program product for carrying out the above method and a device for this purpose.
  • Fig. 1a and 1b sketchy show the inclusion of a road junction, which is to be used as an embodiment of the further embodiments.
  • the intersection is monitored by two video cameras, where Fig. 1a the image of the first video camera can be seen from a first angle while Fig. 1b See the image of a second video camera from a different angle.
  • values of specific object properties are identified from the recorded image information.
  • the objects are vehicles passing through the intersection.
  • the speed and direction are recognized by the image recognition software for each vehicle and stored accordingly.
  • per vehicle which is in the field of view of the cameras, continuously determined both the speed and the direction.
  • the recorded image area is subdivided into a plurality of fields 1.
  • this is only sketchily indicated and usually extends over the entire scene.
  • the position at which the corresponding values were determined is also determined. So that these values can also be utilized independently of the location of the corresponding camera, this position information is converted into a world coordinate system and stored accordingly.
  • a vehicle which by the field of view of the two cameras in Fig. 1a and 1b a plurality of speed and direction values at different positions or a plurality of speed and direction values at the same positions, since the values can be detected by a plurality of different sensors.
  • Each speed and direction value is now assigned the corresponding field 1 within which the determined position lies, based on its position.
  • exactly one such field can be assigned to each measured speed and direction value.
  • Fig. 2 shows.
  • the hatched fields 2 are the fields in which object values of different objects have been stored. The white fields, however, have no stored values.
  • a derived card-like structure is in Fig. 3 to recognize.
  • Fig. 3 This is a data structure in which the mean value of the values stored in this field was formed in each field. In this embodiment, this was done with the object property "Speed". But it can also derive other card-like structures, such. For example, those in which the standard deviation is determined as a statistical evaluation for each field.
  • the values are determined for each field whose property is to be derived statistically. In this embodiment, these would be the speed values. Then the statistical evaluation is carried out for each field. Since the statistical evaluation is carried out separately for each field, this results in different fields for each field Fig. 3 represented by a different hatching in the individual fields.
  • the behavior of the objects can be determined with respect to certain object properties within the scene, whereby the learned behavior is understood as a typical behavior of the objects. Now changes the scene by z. If, for example, the speed becomes slower or faster, this ultimately also results in the statistical evaluation so that a situation change can then be concluded on the basis of a comparison between the learned behavior and the current values. Thus, such a situation change is ultimately always a deviation of the behavior of the objects from the typical behavior of the objects within this scene with respect to at least one object property.
  • Fig. 4 shows by way of example the comparison between the learned behavior and a current behavior with respect to the two object properties speed (S) and direction (D) on the basis of the statistical evaluation "averaging" (S ⁇ , D ⁇ ).
  • map-type data structures have been learned as described above. For this purpose, data structures with respect to the speed and direction of the objects within the observed scene were learned. From the determined values for the speed S and the direction D, the average value was then derived for each field, which is referred to as card-like data structure 41 and 42 in FIG Fig. 4 can be seen.
  • a common behavior was derived, which is also stored in the form of a card-like data structure 43 and 44 respectively.
  • a common learned behavior can be done with the help of different weights z. B. younger learned behavior to be considered more than older.
  • the system is self-learning and it adapts to the new situation.
  • the system automatically adapts to the given situation without having to readjust it. If the traffic jam clears up again after a while, the average speed increases abruptly, which is again recognized as a change in the situation, as is the behavior of the objects from the typical behavior learned differs.
  • the system can recognize both the formation of a congestion and its resolution afterwards without any problems and manual intervention and adapts by learning the standard deviation also to expected levels of change.
  • the average value (mean) in a large scene often varies only slightly, although e.g. has jammed on a roadway, e.g. because the traffic jam initially forms only on one lane and then "spreads" to the other lanes or the jam forms only in one direction, while the opposite lane is free. This can lead to compensatory changes that cancel each other out, so that no change in the situation is detected in the sum.
  • the standard deviation is stored for each field, which is then used for a threshold value comparison, so as to be able to determine selectively for individual fields situation changes.
  • a sensitivity can be set so that in some fields situation changes result, since here the standard deviations are relatively low, while in other fields this is recognized as normal behavior due to relatively large standard deviations.
  • the method of the invention adjusts the standard deviation in the fields where a large change occurs over time (eg, when a congestion occurs), while the other fields remain sensitive to changes (eg, the oncoming lane where no congestion has occurred ).
  • Fig. 5 schematically shows another embodiment in which a particular or specific object was tracked by means of a corresponding tracking algorithm.
  • a trajectory 51 is recorded by the object to be observed, which has a plurality of data points. At these data points were then z. B. corresponding values of object properties to be measured and stored. These data points are then compared to the learned behavior of the overall scene to determine if the object behaves in a typical or atypical manner relative to the overall behavior of all objects. This is done at the same time for all objects in the scene individually.
  • each data point of the trajectory is compared with the underlying card-like data structure, in particular with the fields in which the corresponding data point falls.
  • this is shown in a scene with the data point 52.
  • the corresponding object property here the speed
  • Fig. 5 can be with this embodiment in Fig. 5 recognize if z. B, Cyclists move very fast through a scene or pedestrians who run aimlessly or suddenly start to run or walk over otherwise barely used areas like meadows. Also can be seen with this system a ghost driver. But it can also monitor other objects such as aircraft so that when monitoring an airport z. For example, situations may be identified where service vehicles are moving in unusual areas or at atypical speeds. It is also possible to detect launches of rarely used runways as well as changes in the starting direction and the use of a test vehicle with this method.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes. Die Erfindung betrifft ebenfalls eine Vorrichtung hierzu.
  • Häufig wird unter dem Aspekt der Sicherheit die mitunter sehr komplexe Anforderung gestellt, Orte oder Gebiete, in denen sich viele Akteure oder Objekte bewegen und miteinander interagieren, mittels entsprechender Sensoren zu überwachen. Beispiele für solche Orte oder Gebiete sind Straßen, Parks, Bahnhöfe, öffentliche Plätze, Flughäfen, Autobahnen oder Einkaufszentren. Innerhalb dieser Orte oder Gebiete interagieren die sich daran befindlichen Akteure oder Objekte miteinander, die beispielsweise Fußgänger, Fahrradfahrer, PKWs, Schiffe, Flugzeuge, Sportler oder Kunden sein können. Dabei wird meist bei der Überwachung insbesondere darauf abgestellt, dass die in dem Gebiet befindlichen Objekte oder Akteure innerhalb der festgelegten Rahmenbedingungen bewegen, so dass atypische oder gar bedrohliche Ereignisse durch die jeweiligen Überwacher (z. B. Fluglotsen, Sicherheitsdienste) schnell erkannt werden können,
  • Die zur Überwachung am häufigsten verwendeten Sensoren sind dabei Kameras, die das zu überwachende räumliche Gebiet aufnehmen. Das so aufgenommene Bild einer Kamera wird dann in den meisten Fällen an eine Zentrale weitergeleitet, wo es dann auf einem Bildschirm für einen Operator dargestellt wird. Gerade bei Gebieten mit einer sehr großen räumlichen Ausdehnung kommt es sehr schnell zu einer großen Anzahl von benötigten Kameras, um alle Bereiche des zu überwachenden Gebietes erfassen und abdecken zu können. Für den Operator stellt sich dabei das Problem, dass mit einer Erhöhung der Anzahl der Kameras auch die Anzahl der Bilder, die überwacht werden müssen, erhöht werden. Dies führt letztlich zu einer gesteigerten Komplexität, die im ungünstigsten Fall zu Lasten der Sicherheit geht.
  • Um diese Überwachungskomplexität zu verringern, gibt es zum Einen die Möglichkeit, die Anzahl der zu überwachenden Bilder bzw. allgemein gesprochen, die Anzahl der zur Überwachung benötigten Informationen, zu reduzieren, was letztlich zum Verlust von Informationen führen kann. Zum Anderen gibt es die Möglichkeit, mit Hilfe von Bilderkennungsverfahren die Bildsignale zu analysieren und auf entsprechend programmierte Signaturen hin zu filtern.
  • So beschreibt beispielsweise die US 2003/0107650 A1 ein Überwachungs- und Sicherheitssystem, welches automatische eine Warnung herausgibt, wenn entsprechende Ereignisse, die zuvor programmiert wurden, bei der Überwachung eines Gebietes auftreten. So kann mit diesem System beispielsweise auf einen möglichen Ladendiebstahl aufmerksam gemacht werden, wenn eine Person innerhalb des zu überwachenden Gebietes (hier ein Laden) eine Plastiktüte öffnet. Dazu ist das System derart eingerichtet, dass es die Geräusche innerhalb des Ladens aufnimmt und nach dem charakteristischen Akustikmuster einer sich öffnenden Plastiktüte hin untersucht.
  • Nachteilig dabei ist insbesondere die Tatsache, dass dieses System nur solche Ereignisse erkennt, auf die es speziell programmiert wurde. So ist dieses System nicht ohne Weiteres auf eine andere Szenerie oder Umgebung übertragbar.
  • Auch bei der Verkehrskontrolle bzw. bei der Verkehrslagenerfassung spielt Überwachung eine wichtige Rolle. So wird auf deutschen Autobahnen mittels entsprechender Sensoren ständig die Verkehrsdichte erfasst, um so z. B. Verkehrsleiteinrichtungen, wie sie auf der Autobahn A2 installiert sind, in Abhängigkeit der Verkehrsdichte ansteuern zu können.
  • Zu dieser Thematik ist aus der EP 0 798 684 Al ein Verfahren und ein System zur Verkehrslagenerfassung durch stationäre Datenerfassungseinrichtungen bekannt, bei dem die Datenerfassungseinrichtungen ihre Daten an eine Zentrale weiterleiten, in der diese dann entsprechend ausgewertet werden. Das Ergebnis der Auswertung wird dann an die Datenerfassungseinrichtungen zurückgesendet, damit diese in die Lage versetzt werden, nur noch auf solche Ereignisse zu achten, die letztlich auch zu einer Meldung an die Zentrale führen müssen. Damit soll insbesondere erreicht werden, dass die von der Datenerfassungseinrichtung zur Zentrale zu übertragenden Daten möglichst gering gehalten werden.
  • Nachteilig dabei ist bei diesem System wie auch bei den anderen aus dem Stand der Technik bekannten Systemen, die Tatsache, dass Signaturen der zu detektierenden Ereignisse vom Operator festgelegt werden müssen. Außerdem werden in den Wochen nach der Installation meist häufig weitere Wartungsdurchläufe nötig, um durch Änderungen im beobachteten Bereich, durch Wetteränderungen, Jahreszeiten usw. das System neu anzupassen. Dabei sind diese Systeme meist nur in der Lage, genau festgelegte Vorgänge innerhalb ihres Bereiches zu erkennen.
  • So wird z. B. in der US 2004/0130620 Al ein Verfahren zur Videoanalyse offenbart, bei dem eine Mehrzahl von Bildsensoren einen auch überlappenden Bereich aufnehmen, Die innerhalb des Überwachungsbereiches sich bewegenden Objekte können dabei mit Hilfe eines entsprechenden Tracking-Algorithmus verfolgt werden, und zwar auch über die Aufnahmegrenzen eines Bildsensors hinweg.
  • Auch die Dokumente EP 1074958 , US 2006/0074546 und US 5091780 gehören zum Stand der Technik.
  • Im Hinblick auf die aus dem Stand der Technik bekannten Nachteile ist es Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Detektieren von Ereignissen innerhalb eines zu überwachenden räumlichen Gebietes anzugeben.
  • Die Aufgabe wird mit dem Verfahren der eingangs genannten Art gelöst, wobei das zu überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit den Schritten:
    1. a) Erfassen von Werten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde,
    2. b) Lernen zumindest eines Verhaltens der Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, und
    3. c) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermitteltem Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.
  • Damit wird es möglich, ein Gebiet mit entsprechenden Sensoren zu überwachen, ohne das es speziell auf bestimmte Ereignisse, die es erkennen soll, programmiert werden muss. Dazu werden mit Hilfe der Sensoren, die das Gebiet überwachen, Werte von den Objekten erfasst, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden. Die erfassten Werte sind dabei Werte entsprechender Eigenschaften der Objekte, die mit Hilfe der Sensoren erfasst bzw. ermittelt oder gemessen werden können. Eine solche Objekteigenschaft könnte dabei z. B. die Geschwindigkeit, Richtung oder aber auch ganz allgemein gesprochen die Aktivität eines Objektes innerhalb eines entsprechenden Feldes sein. Es ist aber auch denkbar, dass weitere Informationen über die Objekte als Eigenschaften ermittelt werden können, wie z. B. der Treibstoffvorrat eines Flugzeuges, je nachdem was für eine Art von Sensoren verwendet wird.
  • Darüber hinaus wird beim Erfassen der Werte ermittelt, innerhalb welchen Feldes der entsprechende Wert erfasst wurde, so dass sich ein Datenpaar aus einem Wert einer Objekteigenschaft und dazugehörigen Feld des räumlichen Gebietes ergibt. Im nächsten Schritt wird dann für mindestens eines der Felder ein Verhalten der Objekte bezüglich mindestens einer ihrer Objekteigenschaften gelernt, indem die in dem Feld hinterlegten Werte der Objekteigenschaft mittels statistischer Methoden ausgewertet werden. Somit ergibt sich für jedes Feld des gesamten räumlichen Gebietes ein entsprechendes Verhalten der Objekte bezüglich der überwachten Eigenschaft der Objekte.
  • So kann beispielsweise bei der Überwachung einer Straße für jedes Feld ein Verhalten hinsichtlich der Geschwindigkeit gelernt werden, was sich z. B. in Form der Durchschnittsgeschwindigkeit ausdrücken lässt. Um nun eine Veränderung der beobachten Situation erkennen zu können, die sich letztlich aus einer spontanen Verhaltensänderung einer oder mehrerer Objekte innerhalb der Gesamtszene ergibt, wird das erlernte Verhalten mindestens eines Feldes mit aktuell ermittelten Werten des entsprechenden Feldes verglichen, wobei anhand des Vergleiches auf eine Situationsänderung geschlossen wird.
  • Dabei kann selbstverständlich nicht nur ein Verhalten bezüglich einer Eigenschaft und bezüglich eines Feldes gelernt werden, sondern auch mehrere Verhalten pro Feld und Eigenschaft. Solche Konstellationen treten z.B. in Kreuzungsbereichen auf, in denen es z.B. zwei Häufungspunkte für die Geschwindigkeit gibt, und zwar einmal für Fahrzeuge und einmal für Fußgänger. Die aktuell ermittelten Werte werden dann sowohl mit dem einen als auch mit dem anderen Verhalten verglichen (Schritt c)), wobei eine Situationsänderung dann angenommen wird, wenn sich die aktuellen Werte unter keines der Verhalten subsumieren lassen.
  • So erkennt das oben genannte Verfahren z. B. eine sprunghafte Änderung der Durchschnittsgeschwindigkeit der Fahrzeuge auf der Straße, so dass somit die Bildung eines Staus bzw. das Auflösen eines Staus erkannt wird. Der Vorteil dieses Verfahrens besteht dabei darin, dass durch die Aufteilung des räumlichen Gebietes in eine Mehrzahl von Feldern lokale Situationsänderungen innerhalb eines großen räumlichen Gebietes ohne Weiteres detektierbar sind sowie die Integration mehrerer Sensoren, die das räumliche Gebiet aus unterschiedlichen Sichtweisen aufnehmen, problemlos möglich ist. Darüber hinaus ist bei diesem Verfahren keine spezielle Programmierung auf entsprechend zu detektierende Ereignissen notwendig.
  • Vorteilhafter Weise wird das Verhalten in Schritt b) durch die zuletzt ermittelten Werte des entsprechenden Feldes gelernt, die innerhalb eines bestimmten Zeitraumes liegen. So ist es z. B. denkbar, dass nur solche Werte beim Lernen des Verhaltens berücksichtigt werden, die innerhalb der letzten z. B. fünf Minuten erfasst wurden. Dadurch wird es möglich, dass das System nach einer gewissen Zeit die sich geänderte Situation neu lernt und als typisches Verhalten ansieht.
  • Es ist aber auch denkbar, dass für mehrere diskrete Zeiträume jeweils ein Verhalten gelernt wird, das dem Vergleich zum Erkennen einer Situationsänderung in Schritt c) zugrunde gelegt wird, Dabei ist es denkbar, dass ein Verhalten eines Zeitraumes, der weiter zurückliegt, bei dem Vergleich eine geringere Gewichtung erhält, als jene Zeiträume, die noch nicht so lange her sind, so dass junge Zeiträume eine höhere Gewichtung erhalten als ältere.
  • Besonders vorteilhaft ist es aber auch, dass jeweilige Verhalten der Mehrzahl der Zeiträume zu einem gemeinsamen Verhalten zusammenzuführen, wobei auch hier ältere Zeiträume eine andere Gewichtung bekommen können als jüngere, Durch das Zusammenführen verschiedener erlernter Verhalten unterschiedlichster Zeiträume kann somit ein typisches Verhalten der Objekte innerhalb der zu beobachtenden Szene abgebildet werden. Dabei können die unterschiedlich gelernten Verhalten z. B. mittels Mittelwertbildung zusammengeführt werden.
  • An dieser Stelle sei erwähnt, dass pro Feld und Zeitraum mehrere Verhalten entsprechend der Objekteigenschaften erlernt werden können, So ist es denkbar, dass für eine Objekteigenschaft 1 ein Verhalten gelernt wird und gleichzeitig für eine Objekteigenschaft 2, die z. B. mittels anderer Sensoren aufgenommen wird, ebenfalls ein Verhalten gelernt wird, so dass sich für jede Objekteigenschaft ein entsprechend gelerntes Verhalten ergibt. Diese pro Objekteigenschaft erlernten Verhalten können dann sowohl einzeln betrachtet als auch zusammengeführt werden.
  • Vorteilhaft ist es, wenn vor dem Vergleich in Schritt c) die Felder maskiert werden, d. h. ausschließlich die Felder zum Vergleich herangezogen werden, für die überhaupt entsprechende Werte hinterlegt sind, Dabei bleiben alle die Felder unberücksichtigt, für die keine oder nur eine sehr geringe Anzahl von Werten hinterlegt sind.
  • Ganz besonders vorteilhaft ist es, wenn zusätzlich zu der Erfassung der Werte eine Positionsangabe ermittelt wird, welche die entsprechende Ortsposition des Objektes innerhalb des räumlichen Gebietes repräsentiert. Diese sog. Ermittlungsposition, welche die Position angibt, an der der Wert innerhalb des räumlichen Gebietes bei dem entsprechenden Objekt ermittelt wurde, wird dann zur Ermittlung des Feldes, mit der der ermittelte Wert verknüpft wird, herangezogen.
  • Damit mehrere Sensoren auch überlappende Bereiche des zu überwachenden Gebietes abdecken können, ist es ganz besonders vorteilhaft, wenn diese oben beschriebene Ermittlungsposition in ein einheitliches Positionskoordinatensystem bzw. in einheitliche Weltkoordinaten umgerechnet wird, damit die Positionsangaben der ermittelten Werte untereinander vergleichbar sind. So können dann die Werte unabhängig von der Sensorposition in die entsprechenden Felder eingetragen werden.
  • In einer konkreten Ausführungsform ist es ganz besonders vorteilhaft, wenn das Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen einem erlernten Verhalten aus Schritt b) und einem anhand statistischer Auswertung von aktuell ermittelten Werten aktuellem Verhalten erfolgt. Dabei wird kontinuierlich ein aktuelles Verhalten für eines oder mehrere Felder ermittelt und mit einem zuvor erlernten Verhalten für die entsprechenden Felder verglichen. Dadurch wird es möglich, Situationsänderungen daran zu erkennen, dass sich das Verhalten der Objekte innerhalb einer oder mehrerer Felder entsprechend ändert, und zwar bezüglich einer oder mehrerer Objekteigenschaften.
  • In einer anderen Ausführungsform ist es ganz besonders vorteilhaft, wenn eine Situationsänderung in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und aktuellen Werten einer Trajektorie eines konkreten Objektes erkannt wird. Dabei werden Werte bezüglich einer oder mehrerer Objekteigenschaften eines konkreten Objektes erfasst, während sich das Objekt auf einer bestimmten Bahn (Trajektorie) durch das zu überwachende Gebiet bewegt. Diese so aufgenommenen Werte werden dann einer bestimmten Trajektorie des Objektes zugeordnet und mit dem erlernten Verhalten der anderen Objekte verglichen. Weicht das Verhalten bezüglich einer oder mehrerer Objekteigenschaften des konkreten Objektes gegenüber dem erlernten Verhalten der anderen Objekte signifikant ab, so kann auf eine Situationsänderung geschlossen werden. Somit können auch einzelne Objekte identifiziert werden, die sich gegenüber dem typischen Verhalten der gesamten Szene atypisch verhalten, was ebenfalls eine Situationsänderung darstellt.
  • Vorteilhafterweise werden für die statistische Auswertung Mittelwerte, Summen, Produkte und/oder Standardabweichungen gebildet, die dann miteinander verglichen werden können. Dabei sind grundsätzlich alle arithmetischen Operationen möglich, die der Fachmann für statistische Zwecke heranziehen würde. Als Sensoren zur Überwachung des räumlichen Gebietes kommen insbesondere bildgebende Sensoren, die vorteilhafterweise mit Bilderkennungsverfahren ausgestattet sind, Radarsensoren oder RFID Transponder in Betracht. Als zu überwachende Objekte kommen insbesondere Menschen, Tiere, also Lebewesen im Allgemeinen, Straßen-, Schienen-, Luft- oder Wasserfahrzeuge in Betracht sowie Partikel und sonstige Objekte, Besonders vorteilhaft ist es dabei, wenn die genannten Sensoren zum Ermitteln von Eigenschaften wie Aktivität der Objekte, die Geschwindigkeit der Objekte oder deren Richtung eingerichtet sind.
  • Darüber hinaus ist es ganz besonders vorteilhaft, wenn der Vergleich in Schritt c) mittels eines Schwellenwertvergleiches erfolgt, so dass nicht bereits kleinste Änderungen zum Erkennen einer Situationsänderung führen. So kann der Schwellenwert derart ausgelegt sein, dass sprunghafte Veränderungen im Verhalten der Objekte als Situationsänderung erkannt werden. So kann für jedes Feld bzw. jede Zelle ein Schwellenwert ermittelt werden, der dann für jedes Feld hinterlegt wird, wobei sich der Schwellenwert z.B. aus dem Produkt der Standardabweichung des jeweiligen Feldes mit einem Empfindlichkeitsfaktor wie folgt ergeben kann: S i , j = V obj i j ± k empf * σ i , j
    Figure imgb0001

    mit Si, j als Schwellenwert in dem Feld (i, j), mit Vobj (i, j) als das erlernte Verhalten bezüglich einer Eigenschaft der Objekte im Feld (i, j), mit kempf als eine Empfindlichkeitsfaktor, der für die gesamte Szene bzw. Karte gilt und mit σi, j als Standardabweichung in dem Feld (i, j) bezüglich der erlernten Objekteigenschaft. Durch k kann in der gesamten Karte eine Empfindlichkeit eingestellt werden, die dann aber in jedem Feld zu einem anderen Ergebnis in Abhängigkeit von σ führt. So kann in örtlich nahe beieinander liegenden Feldern in einem Feld eine Situationsänderung erkannt werden, in benachbarten Feldern jedoch nicht, weil hier beispielsweise die Standardabweichung σ sehr hoch ist (z.B. in Kreuzungsgebieten). Somit kann der Schwellwert für jede Zelle einzeln und dynamisch geregelt werden, was das Verfahren noch genauer macht.
  • Dabei können für ein Feld auch mehrere Schwellwerte hinterlegt sein, wenn sich bezüglich einer Objekteigenschaft mehrere typische Verhalten ergeben.
  • Des Weiteren betrifft die Erfindung ein Computerprogrammprodukt zum Ausführen des vorstehenden Verfahren sowie eine Vorrichtung hierzu.
  • Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft erläutert. Es zeigen:
  • Fig. 1a, 1b
    skizzenhafte Darstellung einer aufgenommenen Szene;
    Fig. 2
    Grundschema der Datenstruktur;
    Fig. 3
    Grundschema von abgeleiteten Informationen;
    Fig. 4
    schematische Darstellung der Situationserkennung über mehrere Zeitbereiche;
    Fig. 5
    skizzenhafte Darstellung eines Trajektorienvergleiches.
  • Die Fig. 1a und 1b zeigen skizzenhaft die Aufnahme einer Straßenkreuzung, die als Ausführungsbeispiel den weiteren Ausführungen zugrunde gelegt werden soll. Die Kreuzung wird dabei anhand zweier Videokameras überwacht, wobei Fig. 1a das Bild der ersten Videokamera aus einem ersten Blickwinkel erkennen lässt, während Fig. 1b das Bild einer zweiten Videokamera aus einem anderen Blickwinkel erkennen lässt.
  • Mittels einer entsprechenden Software, die nicht Gegenstand des vorliegenden erfindungsgemäßen Verfahrens ist, werden aus den aufgenommenen Bildinformationen Werte bestimmter Objekteigenschaften identifiziert. In diesen Ausführungsbeispielen sind die Objekte Fahrzeuge, welche die Kreuzung passieren, Dabei wird von der Bilderkennungssoftware für jedes Fahrzeug die Geschwindigkeit sowie die Richtung erkannt und entsprechend abgespeichert. Somit wird pro Fahrzeug, welches sich im Sichtfeld der Kameras befindet, kontinuierlich sowohl die Geschwindigkeit als auch die Richtung ermittelt.
  • Wie in Fig. 1a und 1b beispielhaft im oberen Bereich der aufgenommen Bilder zu erkennen ist, wird der aufgenommene Bildbereich in eine Mehrzahl von Feldern 1 unterteilt. In Fig. 1a und 1b ist dies jedoch nur skizzenhaft angedeutet und erstreckt sich im Normalfall über die ganze Szene. Bei der Erfassung der Geschwindigkeits- und Richtungswerte für jedes Objekt wird zusätzlich die Position ermittelt, an der die entsprechenden Werte ermittelt wurden. Damit diese Werte auch unabhängig von dem Standort der entsprechenden Kamera verwertbar sind, wird diese Positionsinformation in ein Weltkoordinatensystem umgerechnet und entsprechend abgespeichert. Somit ergeben sich für ein Fahrzeug, welches durch den Sichtbereich der beiden Kameras in Fig. 1a und 1b fährt, eine Mehrzahl von Geschwindigkeits- und Richtungswerten an unterschiedlichen Positionen bzw. eine Mehrzahl von Geschwindigkeits- und Richtungswerten an gleichen Positionen, da die Werte durch mehrere unterschiedliche Sensoren erfasst werden können.
  • Jedem Geschwindigkeits- und Richtungswert wird nun anhand seiner Position das entsprechende Feld 1 zugeordnet, innerhalb dessen die ermittelte Position liegt. Somit kann jedem gemessenen Geschwindigkeits- und Richtungswert genau ein solches Feld zugeordnet werden. Dies ist schematisch in Fig. 2 dargestellt. Mit anderen Worten, es wird in all jenen Feldern, die von dem Objekt während der Bewegung durch das räumliche Gebiet tangiert werden, mindestens ein Geschwindigkeits- und Richtungswert für dieses Objekt hinterlegt. Dabei kommt es nicht darauf an, das Objekt selber zu identifizieren. In Fig. 2 sind die schraffierten Felder 2 die Felder, in denen Objektwerte von verschiedenen Objekten hinterlegt wurden. Die weißen Felder hingegen weisen keinerlei hinterlegte Werte auf.
  • Aus dieser Anordnung ergibt sich eine kartenartige Datenstruktur, aus der sich dann mit Hilfe von statistischen Auswertungen weitere kartenartige Datenstrukturen ermitteln lassen, aus denen dann das Verhalten der Objekte innerhalb der Szene abgeleitet werden kann.
  • Eine solche abgeleitete kartenartige Struktur ist in Fig. 3 zu erkennen. Bei der Fig. 3 handelt es sich um eine Datenstruktur, bei der in jedem Feld der Mittelwert der in diesem Feld hinterlegten Werte gebildet wurde. In diesem Ausführungsbeispiel wurde dies mit der Objekteigenschaft "Geschwindigkeit" durchgeführt. Es lassen sich aber auch andere kartenartige Strukturen ableiten, wie z. B. solche, bei denen für jedes Feld die Standardabweichung als statistische Auswertung ermittelt wird.
  • Dabei werden zunächst für jedes Feld die Werte ermittelt, deren Eigenschaft statistisch abgeleitet werden soll. In diesem Ausführungsbeispiel wären das die Geschwindigkeitswerte. Dann wird für jedes Feld die statistische Auswertung durchgeführt. Da die statistische Auswertung für jedes Feld separat durchgeführt wird, ergeben sich somit für jedes Feld auch unterschiedliche Werte, die in der Fig. 3 durch eine unterschiedliche Schraffierung in den einzelnen Feldern dargestellt wird.
  • Durch eine solche statistische Auswertung, wie sie in die Fig. 3 gezeigt wird, lässt sich das Verhalten der Objekte hinsichtlich bestimmter Objekteigenschaften innerhalb der Szene ermitteln, wobei das erlernte Verhalten als typisches Verhalten der Objekte verstanden wird. Verändert sich nun die Szene, indem z. B. die Geschwindigkeit langsamer oder schneller wird, so schlägt sich dies letztlich auch in der statistischen Auswertung nieder, so dass aufgrund eines Vergleiches zwischen dem erlernten Verhalten und momentan aktuellen Werten dann auf eine Situationsänderung geschlossen werden kann. Eine solche Situationsänderung ist somit letztlich immer eine Abweichung des Verhaltens der Objekte vom typischen Verhalten der Objekte innerhalb dieser Szene bezüglich mindestens einer Objekteigenschaft.
  • Es sei beispielhaft einmal angenommen, die mittlere Geschwindigkeit liegt dabei je nach Feld zwischen 50 und 60 km/h. Kommt es nun zu einem Stau, so verringert sich naturgemäß die Geschwindigkeit der Fahrzeuge drastisch, was von den Sensoren erkannt wird. Verglichen mit dem erlernten Verhalten, welches eine mittlere Geschwindigkeit zwischen 50 und 60 km/h als typisches Verhalten anzeigt, ist eine Geschwindigkeit von 10 oder 20 km/h eines Objektes innerhalb dieser Szene atypisch, so dass auf eine Situationsänderung geschlossen werden kann. Darüber hinaus würde sich in diesem Fall auch die statistische Auswertung bezüglich der Standardabweichung sprunghaft verändern. Somit kann sehr schnell auf ein atypisches Verhalten der Objekte geschlossen werden, ohne dass zuvor das System wissen musste, worauf es zu achten hat. Dabei kann der Stau allein aus der Veränderung der Standardabweichung erkannt werden, da Stop&Go eine viel größere Standardabweichung erzeugt, als fließender Verkehr, wobei dies auch schon bei relativ kleinen bzw. schwachen Veränderungen festzustellen ist.
  • Fig. 4 zeigt beispielhaft den Vergleich zwischen dem erlernten Verhalten und einem aktuellen Verhalten bezüglich der beiden Objekteigenschaften Geschwindigkeit (S) und Richtung (D) anhand der statistischen Auswertung "Mittelwertbildung" (Sµ, Dµ).
  • Über drei in der Vergangenheit liegende diskrete Zeiträume t-3, t-2 und t-1 wurden kartenartige Datenstrukturen gelernt, wie sie zuvor beschrieben wurden. Dazu wurden Datenstrukturen bezüglich der Geschwindigkeit und der Richtung der Objekte innerhalb der beobachteten Szene gelernt. Aus den ermittelten Werten für die Geschwindigkeit S und die Richtung D wurde dann für jedes Feld der Mittelwert abgeleitet, was als kartenartige Datenstruktur 41 und 42 in Fig. 4 zu erkennen ist.
  • Aus diesen drei abgeleiteten kartenartigen Datenstrukturen in den Zeiträumen t-3 bis t-1 wurde dann ein gemeinsames Verhalten abgeleitet, welches ebenfalls in Form einer kartenartigen Datenstruktur 43 bzw. 44 abgespeichert wird. Bei der Bildung eines gemeinsamen erlernten Verhaltens kann dabei mit Hilfe unterschiedlicher Gewichtungen z. B. jüngeres erlerntes Verhalten stärker berücksichtigt werden als älteres.
  • Darüber hinaus wurde aus momentan aktuell ermittelten Werten bezüglich der Geschwindigkeit und der Richtung ein aktuelles Verhalten gelernt, welches sich in den abgeleiteten kartenartigen Datenstrukturen 45 und 46 in Fig. 4 niederschlägt. In all den genannten Datenstrukturen wurde mit Hilfe der Mittelwertbildung als statistische Auswertung das Verhalten der Objekte innerhalb der Szene abgebildet. Auf Basis des aktuell ermittelten Verhaltens 45 bzw. 46 wird nun der Vergleich mit dem gemeinsam erlernten Verhalten 43 bzw. 44 durchgeführt. In diesem Ausführungsbeispiel wird dazu einfach die Differenz gebildet, d. h. es wird der Mittelwert eines Feldes im erlernten Verhalten mit dem Mittelwert des entsprechend gleichen Feldes im aktuellen Verhalten subtrahiert, so dass sich eine Differenzkarte ergibt. Es sind aber auch andere Vergleichsmöglichkeiten insbesondere mathematischer Art denkbar. Dieser Vergleich wird sowohl mit der Objekteigenschaft "Geschwindigkeit" als auch mit der Objekteigenschaft "Richtung" durchgeführt, wobei nach der Differenzbildung die einzelnen Werte aller Felder aufsummiert werden.
  • Als Ergebnis dieses Vergleiches kommt in diesem Ausführungsbeispiel ein konkreter Skalar heraus, welcher die Unterschiede zwischen dem aktuellen und dem erlernten Verhalten repräsentiert. Es ist dabei leicht zu erkennen, dass je größer der Unterschied zwischen erlerntem und aktuellem Verhalten ist, je größer auch der Skalar ist. Des Weiteren lässt sich aus dieser Anordnung erkennen, dass kleine Änderungen sich nicht wesentlich auf das Gesamtergebnis auswirken, so dass nicht gleich auf eine Situationsänderung geschlossen wird, sobald die Werte lokal auch nur minimal abweichen.
  • Des Weiteren ist in dieser Anordnung zu erkennen, dass bei anhaltender Situationsänderung das System selbstlernend ist und es sich der neuen Situation anpasst. Am obigen Beispiel des Staus orientiert, bedeutet dies, dass zwar der Stau als Situationsänderung zunächst erkannt wird (z.B. anhand einer großen Standardabweichung), nach einer gewissen Zeit aber die langsame Geschwindigkeit des Staus als typisches Verhalten gelernt wird (die Standardabweichung wird wieder kleiner). Das System passt sich somit automatisch ohne dass es neu justiert werden muss an die gegebene Situation an. Löst sich der Stau nach einer gewissen Weile wieder auf, so erhöht sich sprunghaft die Durchschnittsgeschwindigkeit, was ebenfalls wieder als Situationsänderung erkannt wird, da nun wiederum das Verhalten der Objekte von dem erlernten typischen Verhalten abweicht. Somit kann das System sowohl die Bildung eines Staus als auch dessen Auflösung hinterher ohne Probleme und manuelles Eingreifen erkennen und passt sich durch Mitlernen der Standardabweichung auch an zu erwartende Änderungsstärken an.
  • Auch ist es mit diesem Verfahren möglich, auf bestimmte äußere Einflüsse wie Witterungsbedingungen oder Ausfall von bestimmten Sensoren entsprechend zu reagieren, ohne dass es dafür eines manuellen Eingriffs bedarf. Fällt z. B. ein Sensor aus oder wird der Sensor von einem Fremdkörper teilweise überdeckt, so wird dies zwar von dem Verfahren zunächst als Situationsänderung erkannt, im weiteren Verlauf jedoch als typisch wahrgenommen. Für den späteren Verlauf hat somit der Ausfall bzw. der teilweise Ausfall eines Sensors keine Bedeutung mehr.
  • An dieser Stelle sei angemerkt, dass sowohl die statistische Auswertung "Mittelwertbildung" als auch die genannten Objekteigenschaften nicht auf diese begrenzt sind und nicht einschränkend zu verstehen sind.
  • Dabei kann auch hier mit Schwellenwerten gearbeitet werden, die für jedes Verhalten und der bezüglichen Standardabweichung ermittelt werden. So schwankt der Durchschnittswert (Mittelwert) in einer großen Szene oft nur gering, obwohl sich z.B. auf einer Fahrbahn ein Stau gebildet hat, z.B. weil sich der Stau zunächst nur auf einer Fahrbahn bildet und sich dann auf die anderen Fahrbahnen "ausbreitet" bzw. sich der Stau nur in eine Richtung bildet, während die Gegenfahrbahn frei ist. So kann es zu kompensatorischen Änderungen kommen, die sich gegenseitig aufheben, so dass in der Summe keine Situationsänderung detektiert wird.
  • So ist es besonders vorteilhaft, wenn für jedes Feld die Standardabweichung gespeichert wird, die dann für einen Schwellwertvergleich herangezogen wird, um so selektiv für einzelne Felder Situationsänderungen feststellen zu können. Durch eine Faktorisierung der Standardabweichung kann ein Empfindlichkeit eingestellt werden, so dass sich in manchen Feldern Situationsänderungen ergeben, da hier die Standardabweichungen relativ gering sind, während in anderen Feldern dies als normales Verhalten erkannt wird, was auf relativ große Standardabweichungen zurückzuführen ist.
  • So passt das erfindungsgemäße Verfahren die Standardabweichung in den Feldern, in denen eine starke Änderung auftritt entsprechend über die Zeit an (z.B. bei Entstehung eines Staus), während die anderen Feldern für Veränderungen empfindlich bleiben (z.B. die Gegenfahrbahn, bei der noch kein Stau aufgetreten ist).
  • Fig. 5 zeigt schematisch eine andere Ausführungsform, bei der mit Hilfe eines entsprechenden Tracking-Algorithmus ein bestimmtes bzw. konkretes Objekt verfolgt wurde. Dazu wird von dem zu beobachtenden Objekt eine Trajektorie 51 aufgenommen, die eine Mehrzahl von Datenpunkten aufweist. An diesen Datenpunkten wurden dann z. B. entsprechende Werte von zu messenden Objekteigenschaften ermittelt und hinterlegt. Diese Datenpunkte werden nun mit dem erlernten Verhalten der Gesamtszene verglichen, um festzustellen, ob das Objekt sich bezogen auf das Gesamtverhalten aller Objekte typisch oder atypisch verhält. Dies wird gleichzeitig für alle Objekte in der Szene einzeln durchgeführt.
  • Dazu wird jeder Datenpunkt der Trajektorie mit der darunter liegenden kartenartigen Datenstruktur, insbesondere mit den Feldern verglichen, in die der entsprechende Datenpunkt fällt. Am Beispiel von Fig. 5 sei dies szenenhaft mit dem Datenpunkt 52 dargestellt. Dabei wird zunächst einmal ermittelt, ob für diesen Datenpunkt der Trajektorie des Objektes überhaupt Werte innerhalb der Karte hinterlegt sind. Dann wird die entsprechende Objekteigenschaft, hier die Geschwindigkeit, mit den hinterlegten Geschwindigkeiten verglichen. So lässt sich z. B. aus dem erlernten Verhalten die mittlere Geschwindigkeit ableiten und mit der Geschwindigkeit des konkreten Datenpunktes 52 entsprechend vergleichen. Dabei kann mit Hilfe von Stabilitätsinformationen und Gewichtungen verhindert werden, dass kleinste Differenzen als atypisches Verhaltens erkannt werden.
  • Beispielsweise lässt sich mit diesem Ausführungsbeispiel in Fig. 5 erkennen, wenn z. B, Radfahrer sich sehr schnell durch eine Szene bewegen oder Fußgänger, die ziellos laufen oder plötzlich anfangen zu rennen oder über sonst kaum benutzte Flächen wie Wiesen laufen. Auch lässt sich mit diesem System ein Geisterfahrer erkennen. Es lassen sich aber auch andere Objekte wie Flugzeuge damit überwachen, so dass bei der Überwachung eines Flughafens z. B. Situationen erkannt werden, in denen Servicefahrzeuge sich in ungewöhnlichen Bereichen bewegen oder atypische Geschwindigkeiten aufweisen. Auch Starts von selten benutzten Start- und Landebahnen sowie Änderung der Startrichtung und der Einsatz eines Testfahrzeuges lassen sich mit diesem Verfahren erkennen.

Claims (18)

  1. Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes, wobei das überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit den Schritten:
    a) Erfassen von Werten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde,
    b) Lernen zumindest eines Verhaltens der Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, und
    c) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermittelten Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.
  2. Verfahren nach Anspruch 1, gekennzeichnet durch Lernen des Verhaltens in Schritt b) anhand der statistischen Auswertung der innerhalb eines Zeitraumes zuletzt ermittelten Werte.
  3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch Lernen des Verhaltens für mehr als einen Zeitraum und Erkennen einer Situationsänderung durch Vergleich zwischen dem erlernten Verhalten der jeweiligen Zeiträume und den aktuellen Werten.
  4. Verfahren nach Anspruch 3, gekennzeichnet durch Ermitteln eines gemeinsamen erlernten Verhaltens in Abhängigkeit der in den jeweiligen Zeiträumen erlernten Verhalten und Erkennen einer Situationsänderung durch Vergleich zwischen dem gemeinsamen erlernten Verhalten und den aktuellen Werten,
  5. Verfahren nach Anspruch 4, gekennzeichnet durch Ermitteln des gemeinsamen erlernten Verhaltens durch Mittelwertbildung.
  6. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vergleich in Schritt c) ausschließlich der Felder, für die zumindest ein Wert bezüglich einer der Objekteigenschaften hinterlegt ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erfassen einer die Position des Objektes innerhalb des räumlichen Gebietes bei der Ermittlung eines Wertes einer Eigenschaft angebenden Ermittlungsposition und Ermitteln des entsprechenden Feldes in Abhängigkeit der Ermittlungsposition.
  8. Verfahren nach Anspruch 7, gekennzeichnet durch Umrechnen der Ermittlungsposition in ein einheitliches Positionskoordinatensystem und Ermitteln des entsprechenden Feldes in Abhängigkeit der Ermittlungsposition innerhalb des einheitlichen Positionskoordinatensystems.
  9. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und einem anhand statistischer Auswertung von aktuell ermittelten Werten aktuellen Verhaltens als aktuelle Werte.
  10. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und aktuellen Werten zumindest einer der Objekteigenschaften einer Trajektorie eines konkreten Objektes unter Berücksichtigung der Felder, die von der Trajektorie des Objektes durchlaufen werden,
  11. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Bilden von Mittelwerten, Summen, Produkten und/oder Standardabweichungen als statistische Auswertung.
  12. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch bildgebende Sensoren, insbesondere Bildererkennungsverfahren, Radarsensoren und/oder RFID-Transponder als Sensoren.
  13. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Menschen, Tiere, Straßen-, Schienen-, Luft-, und/oder Wasserfahrzeuge sowie Partikel als Objekte.
  14. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Aktivität, Geschwindigkeit und/oder Richtung als ermittelbare Eigenschaft der Objekte.
  15. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vergleich in Schritt c) mittels eines Schwellwertvergleiches.
  16. Verfahren nach Anspruch 15, gekennzeichnet durch Ermitteln eines Schwellwertes für jedes Feld in Abhängigkeit zumindest eines Verhaltens bezüglich mindestens einer Objekteigenschaft und der Standardabweichung bezüglich der Objekteigenschaft und des jeweiligen Feldes.
  17. Computerprogrammprodukt mit Programmeodemittel zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogrammprodukt auf einer Rechenmaschine ausgeführt wird.
  18. Vorrichtung zur Erkennung einer Situationsänderung mit mindestens einem Sensor, der zur Ermittlung von Werten mindestens einer Eigenschaft von Objekten, die sich innerhalb eines zu überwachenden räumlichen Gebietes befinden, eingerichtet ist, und mit einer Datenverarbeitungsanlage, die zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 16 eingerichtet ist.
EP10004126.8A 2009-05-18 2010-04-19 Verfahren zum automatischen Erkennen einer Situationsänderung Not-in-force EP2254104B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200910021765 DE102009021765A1 (de) 2009-05-18 2009-05-18 Verfahren zum automatischen Erkennen einer Situationsänderung

Publications (3)

Publication Number Publication Date
EP2254104A2 EP2254104A2 (de) 2010-11-24
EP2254104A3 EP2254104A3 (de) 2012-11-07
EP2254104B1 true EP2254104B1 (de) 2014-06-11

Family

ID=42262035

Family Applications (1)

Application Number Title Priority Date Filing Date
EP10004126.8A Not-in-force EP2254104B1 (de) 2009-05-18 2010-04-19 Verfahren zum automatischen Erkennen einer Situationsänderung

Country Status (2)

Country Link
EP (1) EP2254104B1 (de)
DE (1) DE102009021765A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552725B2 (en) 2000-08-28 2017-01-24 Inrix Global Services Limited Method and system for modeling and processing vehicular traffic data and information and applying thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620402B2 (en) 2004-07-09 2009-11-17 Itis Uk Limited System and method for geographically locating a mobile device
DE102010053150B4 (de) * 2010-11-30 2018-02-01 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Auswertung einer Verkehrslage
DE102021207997A1 (de) 2021-07-26 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überprüfen einer Vollständigkeit eines Modells einer Verkehrsdynamik an einem Verkehrsknotenpunkt

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
JPH06153202A (ja) * 1992-10-29 1994-05-31 F M T:Kk 異常監視装置
US5448484A (en) * 1992-11-03 1995-09-05 Bullock; Darcy M. Neural network-based vehicle detection system and method
DE4300651A1 (de) * 1993-01-08 1994-07-14 Refit Ev Verfahren zur Ermittlung von Verkehrsdaten
ES2153159T3 (es) 1996-03-25 2001-02-16 Mannesmann Ag Procedimiento y sistema para el registro de situacion de trafico por medio de una instalacion estacionaria de registro de datos.
US20060074546A1 (en) * 1999-04-19 2006-04-06 Dekock Bruce W System for providing traffic information
JP3243234B2 (ja) * 1999-07-23 2002-01-07 松下電器産業株式会社 混雑度計測方法、計測装置、およびそれを用いたシステム
US6587781B2 (en) * 2000-08-28 2003-07-01 Estimotion, Inc. Method and system for modeling and processing vehicular traffic data and information and applying thereof
US20030107650A1 (en) 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. Surveillance system with suspicious behavior detection
US8547437B2 (en) 2002-11-12 2013-10-01 Sensormatic Electronics, LLC Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
JP2005173668A (ja) * 2003-12-08 2005-06-30 Hitachi Ltd 生活行動パターンの異常判定システム及びそのための装置
JP4471362B2 (ja) * 2004-08-25 2010-06-02 パナソニック株式会社 監視カメラ装置
JP4368767B2 (ja) * 2004-09-08 2009-11-18 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
US8009193B2 (en) * 2006-06-05 2011-08-30 Fuji Xerox Co., Ltd. Unusual event detection via collaborative video mining

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552725B2 (en) 2000-08-28 2017-01-24 Inrix Global Services Limited Method and system for modeling and processing vehicular traffic data and information and applying thereof

Also Published As

Publication number Publication date
EP2254104A2 (de) 2010-11-24
EP2254104A3 (de) 2012-11-07
DE102009021765A1 (de) 2010-11-25

Similar Documents

Publication Publication Date Title
DE102017203838B4 (de) Verfahren und System zur Umfelderfassung
DE102014008578B4 (de) Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
EP2422332B1 (de) Verfahren zur klassifizierung eines objekts als hindernis
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102009033431B4 (de) Verfahren und Vorrichtung zur dynamischen Steuerung einer Signalanlage
DE102014201159A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
EP2867093B1 (de) Verfahren und system zur informationsnutzung
DE102011010864A1 (de) Verfahren und System zur Vorhersage von Kollisionen
WO2015032709A1 (de) Verfahren und verkehrsüberwachungseinrichtung zum feststellen einer falschfahrt eines kraftfahrzeugs
DE102018221054B4 (de) Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
EP1327969B1 (de) Kraftfahrzeug mit Mitteln zum Erkennen eines Verkehrzeichens
DE102014009059A1 (de) Seiten-Rückwärts-Alarmsystem für Fahrzeuge und Alarmsteuerverfahren für dieses
EP2110798A1 (de) Verfahren zur Überwachung eines Verkehrswegs für ein Verkehrsmittel einer vorbestimmten Art
DE102017212644A1 (de) Sensorsystem und Verfahren zum Ermitteln wenigstens einer Verkehrssituation
WO2019162794A1 (de) Verfahren und system zur erkennung von für ein fahrzeug geeigneten parklücken
DE102020003073B3 (de) Verfahren und Vorrichtung zum automatisierten Fahrbetrieb eines Fahrzeuges und Fahrzeug
DE102014212216A1 (de) Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102016202829A1 (de) Vorrichtung zur Querführungsunterstützung für ein straßengebundenes Fahrzeug
EP2254104B1 (de) Verfahren zum automatischen Erkennen einer Situationsänderung
DE102019211098B4 (de) Verfahren, Vorrichtung und Computerprogramm zum Bestimmen einer Ampelphase einer Ampel einer Ampelanlage
EP3770879A1 (de) Verfahren, vorrichtung und computerprogramm zum aufbereiten von daten über eine ampelanlage
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE102009037461A1 (de) Assistenzsystem zur Erhöhung einer Verkehrssicherheit
DE102018251778A1 (de) Verfahren zum Assistieren eines Kraftfahrzeugs
DE102010003375A1 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

AX Request for extension of the european patent

Extension state: AL BA ME RS

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

AX Request for extension of the european patent

Extension state: AL BA ME RS

RIC1 Information provided on ipc code assigned before grant

Ipc: G08G 1/01 20060101ALI20121002BHEP

Ipc: G08G 1/04 20060101AFI20121002BHEP

17P Request for examination filed

Effective date: 20130507

RBV Designated contracting states (corrected)

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20140128

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 672570

Country of ref document: AT

Kind code of ref document: T

Effective date: 20140715

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502010007155

Country of ref document: DE

Effective date: 20140724

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140912

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140911

REG Reference to a national code

Ref country code: NL

Ref legal event code: VDEP

Effective date: 20140611

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141013

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141011

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502010007155

Country of ref document: DE

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

26N No opposition filed

Effective date: 20150312

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502010007155

Country of ref document: DE

Effective date: 20150312

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502010007155

Country of ref document: DE

Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150419

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20150419

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150419

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150430

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150430

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

Effective date: 20151231

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150430

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150419

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 672570

Country of ref document: AT

Kind code of ref document: T

Effective date: 20150419

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150419

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20100419

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150430

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140611

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20200317

Year of fee payment: 11

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502010007155

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20211103