DE102009051100B4 - Method for counting objects - Google Patents

Method for counting objects Download PDF

Info

Publication number
DE102009051100B4
DE102009051100B4 DE200910051100 DE102009051100A DE102009051100B4 DE 102009051100 B4 DE102009051100 B4 DE 102009051100B4 DE 200910051100 DE200910051100 DE 200910051100 DE 102009051100 A DE102009051100 A DE 102009051100A DE 102009051100 B4 DE102009051100 B4 DE 102009051100B4
Authority
DE
Germany
Prior art keywords
unit
clusters
time
units
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE200910051100
Other languages
German (de)
Other versions
DE102009051100A1 (en
Inventor
Dr. Litzenberger Martin
Stephan Schraml
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AIT Austrian Institute of Technology GmbH
Original Assignee
AIT Austrian Institute of Technology GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AIT Austrian Institute of Technology GmbH filed Critical AIT Austrian Institute of Technology GmbH
Publication of DE102009051100A1 publication Critical patent/DE102009051100A1/en
Application granted granted Critical
Publication of DE102009051100B4 publication Critical patent/DE102009051100B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Zählen von Objekten mit zumindest zwei Bildaufnahmeeinheiten (1) mit jeweils einem optischen Sensor. Erfindungsgemäß ist vorgesehen, dass jedes der Helligkeitsänderungssensor-Pixel (21) der Sensoren bei Überschreitung eines vorgegebenen Schwellenwertes durch eine relativen Helligkeitsänderung eine Nachricht (12) erzeugt, und dass der Nachricht ein Zeitstempel (t) hinzugefügt wird, dass Nachrichten mit einer Disparität (dpx, dpy) beaufschlagt werden, dass der Zeitstempel (t) und die modifizierten Bildkoordinaten (x, y) der Nachrichten als Koordinaten von Punkten eines dreidimensionalen Raums angesehen werden und die einzelnen Punkte zu Clustern (13) gruppiert werden, dass die Cluster miteinander verglichen werden und bei Unterschreitung dieses Schwellenwerts durch deren Abstand die Cluster einander zugeordnet werden, wobei ein Differenzvektor dV der jeweiligen Bildkoordinaten dem jeweiligen Cluster zugeordnet wird, dass für alle einander zugeordnete Cluster ein binärer Bewegungswert ermittelt wird, und zu einem Objektzählwert addiert wird.The invention relates to a method for counting objects with at least two image recording units (1), each with an optical sensor. According to the invention, each of the brightness change sensor pixels (21) of the sensors generates a message (12) when a predetermined threshold value is exceeded due to a relative change in brightness, and that a time stamp (t) is added to the message that messages with a disparity (dpx , dpy), the time stamp (t) and the modified image coordinates (x, y) of the messages are regarded as coordinates of points of a three-dimensional space and the individual points are grouped into clusters (13) so that the clusters are compared with one another and if this threshold value is undershot by their distance, the clusters are assigned to one another, a difference vector dV of the respective image coordinates being assigned to the respective cluster, that a binary movement value is determined for all mutually assigned clusters, and added to an object count value.

Description

Die Erfindung betrifft ein Verfahren zum Zählen von Objekten gemäß dem Oberbegriff des Anspruchs 1 sowie eine Vorrichtung zum Zählen von Objekten gemäß dem Oberbegriff des Anspruchs 7.The invention relates to a method for counting objects according to the preamble of claim 1 and to an apparatus for counting objects according to the preamble of claim 7.

Die Erfindung hat die Aufgabe, ein Verfahren sowie eine Vorrichtung zum Zählen von Objekten zu schaffen, die mit einer geringen Datenübertragungsrate auskommen.The object of the invention is to provide a method and an apparatus for counting objects that manage with a low data transmission rate.

Insbesondere im Bereich der automatisierten Personenüberwachung stellt sich das Problem, dass von einzelnen Kameras eine Vielzahl von Daten generiert wird und die nachfolgende Weiterverarbeitung oft nur mit erheblichem Rechenaufwand zu bewerkstelligen ist. Der Grund hierfür ist, dass herkömmliche Kameras zu vorgegebenen, zueinander gleich beabstandeten Zeitpunkten Bilder aufnehmen. Dadurch müssen auch die Daten derjenigen Bildpunkte übertragen werden, deren Helligkeitswerte sich nicht ändern, was zu einer konstanten hohen Datenrate der Kamera führt.Particularly in the field of automated personal monitoring, there is the problem that a large number of data is generated by individual cameras and subsequent processing is often only possible with considerable computational effort. The reason for this is that conventional cameras take pictures at predefined, mutually spaced points in time. As a result, it is also necessary to transmit the data of those pixels whose brightness values do not change, which leads to a constant high data rate of the camera.

Aus der AT 502032 B1 sind sogenannte transiente Sensoren bekannt, die ausschließlich dann Daten senden, wenn Änderungen in den von ihren einzelnen transienten Sensorelementen detektierten Helligkeitswerten vorliegen. Demgemäß werden die Sensorelemente bei derartigen transienten Sensoren auch als Helligkeitsänderungssensor-Pixel bezeichnet. Übersteigt die gemessene relative Helligkeitsänderung des von einem Helligkeitsänderungssensor-Pixel detektierten Lichtes einen vorgegebenen Schwellenwert wird eine Nachricht in Form eines elektrischen Signals generiert.From the AT 502032 B1 So-called transient sensors are known which send data only when there are changes in the brightness values detected by their individual transient sensor elements. Accordingly, in such transient sensors, the sensor elements are also referred to as brightness change sensor pixels. If the measured relative brightness change of the light detected by a brightness change sensor pixel exceeds a predetermined threshold value, a message in the form of an electrical signal is generated.

Aus der DE 197 32 153 B4 ist ein frame-basiertes Verfahren bekannt. Die Erfindung bezieht sich auf eine Einrichtung zum Messen der Anzahl von Personen, wobei diese eine Vielzahl von Kameras, die hinsichtlich derer optischen Achsen zum Aufnehmen eines Bildes in einem Messbereich zum Messen der Anzahl von Personen parallel angeordnet sind. Eine erfindungsgemäße Vorrichtung umfasst eine Extraktionseinheit zum Herausziehen einer Person aufgrund von Bilddaten, die mittels der Vielzahl von Kameras aufgenommen wurden, eine Aufzeichnungseinheit zum Aufzeichnen der mittels der Extraktionseinheit herausgezogenen Person und eine Entscheidungseinheit zum Entscheiden aufgrund der mittels der Aufzeichnungseinheit aufgezeichneten Daten, ob eine Entscheidungslinie passiert wurde oder nicht und zum Erhöhen der Anzahl passierender Personen, wenn die Linie passiert wurde. In der Extraktionseinheit können die in einer Tiefenrichtung überlappenden Personen durch das Verwenden von Raumkoordinaten durch eine Übereinstimmung in einer Vielzahl von Bildern, die mit der Vielzahl von Kameras zum gleichen Zeitpunkt aufgenommen wurden, genau getrennt werden.From the DE 197 32 153 B4 is a frame-based method known. The invention relates to a device for measuring the number of persons, these being a plurality of cameras arranged in parallel with respect to their optical axes for taking an image in a measuring area for measuring the number of persons. An apparatus according to the invention comprises an extraction unit for extracting a person based on image data captured by the plurality of cameras, a recording unit for recording the person extracted by the extraction unit, and a decision unit for deciding whether a decision line is passed based on the data recorded by the recording unit or not and to increase the number of passing people when the line has passed. In the extraction unit, the persons overlapping in a depth direction can be separated accurately by using space coordinates by a coincidence in a plurality of images taken with the plurality of cameras at the same time.

Bewegen sich die Objekte in den Bilddaten mit nicht wesentlich mehr als einem Pixel pro Frame ist die Zuordnung zwischen zwei Abbildern desselben Objektes durch Wrapping-Verfahren realisiert. Wenn die jeweiligen Geschwindigkeiten der Abbilder der Objekte sehr viel höher ist als ein Pixel pro Frame sind Zuordnungen zwischen den einzelnen Abbildern nur schwer zu realisieren, da die große Entfernung der einzelnen Abbilder der Objekte die Suche sehr aufwendig macht.If the objects in the image data move at not significantly more than one pixel per frame, the association between two images of the same object is realized by wrapping. If the respective speeds of the images of the objects is much higher than one pixel per frame, assignments between the individual images are difficult to realize because the large distance of the individual images of the objects makes the search very expensive.

Ein transienter Sensor per se ist auf Grund der nur reduziert vorliegenden Bildinformationen üblichen Verfahren nach dem Stand der Technik nicht zugänglich, da für diese Verfahren durchwegs Bilddaten mit Helligkeitsinformationen vorliegen müssen, die zu jeweils gleichen Zeitpunkten aufgenommen worden sind. Bei einem oben beschriebenen transienten Sensor ist dies jedoch nicht der Fall, da die Zeitpunkte des Auftretens von Nachrichten a priori nicht feststehen sondern von der Szene bzw. deren zeitlicher Veränderung abhängen.A transient sensor per se is not accessible on the basis of the state of the art, which is customary only with reduced image information, since image data with brightness information must always be present for these methods, which have been recorded at respectively the same points in time. In a transient sensor described above, however, this is not the case, since the times of the occurrence of messages a priori are not fixed but depend on the scene or its temporal change.

Ziel der Erfindung ist es, die eingangs genannten Probleme zu lösen und eine Vorrichtung zum Zählen von Objekten basierend auf dreidimensionalen Objektdaten mit geringen auftretenden Datenraten zu erreichen.The aim of the invention is to solve the problems mentioned above and to achieve a device for counting objects based on three-dimensional object data with low occurring data rates.

Die Erfindung löst die Aufgabe bei einem Verfahren zur Zählung von Objekten mit den Merkmalen des Anspruchs 1. Die Erfindung löst die Aufgabe bei einer Vorrichtung zur Zählung von Objekten mit den Merkmalen des Anspruchs 7.The invention solves the problem in a method for counting objects with the features of claim 1. The invention solves the problem in a device for counting objects with the features of claim. 7

Erfindungegemäß werden zwei transiente Sensoren mit relativ geringen Ausgangs-Datenraten zur Zählung von Objekten, insbesondere Personen, zur Ermittlung von dreidimensionalen Objektdaten herangezogen. Somit werden die Vorteile der niedrigen Datenrate eines transienten Sensors und der erhöhten Fehlertoleranz bei dreidimensionalen Verfahren miteinander kombiniert. Da die Datenraten sehr gering sind, hat die den Sensoren nachgeschaltete Logik geringen Ressourcenbedarf. Dies erlaubt den Bau kleinerer Sensoreinheiten und verbessert zusätzlich den Strom- bzw. Leistungsbedarf derartiger Sensoreinheiten. Zusätzlich zu der geringen Anzahl anfallender Daten weist auch der im Zuge des Verfahrens ablaufende Algorithmus zur Weiterverarbeitung der Nachrichten nur einen geringen Ressourcenbedarf auf. Zusätzlich wirkt sich vorteilhaft aus, dass der Höhenbereich, innerhalb welcher Objekte detektiert werden sollen, frei eingestellt werden kann, was eine Anwendung der Erfindung bei einer Vielzahl von Anwendungsbereichen ermöglicht.According to the invention, two transient sensors with relatively low output data rates are used for the counting of objects, in particular persons, for the determination of three-dimensional object data. Thus, the advantages of the low data rate of a transient sensor and the increased fault tolerance in three-dimensional methods are combined. Since the data rates are very low, the logic downstream of the sensors requires little resources. This allows the construction of smaller sensor units and additionally improves the power and power requirements of such sensor units. In addition to the small number of accumulated data, the algorithm for further processing of the messages which proceeds in the course of the method also has only a low requirement for resources. In addition, it has an advantageous effect that the height range within which objects are to be detected can be set freely, which makes it possible to use the invention in a large number of application areas.

Bei transienten Sensoren ist der Pfad des Objektes aufgrund der besonderen Eigenschaften der Helligkeitsänderungssensor-Pixel immer vollständig und unterbrechungsfrei verfügbar, was eine Objektverfolgung erleichtert und robuster macht. With transient sensors, the path of the object is always completely and uninterruptedly available due to the particular properties of the brightness change sensor pixels, which facilitates object tracking and makes it more robust.

Aus dem Stand der Technik sind Verfahren bekannt, welche dreidimensionale Punktmengen zur Zählung der Objekte erfordern. Im vorliegenden Fall werden jedoch ausschließlich Objekte detektiert, deren Abbilder einen vorgegebenen Versatz bzw. eine vorgegebene Disparität zwischen den Daten zweier Sensoren aufweisen. Dies verringert einerseits die notwendige Rechenleistung erheblich und erlaubt andererseits das Ausfiltern von Objekten nach vorgegebenen Kriterien. Ferner entfällt die Notwendigkeit, eine Vielzahl von dreidimensionalen Szenenpunkten zu ermitteln, zu speichern und zu verwalten.Methods are known in the prior art which require three-dimensional sets of points for counting the objects. In the present case, however, only objects are detected whose images have a predetermined offset or a predetermined disparity between the data of two sensors. On the one hand this considerably reduces the necessary computing power and on the other hand it allows the filtering of objects according to given criteria. It also eliminates the need to identify, store and manage a variety of three-dimensional scene points.

Bei einem Verfahren mit den Merkmalen des Anspruchs 2 besteht der Vorteil, einer besonders einfachen und zeitsparenden Weiterverarbeitung der Bilddaten und Zählung der Objekte.In a method having the features of claim 2, there is the advantage of a particularly simple and time-saving further processing of the image data and counting of the objects.

Ein Verfahren mit den Merkmalen des Anspruchs 3 kann an eine Vielzahl von Aufnahmeszenarien angepasst werden und ermöglicht die Anpassung an unterschiedliche Entfernungen der Objekte von den Bildaufnahmeeinheiten.A method with the features of claim 3 can be adapted to a variety of shooting scenarios and allows the adaptation to different distances of the objects from the image recording units.

Ein Verfahren mit den Merkmalen des Anspruchs 4 ermöglicht das Rücksetzen des Zählers bei Betriebsbeginn oder nach Störungen. Regelmäßiges Rücksetzen kann auch bei der Ermittlung von Objektraten geboten sein.A method with the features of claim 4 allows the reset of the counter at the start of operation or after faults. Regular reset can also be required when determining object data.

Ein Verfahren mit den Merkmalen des Anspruchs 5 ermöglicht eine Anpassung an die Geschwindigkeit der Objekte sowie die durchschnittliche zu erwartende Verweildauer eines Objekts im Aufnahmebereich der Bildaufnahmeeinheiten.A method with the features of claim 5 allows adaptation to the speed of the objects and the average expected residence time of an object in the recording area of the image recording units.

Ein Verfahren mit den Merkmalen des Anspruchs 6 ermöglicht das Eliminieren von Bewegungsartefakten, die von unbewegten oder im Zuge ihrer Bewegung mehrfach anhaltenden Objekten ausgehen. Zusätzlich verbessert ein derartiges Vorgehen bei sehr langsamen Objektbewegungen die Qualität des Resultats des Verfahrens.A method with the features of claim 6 makes it possible to eliminate motion artifacts emanating from stationary objects or multiply-lasting objects as they move. In addition, such a procedure improves the quality of the result of the method with very slow object movements.

Eine Vorrichtung mit den Merkmalen des Anspruchs 8 und/oder 9 und/oder 10 bietet den Vorteil eines einfachen Aufbaus und ermöglicht eine Integration eines Teils der nachgeschalteten Logik in den Sensor-Chip.An apparatus with the features of claim 8 and / or 9 and / or 10 offers the advantage of a simple construction and allows integration of a part of the downstream logic in the sensor chip.

Eine Vorrichtung mit den Merkmalen des Anspruchs 11 ermöglicht eine einfache Synchronisation der von den einzelnen Sensoren abgegebenen Nachrichten.An apparatus with the features of claim 11 enables a simple synchronization of the messages emitted by the individual sensors.

Eine Vorrichtung mit den Merkmalen des Anspruchs 12 ermöglicht das einfache Rücksetzen nach aufgetretenen Störungen oder bei Betriebsbeginn und erleichtert das Instandsetzen der gesamten Vorrichtung bzw. bei regelmäßigem Rücksetzen die Bildung von Objektraten.An apparatus with the features of claim 12 enables easy reset after failures or at the start of operation and facilitates the repair of the entire device or with regular reset the formation of object data.

Eine Vorrichtung gemäß Anspruch 13 weist eine besonders einfachen Aufbau auf und ist sehr kostengünstig zu realisieren.An apparatus according to claim 13 has a particularly simple structure and is very inexpensive to implement.

Eine Vorrichtung gemäß Anspruch 14 ermöglicht das Anpassen der Vorrichtung an die Geschwindigkeit der aufzuzeichnenden und zu zählenden Objekte.An apparatus according to claim 14 allows the device to be adapted to the speed of the objects to be recorded and counted.

Eine Vorrichtung gemäß Anspruch 15 ermöglicht das effektive Entfernen von Bewegungsartefakten bei sehr langsamen Bewegungen und verbessert die Ergebnisse des Verfahrens.An apparatus according to claim 15 enables the effective removal of motion artifacts during very slow motions and improves the results of the method.

1 zeigt schematisch mögliche Bewegungen von zwei Objekten im Aufnahmebereich einer Kamera. 1 schematically shows possible movements of two objects in the recording area of a camera.

2 zeigt schematisch eine überlagerte Darstellung zweier Bilder, welcher mit zwei Kameras mit überschneidendem Aufnahmebereich aufgenommen worden sind. 2 schematically shows a superimposed representation of two images, which have been taken with two cameras with overlapping recording area.

3 zeigt schematisch eine überlagerte Darstellung zweier Cluster, welche mit zwei Kameras mit überschneidendem Aufnahmebereich aufgenommen worden sind. 3 schematically shows a superimposed representation of two clusters, which have been taken with two cameras with overlapping recording area.

4 zeigt schematisch den Aufbau einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung. 4 shows schematically the structure of a preferred embodiment of the device according to the invention.

5 zeigt schematisch einen Cluster in dreidimensionaler Darstellung. 5 schematically shows a cluster in three-dimensional representation.

6 zeigt schematisch eine dreidimensionale Darstellung zweier überlagerter Cluster, welche mit zwei Kameras mit überschneidendem Aufnahmebereich aufgenommen worden sind. 6 schematically shows a three-dimensional representation of two superimposed clusters, which have been taken with two cameras with overlapping recording area.

7 zeigt schematisch eine dreidimensionale Darstellung zweier überlagerter Cluster, welche mit zwei Kameras mit überschneidendem Aufnahmebereich aufgenommen worden sind, sowie der jeweiligen, überlagerten Aufnahmebereiche der aufzeichnenden Kameras. 7 schematically shows a three-dimensional representation of two superposed clusters, which were taken with two cameras with overlapping recording area, and the respective, superimposed recording areas of the recording cameras.

Wie in 4 schematisch dargestellt, umfasst die erfindungsgemäße Vorrichtung zwei Bildaufnahmeeinheiten 1 mit jeweils einem optischen Sensor. Prinzipiell besteht auch die Möglichkeit, eine größere Anzahl von Bildaufnahmeeinheiten 1 zu verwenden, um die Zuverlässigkeit des Verfahrens zu verbessern. Jede der Bildaufnahmeeinheiten 1 umfasst einen optischen Sensor, der seinerseits eine Vielzahl von Helligkeitsänderungssensor-Pixeln 21 umfasst. Die einzelnen Helligkeitsänderungssensor-Pixel 21 sind auf einem gemeinsamen Träger des optischen Sensors aufgebracht und rasterförmig bzw. in Form eines zweidimensionalen Rasters auf diesem angeordnet. Je nach ihrer Lage in dem jeweiligen Raster sind den einzelnen Helligkeitsänderungssensor-Pixeln 21 zwei Bildkoordinaten x, y zugeordnet.As in 4 schematically illustrated, the device according to the invention comprises two image recording units 1 each with an optical sensor. In principle, there is also the possibility of a larger number of image recording units 1 to use the reliability of the procedure too improve. Each of the image capture units 1 comprises an optical sensor which in turn comprises a plurality of brightness change sensor pixels 21 includes. The individual brightness change sensor pixels 21 are applied to a common carrier of the optical sensor and arranged in grid form or in the form of a two-dimensional grid on this. Depending on their location in the respective grid are the individual brightness change sensor pixels 21 two image coordinates x, y assigned.

Wie bereits eingangs erwähnt, weist jedes der Helligkeitsänderungssensor-Pixel 21 ein lichtempfindliches Element sowie eine diesem nachgeschaltete Auswerteschaltung auf. Dieser Auswerteschaltung ist das Ausgangssignal des lichtempfindlichen Elements zugeführt, wobei das Ausgangssignal des lichtempfindlichen Elements eine analoge Codierung des Logarithmus des detektierten Helligkeitswerts aufweist. Die Auswerteschaltung ermittelt die relativen, zeitlichen Änderungen dieses Signals. Hat die detektierte relative Helligkeitsänderung einen vorgegebenen Schwellenwert überschritten oder einen vorgegebenen Schwellenwert unterschritten, wird eine Nachricht 12 von der Auswerteschaltung abgegeben, wobei die Nachricht die Bildkoordinaten x, y des die Nachricht generierenden Helligkeitsänderungssensor-Pixels 21 enthält. Zusätzlich kann bei der Erzeugung der Nachricht 12 dieser auch ein Zeitstempel t beigefügt werden.As already mentioned, each of the brightness change sensor pixels points 21 a photosensitive element and an evaluation circuit connected downstream of this. This evaluation circuit is supplied with the output signal of the photosensitive element, wherein the output signal of the photosensitive element has an analog coding of the logarithm of the detected brightness value. The evaluation circuit determines the relative, temporal changes of this signal. If the detected relative brightness change has exceeded a predetermined threshold value or has fallen below a predetermined threshold value, a message is sent 12 output from the evaluation circuit, wherein the message, the image coordinates x, y of the message generating brightness change sensor pixel 21 contains. Additionally, when generating the message 12 This also a timestamp t be attached.

In einer bevorzugten Ausführungsform der Erfindung wird nicht danach differenziert, ob eine Nachricht 12 bei Unterschreitung eines unteren Schwellenwerts oder bei Überschreitung eines oberen Schwellenwerts abgegeben worden ist. Versuche des Anmelders haben gezeigt, dass ein verfahren das die Nachrichten 12 nach ihrer Art unterscheidet, gleiche Ergebnisse erzielt wie Verfahren, welche alle generierten Nachrichten 12 gleichartig verarbeiten.In a preferred embodiment of the invention is not differentiated according to whether a message 12 delivered below a lower threshold or when an upper threshold is exceeded. Attempts of the applicant have shown that a procedure that the messages 12 different in their way, same results achieved as procedures, which all generated messages 12 process similar.

Der Nachricht wird im Wege ihrer Weiterverarbeitung ein Zeitstempel t zugewiesen. Dies kann, wie bereits erwähnt, direkt bei der Generierung der Nachricht vorgenommen werden. Alternativ kann im Signalweg der Nachrichten 12 eine Zeitzuordnungseinheit 3 vorgesehen sein, die den einzelnen Nachrichten 12 einen Zeitstempel t zuordnet. Dieser Zeitpunkt entspricht in diesem Fall dem Zeitstempel t der Zuordnung. Obwohl ein derartiges Vorgehen einer Nachricht 12 nicht die exakte Zeit des Generierens zugeordnet, ist dennoch eine ausreichende Qualität der Nachrichten für die anschließenden Verfahrensschritte sichergestellt. Selbst bei großen anfallenden Datenmengen ist die Abweichung der Zeit der Generierung und der Zeit des Weiterverarbeitens durch die den Helligkeitsänderungssensor-Pixeln 21 nachgeschaltete Zeitzuordnungseinheit 3 für das anschließende Verfahren ohne Belang. Die beiden in 4 dargestellten Zeitzuordnungseinheiten 3 können durch einen gemeinsamen Zeitgeber 31 synchronisiert werden. Dieser übermittelt in vorgegebenen Abständen ein Zeitsignal an die Zeitzuordnungseinheiten 3, die dieses Signal gegebenenfalls konvertieren und den an ihrem Eingang anliegenden Nachrichten 12 zuordnen.The message is assigned a time stamp t by means of its further processing. This can, as already mentioned, be done directly at the generation of the message. Alternatively, in the signal path of the messages 12 a time allocation unit 3 Be provided for the individual messages 12 assigns a timestamp t. In this case, this time corresponds to the time stamp t of the assignment. Although such a procedure of a message 12 not assigned the exact time of generation, but a sufficient quality of messages for the subsequent process steps is still ensured. Even with large amounts of data, the deviation of the time of generation and the time of further processing by the brightness change sensor pixels 21 downstream time allocation unit 3 for the subsequent procedure irrelevant. The two in 4 shown time allocation units 3 can through a common timer 31 be synchronized. This transmits a time signal to the time allocation units at predetermined intervals 3 which convert this signal if necessary and the messages present at its input 12 assign.

Im Signalweg der Nachrichten 12, welche von der links dargestellten Bildaufnahmeeinheit 1 abgegeben werden, ist bei dieser speziellen Ausführungsform eine Verschiebungseinheit 2 angeordnet. Diese Verschiebungseinheit 2 verschiebt die Signale einer Bildaufnahmeeinheit 1 gegenüber dem Bild einer weiteren Bildaufnahmeeinheit 1' um einen vorgegebenen Verschiebungsvektor oder Disparitätsvektor. Somit kann die Disparität zweier Bilder von versetzt angeordneten Bildaufnahmeeinheiten ausgeglichen werden. Die Disparität variiert jedoch mit dem Abstand des beobachteten Objekts von den Bildaufnahmeeinheiten 1, 1' und ist bei sehr großen Abständen annähernd gleich null. Durch Festlegung eines vorgegebenen Abstandes der Objekte von der Kamera, wie in den 2, 3 dargestellt, wird eine Disparität dpx, dpy fest vorgegeben und beispielsweise durch Kalibrierung ermittelt. Diese Beschränkung auf einen vorgegebenen Abstand der einzelnen Objekte 50, 50a von der Bildaufnahmeeinheit ist insbesondere bei der Überwachung von Personen von Vorteil, da bei diesen die Objekthöhe, also deren Körpergröße, innerhalb vorgegebener Schranken liegt. Objekte mit kleinerer Objekthöhe, beispielsweise Taschen, Hunde, etc. werden von dem Verfahren nicht erkannt, da die Objekthöhe außerhalb des vorgegebenen Bereichs liegt. Da hier eine unterschiedliche Disparität vorliegt, können die Objekte durch Verschiebung um die vorgegebene Disparität nicht zur Überlagerung gebracht werden.In the signal path of the news 12 , which from the image acquisition unit shown on the left 1 are delivered in this particular embodiment, a shift unit 2 arranged. This shift unit 2 shifts the signals of an image acquisition unit 1 opposite the image of another image acquisition unit 1' around a given displacement vector or disparity vector. Thus, the disparity of two images of staggered image pickup units can be compensated. However, the disparity varies with the distance of the observed object from the image pickup units 1 . 1' and is approximately zero at very large distances. By defining a predetermined distance of the objects from the camera, as in the 2 . 3 represented, a disparity dpx, dpy is fixed and determined, for example by calibration. This limitation to a given distance of the individual objects 50 . 50a from the image recording unit is particularly advantageous in the monitoring of people, since in these the object height, so the body size, is within predetermined limits. Objects with a smaller object height, such as bags, dogs, etc. are not recognized by the method because the object height is outside the predetermined range. Since there is a different disparity here, the objects can not be brought into overlapping by shifting to the specified disparity.

Normalerweise sind bei einer Anzahl von N Bildaufnahmeeinheiten N – 1 Verschiebungseinheiten 2 vorgesehen. Allen Bildaufnahmeeinheiten 1 bis auf eine vorgegebene Bildaufnahmeeinheit 1' ist eine Verschiebungseinheit 2 unmittelbar oder mittelbar nachgeschaltet. Jede der Verschiebungseinheiten 2 weist auf Grund der Lage der ihr vorgeschalteten Bildaufnahmeeinheit 1 bzw. des Aufnahmebereichs der ihr vorgeschalteten Bildaufnahmeeinheit 1 eine unterschiedliche Disparität zur vorgegebenen Bildaufnahmeeinheit 1' auf.Normally, in a number of N image pickup units, N-1 are shift units 2 intended. All image capture units 1 except for a given image acquisition unit 1' is a shift unit 2 directly or indirectly downstream. Each of the shift units 2 indicates due to the location of her upstream image acquisition unit 1 or the receiving area of the upstream image acquisition unit 1 a different disparity to the given image acquisition unit 1' on.

Eine Kalibrierung der einzelnen Bildaufnahmeeinheiten 1 und Verschiebungseinheiten 2 kann beispielsweise mit einem Objekt der zu untersuchenden Objekthöhe erfolgen. Dieses bewegt sich im Aufnahmebereich der Bildaufnahmeeinheiten 1 sowie der vorgegebenen Bildaufnahmeeinheit 1'. Das Objekt wird von den einzelnen Bildaufnahmeeinheiten aufgenommen, wobei die Position des Objekts im Bild festgestellt wird. Anschließend werden die Positionen der Abbilder in der Bildaufnahmeeinheit 1 mit der Position des Abbilds in der vorgegebenen Bildaufnahmeeinheit 1' verglichen und durch Subtraktion der jeweiligen Koordinatenwerte die Disparität ermittelt. Sind die Bildaufnahmeeinheiten zueinander parallel ausgerichtet und sind deren optische Achsen parallel, stimmen ferner Zoom und Fokussierung überein, so ist die Disparität in einer der Koordinatenrichtungen annähernd gleich null.A calibration of the individual image acquisition units 1 and shift units 2 can be done for example with an object of the object height to be examined. This moves in the recording area of the image recording units 1 as well as the given image acquisition unit 1' , The object is picked up by the individual imaging units, whereby the position of the object in the image is detected. Subsequently, the positions of the images in the image pickup unit become 1 with the Position of the image in the given image acquisition unit 1' compared and determined by subtracting the respective coordinate values, the disparity. If the image recording units are aligned parallel to one another and their optical axes are parallel, then zoom and focus are also identical, the disparity in one of the coordinate directions is approximately equal to zero.

Die Verschiebungseinheit 2 ändert die Bildkoordinate x, y der an ihrem Eingang anliegenden Nachrichten ab und gibt die Nachrichten mit abgeänderten Koordinatenwerten an ihrem Ausgang weiter. Dabei wird üblicherweise jeder der einlangenden Bildkoordinaten x, y mit einem vorgegebenen Wert inkrementiert. Die Bildkoordinaten werden um eine vorgegebene Disparität dpx, dpy verschoben oder mit der Disparität dx, dy additiv beaufschlagt, wobei einer der beiden Werte, wie im Zusammenhang mit der Kalibrierung erwähnt, bevorzugterweise Null ist, also keine Verschiebung stattfindet. Am Ausgang der Verschiebungseinheiten 2 liegen Nachrichten mit um die Disparität verschobenen bzw. modifizierten Bildkoordinaten x', y' an.The shift unit 2 changes the image coordinate x, y of the messages present at its input and forwards the messages with modified coordinate values at its output. In this case, usually each of the incoming image coordinates x, y is incremented with a predetermined value. The image coordinates are shifted by a predetermined disparity dpx, dpy or added to the disparity dx, dy additively, wherein one of the two values, as mentioned in connection with the calibration, preferably zero, so no shift takes place. At the exit of the displacement units 2 are messages with the disparity shifted or modified image coordinates x ', y' on.

Bei Vorliegen von zwei Bildaufnahmeeinheiten 1, 1' werden folglich nur die Koordinatenwerte oder Bildkoordinaten x, y einer einzigen Bildaufnahmeeinheit 1 modifiziert oder abgeändert. Insbesondere wird auch die vertikale Disparität dpy auf Null gesetzt.In the presence of two image recording units 1 . 1' Thus, only the coordinate values or image coordinates x, y of a single image pickup unit become 1 modified or modified. In particular, the vertical disparity dpy is also set to zero.

Jeder der Bildaufnahmeeinheiten 1 ist eine Clustering-Einheit 4 mittelbar oder unmittelbar nachgeschaltet. Eine Clustering-Einheit 4 kann entweder direkt mit den von der Bildaufnahmeeinheit 1 erzeugten Nachrichten beaufschlagt werden oder die von der Verschiebungseinheit 2 und/oder der Zeitzuordnungseinheit 3 weiterverarbeiteten Nachrichten 12 zugeführt erhalten.Each of the image capture units 1 is a clustering unit 4 indirectly or immediately downstream. A clustering unit 4 can either be directly with that of the image capture unit 1 generated messages or those from the shift unit 2 and / or the time allocation unit 3 processed messages 12 received received.

Jede Clustering-Einheit 4 verwendet für die Bildung von Clustern 13 ein Zeitfenster F, innerhalb dessen Nachrichten 12 für die Bildung von Clustern 13 herangezogen werden. Dies hat den Zweck, dass die zeitliche Ausdehnung Cluster 13, wie in den 6 und 7, einen vorgegebenen Zeitraum nicht überschreiten und die Ressourcen der erfindungsgemäßen Vorrichtung nicht unnötig beansprucht werden.Each clustering unit 4 used for the formation of clusters 13 a time slot F within which messages 12 for the formation of clusters 13 be used. This has the purpose of clustering the temporal extent 13 as in the 6 and 7 , Do not exceed a predetermined period and the resources of the device according to the invention are not claimed unnecessarily.

Jede Clustering-Einheit 4 umfasst eine Zeitfensterbildungseinheit, welche für den jeweiligen Zeitpunkt tg mittels der folgenden Formel ein Zeitfenster F bestimmt: F(tg) = [tg – dF, tg]. Hierbei ist die Zeitdauer dF des Zeitfensters auf einen vorgegebenen Wert festgesetzt. Die Clustering-Einheiten 4 vergleichen den jeweiligen Zeitstempel t mit den Grenzen des Zeitfensters F und verwerfen alle Nachrichten 12 für alle weiteren Berechnungen oder ziehen diejenigen Nachrichten für diese Berechnungen nicht mehr heran, sofern deren Zeitstempel t außerhalb des Zeitfensters F liegen. Dieses Verwerfen der einlangenden Nachrichten 12 wird insbesondere für die im Anschluss folgende Clusterbildung durchgeführtEach clustering unit 4 comprises a time window forming unit which determines a time window F for the respective time tg by means of the following formula: F (tg) = [tg-dF, tg]. Here, the time duration dF of the time window is set to a predetermined value. The clustering units 4 compare the respective time stamp t with the limits of the time window F and discard all messages 12 for all further calculations or those messages for these calculations are no longer used, provided that their time stamp t outside the time window F are. This discarding of incoming messages 12 is carried out in particular for the subsequent clustering

Die Clusterbildung wird üblicherweise in einem dreidimensionalen Raum durchgeführt. Hierbei werden die am Eingang der Clustering-Einheit 4 vorliegenden Nachrichten 12 als Koordinaten von Punkten eines dreidimensionalen Raumes, wie in 5 dargestellt, angesehen, wobei eine Koordinate durch den jeweiligen Zeitstempel der Nachricht 12 vorgegeben ist und die übrigen beiden Koordinaten durch die jeweiligen Bildkoordinaten x, y oder die modifizierten Bildkoordinaten x', y' gegeben sind. Auf die so erstellten Punkte des dreidimensionalen Raumes wird das Clustering-Verfahren angewendet und in der Regel eine Vielzahl von Clustern 13 erhalten. Das Clustering-Verfahren gruppiert oder ordnet die einzelnen dreidimensionalen Punkte zu Clustern 13.The clustering is usually carried out in a three-dimensional space. This will be the input to the clustering unit 4 present news 12 as coordinates of points of a three-dimensional space, as in 5 represented, wherein a coordinate by the respective time stamp of the message 12 is given and the other two coordinates by the respective image coordinates x, y or the modified image coordinates x ', y' are given. The points of the three-dimensional space created in this way are used for the clustering process and, as a rule, a multiplicity of clusters 13 receive. The clustering process groups or arranges the individual three-dimensional points into clusters 13 ,

Die Einhüllende eines aufgezeichneten Clusters 13 ist in 5 dargestellt. Diese Cluster werden in den einzelnen Clustering-Einheiten 4 getrennt nach der aufzeichnenden Bildaufnahmeeinheit 1 ermittelt, sodass für jede Bildaufnahmeeinheit 1 eine Vielzahl von Clustern 13 vorliegt. Alternativ zur Verschiebung der einzelnen Nachrichten 12 kann auch der gesamte Cluster 13 nach dem Clustering-Verfahren verschoben werden.The envelope of a recorded cluster 13 is in 5 shown. These clusters are in each clustering unit 4 separated after the recording image recording unit 1 determined so that for each image acquisition unit 1 a variety of clusters 13 is present. Alternatively to the shift of the individual messages 12 can also be the entire cluster 13 be moved after the clustering procedure.

Mittels eines Fitting-Verfahrens kann aus den einzelnen Clustern 13 eine Ausgleichskurve 14 bzw. ein Pfad generiert werden, welcher die Lage der dreidimensionalen Punkte des Clusters 13 charakterisiert.By means of a fitting procedure can from the individual clusters 13 a compensation curve 14 or a path can be generated which shows the position of the three-dimensional points of the cluster 13 characterized.

An den jeweiligen Ausgängen der Clustering-Einheiten 4 liegt entweder die Ausgleichskurve 14 oder der Cluster 13 als Datenobjekt vor. Die Lage der jeweiligen Cluster 13 ist in den 6 und 7 dargestellt. Die Ausgänge der einzelnen Clustering-Einheiten sind einer Abstandsmesseinheit 5 zugeführt. Die Abstandsmesseinheit 5 ermittelt liegen die Datenobjekte betreffend die einzelnen Cluster 13 oder die aus den jeweiligen Clustern 13 erzeugten Ausgleichskurven 14 an. Dabei ermittelt die Abstandsmesseinheit 5 den durchschnittlichen Abstand der beiden Ausgleichskurven 14, welche aus Nachrichten 12 unterschiedlicher Bildaufnahmeeinheiten 1 generiert worden sind. Dieser mittlere Abstand wird mit einem vorgegebenen Schwellenwert in einer der Anstandsmesseinheit 5 nachgeschaltete Zuordnungseinheit 6 verglichen. Bei Unterschreitung des Schwellenwerts durch den vorgegebenen Abstand zwischen den beiden Ausgleichskurven 14 oder den beiden Clustern 13 werden die jeweiligen Cluster 13 einander zugeordnet und diese Zuordnung abgespeichert.At the respective outputs of the clustering units 4 is either the compensation curve 14 or the cluster 13 as a data object. The location of each cluster 13 is in the 6 and 7 shown. The outputs of the individual clustering units are a distance measuring unit 5 fed. The distance measuring unit 5 determines the data objects concerning the individual clusters 13 or from the respective clusters 13 generated compensation curves 14 at. The distance measuring unit determines 5 the average distance between the two compensation curves 14 which made news 12 different image acquisition units 1 have been generated. This average distance is at a predetermined threshold in one of the fairness measurement units 5 downstream allocation unit 6 compared. When falling below the threshold value by the predetermined distance between the two compensation curves 14 or the two clusters 13 become the respective clusters 13 assigned to each other and stored this assignment.

Die Verschiebung eines oder beider der zu vergleichenden Cluster 13 sowie die Bildkoordinaten x, y der diesen Clustern 13 zugrunde liegenden Nachrichten 12 wird jedenfalls vor der Bestimmung des Abstands der beiden Cluster 13 bzw. der von diesen Clustern 13 erzeugten Ausgleichskurven 14 durchgeführt. The displacement of one or both of the clusters to be compared 13 and the image coordinates x, y of these clusters 13 underlying messages 12 in any case, before determining the distance of the two clusters 13 or of these clusters 13 generated compensation curves 14 carried out.

Nach dem Auffinden zweier einander zugeordneter Cluster 13, 13' wird, wie in den 6 und 7 dargestellt, in allen Punkten der jeweils einander zugeordneten Cluster 13 ein maximaler Zeitstempel tmax und ein minimaler Zeitstempel tmin gesucht. Anschließend werden diese Zeitstempel tmax, tmin in die jeweilige Ausgleichskurve 14 eingesetzt. Man erhält dadurch zwei Paare von Pixelkoordinaten [x1, y1], [x2, y2], welche der Position des Objekts zum Zeitpunkt des ersten Auffindens des Objekts sowie der Position des Objekts zum letzten Auftreten des Objekts entsprechen. Es wird ein Differenzvektor dV = [x2 – x1, y2 – y1] = [dx, dy] gebildet, wobei dx = x2 – x1, dy = y2 – y1 und allen einander zugeordneten Clustern 13 zugeordnet.After finding two mutually associated clusters 13 . 13 ' will, as in the 6 and 7 represented, in all points of each associated cluster 13 a maximum timestamp tmax and a minimum timestamp tmin searched. Subsequently, these timestamps tmax, tmin in the respective compensation curve 14 used. This gives two pairs of pixel coordinates [x1, y1], [x2, y2], which correspond to the position of the object at the time of the first finding of the object as well as the position of the object to the last occurrence of the object. A difference vector dV = [x2 - x1, y2 - y1] = [dx, dy] is formed, where dx = x2 - x1, dy = y2 - y1 and all clusters associated with each other 13 assigned.

Zur Durchführung dieses beschriebenen Vorgehens ist der Zuordnungseinheit 6 eine Richtungsbestimmungseinheit 7 nachgeschaltet. Am Eingang der Richtungsbestimmungseinheit 7 liegen die jeweils einander zugeordneten Cluster 13 in Form von Datenobjekten vor. Die Richtungsbestimmungseinheit 7 ermittelt für jeweils einander zugeordnete Cluster 13 und/oder Ausgleichskurven 14 jeweils durch Suche in den Punkten 12 der jeweils einander zugeordneten Cluster 13 einen maximalen Zeitstempel tmax und einen minimalen Zeitstempel tmin. Sie ermittelt die Pixelkoordinaten x1, y1 der Ausgleichskurve 14 zum Zeitpunkt des minimalen Zeitstempels tmin und die Pixelkoordinaten x2, y2 zum Zeitpunkt des maximalen Zeitstempels tmax. Ferner bestimmt die Richtungsbestimmungseinheit einen Differenzvektor dV der jeweiligen Pixelkoordinaten, gemäß der Formel dx = x2 – x1, dy = y2 – y1, dV = [dx, dy] und ordnet diesen den jeweiligen Clustern 13 zu.To carry out this described procedure is the allocation unit 6 a direction determination unit 7 downstream. At the entrance of the direction determination unit 7 are the respective associated clusters 13 in the form of data objects. The direction determination unit 7 determined for clusters assigned to each other 13 and / or compensation curves 14 each by searching in the points 12 each mutually associated cluster 13 a maximum timestamp tmax and a minimum timestamp tmin. It determines the pixel coordinates x1, y1 of the compensation curve 14 at the time of the minimum time stamp tmin and the pixel coordinates x2, y2 at the time of the maximum time stamp tmax. Further, the direction determination unit determines a difference vector dV of the respective pixel coordinates according to the formula dx = x2-x1, dy = y2-y1, dV = [dx, dy], and assigns them to the respective clusters 13 to.

Schließlich werden die einzelnen bestimmten Differenzvektoren dV einer der Richtungsbestimmungseinheit 7 nachgeschalteten Bewertungseinheit 8 zugeführt. Die Bewertungseinheit bildet ein Skalarprodukt des Differenzvektors dV mit einem vorgegebenen Richtungsvektor R. Durch den vorgegebenen Richtungsvektor R kann eine Vorzugsrichtung vorgegeben werden, in welche oder entgegen welche sich die Objekte vorzugsweise bewegen. Eine Bewegung normal auf den Richtungsvektor R fließt jedoch nicht in die Bewertung der Bewegungsrichtung ein.Finally, the individual determined difference vectors dV become one of the direction determination unit 7 downstream evaluation unit 8th fed. The evaluation unit forms a scalar product of the difference vector dV with a predetermined direction vector R. The predefined directional vector R can be used to specify a preferred direction into which or against which the objects preferably move. However, a movement normal to the directional vector R does not flow into the evaluation of the direction of movement.

Die Bewertungseinheit 8 bildet das Skalarprodukt des Differenzvektors dV mit dem vorgegebenen Richtungsvektor R. Dieses Skalarprodukt wird mit einem vorgegebenen Schwellenwert, insbesondere Null, verglichen. Alle Differenzvektoren dv, bei denen sich ein Skalaprodukt größer als Null ergibt, zeigen in Richtung des vorgegebenen Richtungsvektor R, die übrigen zeigen entgegen der Richtung des vorgegebenen Richtungsvektors R. Somit kann zwischen einzelnen Objekten 50a, 50b unterschieden werden, welche sich entweder in Richtung des vorgegebenen Richtungsvektors R oder entgegen die Richtung des vorgegebenen Richtungsvektors bewegen. Durch den Schwellenwertvergleich mit Null wird ein binärer Bewegungswert ermittelt, der die Richtung des Differenzvektors in bezug auf den vorgegebenen Vektor charakterisiert. Der Pfad des Objekts 50a in 1 weist einen Differenzwert dVa auf, der in Richtung R zeigt, wobei für das Skalarprodukt gilt: R·dVa > 0. Der Pfad des Objektes 50b in 1 weist einen Differenzwert dVb auf, der entgegen der Richtung von R zeigt, es gilt für das Skalarprodukt R·dVb > 0.The valuation unit 8th forms the scalar product of the difference vector dV with the given direction vector R. This scalar product is compared with a predetermined threshold, in particular zero. All difference vectors dv, in which a scale product results in greater than zero, point in the direction of the given directional vector R, the remaining points counter to the direction of the given directional vector R. Thus, it is possible to distinguish between individual objects 50a . 50b be distinguished, which move either in the direction of the predetermined direction vector R or against the direction of the predetermined direction vector. Threshold comparison with zero establishes a binary motion value that characterizes the direction of the difference vector with respect to the given vector. The path of the object 50a in 1 has a difference value dVa pointing in the direction R, where the following applies to the scalar product: R · dV a > 0. The path of the object 50b in 1 has a difference value dV b , which points counter to the direction of R, it applies to the scalar product R · dV b > 0.

Der Bewertungseinheit, an deren Ausgang jeweils der binäre Bewegungswert anliegt, ist ein Zähler 9 nachgeschaltet. Abhängig vom binären Bewegungswert wird der im Zähler gespeicherte Zählwert oder Objektzählwert entweder inkrementiert oder dekrementiert. Der Objektzählwert enthält die Anzahl der detektierten Objekte, welche sich in Richtung des vorgegeben Richtungsvektors bewegt haben, abzüglich der Objekte, welche sich entgegen der Richtung des vorgegeben Richtungsvektors bewegt haben. Somit bewirkt der Pfad des Objektes 50a ein Inkrementieren, der Pfad des Objektes 50b ein Dekrementieren des Objektzählwerts.The evaluation unit, at the output of which the binary movement value is present, is a counter 9 downstream. Depending on the binary motion value, the count value or object count stored in the counter is either incremented or decremented. The object count contains the number of detected objects which have moved in the direction of the predetermined direction vector, minus the objects which have moved counter to the direction of the predetermined direction vector. Thus, the path of the object causes 50a an increment, the path of the object 50b a decrement of the object count.

Wird eine erfindungsgemäße Vorrichtung am Eingang eines Raums angeordnet, entspricht der Objektzählwert der Anzahl derjenigen Objekte oder Personen, welche sich innerhalb des Raums befinden. Ist ein Raum oder ein Bereich von mehreren Ausgängen umgeben, wird jeder der Ausgänge oder Ausgangsbereiche von einer einfindungsgemäßen Einrichtung überwacht, wobei die Summe der einzelnen Objektzählwerte der Anzahl der Objekte innerhalb des Raums oder vorgegebenen Bereichs entspricht. Die Wahl der jeweiligen Richtungsvektoren hat in diesem speziellen Fall so zu erfolgen, dass all diese entweder in Richtung des Raums oder aus dem Raum hinaus zeigen.If a device according to the invention is arranged at the entrance of a room, the object count value corresponds to the number of those objects or persons which are located within the room. When a room or area is surrounded by multiple outputs, each of the outputs or output areas is monitored by a device according to the invention, the sum of the individual object counts corresponding to the number of objects within the room or predetermined area. In this particular case, the choice of the respective directional vectors must be such that all these point either in the direction of the room or out of the room.

Bevorzugterweise umfasst eine erfindungsgemäße Vorrichtung eine Rücksetzeinrichtung, welche den Zähler auf einen vorgegebenen Wert, insbesondere Null, zurücksetzt. Dies ist zu Betriebsbeginn der Anlage wie auch nach Störungen von Vorteil. Der Zähler weist dabei einen Reset-Eingang 91 auf, über welchen der gespeicherte Objektzählwert zurückgesetzt werden kann.Preferably, a device according to the invention comprises a reset device, which resets the counter to a predetermined value, in particular zero. This is at the beginning of operation of the system as well as after disturbances of advantage. The counter has a reset input 91 over which the stored object count can be reset.

Ferner kann eine Rücksetzeinrichtung dazu herangezogen werden, um den Objektzählwert in vorgegebenen Abständen zurückzusetzen und den jeweiligen Zählerstand vor dem Rücksetzen abzuspeichern bzw. weiterzuleiten. Durch ein derartiges vorgehen können Objektraten, die Anzahl der innerhalb eines vorgegebenen Zeitraums gezählten Objekte, ermittelt werden.Furthermore, a reset device can be used to reset the object count at predetermined intervals and to store or forward the respective counter state before the reset. By doing so, object data, the number of objects counted within a given period of time, can be determined.

Bevorzugterweise kann vorgesehen werden, dass die einzelnen Verschiebungseinheiten 2 den Bildaufnahmeeinheiten 1 unmittelbar nachgeschaltet sind. Den Verschiebungseinheiten 2 sind die Zeitzuordnungseinheiten 3 unmittelbar nachgeschaltet. Alternativ kann vorgesehen werden, dass die Zeitzuordnungseinheiten 3 in den Bildaufnahmeeinheiten 1 integriert sind. Ist einer Bildaufnahmeeinheit 1' keine Verschiebungseinheit 1 nachgeschaltet, so ist die Zeitzuordnungseinheit 3 direkt der Bildaufnahmeeinheit 1' nachgeschaltet. Die Clustering-Einheiten 4 sind den Zeitzuordnungseinheiten 3 unmittelbar nachgeschaltet.Preferably, it can be provided that the individual displacement units 2 the image capture units 1 are immediately downstream. The shift units 2 are the time allocation units 3 immediately downstream. Alternatively it can be provided that the time allocation units 3 in the image recording units 1 are integrated. Is an image capture unit 1' no shift unit 1 downstream, so is the time allocation unit 3 directly to the image acquisition unit 1' downstream. The clustering units 4 are the time allocation units 3 immediately downstream.

Eine bevorzugte Weiterbildung der Erfindung betrifft die Länge der aufgezeichneten Differenzvektoren dV. Bleibt ein Objekt, beispielsweise eine Person, beim Passieren des Aufnahmebereichs in zeitlichen Abständen stehen und verharrt regungslos in seiner Position, werden keine Nachrichten 12 von den Bildaufnahmeeinheiten 1, 1' abgegeben und es können unter Umständen sehr viele Cluster 13 mit sehr geringen Differenzvektoren dV detektiert werden. Um diesem Problem entgegenzuwirken, kann vorgesehen werden, dass der Richtungsbestimmungseinheit 7 eine nicht dargestellte Cluster-Auswahleinheit nachgeschaltet ist, welche die Längen der Differenzvektoren dV der jeweiligen Cluster 13 enthält und diese mit einem vorgegebenen Schwellenwert oder einer vorgegebenen Mindestlänge vergleicht. Nur bei Überschreitung des vorgegebenen Schwellenwerts durch die Länge des Differenzvektors dV wird das dem jeweiligen Cluster 13 entsprechende Datenobjekt an die Bewertungseinheit 8 weitergeleitet. Die übrigen Datenobjekte werden gelöscht oder unterdrückt und für die weiteren Berechnungen von Objektbewegungen nicht herangezogen.A preferred embodiment of the invention relates to the length of the recorded difference vectors dV. If an object, for example a person, stops at intervals when passing through the recording area and remains motionless in its position, no messages will be displayed 12 from the image capture units 1 . 1' and there may be very many clusters 13 be detected with very small difference vectors dV. To counteract this problem, it can be provided that the direction determination unit 7 a non-illustrated cluster selection unit is connected downstream, which the lengths of the difference vectors dV of the respective cluster 13 contains and compares them with a predetermined threshold or a predetermined minimum length. Only when the predetermined threshold value is exceeded by the length of the difference vector dV does this become the respective cluster 13 corresponding data object to the valuation unit 8th forwarded. The remaining data objects are deleted or suppressed and not used for the further calculations of object movements.

Claims (15)

Verfahren zum Zählen von Objekten mit zumindest zwei Bildaufnahmeeinheiten (1) mit jeweils einem optischen Sensor, dadurch gekennzeichnet, dass die Sensoren jeweils eine Vielzahl von rasterförmig angeordneten Helligkeitsänderungssensor-Pixeln (21) umfassen, dass den einzelnen Helligkeitsänderungssensor-Pixeln (21) je nach ihrer Lage Bildkoordinaten (x, y) zugeordnet sind, dass jedes der Helligkeitsänderungssensor-Pixel (21) der Sensoren bei Überschreitung oder Unterschreitung eines vorgegebenen Schwellenwertes durch den von ihm detektierten Wert einer relativen Helligkeitsänderung eine Nachricht (12) umfassend die jeweiligen Bildkoordinaten (x, y) des die Nachricht (12) abgebenden Helligkeitsänderungssensor-Pixels (21) erzeugt, und dass der Nachricht bei ihrer Erzeugung oder im Zuge ihrer Weiterverarbeitung ein Zeitstempel (t) umfassend die Erzeugungszeit oder die Zeit der Weiterverarbeitung hinzugefügt wird, dass die von zumindest einem Sensor erzeugten Nachrichten (12) modifiziert werden, indem die den jeweiligen Nachrichten (12) zugeordneten Bildkoordinaten (x, y) mit einer vorgegebenen, für jede der Bildaufnahmeeinheiten (1) unterschiedlich gewählten Disparität (dpx, dpy) additiv beaufschlagt werden, dass die von den einzelnen Sensoren innerhalb eines Zeitintervalls oder Zeitfensters (F) erzeugten Nachrichten (12) mit einem Zeitstempel voneinander getrennt abgespeichert werden, wobei der Zeitstempel (t) und die modifizierten Bildkoordinaten (x, y) dieser Nachrichten als Koordinaten von Punkten eines dreidimensionalen Raums angesehen werden und ein Clustering-Verfahren durchgeführt wird, welches die einzelnen Punkte zu Clustern (13) umfassend eine Vielzahl von Punkten zuordnet oder gruppiert, dass mittels eines Fitting-Verfahrens jedem Cluster (13) eine Ausgleichskurve (14) oder ein Pfad zugewiesen wird, welche(r) die Lage der Punkte im Mittel charakterisiert, dass die Ausgleichskurven (14) zweier Cluster (13), welche von unterschiedlichen Sensoren aufgenommen worden sind oder die beiden Cluster (13) selbst, miteinander verglichen werden, wobei mittels eines Abstandsmessverfahrens ein mittlerer Abstand zwischen den beiden Ausgleichskurven oder den beiden Clustern (13) ermittelt wird, wobei dieser Abstand mit einem vorgegebenen Schwellenwert verglichen wird und bei Unterschreitung dieses Schwellenwerts durch diesen Abstand die beiden Ausgleichskurven (14) sowie die beiden Cluster (13) einander zugeordnet werden, dass für alle einander zugeordneten Cluster (13) jeweils durch Suche unter allen Punkten (12) der jeweils einander zugeordneten Cluster (13) ein maximaler Zeitstempel (tmax) und ein minimalen Zeitstempel (tmin) ermittelt werden, wobei die Bildkoordinaten (x1, y1) der Ausgleichskurve (14) zum Zeitpunkt des minimalen Zeitstempels (tmin) und die Bildkoordinaten (x2, y2) zum Zeitpunkt des maximalen Zeitstempels (tmax) ermittelt werden, und wobei ein Differenzvektor dV der jeweiligen Bildkoordinaten, insbesondere gemäß der Formel dx = x2 – x1, dy = y2 – y1, dV = [dx, dy] bestimmt und dem jeweiligen Cluster (13) zugeordnet wird, dass für alle einander zugeordnete Cluster (13) oder Ausgleichskurven (14) durch Vergleich des dem Cluster (13) zugeordneten Differenzvektors (dV) mit einem vorgegebenen Richtungsvektor, insbesondere durch Bildung des Skalarprodukts mit diesem Vektor und anschließendem Vergleich des Skalarprodukts mit einem vorgegebenen Schwellenwert, vorzugsweise 0, ein binärer Bewegungswert ermittelt wird, und dass ein Objektzählwert vorgegeben und abhängig von den ermittelten binären Bewegungswerten der einzelnen Cluster (13) jeweils um einen vorgegebenen Wert, insbesondere 1, erhöht oder verringert wird, wobei der Objektzählwert der Anzahl der innerhalb eines vorgegebenen Bereichs befindlichen Personen entspricht.Method for counting objects with at least two image recording units ( 1 ) each having an optical sensor, characterized in that the sensors each have a plurality of grid-like arranged brightness change sensor pixels ( 21 ) that the individual brightness change sensor pixels ( 21 ) are associated with image coordinates (x, y), depending on their location, that each of the brightness change sensor pixels ( 21 ) of the sensors when exceeding or falling below a predetermined threshold value by the detected value of a relative change in brightness message ( 12 ) comprising the respective image coordinates (x, y) of the message ( 12 ) emitting brightness sensor pixel ( 21 ), and that the message is, when it is generated or during its further processing, added with a time stamp (t) comprising the generation time or the time of the further processing that the messages generated by at least one sensor ( 12 ) are modified by the respective messages ( 12 ) associated image coordinates (x, y) with a predetermined, for each of the image recording units ( 1 ) differently selected disparity (dpx, dpy) are applied additively that the messages generated by the individual sensors within a time interval or time window (F) ( 12 ) are stored separately from one another with a time stamp, wherein the time stamp (t) and the modified image coordinates (x, y) of these messages are regarded as coordinates of points of a three-dimensional space and a clustering method is carried out, which clusters the individual points (FIG. 13 ) comprising or clustering a plurality of points such that by means of a fitting method each cluster ( 13 ) a compensation curve ( 14 ) or a path which (r) characterizes the position of the points on the average that the compensation curves ( 14 ) of two clusters ( 13 ), which have been recorded by different sensors or the two clusters ( 13 ) are compared with each other, wherein by means of a distance measuring method, a mean distance between the two compensation curves or the two clusters ( 13 ), wherein this distance is compared with a predetermined threshold value and, if this threshold value is undershot by this distance, the two compensation curves ( 14 ) as well as the two clusters ( 13 ) are assigned to each other, that for all clusters ( 13 ) by searching under all points ( 12 ) of each cluster ( 13 ) a maximum time stamp (tmax) and a minimum time stamp (tmin) are determined, the image coordinates (x1, y1) of the compensation curve ( 14 ) at the time of the minimum time stamp (tmin) and the image coordinates (x2, y2) at the time of the maximum time stamp (tmax), and wherein a difference vector dV of the respective image coordinates, in particular according to the formula dx = x2 - x1, dy = y2 - y1, dV = [dx, dy] and the respective cluster ( 13 ), that for all clusters ( 13 ) or compensation curves ( 14 ) by comparing the cluster ( 13 ) associated difference vector (dV) with a predetermined direction vector, in particular by forming the scalar product with this vector and then comparing the scalar product with a predetermined threshold, preferably 0, a binary motion value is determined, and that an object count predetermined and depending on the determined binary motion values the individual cluster ( 13 ) each by a predetermined value, In particular, 1, is increased or decreased, wherein the object count corresponds to the number of persons located within a predetermined range. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die optischen Achsen der Bildaufnahmeeinheit (1) zueinander parallel verlaufen, und dass bei zwei vorhandenen Bildaufnahmeeinheiten (1) die Bildkoordinaten (x, y) jeweils einer Bildaufnahmeeinheiten (1) modifiziert wird.Method according to Claim 1, characterized in that the optical axes of the image recording unit ( 1 ) parallel to each other, and that in two existing image recording units ( 1 ) the image coordinates (x, y) respectively of an image acquisition unit ( 1 ) is modified. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei zwei Bildaufnahmeeinheiten nur die Bildkoordinaten (x, y) einer Bildaufnahmeeinheit (1) modifiziert werden, und dass insbesondere die vertikale Disparität (dpy), vorzugsweise für beide Bildaufnahmeeinheiten (1), auf Null gesetzt wird.Method according to claim 1 or 2, characterized in that in the case of two image recording units only the image coordinates (x, y) of an image recording unit ( 1 ) and that in particular the vertical disparity (dpy), preferably for both image acquisition units ( 1 ) is set to zero. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass vor Beginn der Zählung der Objektzählwert auf Null oder einen anderen vorgegebenen Wert zurückgesetzt wird.Method according to one of Claims 1 to 3, characterized in that the object count value is reset to zero or another predetermined value before the count is started. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Zeitfenster (F) zu einem gegebenen Zeitpunkt (tg) mittels der folgenden Formel bestimmt werden F(tg) = [tg – dF, tg], wobei die Zeitdauer (dF) des Zeitfensters (F) auf einen vorgegebenen Wert festgesetzt wird.Method according to one of claims 1 to 4, characterized in that the time windows (F) at a given time (tg) are determined by the following formula F (tg) = [tg-dF, tg], wherein the time duration (dF) of the time window (F) is set to a predetermined value. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass nach der Bestimmung des Differenzvektors (dV) die Länge des Differenzvektors bestimmt wird und mit einer vorgegebenen Mindestlänge verglichen wird und bei Unterschreitung der vorgegebenen Mindestlänge durch die Länge des dem jeweiligen Clusters (13) zugeordneten Differenzvektors (dV) der jeweilige Cluster (13) sowie diesem zugeordnete Cluster (13) verworfen, gelöscht oder für die weitere Berechnung von Objektbewegungen nicht herangezogen werden.Method according to one of claims 1 to 5, characterized in that after the determination of the difference vector (dV), the length of the difference vector is determined and compared with a predetermined minimum length and falls below the predetermined minimum length by the length of the respective cluster ( 13 ) associated difference vector (dV) of the respective cluster ( 13 ) and its associated cluster ( 13 ) are discarded, deleted or not used for the further calculation of object movements. Vorrichtung zum Zählen von Objekten gekennzeichnet durch zumindest zwei Bildaufnahmeeinheiten (1), wobei die Bildaufnahmeeinheiten (1) jeweils eine Vielzahl von rasterförmig angeordneten Helligkeitsänderungssensor-Pixeln (21) umfassen, wobei den einzelnen Helligkeitsänderungssensor-Pixeln (21) je nach ihrer Lage im Raster Bildkoordinaten (x, y) zugeordnet sind, und wobei jedes der Helligkeitsänderungssensor-Pixel (21) der jeweiligen Bildaufnahmeeinheiten (1) bei Überschreitung eines vorgegebenen Schwellwerts durch die von ihm gemessene relative Helligkeitsänderung eine Nachricht (12) umfassend die jeweiligen Bildkoordinaten (x, y) des die Nachricht (12) abgebenden Helligkeitsänderungssensor-Pixels (21) erzeugt, und die Nachrichten (12) am Ausgang der jeweiligen Bildaufnahmeeinheit (1) anliegen, eine Zeitzuordnungseinheit (3) im Signalweg der Nachrichten (12), welche den einzelnen Nachrichten (12) einen Zeitstempel zuordnet, der dem Zeitpunkt des Erzeugens oder der Weiterverarbeitung durch die Zuordnungseinheit entspricht, eine Anzahl Clustering-Einheiten (4), wobei jeder Bildaufnahmeeinheit (1) genau eine Clustering-Einheit (4) nachgeschaltet ist, wobei jeder Clustering-Einheit (4) die einzelnen Nachrichten (12) jeweils einer Bildaufnahmeeinheit (1) zugeführt sind, wobei jede Clustering-Einheit (4) diejenigen Nachrichten (12), welche außerhalb eines vorgegebenen Zeitfensters (F) liegen, feststellt und für die weiteren Berechnungen verwirft, wobei jede Clustering-Einheit (4) die aufgezeichneten Nachrichten (12), deren Zeitstempel innerhalb des vorgegebenen Zeitfensters (F) liegt, zu Clustern (13) oder Punktmengen zusammenfasst, wobei die zu Clustern zusammengefassten Punkte zwei oder drei Koordinaten aufweisen, von denen eine dem Zeitstempel (t) der jeweiligen Nachricht (12) entspricht und die übrigen Koordinaten den der Nachricht zugeordneten Bildkoordinaten (x, y) entspricht. wobei am Ausgang der Clustering-Einheit (4) Datenobjekte anliegen, welche die Daten der jeweiligen Cluster (13) umfassen, und wobei die Clustering-Einheit (4) gegebenenfalls eine Ausgleichskurvenbildungseinheit umfasst, welche für die Punkte an ihrem Eingang anliegenden Clusters (13) eine Ausgleichskurve (14) bildet, zumindest eine Verschiebungseinheit (2) im Signalweg der Nachrichten (12) oder der aus den Nachrichten (12) gewonnenen Cluster (13) oder Ausgleichskurven (14), welche die Bildkoordinaten (x, y) der Nachrichten (12), die Koordinaten der Punkte der Cluster, (13) die Cluster (13) selbst oder die Ausgleichskurven (14) um eine vorgegebene, für jede Bildaufnahmeeinheit (1) unterschiedlich festgelegte Disparität (dpx, dpy) verschiebt, eine Abstandsmesseinheit (5), der die einzelnen am Ausgang der Clustering-Einheiten (21) anliegenden Datenobjekte betreffend die einzelnen Cluster (13) zugeführt sind, wobei die Abstandsmesseinheit (5) den mittleren oder durchschnittlichen Abstand zweier Cluster (13) oder zweier Ausgleichskurven (14) bestimmt, wobei die beiden Cluster (13) oder die Ausgleichskurven (14) auf Nachrichten (11) beruhen, welche von jeweils unterschiedlichen Bildaufnahmeeinheiten (1) aufgezeichnet worden sind, sowie eine der Abstandsmesseinheit (5) nachgeschaltete Zuordnungseinheit (6), die den Abstand mit einem vorgegebenen Schwellenwert vergleicht und im Falle des Unterschreitens des Schwellenwerts durch den Abstand die beiden Cluster (13) oder die beiden beabstandeten Ausgleichskurven (14) einander zuordnet, eine Richtungsbestimmungseinheit (7), welche für jeweils einander zugeordnete Cluster (13) und/oder Ausgleichskurven (14) jeweils durch Suche in den Punkten der jeweils einander zugeordneten Cluster (13) den maximalen Zeitstempel (tmax) und den minimalen Zeitstempel (tmin) ermittelt, die Pixelkoordinaten (x1, y1) der Ausgleichskurve (14) zum Zeitpunkt des minimalen Zeitstempels (tmin) und die Pixelkoordinaten (x2, y2) zum Zeitpunkt des maximalen Zeitstempels (tmax) ermittelt, und einen Differenzvektor (dV) der jeweiligen Pixelkoordinaten, insbesondere gemäß der Formel dx = x2 – x1, dy = y2 – y1, dV = [dx, dy] bestimmt und dem jeweiligen Cluster (13) zuordnet, eine Bewertungseinheit (8), welche dem jeweiligen Differenzvektor (dV), insbesondere durch Bildung eines Skalarprodukts mit einem vorgegebenen Richtungsvektor und anschließenden Vergleichs des ermittelten Skalarprodukts, vorzugsweise mit Null, einen binären Bewegungswert ermittelt, welcher am Ausgang der Bewertungseinheit (8) anliegt, und einen Zähler (9), an dessen Eingang der Ausgang der Bewertungseinheit (8) angeschlossen ist und bei Vorliegen eines binären Bewegungswerts am Ausgang der Bewertungseinheit einen Zählwert abhängig vom binären Bewegungswert inkrementiert oder dekrementiert, wobei am Ausgang des Zählers der Zählwert anliegt und welcher der Anzahl der innerhalb eines bestimmten Bereichs befindlichen Objekte entspricht.Device for counting objects characterized by at least two image acquisition units ( 1 ), wherein the image recording units ( 1 ) each have a plurality of grid-like arranged brightness change sensor pixels ( 21 ), wherein the individual brightness change sensor pixels ( 21 ) are associated with image coordinates (x, y) depending on their position in the grid, and wherein each of the brightness change sensor pixels ( 21 ) of the respective image recording units ( 1 ) if a predetermined threshold value is exceeded by the relative brightness change measured by it ( 12 ) comprising the respective image coordinates (x, y) of the message ( 12 ) emitting brightness sensor pixel ( 21 ), and the messages ( 12 ) at the output of the respective image acquisition unit ( 1 ), a time allocation unit ( 3 ) in the signal path of the messages ( 12 ), which shows the individual messages ( 12 ) assigns a time stamp corresponding to the time of creation or further processing by the allocation unit, a number of clustering units ( 4 ), each image acquisition unit ( 1 ) exactly one clustering unit ( 4 ), each clustering unit ( 4 ) the individual messages ( 12 ) each of an image acquisition unit ( 1 ), each clustering unit ( 4 ) those messages ( 12 ), which lie outside a predetermined time window (F), and discards for further calculations, each clustering unit ( 4 ) the recorded messages ( 12 ) whose timestamp lies within the predetermined time window (F), into clusters ( 13 ) or point sets, the points combined into clusters having two or three coordinates, one of which corresponds to the time stamp (t) of the respective message ( 12 ) and the remaining coordinates correspond to the image coordinates (x, y) associated with the message. where at the output of the clustering unit ( 4 ) Data objects which contain the data of the respective cluster ( 13 ), and wherein the clustering unit ( 4 ) optionally comprises a compensation curve forming unit, which for the points at its input adjacent cluster ( 13 ) a compensation curve ( 14 ), at least one shift unit ( 2 ) in the signal path of the messages ( 12 ) or from the news ( 12 ) clusters ( 13 ) or compensation curves ( 14 ) containing the image coordinates (x, y) of the messages ( 12 ), the coordinates of the points of the clusters, ( 13 ) the clusters ( 13 ) or the compensation curves ( 14 ) by a predetermined, for each image capture unit ( 1 different disparity (dpx, dpy), a distance measuring unit ( 5 ), the individual at the output of the clustering units ( 21 ) data objects concerning the individual clusters ( 13 ), wherein the distance measuring unit ( 5 ) the mean or average distance between two clusters ( 13 ) or two compensation curves ( 14 ), the two clusters ( 13 ) or the compensation curves ( 14 ) on messages ( 11 ), which are each of different image recording units ( 1 ) and one of the distance measurement unit ( 5 ) downstream allocation unit ( 6 ), which compares the distance with a predetermined threshold value and, in the case of falling below the threshold value by the distance, the two clusters ( 13 ) or the two spaced equalization curves ( 14 ), a direction determination unit ( 7 ), which are assigned to clusters ( 13 ) and / or compensation curves ( 14 ) in each case by searching in the points of the respectively associated clusters ( 13 ) the maximum timestamp (tmax) and determines the minimum time stamp (tmin), the pixel coordinates (x1, y1) of the compensation curve ( 14 ) at the time of the minimum time stamp (tmin) and the pixel coordinates (x2, y2) at the time of the maximum time stamp (tmax), and a difference vector (dV) of the respective pixel coordinates, in particular according to the formula dx = x2 - x1, dy = y2 - y1, dV = [dx, dy] and the respective cluster ( 13 ), a valuation unit ( 8th ), which determines the respective difference vector (dV), in particular by forming a scalar product with a predetermined direction vector and subsequent comparison of the ascertained scalar product, preferably with zero, a binary movement value which is output at the evaluation unit (FIG. 8th ), and a counter ( 9 ), at whose entrance the output of the valuation unit ( 8th ) and, in the presence of a binary motion value at the output of the evaluation unit, incrementing or decrementing a count dependent on the binary motion value, the count being at the output of the counter and corresponding to the number of objects within a particular range. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die einzelnen Verschiebungseinheiten (2) den Bildaufnahmeeinheiten (1) unmittelbar nachgeschaltet sind.Apparatus according to claim 7, characterized in that the individual displacement units ( 2 ) the image recording units ( 1 ) are immediately downstream. Vorrichtung nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Zeitzuordnungseinheiten (3) entweder in den Bildaufnahmeeinheiten (1) integriert sind oder den Bildaufnahmeeinheiten (1) oder den Verschiebungseinheiten (2) unmittelbar nachgeschaltet sind.Apparatus according to claim 7 or 8, characterized in that the time allocation units ( 3 ) either in the image recording units ( 1 ) or the image acquisition units ( 1 ) or the shift units ( 2 ) are immediately downstream. Vorrichtung nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Clustering-Einheiten (21) den Zeitzuordnungseinheiten (3) unmittelbar nachgeschaltet sind.Device according to one of claims 7 to 9, characterized in that the clustering units ( 21 ) the time allocation units ( 3 ) are immediately downstream. Vorrichtung nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass den Zeitzuordnungseinheiten (3) ein gemeinsames Zeitsignal zugeführt ist und insbesondere ein gemeinsamer Zeitgeber (31) vorgesehen und von der Vorrichtung umfasst ist, welcher den Zeitzuordnungseinheiten vorgeschaltet ist.Device according to one of claims 7 to 10, characterized in that the time allocation units ( 3 ) a common time signal is supplied and in particular a common timer ( 31 ) is provided and is included by the device, which is upstream of the time allocation units. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass der Zähler (9) einen Reset-Eingang (91) aufweist, über welchen der in diesem gespeicherte Zählwert zurückgesetzt werden kann.Device according to one of claims 7 to 11, characterized in that the counter ( 9 ) a reset input ( 91 ) over which the count stored therein can be reset. Vorrichtung nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet, dass die Vorrichtung zwei Bildaufnahmeeinheiten (1) umfasst, dass die optischen Achsen der Bildaufnahmeeinheiten (1) zueinander parallel verlaufen, und dass nur einer Bildaufnahmeeinheit (1) eine Verschiebungseinheit nachgeschaltet ist.Device according to one of claims 7 to 12, characterized in that the device comprises two image recording units ( 1 ), that the optical axes of the image recording units ( 1 ) parallel to each other, and that only one image acquisition unit ( 1 ) is followed by a shift unit. Vorrichtung nach einem der Ansprüche 7 bis 13, dadurch gekennzeichnet, dass die Clustering-Einheiten (4) eine Zeitfensterbildungseinheit umfassen, welche für den jeweiligen Zeitpunkt (tg) mittels der folgenden Formel ein Zeitfenster (F) bestimmen, F(tg) = [tg – dF, tg], wobei die Zeitdauer (dF) des Zeitfensters (F) auf einen vorgegebenen Wert festgesetzt ist, und wobei die Clustering-Einheiten (4) den jeweiligen Zeitstempel (t) mit den Grenzen des Zeitfensters (F) vergleichen und alle Nachrichten (12) verwerfen oder für die weitere Berechnung, insbesondere für die Bestimmung der Cluster (13), nicht mehr heranziehen, deren jeweilige Zeitstempel (t) außerhalb des Zeitfensters (F) liegen.Device according to one of claims 7 to 13, characterized in that the clustering units ( 4 ) comprise a time-window forming unit which determines a time window (F) for the respective time (tg) by the following formula; F (tg) = [tg-dF, tg], wherein the time duration (dF) of the time window (F) is set to a predetermined value, and wherein the clustering units ( 4 ) compare the respective time stamp (t) with the limits of the time window (F) and all messages ( 12 ) or for further calculation, in particular for the determination of clusters ( 13 ), whose respective timestamps (t) are outside the time window (F). Vorrichtung nach einem der Ansprüche 7 bis 14, dadurch gekennzeichnet, dass der Richtungsbestimmungseinheit (7) jeweils eine Cluster-Auswahleinheit nachgeschaltet ist, welche die jeweiligen Differenzvektoren (dV) zugeführt erhält, deren Länge bestimmt und mit einem einer vorgegebenen Mindestlänge vergleicht und nur bei Überschreitung der vorgegebenen Mindestlänge durch die Länge des Differenzvektors (dV) das dem jeweiligen Cluster (13) entsprechende Datenobjekt an die Bewertungseinheit (8) weiterleitet.Device according to one of claims 7 to 14, characterized in that the direction determination unit ( 7 ) is in each case followed by a cluster selection unit which receives the respective difference vectors (dV), whose length is determined and compared with a predetermined minimum length and only if the predetermined minimum length is exceeded by the length of the difference vector (dV) that the respective cluster ( 13 ) corresponding data object to the valuation unit ( 8th ).
DE200910051100 2008-10-31 2009-10-28 Method for counting objects Expired - Fee Related DE102009051100B4 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AT0170508A AT507531B1 (en) 2008-10-31 2008-10-31 METHOD OF COUNTING OBJECTS
AT1705/2008 2008-10-31

Publications (2)

Publication Number Publication Date
DE102009051100A1 DE102009051100A1 (en) 2010-05-06
DE102009051100B4 true DE102009051100B4 (en) 2012-05-16

Family

ID=42063252

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200910051100 Expired - Fee Related DE102009051100B4 (en) 2008-10-31 2009-10-28 Method for counting objects

Country Status (2)

Country Link
AT (1) AT507531B1 (en)
DE (1) DE102009051100B4 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018209306A1 (en) 2018-06-12 2019-12-12 Conti Temic Microelectronic Gmbh Method for the detection of beacons
CN112381854B (en) * 2020-11-13 2024-04-19 西安闻泰电子科技有限公司 Image-based motion detection method and device, electronic equipment and storage medium
TWI755960B (en) * 2020-12-07 2022-02-21 晶睿通訊股份有限公司 Object counting method and monitoring camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006125233A1 (en) * 2005-05-25 2006-11-30 Arc Seibersdorf Research Gmbh Method for evaluating scenes and sensor or recording element
DE19732153B4 (en) * 1996-08-02 2006-11-30 Omron Corp. Device for measuring the number of passing persons
WO2008049404A2 (en) * 2006-10-25 2008-05-02 Norbert Link Method and apparatus for monitoring a spatial volume and a calibration method
WO2008061268A1 (en) * 2006-11-23 2008-05-29 Austrian Research Centers Gmbh - Arc Method for generating an image in electronic form, image element for an image sensor for generating an image, and image sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19732153B4 (en) * 1996-08-02 2006-11-30 Omron Corp. Device for measuring the number of passing persons
WO2006125233A1 (en) * 2005-05-25 2006-11-30 Arc Seibersdorf Research Gmbh Method for evaluating scenes and sensor or recording element
AT502032B1 (en) * 2005-05-25 2007-01-15 Arc Seibersdorf Res Gmbh METHOD FOR EVALUATING SCENES AND SENSOR BZW. RECORDING ELEMENT
WO2008049404A2 (en) * 2006-10-25 2008-05-02 Norbert Link Method and apparatus for monitoring a spatial volume and a calibration method
WO2008061268A1 (en) * 2006-11-23 2008-05-29 Austrian Research Centers Gmbh - Arc Method for generating an image in electronic form, image element for an image sensor for generating an image, and image sensor

Also Published As

Publication number Publication date
DE102009051100A1 (en) 2010-05-06
AT507531A1 (en) 2010-05-15
AT507531B1 (en) 2011-02-15

Similar Documents

Publication Publication Date Title
DE102009005861B4 (en) Vehicle environment detection system
EP0517324B1 (en) Apparatus for controlling the quantifier of a hybrid coder
EP0645037B1 (en) Process for detecting changes in moving images
DE102006001904B4 (en) Method and device for automatically adjusting surveillance image fields based on image change
EP2677460B1 (en) Method for determining the length of a queue
WO2009062945A1 (en) Method and device for finding and tracking pairs of eyes
DE102005045077A1 (en) A method and apparatus for distributed analysis of images
DE2062922B2 (en) PREDICTION VIDEO ENCODING USING MEASURED OBJECT SPEED
DE3315108A1 (en) PATTERN DISCRIMINATOR
DE102019103963A1 (en) ILDGEBUNGSVORRICHTUNG
DE102009016819A1 (en) Method for detecting at least one object and / or at least one object group, computer program, computer program product, stereo camera device, actively radiation-emitting image sensor system and monitoring device
DE102009051100B4 (en) Method for counting objects
DE102012023060A1 (en) Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram
DE112020004853T5 (en) Reduction of a flickering effect of several light sources in one picture
DE112017004394T5 (en) Gesture judging means, gesture operation means and gesture judging methods
EP0414113A2 (en) Method for movement compensation in a moving-image encoder or decoder
EP1485889B1 (en) Method for following at least one object in a scene
DE4417128A1 (en) Closed-circuit video surveillance system with image processing
WO1997004428A1 (en) Interactive surveillance system
DE102006020930B4 (en) Environmental monitoring method for a motor vehicle
AT520839B1 (en) Method for creating a picture stack data structure
DE102014219754B4 (en) Gesture based industrial surveillance
DE102012205000B3 (en) Method for counting objects on conveying belt, involves varying displacement vector, and counting objects in one of object lists, where positions of objects are not overlapped according to shifting around optimum vector
DE3824092C2 (en)
WO2019042689A1 (en) Person recognition in areas with limited data transmission and data processing

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120817

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee