AT507877B1 - METHOD FOR COUNTING TRANSPORT PARTICIPANTS - Google Patents
METHOD FOR COUNTING TRANSPORT PARTICIPANTS Download PDFInfo
- Publication number
- AT507877B1 AT507877B1 ATA160/2009A AT1602009A AT507877B1 AT 507877 B1 AT507877 B1 AT 507877B1 AT 1602009 A AT1602009 A AT 1602009A AT 507877 B1 AT507877 B1 AT 507877B1
- Authority
- AT
- Austria
- Prior art keywords
- coordinate
- determined
- cluster
- model
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 238000006073 displacement reaction Methods 0.000 claims 2
- 241000736839 Chara Species 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Zählung von Verkehrsteilnehmern, auf einer Verkehrsfläche (6) mit zwei auf diese Verkehrsfläche (6) ausgerichteten Sensoren (2a, 2b), wobei jedes Sensorpixel jedes Sensors bei Überschreitung eines Schwellenwerts durch die Änderungsrate der Lichtintensität ein elektrisches Signal abgibt.Erfindungsgemäß ist vorgesehen, dass für jedes Sensorpixel jedes Sensors ein Sehstrahl bestimmt wird, der den Aufnahmebereich des jeweiligen Sensorpixels charakterisiert, dass bei Vorliegen innerhalb eines vorgegebenen Zeitintervalls von zwei Address-Events, für die Sehstrahlen der beiden Sensorpixel ein Schnittpunkt gesucht wird, dass bei Vorliegen eines Schnittpunkts ein Punkt-Event generiert wird, dass für alle Punkt-Events, deren Generierungszeitpunkt innerhalb eines vorgegebenen Intervalls liegt, zusammenhängende Cluster von Ortspunkten der jeweiligen Punkt-Events bestimmt werden, dass vorgegebene Modelle mit dem Cluster verglichen werden und dass bei Ähnlichkeit für das jeweilige Modell ein Zähler inkrementiert wird.The invention relates to a method for counting road users on a traffic area (6) with two sensors (2a, 2b) aligned with said traffic area (6), each sensor pixel of each sensor outputting an electrical signal upon exceeding a threshold value by the rate of change of the light intensity According to the invention, it is provided that, for each sensor pixel of each sensor, a line of sight is determined which characterizes the receiving area of the respective sensor pixel, that, if present within a predetermined time interval of two address events, an intersecting point is sought for the visual beams of the two sensor pixels In the presence of an intersection, a point event is generated that, for all point events whose generation time is within a given interval, contiguous clusters of location points of the respective point events are determined, that predefined models are compared with the cluster, and that if similar for the respective model, a counter is incremented.
Description
österreichisches Patentamt AT507 877 B1 2012-11-15Austrian Patent Office AT507 877 B1 2012-11-15
Beschreibung [0001] Die Erfindung betrifft ein Verfahren zur Zählung von Verkehrsteilnehmern auf einer Verkehrsfläche gemäß dem Oberbegriff des Anspruchs 1.Description [0001] The invention relates to a method for counting road users on a traffic surface according to the preamble of claim 1.
[0002] Ferner betrifft die Erfindung eine Vorrichtung zur Zählung von Verkehrsteilnehmern mit dem Oberbegriff des Anspruchs 7.Furthermore, the invention relates to a device for counting road users with the preamble of claim 7.
[0003] Derartige Vorrichtungen werden insbesondere im Bereich der automatisierten Verkehrszählung und Überwachung eingesetzt.Such devices are used in particular in the field of automated traffic counting and monitoring.
[0004] Aufgabe der Erfindung ist es, individuellen nicht motorisierten Verkehr zu klassifizieren bzw. einzelne Personen bzw. Fahrräder voneinander zu unterscheiden. Aufgabe ist es weiters, eine Zählung dieser Verkehrsteilnehmer im fließenden Verkehr zu ermöglichen und für einzelne Klassen jeweils unterschiedlicher Verkehrsteilnehmer getrennt Zählungen durchzuführen. Insbesondere essenziell ist hierbei, dass Bewegungsartifakte, beispielsweise Schatten sowie teilweise Verdeckungen einzelner Objekte durch andere Objekte keinen Einfluss auf die Korrektheit der Zählung ausüben. Als Verkehr wird sowohl der Straßenverkehr auf Gehsteigen, Radwegen und Straßen sowie auch der Strom der Verkehrsteilnehmer auf privatem Grund, beispielsweise in Bahnhöfen, Fußballstadien usw. verstanden. Verkehrsteilnehmer sind Fußgänger, Radfahrer, Mopeds usw.The object of the invention is to classify individual non-motorized traffic or to distinguish individual persons or bicycles from each other. It is also a task to allow a count of these road users in flowing traffic and to perform separate counts for individual classes of different road users. In particular, it is essential here that movement artifacts, for example shadows as well as partial obscurations of individual objects by other objects have no influence on the correctness of the count. Traffic means both road traffic on pavements, cycle paths and roads, as well as the traffic of road users on private land, for example in railway stations, football stadiums, etc. Road users are pedestrians, cyclists, mopeds, etc.
[0005] Eine weitere Anforderung an die Erfindung besteht darin, dass der Datenverkehr zwischen den zur Aufnahme der einzelnen Verkehrsteilnehmer angeordneten Sensoren und den ihnen jeweils zugeordneten nachgeschalteten Verarbeitungseinheiten möglichst gering ist und ferner der Verarbeitungsaufwand in den Sensoren, wie auch in den Verarbeitungseinheiten möglichst gering gehalten wird.Another requirement of the invention is that the data traffic between the arranged for receiving the individual road users sensors and the respectively associated downstream processing units is as low as possible and also kept the processing costs in the sensors, as well as in the processing units as low as possible becomes.
[0006] Die Erfindung löst diese Aufgabe bei einem Verfahren der eingangs genannten Art mit den Merkmalen des Kennzeichens des Anspruchs 1.The invention solves this problem in a method of the type mentioned above with the features of the characterizing part of claim 1.
[0007] Die Erfindung löst diese Aufgabe bei einer Vorrichtung der eingangs genannten Art mit den Merkmalen des Kennzeichens des Anspruchs 7.The invention solves this problem in a device of the type mentioned above with the features of the characterizing part of claim 7.
[0008] Erfindungsgemäß wird mit einer die Anordnung zweier oder mehrerer neuromorpher, optisch-transienter Sensoren, eine dreidimensionale Aufnahme der einzelnen Verkehrsteilnehmer vorgenommen, sodass eine wirksame Unterscheidung zwischen einzelnen Personen unter Ausschluss der durch deren Schatten erzeugten Fehldetektionen vorgenommen werden kann. Die Verwendung neuromorpher Sensoren bedingt zum einen eine geringe Übertragungsrate zwischen den Sensoren und einer nachgeschalteten Auswerteeinheit und ermöglicht ein relativ einfaches Auffinden der Koordinatenwerte der einzelnen Verkehrsteilnehmer.According to the invention with a the arrangement of two or more neuromorphic, optical-transient sensors, a three-dimensional recording of the individual road users made so that an effective distinction between individuals can be made to the exclusion of the generated by their shadow misdetections. The use of neuromorphic sensors requires, on the one hand, a low transmission rate between the sensors and a downstream evaluation unit and makes it possible to locate the coordinate values of the individual road users relatively easily.
[0009] Anspruch 2 und Anspruch 6 ermöglichen einen einfach durchzuführenden Vergleich zwischen den mittels der Sensoren ermittelten und von den Verkehrsteilnehmer abgeleiteten Eingangsdaten mit einem Modell, das in Form einer abgespeicherten Punktwolke vorliegt.Claim 2 and claim 6 allow a simple comparison to be made between the determined by the sensors and derived from the road user input data with a model that is in the form of a stored point cloud.
[0010] Eine weitere Verbesserung, welche die Zuordnung einer aufgezeichneten Punktwolke zu einem Modell erleichtert wird mit den Merkmalen des Kennzeichens der Ansprüche 3 und 11 erzielt.A further improvement, which facilitates the assignment of a recorded point cloud to a model is achieved with the features of the characterizing part of claims 3 and 11.
[0011] Eine einfache Kalibrierungsmethode des erfindungsgemäßen Verfahrens wird durch die Merkmale des Kennzeichens des Anspruchs 4 erzielt.A simple calibration method of the method according to the invention is achieved by the features of the characterizing part of claim 4.
[0012] Eine Maßnahme zur weiteren Validierung der Daten bzw. eine Vorrichtung zur Durchführung dieser Validierung wird durch die Merkmale der Ansprüche 5 und 9 beschrieben.A measure for the further validation of the data or a device for carrying out this validation is described by the features of claims 5 and 9.
[0013] Hierbei wird die Geschwindigkeit der Verkehrsteilnehmer ermittelt, mit typischen Werten nicht motorisierter Verkehrsteilnehmer verglichen und anschließend eine zusätzliche Indikation für die Zuordnung von Clustern zu Modellen bestimmt.Here, the speed of the road users is determined, compared with typical values of non-motorized road users and then determines an additional indication for the assignment of clusters to models.
[0014] Eine weitere zusätzliche Indikation für die Zuordnung von Clustern zu Modellen wird 1 /11Another additional indication for the assignment of clusters to models is 1/11
österreichisches Patentamt AT507 877B1 2012-11-15 gemäß den Merkmalen der Kennzeichen der Ansprüche 6 und 10 bestimmt, wobei in diesem Fall Länge und Breite des beobachteten Verkehrsteilnehmers mit der Länge und der Breite von durchschnittlichen oder typischen Verkehrsteilnehmern verglichen werden und darauf basierend eine Klassifikation vorgenommen wird.Austrian Patent Office AT507 877B1 2012-11-15 determined according to the features of the characteristics of claims 6 and 10, in which case the length and width of the observed road user with the length and width of average or typical road users are compared and based on a classification made becomes.
[0015] Fig. 1 zeigt eine schematische Darstellung einer erfindungsgemäßenFig. 1 shows a schematic representation of an inventive
Vorrichtung in Vorderansicht.Device in front view.
[0016] Die Fig. 2a und 2b zeigen Punktwolken eines Fahrradfahrers bzw. eines Fußgängers.2a and 2b show point clouds of a cyclist or a pedestrian.
[0017] Die Fig. 3 zeigt das Blockschaltbild einer erfindungsgemäßen Vorrichtung.Fig. 3 shows the block diagram of a device according to the invention.
[0018] Fig. 4 zeigt eine vorteilhafte Ausgestaltung der Vergleichseinheit.Fig. 4 shows an advantageous embodiment of the comparison unit.
[0019] Die in Fig. 1 schematisch dargestellte erfindungsgemäße Vorrichtung registriert Verkehrsteilnehmer, die sich im Aufnahmebereich von zumindest zwei Sensoren befinden. Das erfindungsgemäße Aufzeichnungsverfahren eignet sich insbesondere zur Erfassung und Zählung von nicht motorisierten Verkehrsteilnehmern, wie z.B. Fußgängern 4 und Radfahrern 5. Die Verkehrsteilnehmer werden hierbei im Bereich einer Verkehrsfläche mit einer Anzahl von zumindest zwei im Bereich dieser Verkehrsfläche 6 angeordneten und auf diese Verkehrsfläche 6 ausgerichteten Sensoren 2 erfasst. Hierbei umfasst jeder Aufnahmebereich 21a, 21b jedes der Sensoren 2a, 2b die gesamte zu beobachtende Verkehrsfläche 6. In Fig. 1 ist der Schnittbereich 21 der Aufnahmebereiche 21a, 21b der beiden Sensoren 2a und 2b dargestellt, wobei sich der Schnittbereich 21 über die gesamte Verkehrsfläche 6 erstreckt. Ist eine zu überwachende Verkehrsfläche 6 hingegen vorgegeben, können die Sensoren 2 derart angeordnet werden, dass der Schnittbereich 21 der einzelnen Aufnahmebereiche 21a, 21b der Sensoren 2a und 2b die gesamte Verkehrsfläche 6 umfasst.The device according to the invention shown schematically in Fig. 1 registers road users who are in the receiving area of at least two sensors. The recording method according to the invention is particularly suitable for detecting and counting non-motorized road users, e.g. Pedestrians 4 and cyclists 5. In this case, the road users are detected in the area of a traffic area with a number of at least two sensors 2 arranged in the area of this traffic area 6 and aligned with this traffic area 6. In this case, each receiving area 21a, 21b of each of the sensors 2a, 2b comprises the entire traffic area 6 to be observed. FIG. 1 shows the intersection area 21 of the receiving areas 21a, 21b of the two sensors 2a and 2b, with the intersection area 21 over the entire traffic area 6 extends. If, however, a traffic area 6 to be monitored is predetermined, the sensors 2 can be arranged such that the intersection area 21 of the individual receiving areas 21a, 21b of the sensors 2a and 2b encompasses the entire traffic area 6.
[0020] Jeder der Sensoren 2 ist hierbei vorteilhafterweise als optische kameraähnliche Vorrichtung ausgebildet, wobei jeder Sensor 2 jeweils eine Anzahl von in Form eines zweidimensionalen Arrays angeordneten Sensorpixel umfasst. Die einzelnen Sensorpixel sind hierbei in Form eines neuromorphen optischen Sensors ausgebildet. Hierbei gibt jedes Sensorpixel jedes einzelnen Sensors bei Überschreitung oder Unterschreitung eines Schwellenwerts der Änderungsrate der von ihm aufgenommenen Lichtintensität ein elektrisches Signal entsprechend einem vorgegebenen Address-Event Protokoll abgibt.Each of the sensors 2 is advantageously designed as an optical camera-like device, each sensor 2 each having a number of sensor pixels arranged in the form of a two-dimensional array. The individual sensor pixels are in the form of a neuromorphic optical sensor. In this case, each sensor pixel of each individual sensor outputs an electrical signal corresponding to a predetermined address-event protocol when it exceeds or falls below a threshold value of the rate of change of the light intensity received by it.
[0021] Ein wesentlicher Vorteil der erfindungsgemäßen Anordnung gegenüber einer herkömmlichen Stereo-Kamerakonfiguration ergibt sich dadurch, dass aufgrund der transienten Pixelsensoren die Menge der anfallenden Daten enorm reduziert wird. Wie in Fig. 3 dargestellt, geben die beiden Sensoren 2a, 2b die Koordinaten derjenigen Pixel in Form von Address-Events oder Signalen ab, welche eine Überschreitung oder Unterschreitung eines Schwellenwerts der Änderungsrate der von ihm aufgenommenen Lichtintensität detektieren.A significant advantage of the arrangement according to the invention over a conventional stereo camera configuration results from the fact that due to the transient pixel sensors, the amount of data generated is greatly reduced. As shown in Fig. 3, the two sensors 2a, 2b, the coordinates of those pixels in the form of address events or signals from which detect an exceeding or falling below a threshold value of the rate of change of the recorded light intensity.
[0022] Zur Ermittlung der Position eines bewegten Objekts im Raum von dreidimensionalen Punkten mittels Triangulation ist vorgesehen, dass jedem Sensorpixel jedes Sensors ein Sehstrahl zugeordnet ist, der den Aufnahmebereich des jeweiligen Sensorpixels charakterisiert. Der Aufnahmebereich eines Sensorpixels ist üblicherweise ein durch die Lage des Sensorpixels sowie durch die Optik des jeweiligen Sensors festgelegter Bereich des dreidimensionalen Raums, welcher alle diejenigen Punkte des dreidimensionalen Raums umfasst, die für das jeweilige Sensorpixel sichtbar sind. Beispielsweise kann der Sehstrahl in Form einer Schwerlinie des näherungsweise konischen Aufnahmebereichs des jeweiligen Sensorpixels gewählt werden. Der Sehstrahl wird bei allen Pixeln in gleicher Weise festgelegt. Alternativ kann ein Sehstrahl auch am Rand des Aufnahmebereichs, beispielsweise entlang des Mantels des Aufnahmebereichs, gewählt werden.To determine the position of a moving object in the space of three-dimensional points by means of triangulation, it is provided that each sensor pixel of each sensor is associated with a line of sight which characterizes the receiving area of the respective sensor pixel. The receiving area of a sensor pixel is usually a region of the three-dimensional space which is defined by the position of the sensor pixel and by the optics of the respective sensor and which comprises all those points of the three-dimensional space that are visible for the respective sensor pixel. For example, the line of sight can be selected in the form of a line of gravity of the approximately conical reception area of the respective sensor pixel. The line of sight is set in the same way for all pixels. Alternatively, a line of sight can also be selected at the edge of the receiving area, for example along the mantle of the receiving area.
[0023] Die einzelnen Ausgänge aller Sensoren 2 sind an den Eingang einer Punkterzeugungseinheit 24 geführt. Diese Punkterzeugungseinheit 24 generiert genau dann ein Punkt-Event, wenn innerhalb eines vorgegebenen Zeitintervalls zwei Address-Events vorliegen, die von Sensorpixeln zweier unterschiedlicher Sensoren 2 erzeugt worden sind, wenn die Sehstrahlen der beiden Sensorpixel einen gemeinsamen Schnittpunkt aufweisen. Die Punkterzeugungsein- 2/11 österreichisches Patentamt AT507 877 B1 2012-11-15 heit 24 sucht zu diesem Zweck den Schnittpunkt der beiden Sehstrahlen, beispielsweise mittels eines linearen Lösungsverfahrens. Kann ein gemeinsamer Schnittpunkt festgestellt werden, wird ein Punkt-Event generiert, das den Zeitpunkt innerhalb des Zeitintervalls der Aufzeichnung der beiden Address-Events sowie weiters die Koordinaten des Schnittpunktes der beiden Sehstrahlen enthält. Die einzelnen so ermittelten Schnittpunkte liegen jeweils am Ausgang der Punkterzeugungseinheit 24 vor.The individual outputs of all sensors 2 are guided to the input of a dot generating unit 24. This point generation unit 24 generates a point event if and only if within a predetermined time interval there are two address events which have been generated by sensor pixels of two different sensors 2, if the visual beams of the two sensor pixels have a common point of intersection. For this purpose, the dot-creation unit 24 searches for the point of intersection of the two visual rays, for example by means of a linear solution method. If a common point of intersection can be determined, a point event is generated which contains the time within the time interval of the recording of the two address events as well as the coordinates of the intersection point of the two visual rays. The individual intersections thus determined are each available at the output of the dot generation unit 24.
[0024] Allenfalls kann auch bei windschiefen Stehstrahlen mit einem einen Schwellwert unterschreitenden Abstand ein gleichsam als Schnittpunkt fungierender Punkt ermittelt werden, insbesondere derjenige Punkt, der von beiden Sehstrahlen den geringsten Abstand aufweist. Alternativ kann auch vorgesehen werden, dass die den einzelnen Pixel zugeordneten Aufnahmebereiche miteinander geschnitten werden und bei nicht leerer Schnittmenge der Aufnahmebereich zweier Pixel ein Punkt-Event mit Koordinatenwerten eines Punktes innerhalb der Schnittmenge generiert wird.At best, even with skewed standing rays with a threshold below a distance as it were acting as a point of intersection point can be determined, in particular that point which has the least distance from both visual rays. Alternatively, it can also be provided that the recording areas assigned to the individual pixels are cut with one another and a point event with coordinate values of a point within the intersection is generated when the intersection of the two pixels is not empty.
[0025] Der Punkterzeugungseinheit 24 ist eine Clustering-Einheit 25 nachgeschaltet, die zunächst all jene Punkte zusammenfasst, deren Generierungszeitpunkt innerhalb eines vorgegebenen zeitlichen Intervalls liegt. Auf diese innerhalb eines vorgegebenen Intervalls erzeugten Punkt-Events wird ein Clustering-Verfahren angewendet.The dot generation unit 24 is followed by a clustering unit 25, which first summarizes all points whose generation time is within a predetermined time interval. A clustering procedure is applied to these point events generated within a predetermined interval.
[0026] Der Clustering-Einheit 25 ist eine Vergleichseinheit 26 nachgeschaltet, die den jeweiligen ermittelten Cluster mit einer Anzahl von abgespeicherten Modellen vergleicht. Diese abgespeicherten, vorgegebenen Modelle werden mit dem jeweiligen Cluster verglichen. Es wird ein Abweichungswert Δ zwischen jedem ermittelten Cluster und jedem Modell ermittelt. Zu diesem Zweck liegen die die Modelle in Form von abgespeicherten Clustern vor. Zur Überprüfung der Übereinstimmung zwischen einem Cluster und einem Modell wird für jeden Punkt des Clusters des Modells derjenige Punkt des Clusters ermittelt, der zum jeweiligen Punkt des Clusters des Modells den geringsten Abstand aufweist. Dann wird ein Abweichungswert Δ bestimmt, der sich als Summe der geringsten Abstände bzw. Absolut-Abstände, nämlich der Beträge der geringste Abstände, oder der Quadrate der geringsten Abstände ermittelt.The clustering unit 25 is followed by a comparison unit 26, which compares the respective determined cluster with a number of stored models. These stored, predetermined models are compared with the respective cluster. A deviation value Δ between each determined cluster and each model is determined. For this purpose, the models are in the form of stored clusters. To check the correspondence between a cluster and a model, for each point of the cluster of the model, the point of the cluster that has the smallest distance to the respective point of the cluster of the model is determined. Then, a deviation value Δ is determined, which is determined as the sum of the smallest distances or absolute distances, namely the amounts of the smallest distances, or the squares of the smallest distances.
[0027] Anschließend wird der von der Vergleichseinheit 26 abgegebene Abweichungswert Δ einer Schwellenwerteinheit 27 zuführt, wobei der Abweichungswert Δ von dieser mit einem vorgegebenen Schwellenwert verglichen wird. Bei Unterschreitung des Schwellenwerts durch den Abweichungswert gilt ein Verkehrsteilnehmer 4, 5 als erkannt. Dem Verkehrsteilnehmer 4, 5 wird derjenige Cluster zugeordnet, dessen Vergleich mit dem Model zu dem den Schwellenwert unterschreitenden Vergleichswert geführt hat.Subsequently, the deviation value Δ delivered by the comparison unit 26 is supplied to a threshold value unit 27, the deviation value Δ being compared therefrom with a predetermined threshold value. When the threshold value is undershot by the deviation value, a road user 4, 5 is considered recognized. The traffic participant 4, 5 is assigned the one cluster whose comparison with the model has led to the comparison value that falls below the threshold value.
[0028] Zur weiteren Verarbeitung der aufgezeichneten Daten eines Verkehrsteilnehmers 4, 5 wird ein eindeutiger Schlüssel vergeben, dem sowohl der oben beschriebene Cluster als auch eine Kennung des Vergleichsmodels zugeordnet wird. Hiermit liegt ein Datensatz vor, der den Cluster umfasst, der durch die Aufzeichnung einer Person ermittelt worden ist, sowie dasjenige Modell, welches am besten mit diesem Cluster übereinstimmt. Durch einen der Schwellenwerteinheit 27 nachgeschalteten Zähler 28 können beispielsweise sämtliche Fußgänger 4 ermittelt werden, die innerhalb eines Tages die übenwachte Verkehrsfläche 6 passieren. Insbesondere kann eine getrennte Zählung einer Vielzahl unterschiedlicher durch einzelne Modelle beschriebenen Verkehrsteilnehmer 4, 5 erreicht werden. So ist mit der selben erfindungsgemäßen Vorgangsweise eine gleichzeitige Erfassung des gesamten Individualverkehrs umfassend Fußgänger 4, Radfahrer 5, Personen mit Kleinkindern, Fahrräder mit Anhängern, Personen mit Regenschirmen, etc. möglich. Zudem kann eine Häufigkeitsverteilung errechnet werden, welche beispielsweise mit verkehrsleitenden Einrichtungen in Verbindung gesetzt werden kann.For further processing of the recorded data of a road user 4, 5 a unique key is assigned to which both the cluster described above and an identifier of the comparison model is assigned. This is a record that includes the cluster identified by a person's record and the model that best matches that cluster. By means of a counter 28 connected downstream of the threshold value unit 27, for example, all pedestrians 4 can be ascertained which pass through the monitored traffic area 6 within one day. In particular, a separate count of a plurality of different road users 4, 5 described by individual models can be achieved. Thus, with the same inventive approach, a simultaneous detection of the entire individual traffic including pedestrians 4, cyclists 5, people with small children, bicycles with trailers, people with umbrellas, etc. possible. In addition, a frequency distribution can be calculated which, for example, can be connected with traffic-guiding devices.
[0029] Eine besonders vorteilhafte Vergleichsmethode zwischen einer von der Clustering-Einheit 25 aufgezeichneten Punktwolke und einem abgespeicherten Modell besteht darin, dass das Modell gegenüber dem durch Aufnahme ermittelten Cluster solange verschoben wird, bis ein minimaler Abweichungswert Δ erzielt wird und dieser minimale Abweichungswert für die weiteren Berechnungen herangezogen wird. Ein derartiges Vorgehen ist insbesondere dadurch begründet, dass die aufgezeichneten Cluster im Verlauf der Bewegung des Verkehrsteilneh- 3/11 österreichisches Patentamt AT507 877B1 2012-11-15 mers gegenüber der Verkehrsfläche jeweils eine unterschiedliche Position einnehmen. Durch die Verschiebung wird erreicht, dass das Modell jeweils mit dem von der Person abgeleitete Cluster bestmöglich zur Deckung gebracht wird und somit ein bestmöglicher Modellvergleich erzielt wird.A particularly advantageous comparison method between a point cloud recorded by the clustering unit 25 and a stored model is that the model is shifted relative to the cluster determined by recording until a minimum deviation value Δ is achieved and this minimum deviation value for the further calculations is used. Such a procedure is based, in particular, on the fact that the recorded clusters each occupy a different position in the course of the movement of the traffic participant in relation to the traffic area. The shift ensures that the model is matched as closely as possible with the cluster derived from the individual and thus the best possible model comparison is achieved.
[0030] Eine bevorzugte Ausführungsform der Erfindung sieht vor, dass Modelle in Form von Clustern mittels einer Referenzaufnahme erzeugt werden. Hierbei bewegt sich ein Verkehrsteilnehmer 4, 5 auf einer Verkehrsfläche 6, wobei im Zuge seiner Bewegung mittels des erfindungsgemäßen Verfahrens ein Cluster aufgezeichnet wird. Der Cluster der am Ausgang der Clusteringeinheit 25 anliegt, wird für diesen speziellen Fall dem Speicher 261 zugeführt, und der Cluster im Speicher 261 abgelegt und diesem Cluster eine Kennung zugeordnet. Durch diese Vorgangsweise ist es auch möglich, im laufenden Betrieb der erfindungsgemäßen Vorrichtung weitere Modelle hinzuzufügen bzw. nicht mit Modellen in Übereinstimmung gebrachte Cluster als neue Modelle dem Modellspeicher 261 hinzuzufügen.A preferred embodiment of the invention provides that models are generated in the form of clusters by means of a reference recording. Here, a road user 4, 5 moves on a traffic area 6, wherein in the course of its movement by means of the method according to the invention, a cluster is recorded. The cluster which is present at the output of the clustering unit 25 is supplied to the memory 261 for this special case, and the cluster is stored in the memory 261 and assigned an identifier to this cluster. As a result of this procedure, it is also possible to add additional models during operation of the device according to the invention or to add clusters not matched with models as model models to the model memory 261.
[0031] Eine zusätzliche Indikation für die Zuordnung von Clustern zu Modellen wird dadurch erreicht, dass für jeden einzelnen Typ von Verkehrsteilnehmern 4, 5 eine durchschnittliche Geschwindigkeit bestimmt wird. So können beispielsweise Detektion von als Fußgänger 4 detektiert ausgeschlossen werden, wenn diese sich mit einer Geschwindigkeit von 20 km/h oder mehr bewegen. Zu diesem Zweck wird der für das Clusteringverfahren verwendete Ortsraum derart festgelegt, dass eine erste Koordinatenrichtung z senkrecht zur beobachteten Verkehrsfläche 6 gewählt wird, eine zweite Koordinatenrichtung y in Richtung des typischerweise verlaufenden Verkehrs gewählt wird und eine dritte Koordinatenrichtung normal zu den beiden übrigen Koordinatenrichtungen gewählt wird. Werden nun vom selben Verkehrsteilnehmer 4, 5 für zwei zeitlich beabstandete Intervalle Cluster aufgenommen, werden aus beiden Clustern jeweils die maximalen oder minimalen Koordinatenwerte in Richtung der zweiten Koordinate y ermittelt. Ferner wird diejenige Zeitspanne dt ermittelt, die zwischen der Aufzeichnung der beiden Cluster liegt. Anschließend wird die Differenz der maximalen Koordinatenwerte der beiden Cluster dy gebildet und die Geschwindigkeit als Quotient v = —, somit als Verhältnis zwischen der Diffe- dt renz dy der maximalen zweiten dt Koordinatenwerte der beiden Cluster und der Zeitspanne dt, bestimmt.An additional indication for the assignment of clusters to models is achieved in that an average speed is determined for each individual type of road users 4, 5. For example, detection of pedestrian 4 detections may be excluded as they move at a speed of 20 km / h or more. For this purpose, the space used for the clustering method is determined such that a first coordinate direction z is selected perpendicular to the observed traffic surface 6, a second coordinate direction y is selected in the direction of the typically running traffic and a third coordinate direction is selected normal to the two remaining coordinate directions , If clusters are now taken by the same road user 4, 5 for two time-separated intervals, the maximum or minimum coordinate values in the direction of the second coordinate y are respectively determined from the two clusters. Furthermore, the time span dt which lies between the recording of the two clusters is determined. Subsequently, the difference between the maximum coordinate values of the two clusters dy is formed and the velocity is determined as the quotient v = -, thus as the ratio between the difference dy of the maximum second dt coordinate values of the two clusters and the time span dt.
[0032] Ferner kann die Geschwindigkeit eines Verkehrsteilnehmers auch in Richtung der dritten Koordinate x bestimmt werden. Bei schiefstehender Kameraanordnung kann durch die Festlegung zweier korrelierender Geschwindigkeiten in x- bzw. y-Richtung eine zusätzliche Indikation getroffen werden. Ferner besteht die Möglichkeit, die Verkehrsfläche querende, das heißt sich quer bzw. normal zur bevorzugten Bewegungsrichtung bewegende Verkehrsteilnehmer getrennt zu erfassen.Furthermore, the speed of a road user can also be determined in the direction of the third coordinate x. When the camera arrangement is at an angle, an additional indication can be made by defining two correlating speeds in the x and y directions. It is also possible to detect the traffic surface crossing, that is, transversely or normal to the preferred direction of motion moving road users separated.
[0033] Diese zusätzliche Indikation für die Zuordnung von Clustern zu Modellen kann zur Verifikation von zuvor ermittelten Übereinstimmungen herangezogen werden.This additional indication for the assignment of clusters to models can be used for the verification of previously determined matches.
[0034] Ein weiteres Verfahren, mit dem eine zusätzliche Indikation für die Zuordnung von Clustern und Modellen ermittelt wird, liegt darin, die maximalen Abmessungen des aufgezeichneten Verkehrsteilnehmers zu bestimmen. Analog zur Geschwindigkeitsrichtung wird der Ortsraum orientiert, indem eine erste Koordinatenrichtung senkrecht zur beobachtenden Verkehrsfläche gewählt wird, eine zweite Koordinatenrichtung in Richtung des typischenweise verlaufenden Verkehrs gewählt wird und die dritte Koordinatenrichtung normal zu den übrigen Koordinatenrichtungen gewählt wird. Für jeden ermittelten Cluster können jeweils die Breite als Differenz Dx zwischen dem maximalen und dem minimalen Koordinatenwert in Richtung der dritten Koordinate x und/oder die Länge des Clusters als die Differenz Dy zwischen dem maximalen und dem minimalen Koordinatenwert in Richtung der zweiten Koordinate y ermittelt werden. Auf diese Weise kann eine einfache Abschätzung der Länge und/oder der Breite des jeweiligen Objekts getroffen werden, was die Zuverlässigkeit der Zuordnung von Clustern zu Modellen weiter verbessern kann.Another method, with which an additional indication for the allocation of clusters and models is determined, is to determine the maximum dimensions of the recorded road user. Analogous to the speed direction, the location space is oriented by selecting a first coordinate direction perpendicular to the observing traffic area, choosing a second coordinate direction in the direction of the typically running traffic, and choosing the third coordinate direction normal to the remaining coordinate directions. For each determined cluster, the width can be determined in each case as the difference Dx between the maximum and the minimum coordinate value in the direction of the third coordinate x and / or the length of the cluster as the difference Dy between the maximum and the minimum coordinate value in the direction of the second coordinate y , In this way, a simple estimation of the length and / or the width of the respective object can be made, which can further improve the reliability of the assignment of clusters to models.
[0035] Zur Bestimmung dieser zusätzlichen Indikationen wird eine Positionsbestimmungseinheit 4/11To determine these additional indications, a position determining unit 4/11
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA160/2009A AT507877B1 (en) | 2009-01-29 | 2009-01-29 | METHOD FOR COUNTING TRANSPORT PARTICIPANTS |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA160/2009A AT507877B1 (en) | 2009-01-29 | 2009-01-29 | METHOD FOR COUNTING TRANSPORT PARTICIPANTS |
Publications (2)
Publication Number | Publication Date |
---|---|
AT507877A1 AT507877A1 (en) | 2010-08-15 |
AT507877B1 true AT507877B1 (en) | 2012-11-15 |
Family
ID=42537220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ATA160/2009A AT507877B1 (en) | 2009-01-29 | 2009-01-29 | METHOD FOR COUNTING TRANSPORT PARTICIPANTS |
Country Status (1)
Country | Link |
---|---|
AT (1) | AT507877B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070225895A1 (en) * | 2006-03-23 | 2007-09-27 | Ma Xin-Yu | Method and system for detecting traffic information |
-
2009
- 2009-01-29 AT ATA160/2009A patent/AT507877B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070225895A1 (en) * | 2006-03-23 | 2007-09-27 | Ma Xin-Yu | Method and system for detecting traffic information |
Non-Patent Citations (1)
Title |
---|
Litzenberger, M. et al., Embedded Smart Camera for High Speed Vision. Distributed Smart Cameras, 2007. ICDSC '07. First ACM/IEEE International Conference on, 20070901, Seiten 81-86 * |
Also Published As
Publication number | Publication date |
---|---|
AT507877A1 (en) | 2010-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1224632B1 (en) | Detection device | |
EP3044759B1 (en) | Method for analysis of the spatial expansion of free queues | |
DE102011011929A1 (en) | Method for detecting target objects in a surveillance area | |
DE102015206936A1 (en) | Method and device for detecting obstacles in the travel path of a motor vehicle | |
WO2008034434A1 (en) | Arrangement and method for recognising and classifying preferably hidden objects in object and/or human traffic | |
DE102012106860A1 (en) | Device and method for identifying and documenting at least one object passing through a radiation field | |
EP1517150B1 (en) | Method for the determination of a three-dimensional velocity field in a volume | |
DE102013217915A1 (en) | Method and device for object recognition from depth-resolved image data | |
DE102013104425B3 (en) | Method for recording speed violations with restrictive data storage | |
EP1932017A1 (en) | Device and method for recording distance images | |
DE3030229A1 (en) | Moving object detection, identification and speed measurement - by correlation of signals corresp. to ambient reflected light and stored reference value | |
DE102009033853A1 (en) | Driver assistance system operating method for car, involves determining complexity of traffic situation, determining reliability of sensor data, and merging sensor data in dependence of determined reliability | |
DE102004026090A1 (en) | Three dimensional object measurement system has video sensor and laser used for distance measurement in alternate clock intervals | |
AT507877B1 (en) | METHOD FOR COUNTING TRANSPORT PARTICIPANTS | |
DE102007041333A1 (en) | Target object i.e. person, contactless counting method for e.g. determination of actual load of production facility, involves identifying breakage or turning of graphical cluster in direction of time axis as object passing area | |
DE102007008002A1 (en) | Method and device for non-contact determination of lateral offset from straight-line orientation | |
DE102014108924A1 (en) | A semi-supervised procedure for training an auxiliary model to recognize and capture multiple patterns | |
EP3877778A1 (en) | Device and method for distinguishing between and counting persons and objects | |
EP3877777A1 (en) | Device and method for differentiating between and counting persons and objects | |
DE102006039832B9 (en) | Method and device for locating and distinguishing persons, animals or vehicles by means of automatic image monitoring of digital or digitized images | |
DE102018007323A1 (en) | Control device for an entrance and exit | |
DE102019212021B4 (en) | Method and device for detecting a parallax problem in sensor data from two sensors | |
AT517658A1 (en) | System for recording vehicle side views | |
DE102019212022A1 (en) | Method and device for determining a parallax problem in sensor data from two sensors | |
EP2902963A1 (en) | Method for producing an image of an object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM01 | Lapse because of not paying annual fees |
Effective date: 20200129 |