DE102010012811B4 - Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten - Google Patents

Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten Download PDF

Info

Publication number
DE102010012811B4
DE102010012811B4 DE102010012811A DE102010012811A DE102010012811B4 DE 102010012811 B4 DE102010012811 B4 DE 102010012811B4 DE 102010012811 A DE102010012811 A DE 102010012811A DE 102010012811 A DE102010012811 A DE 102010012811A DE 102010012811 B4 DE102010012811 B4 DE 102010012811B4
Authority
DE
Germany
Prior art keywords
sensor
tracking
vehicle
data
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010012811A
Other languages
English (en)
Other versions
DE102010012811A1 (de
Inventor
Dr. Lehning Michael
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jenoptik Robot GmbH
Original Assignee
Jenoptik Robot GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jenoptik Robot GmbH filed Critical Jenoptik Robot GmbH
Priority to DE102010012811A priority Critical patent/DE102010012811B4/de
Publication of DE102010012811A1 publication Critical patent/DE102010012811A1/de
Application granted granted Critical
Publication of DE102010012811B4 publication Critical patent/DE102010012811B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • G01S13/92Radar or analogous systems specially adapted for specific applications for traffic control for velocity measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders

Abstract

Verfahren zur Messung von Geschwindigkeiten und Zuordnung gemessener Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten, bei dem Fahrzeuge einen ersten Sensorbereich eines ersten objekt-trackenden Sensors durchfahren und zu mehreren vorgegebenen Messzeitpunkten Messdaten zur Geschwindigkeit und zur Position der Fahrzeuge, bezogen auf ein durch den ersten objekt-trackenden Sensor definiertes Sensor-Koordinatensystem, mit einer Bezugsachse bestimmt durch eine erste Sensorachse, erfasst werden, dadurch gekennzeichnet, dass von einem bild-trackenden Sensor, nämlich einer Videokamera (3) mit einem Matrixsensor, der ein Kamera-Koordinatensystem definiert, dessen z-Achse durch die Kameraachse (3.1) bestimmt ist, Aufnahmen vom Objektfeld der Videokamera (3) zu mehreren vorgegebenen Aufnahmezeitpunkten erzeugt werden, wobei der erste Sensor und die Videokamera (3) zueinander so ausgerichtet werden, dass sich der erste Sensorbereich und der Objektbereich wenigstens teilweise überlappen, um einen gemeinsamen Überwachungsbereich (5) zu bilden, wobei die Relativlage zwischen dem ersten Sensor-Koordinatensystem und dem Kamera-Koordinatensystem bekannt ist, und ein zweiter bild-trackender Sensor vorhanden ist, so dass die beiden bild-trackenden Sensoren über bekannte Verfahren der Stereoskopie ein dreidimensionales Tiefenbild liefern und aus den Aufnahmen Messdaten der Position der abgebildeten Fahrzeuge ermittelt werden, die mit den Messdaten des ersten Sensors auf Korrelation überprüft werden und gegebenenfalls, während das Fahrzeug den gemeinsamen Überwachungsbereich (5) durchfährt, in die Aufnahmen jeweils auf ein abgebildetes Fahrzeug eine teilweise überdeckende Markierung eingeblendet wird, die wenigstens die Messdaten der Geschwindigkeit darstellt, die von dem betreffenden Fahrzeug gemessen wurde.

Description

  • In der Verkehrsüberwachung sind invasive und nicht-invasive Sensoren bekannt, die den Straßenverkehr in einem engen Überwachungsbereich, z. B. nur eine Fahrbahn überdeckend, innerhalb eines Straßenabschnittes überwachen (z. B. Induktionsschleifen, Piezostreifen, Lasersensoren, Radarsensoren). Eine Zuordnung der erfassten Messdaten, zu einem diese verursachenden Objekt, ist dadurch weniger problematisch.
  • In den letzten Jahren haben sich vermehrt nicht-invasive Sensoren etabliert, die einen weiten Überwachungsbereich, z. B. mehrere Fahrbahnen, innerhalb eines Straßenabschnittes abdecken. Um die erfassten Messdaten einem diese verursachenden Objekt zuzuordnen werden die den Überwachungsbereich durchfahrenden Objekte getrackt (z. B. EP 2 048 515 A1 oder DE 10 2007 038 364 A1 ). Unter dem Begriff „tracken” soll im Sinne der Erfindung ganz allgemein das wiederholte Erfassen von sich ändernden Positionsdaten verstanden werden. Die beim Tracken eines Objektes erhaltenen Trackingdaten sind eine Folge von Messdaten, einschließlich Positionsdaten, die jeweils einzelnen Messzeitpunkten zugeordnet sind, wobei der Abstand der Messzeitpunkte von der Wiederholfrequenz des Anmessens bzw. des Erfassens bestimmt ist. Die Trackingdaten eines durch einen Überwachungsbereich fahrenden Objektes beschreiben die Fahrspur, die das Objekt beim Durchfahren des Überwachungsbereiches beschreibt, womit die Trackingdaten zur Identifikation des angemessenen Objektes verwendet werden können. Üblicherweise kann z. B. über die Kenntnis der Fahrspur, das Fahrzeug einer bestimmten Fahrbahn zugeordnet werden und somit in einer Bildaufnahme einer Verkehrsszene identifiziert werden.
  • Welche Messdaten pro Messzeitpunkt gewonnen werden, hängt vom Typ des Messsensors ab.
  • Unter dem Begriff: „Messdaten” sollen im Sinne der Erfindung nicht nur die Daten verstanden werden, die durch das unmittelbare Anmessen gewonnen werden, sondern auch solche, die aus den unmittelbar durch Anmessen gewonnenen Daten rechnerisch abgeleitet werden können. Zum Tracking geeignete Sensoren sind solche Sensoren, die die Position und deren Änderung erfassen können, wie Radarsensoren, Laserscanner und Videokameras mit zweidimensional angeordneten lichtempfindlichen Empfängerelementen, auch Matrixempfänger genannt, wie z. B. CCD- oder C-MOS-Sensoren.
  • Bei einem Radarsensor werden – unabhängig davon, ob es sich um ein Pulsradarsensor oder ein Dauerradarsensor handelt – sehr genaue Messdaten für die Geschwindigkeit der angemessenen Objekte gewonnen, hingegen sind die für das Objekt gewonnenen Positionsdaten, bezogen auf den Standort des Radarsensors, bestimmt durch einen Winkel zur Radarachse (bei einem mehrzielfähigen Radarsensor) und eine Entfernung ungenau, aufgrund der nur ungenauen Entfernungsermittlung wie sie mit Radartechnik grundsätzlich nur erreichbar ist, da die Radarstrahlung aufgrund ihrer keulenförmigen Ausbreitung großflächig reflektiert wird. Aufgrund der nur unscharfen Positionsermittlung kann es passieren, dass zwei dicht nebeneinander fahrende Objekte nicht sicher aufgelöst werden können. Das heißt, dass die erfassten Geschwindigkeitsmesswerte nicht sicher einem Objekt über dessen gesamte Durchfahrt zugeordnet werden können. Messdaten zur Geometrie oder der Größe des Objektes können aus mit Radartechnik erhaltenen Messwerten nur mit geringerer Zuverlässigkeit gewonnen werden. Die von einem Radarsensor ausgesendete Radarstrahlung bildet wie bereits erwähnt eine räumliche Radarkeule. Je nachdem wie der Radarsensor zu einem zu überwachenden Straßenabschnitt positioniert wird, wird ein Überwachungsbereich von der Radarkeule abgedeckt. Ein sehr großer Überwachungsbereich kann abgedeckt werden, wenn der Radarsensor seitlich des Straßenabschnittes einen Winkel mit dem Fahrbahnrand der Straße aufgestellt wird. Nachteilig ist hier, dass bei starkem Verkehr einzelne den Überwachungsbereich durchfahrende Objekte nicht oder nur unzureichend erfasst werden, da sie von anderen verdeckt werden. Indem der Radarsensor deutlich oberhalb der Straßenoberfläche montiert wird, kann zwar die Gefahr des Verdeckens verringert werden, jedoch wird der Überwachungsbereich verhältnismäßig kleiner und die Messdaten insgesamt vergleichsweise ungenauer, da die Veränderung der Positionsdaten über die Zeit und damit deren Auflösung geringer wird.
  • Mit einem Laserscanner können grundsätzlich aufgrund der hohen Richtcharakteristik des Laserstrahls sehr genaue Positionsdaten, bezogen auf den Standort des Laserscanners sowie die Geschwindigkeit eines Objektes gewonnen werden. Da jedoch während eines Scans, der mit einer Geschwindigkeit erfolgt, gegenüber der die Geschwindigkeit, mit der sich das Objekt fortbewegt, vernachlässigbar ist, das Objekt an unterschiedlichen Stellen angemessen wird, werden mehrere voneinander abweichende Entfernungswerte erfasst, die zu einer gewissen Unschärfe der ermittelten Position führen. Um einen Überwachungsbereich abzudecken, wird der Laserscanner seitlich der Fahrbahn aufgestellt und die Scanebene horizontal zur Fahrbahn ausgerichtet, wobei üblicherweise die Scannerachse, um die der Laserstrahl ausgelenkt wird, senkrecht zum Fahrbahnrand verläuft. Da der Laserscanner zum Tracking eines möglichst großen horizontalen Querschnittes den Überwachungsbereich möglichst horizontal abscannen muss, ist die Gefahr des gegenseitigen Verdeckens von Objekten maximal gegeben. Nachteilig ist auch, dass nicht die gesamte Scanebene zur Messdatenerfassung zur Verfügung steht. Für ein Objekt, das sich nahe der Scannerachse bewegt und damit kaum eine Entfernungsänderung erfährt, ist keine Geschwindigkeit ableitbar.
  • Mit einer Videokamera wird zu jedem Messzeitpunkt ein digitalisiertes Bild eines Objektfeldes erzeugt. Bei der Verarbeitung der einzelnen Bilder werden die Bildinformationen ignoriert, die von statischen Objekten herrühren und nur die Bildinformationen abgespeichert, die von bewegten Objekten innerhalb des Objektfeldes stammen. Hierbei werden die Pixelkoordinaten der von der Abbildung eines bewegten Objektes beaufschlagten Pixel eines Kameraempfängers, z. B. einer CCD-Matrix, bezogen auf ein Kamerakoordinatensystem, jeweils einem Aufnahmezeitpunkt, dem Zeitpunkt an dem die CCD-Matrix ausgelesen wird, zugeordnet abgespeichert. Aus den Messdaten können entsprechend Trackingdaten gewonnen werden. Allerdings beschreiben diese Trackingdaten nicht unmittelbar die Fahrspur des Objektes, welches abgebildet wurde, sondern die Positionsänderungen des abgebildeten Objektes innerhalb der Bildebene (Trajektorie im Bild), während das Objekt durch den Überwachungsbereich, der durch das Objektfeld der Kamera bestimmt wird, fährt. Aus der Kenntnis der Ausrichtung der optischen Achse der Videokamera (nachfolgend Kameraachse) zum Fahrbahnrand und deren Abbildungsmaßstab lassen sich die Trackingdaten des abgebildeten Objektes in Trackingdaten des Objektes umrechnen und in Verbindung mit den Abständen der Aufnahmezeitpunkte kann die Geschwindigkeit des abgebildeten Objektes ableitetet werden. Letzteres ist jedoch nicht möglich, wenn keine Positionsänderung des abgebildeten Objektes auflösbar ist, was insbesondere dann vorkommt, wenn das Objekt noch weit entfernt ist und in Richtung der Kameraachse fährt. Nachteilig ist auch die Abhängigkeit der Messqualität von der Belichtung der abgebildeten Objekte, d. h. Videokameras sind nicht unabhängig von Witterung und Tageszeit einsetzbar. Die Positionsdaten und damit die Messdaten für die Geschwindigkeit lassen sich umso genauer ableiten, je höher die Auflösung des CCD-Empfängers, d. h. je größer die Anzahl von einzelnen Empfängerelementen pro Fläche ist. Aus der Kenntnis des Abbildungsmaßstabes und der Größe der Abbildung, die sich aus der Anzahl der Anordnung der beaufschlagten Pixel ermitteln lässt, lässt sich des Weiteren der Querschnitt und die Größe des Objektes ableiten, was eine Aussage über die Fahrzeugklasse erlaubt.
  • Aus der DE 10 2007 022 373 A1 ist ein Verfahren zum Erfassen von Verkehrsverstößen durch Erfassen von Objekt-Trackingdaten mittels eines Radarsensors bekannt, der eine Radarstrahlung so auf eine Fahrbahn richtet, dass gleichzeitig mehrere Fahrzeuge durch einen durch die Radarstrahlung (Radarkeule) definierten Messbereich (nachfolgend Überwachungsbereich) fahren können.
  • Hierzu kann ein Radargerät neben der Fahrbahn positioniert werden oder oberhalb der Fahrbahn, z. B. an einer Brücke befestigt sein, wobei hier horizontal betrachtet die Radarachse mit der Fahrbahnrichtung zusammenfällt.
  • Aus den reflektierten Radarsignalen lassen sich die relative Geschwindigkeit eines Objektes zum Radarsensor, die Entfernung seiner die Radarstrahlung reflektierenden Flächen zum Radarsensor und der Winkel, unter dem die reflektierte Radarstrahlung zur Radarachse auf den Radarsensor auftrifft, ableiten.
  • Bei einem Dauerradarsensor, von dem in der DE 10 2007 022 373 A1 ausgegangen wird, erfolgt eine kontinuierliche Geschwindigkeitsmessung bzw. eine kontinuierliche Entfernungsmessung durch Ausnutzung des Dopplerradareffektes bzw. des Frequenzumtastungsprinzips (FSK) in Auswertung der Phasendifferenz reflektierter Radarsignale unterschiedlicher Frequenz. Eine Winkelmessung erfolgt z. B. mittels zweier Empfangsantennen über eine Triangulationsmessung. Zu jedem Messzeitpunkt, hierunter wird ein Zeitfenster verstanden, in dem Messwerte erfasst werden, entsteht somit für jedes Fahrzeug im Radarkegel ein Wertetripel aus radialer Geschwindigkeit, Entfernung und Winkel (E(t); V(t); γ(t)), wobei die einzelnen Werte z. B. durch Mittelwertbildung aus einer Messwertschar von Partialreflexionen nach einer Rayleighverteilung gebildet werden, wie sie insbesondere für die Entfernung und den Winkel entstehen.
  • Die Messungen erfolgen über einen Zeitraum von ca. 100 ms bis hin zu einigen Sekunden, je nach Fahrzeuggeschwindigkeit zwischen Eintritt in und Austritt aus dem Radarkegel z. B. in einem Abstand von 20 ms, wodurch die Fahrzeugspuren (nachfolgend Fahrspur), welche das angemessene Fahrzeug beschreibt, mit einer hohen Genauigkeit bestimmt werden können.
  • Die vom Radarsensor ermittelten Wertetripel werden gemeinsam mit einem zugehörigen Messzeitpunkt jeweils einer Fahrzeugnummer (hier ist nicht dessen Kennzeichen gemeint), einer Eintrittszeit und einer Austrittszeit zugeordnet, einem Rechner zugeführt (nachfolgend Objekt-Trackingdaten).
  • Sollte während der Messung eine Geschwindigkeit detektiert worden sein, die oberhalb einer vorgegebenen Grenzgeschwindigkeit liegt, ermittelt der Rechner die Fahrspur des betreffenden Verstoßfahrzeuges und gibt ein Signal an eine Kamera zur Erstellung einer Abbildung der aktuellen Verkehrsszene. Die Kamera ist in einem bekannten festen Abstand zum Radargerät so angeordnet und eingestellt, dass die optische Achse (nachfolgend Kameraachse) in fester Winkelbeziehung zur Radarachse ausgerichtet ist und die Verkehrsszene über einen Tiefenschärfebereich um eine vorgegebene Entfernung, die als Fotopunkt bezeichnet wird, scharf abgebildet wird.
  • Da das Objektfeld der Kamera über alle Fahrspuren reicht, über die auch der Radarkegel gerichtet ist, können auch mehrere Fahrzeuge in der Aufzeichnung abgebildet sein, die sich zum Zeitpunkt des Auslösens der Kamera im Radarkegel befinden.
  • Um nun das Verstoßfahrzeug in der Abbildung eindeutig zu identifizieren, wird die vom Verstoßfahrzeug messtechnisch ermittelte Fahrspur in die Abbildung eingeblendet. Die Einblendung erfolgt vorteilhaft so, dass eine die Fahrspur darstellende Markierung über die Bildpunkte in der Abbildung eingeblendet wird, die den über die Entfernung und den Winkel definierten Positionen, welche gemeinsam die Fahrspur bilden, im Objektfeld zuzuordnen sind. Das heißt die Identifikation erfolgt allein anhand der zum Radargerät relativ gemessenen Fahrspur ohne absoluten Bezug auf einzelne Fahrspuren (nachfolgend Fahrbahnen) der Fahrbahn (nachfolgend Straße). (Es hat sich herausgestellt, dass die Wahl einiger Begriffe in der DE 10 2007 022 373 A1 insbesondere für Übersetzungen unvorteilhaft ist. Es wurde hier unterschieden zwischen der Fahrzeugspur, nämlich einer Spur die ein fahrendes Fahrzeug beschreibt und Fahrspuren, in welche eine Fahrbahn üblicherweise mittels Fahrbahnmarkierungen unterteilt ist. In der vorliegenden Anmeldung soll die Begriffswahl dahingehend getroffen werden, dass eine Straße in mehrere Fahrbahnen unterteilt ist und das Fahrzeug durch seine Fortbewegung eine Fahrspur beschreibt.)
  • Die Markierung der Fahrspur kann gemäß der DE 10 2007 022 373 A1 in Form von Bildpunkten, z. B. durch Punkte, Kreuze, Dreiecke oder Ähnliches oder in Form einer Linie oder Fläche eingeblendet werden. Die Einblendung kann durch farbige Gestaltung oder durch Aufhellen bzw. Abdunkeln der entsprechenden Bildbereiche erfolgen. Um die eigentlichen Messwerte kann auch ein Toleranzbereich angegeben sein.
  • Vorteilhaft sollen während der Durchfahrt eines Verletzerfahrzeuges mehrere Beweisfotos erstellt werden können, die dieses dann an verschiedenen Positionen der ermittelten Fahrspur zeigen.
  • Wie bereits dargelegt, besteht zusätzlich zu den dargestellten Problemen der genauen Messdatenerfassung mit den unterschiedlichen Sensortypen aufgrund des relativ großen zu überwachenden Bereiches die Problematik, dass Fahrzeuge durch andere Objekte (meist andere Fahrzeuge) in erhöhtem Maße abgeschattet werden können. Dies führt dazu, dass diese messtechnisch nicht erfasst werden können oder dass der Sensor zwei Fahrzeuge nicht ausreichend auflösen kann. Hierdurch werden wesentlich weniger Fahrzeuge sicher detektiert, als gewünscht ist. Das Problem der Abschattung besteht auch bei dem Verfahren gemäß der DE 10 2007 022 373 A1 , die als nächstliegender Stand der Technik betrachtet wird.
  • Aus dem Fachartikel: „Fusion of Doppler Radar and Video Information for Automated Traffic Surveillance” ist ein Verkehrsüberwachungssystem bekannt, welches die Fahrzeuggeschwindigkeit über Datenfusion von einer kalibrierten Kamera und einem CW-Doppler-Radargerät bestimmt. Ziel ist es, mit einem üblichen CW-Doppler-Radargerät, welches nicht in der Lage ist, verschiedene sich gleichzeitig durch die Radarstrahlung bewegende Objekte zu unterscheiden, zur Überwachung eines Verkehrsraumes zu verwenden, durch den gleichzeitig mehrere Fahrzeuge fahren.
  • Aufgabe der Erfindung ist es ein Verfahren zu finden, mit dem die Sicherheit einer zweifelsfreien Zuordnung gemessener Geschwindigkeit zu den angemessenen Fahrzeugen möglich ist.
  • Die Aufgabe der Erfindung wird für ein Verfahren zur Messung von Geschwindigkeiten und Zuordnung gemessener Geschwindigkeiten zu angemessenen Fahrzeugen, bei dem Fahrzeuge einen ersten Sensorbereich eines ersten objekt-trackenden Sensors durchfahren und zu mehreren vorgegebenen Messzeitpunkten Messdaten zur Geschwindigkeit und zur Position der Fahrzeuge, bezogen auf ein durch den ersten objekt-trackenden Sensor definiertes erstes Sensor-Koordinatensystem, mit einer Bezugsachse bestimmt durch eine erste Sensorachse, erfasst werden, dadurch gelöst, dass von einem bild-trackenden Sensor, nämlich einer Videokamera mit einem Matrixsensor, der ein Kamera-Koordinatensystem definiert, dessen z-Achse durch die Kameraachse bestimmt ist, Aufnahmen vom Objektfeld der Videokamera zu mehreren vorgegebenen Aufnahmezeitpunkten erzeugt werden, wobei der erste Sensor und die Videokamera zueinander so ausgerichtet werden, dass sich der erste Sensorbereich und der Objektbereich wenigstens teilweise überlappen, um einen gemeinsamen Überwachungsbereich zu bilden und die Relativlage zwischen dem ersten Sensor-Koordinatensystem und dem Kamera-Koordinatensystem bekannt ist, und ein zweiter bild-trackender Sensor vorhanden ist, so dass die beiden bild-trackenden Sensoren über bekannte Verfahren der Stereoskopie ein dreidimensionales Tiefenbild liefern und aus den Aufnahmen Messdaten der Position der abgebildeten Fahrzeuge ermittelt werden, die mit den Messdaten des ersten Sensors auf Korrelation überprüft werden und gegebenenfalls, während das Fahrzeug den gemeinsamen Überwachungsbereich durchfährt, in die Aufnahmen jeweils auf ein abgebildetes Fahrzeug eine teilweise überdeckende Markierung eingeblendet wird, die wenigstens die Messdaten der Geschwindigkeit darstellt, die von dem betreffenden Fahrzeug gemessen wurde.
  • Als objekt-trackende Sensoren können Laserscanner oder Radarsensoren verwendet werden, wie sie in der Beschreibung des Standes der Technik genannt wurden. Sie werden zum Fahrbahnrand und der Fahrbahnoberfläche so ausgerichtet, wie das aus bekannten gattungsgleichen Verfahren zur Geschwindigkeitsmessung bekannt ist, so dass ihr Sensorbereich, der bei einem Radarsensor durch den Radarkegel und bei einem Laserscanner durch dessen Scanwinkelbereich bestimmt ist, einen Abschnitt der Straße bevorzugt über alle Fahrspuren reichend abdeckt. Das Objektfeld der Videokamera muss für die Durchführung eines erfindungsgemäßen Verfahrens den Sensorbereich wenigstens teilweise überdecken. Der sich damit ergebende Überlappungsbereich bildet den gemeinsamen Überwachungsbereich. Während ein Fahrzeug durch diesen gemeinsamen Überwachungsbereich fährt, wird es von dem Radarsensor bzw. dem Laserscanner wiederholt angemessen. Gleichzeitig wird in die Abbildungen der aufgezeichneten Videosequenz, die aus einer Folge von Aufnahmen besteht, wobei die Aufnahmezeitpunkte bevorzugt mit den Messzeitpunkten synchronisiert sind, auf das abgebildete Fahrzeug die Geschwindigkeit des Fahrzeuges eingeblendet. Zuvor wurden die Messdaten, die zum gleichen Zeitpunkt erhalten wurden, also messzeitpunktbezogen, auf Korrelation geprüft.
  • Sind die Aufnahmezeitpunkte und die Messzeitpunkte nicht synchronisiert, können für jeden Sensor über bekannte mathematische Verfahren der Prädiktion und Interpolation alle Messwertsätze für jeden beliebigen Zeitpunkt zumindest näherungsweise bestimmt werden, was den Vergleich der Messwerte deutlich erleichtert.
  • Vorteilhaft werden die miteinander korrelierenden Messdaten miteinander fusioniert, womit die Sicherheit der korrekten Zuordnung zum abgebildeten Fahrzeug erhöht wird. Für die Fusionierung können bekannte Verfahren der Sensorfusion herangezogen werden. Eine mögliche Ausprägung ist z. B. die Abbildung der Messwerte beider Messsysteme in getrennten Wahrscheinlichkeitskarten, bei dem jedem Ortspunkt der Karte eine mögliche Aufenthaltswahrscheinlichkeit und zusätzliche Parameter des Fahrzeugs (wie z. B. Fahrzeugbreite und -höhe) zugewiesen werden kann. Durch eine gewichtete Zusammenfassung der so erstellten Karten in eine gemeinsame Zielwahrscheinlichkeitskarte, einschließlich der Übernahme der getrennt verfügbaren Parameter in einen gemeinsamen Datensatz, kann eine geeignete Fusionierung durchgeführt werden. Idealerweise werden die Gewichte bei der Zusammenführung der Karten durch Vertrauenswerte der Beobachtungen (A-Posteriori-Wahrscheinlichkeiten) bestimmt. So ist z. B. bei einem Radarsystem das Vertrauen in eine Messung größer, wenn sich das Fahrzeug mit hoher Geschwindigkeit isoliert bewegt.
  • Um in Kenntnis der Relativlage des Sensorkoordinatensystems zum Kamerakoordinatensystems zu gelangen, kann diese vorteilhaft über geeignete Verfahren durch gemeinsam beobachtete Fahrzeuge angelernt werden.
  • Damit die Sensoren die Fahrzeuge aus unterschiedlicher Richtung sehen, was vorteilhaft dazu führt, dass ein Fahrzeug gegebenenfalls nur für einen Sensor verdeckt erscheint, schließen die erste Sensorachse und die Kameraachse miteinander in horizontaler Richtung einen Winkel ein. Insbesondere bei der Verwendung eines Laserscanners, dessen Scanachse senkrecht zum Fahrbahnrand ausgerichtet wird, ist ein Winkel von 90° ideal, wodurch dann die Kameraachse in Fahrbahnrichtung ausgerichtet ist. Hierbei entsteht ein maximal möglicher Überwachungsbereich.
  • Besonders vorteilhaft werden aus der Änderung der Messdaten der Position eines abgebildeten Fahrzeuges zwischen aufeinanderfolgenden Aufnahmen weitere Messdaten zur Geschwindigkeit des abgebildeten Fahrzeuges abgeleitet, die zur Verifikation der mit dem ersten Sensor gewonnenen Messdaten zur Geschwindigkeit mit diesen auf Korrelation überprüft werden.
  • Statt dessen oder zusätzlich können weitere Messdaten zur Geschwindigkeit gewonnen werden, indem die Fahrzeuge einen zweiten Sensorbereich eines zweiten objekt-trackenden Sensors durchfahren. Zu diesem Zweck wird ein zweiter objekt-trackender Sensor so zur Fahrbahnoberfläche und dem Fahrbahnrand ausgerichtet, dass dessen Sensorebene (zweite Sensorebene) den gemeinsamen Überlappungsbereich von Videokamera und erstem Sensor wenigstens teilweise überlappt, um einen für alle drei Sensoren gemeinsamen Überlappungsbereich zu bilden. Vorteilhaft werden zu denselben Messzeitpunkten wie mit dem ersten objekt-trackenden Sensor weitere Messdaten zur Geschwindigkeit und zur Position der Fahrzeuge, bezogen auf ein dem zweiten objekt-trackenden Sensor eigenes zweites Sensor-Koordinatensystem, dessen z-Achse durch die zweite Sensorachse bestimmt ist, gewonnen, wobei die Relativlage zwischen dem ersten Sensor-Koordinatensystem und dem zweiten Sensor-Koordinatensystem bekannt ist und zur Verifikation der mit dem ersten Sensor gewonnenen Messdaten die weiteren Messdaten mit diesen auf Korrelation überprüft.
  • Die Prüfung der Messdaten mit den weiteren Messdaten auf Korrelation kann, wie bereits genannt, zu deren Verifikation dienen. Vorteilhaft werden jedoch die Messdaten die miteinander korrelieren auch miteinander fusioniert.
  • Vorteilhaft schließen die erste Sensorachse und die zweite Sensorachse miteinander in horizontaler Richtung einen Winkel ein, was die Gefahr einer gleichzeitigen Verdeckung eines Fahrzeuges für beide Sensoren verringert und insbesondere bei einem Winkel von 90° minimiert.
  • Soll das Verfahren zur Erfassung und Ahndung einer Übertretung einer zulässigen Höchstgeschwindigkeit eingesetzt werden, dann ist es von Vorteil, wenn in die Aufnahmen nicht nur die Messdaten der Geschwindigkeit, den abgebildeten Fahrzeugen zugeordnet, eingeblendet werden, sondern wenn diese nach Vergleich mit einer vorgegebenen Höchstgeschwindigkeit unterschiedlich dargestellt werden. So können die eingeblendeten Messdaten der Geschwindigkeit, die in unterschiedlichen Differenzbereichen oberhalb der Höchstgeschwindigkeit zugeordnet werden können, z. B. in unterschiedlicher Farbe oder mit zunehmenden größerer Differenz größer erscheinen.
  • Sofern die Sensoren dazu ausgelegt sind Messdaten zu liefern aus denen auf die Fahrzeugklasse eines Fahrzeuges geschlossen wird, kann vorteilhaft auch die Markierung durch ein korrelierendes Symbol gestaltet werden. Das Symbol kann z. B. eine Linie sein, die ein Rechteck umschreibt, welches an die Höhe und Breite der Front eines abgebildeten Fahrzeuges angepasst ist, oder Personenkraftwagen werden z. B. mit einem Kreis gekennzeichnet und Lastkraftwagen mit einem Kreuz.
  • Soll das Verfahren in einem Ampelbereich durchgeführt werden, in dem auch Rotlichtverstöße festgestellt werden sollen, so werden vorteilhaft die Messzeitpunkte mit den Schaltphasen einer Ampel verglichen und bei Messzeitpunkten, die innerhalb einer Rotphase der Ampel liegen, die Markierungen erkennbar verändert. Die Markierung die für eine Fahrzeugklasse steht, kann z. B. von einem größeren Kreis umschlossen werden oder ein Ampelsymbol darstellen, wenn der Messzeitpunkt innerhalb der Rotphase liegt.
  • Das erfindungsgemäße Verfahren soll nachfolgend an Ausführungsbeispielen anhand einer Zeichnung näher erläutert werden.
  • Hierzu zeigen:
  • 1 eine Prinzipskizze für eine Sensoranordnung zur Verfahrensdurchführung
  • 2a eine erste Aufnahme in fotographischer Darstellung
  • 2b die erste Aufnahme gemäß 2a in skizzierter Darstellung
  • 3a eine zweite Aufnahme in fotographischer Darstellung
  • 3b die zweite Aufnahme gemäß 2a in skizzierter Darstellung
  • Zur Beschreibung der vorliegenden Erfindung sollen trackende Sensoren, wie sie in der Beschreibung des Standes der Technik genannt wurden und wie sie in der beschriebenen Funktionsweise auch zur Durchführung des erfindungsgemäßen Verfahrens Verwendung finden können, in objekt-trackende und bild-trackende Sensoren unterschieden werden.
  • Den objekt-trackenden Sensoren werden die Sensoren zugeordnet, die Trackingdaten für die Ermittlung der Fahrspur eines einen Überwachungsbereich 5 durchfahrenden Fahrzeuges durch ein Anmessen des Fahrzeuges gewinnen. Hierzu zählen Radarsensoren und Laserscanner.
  • Den bild-trackenden Sensoren werden die Sensoren zugeordnet, die Trackingdaten für die Ermittlung der Fahrspur eines einen Überwachungsbereich 5 durchfahrenden Fahrzeuges aus der Positionsänderung eines abgebildeten Fahrzeuges gewinnen. Hierzu zählen Videokameras mit Matrix-Empfängern.
  • 1 zeigt einen Straßenabschnitt 1 mit zwei Fahrspuren und einem darauf fahrenden Fahrzeug, einem objekt-trackenden Sensor, hier einem Laserscanner 2 und einer Videokamera 3, die einen bild-trackenden Sensor darstellt, sowie eine Rechen-, Steuer- und Auswerteeinheit 4.
  • Der Laserscanner 2 ist mit seiner Scanachse 2.1, um die der Laserstrahl bei Betrieb horizontal ausgelenkt wird, im rechten Winkel zum Fahrbahnrand des Straßenabschnittes 1 ausgerichtet. Die Arbeitsweise eines Laserscanners 2 entspricht der eines Laserscanners wie er zur Erfassung der Geschwindigkeit und der Fahrspur eines durch den Scanbereich (Sensorbereich) fahrenden Fahrzeuges aus dem Stand der Technik bekannt ist.
  • Die Videokamera 3 ist mittig, deutlich oberhalb der Fahrbahn so montiert und ausgerichtet, dass deren Kameraachse 3.1 rechtwinklig zur Scanachse 2.1 verläuft.
  • Das Objektfeld der Videokamera 3 und der Sensorbereich des Laserscanners 2 überlappen sich in dem schraffiert dargestellten Bereich, der als gemeinsamer Überwachungsbereich 5 bezeichnet wird. Fahrzeuge die durch den Überwachungsbereich 5 fahren, werden durch beide Sensoren 2, 3 erfasst.
  • Die Videokamera 3 erstellt zu mehreren Aufnahmenzeitpunkten, z. B. mit einer Aufnahmefrequenz von 20 Aufnahmen pro Sekunde eine Vielzahl von Aufnahmen, während das Fahrzeug das Objektfeld durchfährt. In den Aufnahmen sind gegebenenfalls ein oder mehrere Fahrzeuge abgebildet. Die Videokamera 3 weist einen hochauflösenden Matrixempfänger auf, der durch die Zeilen- und Reihenanordnung der einzelnen Empfängerelemente eine x-y-Ebene des Kamerakoordinatensystems definiert. Die Position aller abgebildeten Fahrzeuge lässt sich damit über die bekannte Lage der ansprechenden Empfängerelemente im Kamerakoordinatensystem bestimmen.
  • Um nun die Messdaten des Laserscanners 2, die die Position und die Geschwindigkeit eines den Scanbereich durchfahrenden Fahrzeuges beschreiben, den abgebildeten Fahrzeugen zuordnen zu können, müssen diese miteinander verglichen werden, um sie im Falle dass sie miteinander korrelieren, einander zuordnen zu können. Am einfachsten vergleicht man die Messdaten, die zum selben Zeitpunkt erhalten werden. Dazu werden die Messzeitpunkte und die Aufnahmezeitpunkte, d. h. die Zeitpunkte der Bildakquise, zueinander synchronisiert. Als Messzeitpunkt soll hier nicht ein Zeitpunkt verstanden werden an dem ein Laserpuls empfangen wird, sondern ein Zeitfenster in dem die während eines Scans erhaltenen Laserpulse empfangen werden. Während eines Scans wird das Fahrzeug mehrfach entlang einer horizontalen Linie abgetastet und es wird eine Schar von Messdaten für die Entfernung gewonnen.
  • In 1 sind beispielhaft die Scanwinkel des Laserscanners 2 zu zwei verschiedenen Zeitpunkten dargestellt. Da nicht immer die gleiche Stelle am Fahrzeug angemessen wird, kommt es hier zu erheblichen Schwankungen in der erfassten Position, obwohl sich das Fahrzeug kaum bewegt hat, in dem kurzen Zeitraum der beiden dargestellten Zeitpunkte. Die Position wird demnach mit einer gewissen Unschärfe ermittelt.
  • Ein zweites Ausführungsbeispiel unterscheidet sich gegenüber dem ersten, ausführlich beschriebenen Ausführungsbeispiel nur dahingehend, dass anstelle eines Laserscanners ein Radarsensor als objekt-trackender Sensor verwendet wird, der wie in der DE 10 2007 022 373 A1 beschrieben arbeitet.
  • Um genauere Positionsdaten zu erhalten soll in einem dritten Ausführungsbeispiel zusätzlich die Messstrahlung eines dritten Sensors in den Überwachungsbereich 5 gerichtet werden, sodass ein den Überwachungsbereich 5 durchfahrendes Fahrzeug durch drei Sensoren, nämlich zwei objekt-trackende Sensoren und einen bild-trackenden Sensor erfasst wird. Der dritte Sensor kann ein weiterer Laserscanner oder auch ein Radarsensor sein. Indem zwei objekt-trackende Sensoren das Fahrzeug anmessen und die erhaltenen Messdaten miteinander fusioniert werden, kann die Position genauer ermittelt werden und somit die Wahrscheinlichkeit erhöht werden, dass hierzu korrelierende Messdaten der Videokamera 3 sicher zugeordnet werden können.
  • Gemäß einem vierten Ausführungsbeispiel ist die Erfassung der Szene mit zwei bild-trackenden Sensoren (Videokameras) in Kombination mit einem objekt-trackenden Sensor vorgesehen. Die bild-trackenden Sensoren können durch bekannte Verfahren der Stereoskopie ein dreidimensionales Tiefenbild liefern. Um die evtl. auftretenden Mehrdeutigkeiten bei der Stereoskopie auflösen zu können, ist es vorteilhaft, die Informationen des objekt-trackenden Sensorsystems heranzuziehen. Eine besonders vorteilhafte Gestaltung kann dadurch erreicht werden, dass die bild-trackenden Sensoren ein Volumenmodell des Fahrzeugs erfassen, dessen genaue räumliche Anordnung und Geschwindigkeitskomponenten durch das objekt-trackende System validiert und fusioniert werden können.
  • Mit dem erfindungsgemäßen Verfahren können Verkehrsverstöße auch dann sicher nachgewiesen werden, wenn einzelne Fahrzeuge nicht während der gesamten Durchfahrt angemessen werden können. In dieser Zeit kann in der Aufnahme lediglich keine Markierung, das heißt auch keine Geschwindigkeit eingeblendet werden. Da es in der Videosequenz, die über die gesamte Durchfahrt erstellt wird, allerdings auch Aufnahmen davor und/oder danach gibt, in welchen die Geschwindigkeit eingeblendet wird, ist dem Fahrzeug eindeutig eine Geschwindigkeit zugeordnet.
  • In den 2 und 3 sind zwei Aufnahmen einer Videosequenz gezeigt, wie sie mit jedem Ausführungsbeispiel des erfindungsgemäßen Verfahrens erstellt werden können.
  • In der Aufnahme gemäß 2 sind vier Fahrzeuge zu sehen, von denen drei mit einer Markierung versehen sind, die aus einem Punkt und einer Geschwindigkeitsangabe besteht. Das vierte Fahrzeug, auf dem keine Markierung zu sehen ist, befindet sich noch nicht im gemeinsamen Überwachungsbereich 5.
  • Die in 3 dargestellte Aufnahme ist ca. 10 ms später entstanden, hier sind nun alle vier Fahrzeuge markiert, wobei die Geschwindigkeitsangaben im Vergleich zur Aufnahme, wie in 2 gezeigt, geringfügig abweichen.
  • Ein Fahrzeug welches den Überwachungsbereich 5 durchfährt wird mit dem erfindungsgemäßen Verfahren über die Dauer der Durchfahrt in den Aufnahmen einer Videosequenz aufgenommen. Dem abgebildeten Fahrzeug zugeordnet, wird dessen zum jeweiligen Aufnahmezeitpunkt ermittelte Geschwindigkeit eingeblendet.
  • Bezugszeichenliste
  • 1
    Straßenabschnitt
    2
    Laserscanner
    2.1
    Scanachse
    3
    Videokamera
    3.1
    Kameraachse
    4
    Rechen-, Steuer- und Auswerteeinheit
    5
    Überwachungsbereich

Claims (10)

  1. Verfahren zur Messung von Geschwindigkeiten und Zuordnung gemessener Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten, bei dem Fahrzeuge einen ersten Sensorbereich eines ersten objekt-trackenden Sensors durchfahren und zu mehreren vorgegebenen Messzeitpunkten Messdaten zur Geschwindigkeit und zur Position der Fahrzeuge, bezogen auf ein durch den ersten objekt-trackenden Sensor definiertes Sensor-Koordinatensystem, mit einer Bezugsachse bestimmt durch eine erste Sensorachse, erfasst werden, dadurch gekennzeichnet, dass von einem bild-trackenden Sensor, nämlich einer Videokamera (3) mit einem Matrixsensor, der ein Kamera-Koordinatensystem definiert, dessen z-Achse durch die Kameraachse (3.1) bestimmt ist, Aufnahmen vom Objektfeld der Videokamera (3) zu mehreren vorgegebenen Aufnahmezeitpunkten erzeugt werden, wobei der erste Sensor und die Videokamera (3) zueinander so ausgerichtet werden, dass sich der erste Sensorbereich und der Objektbereich wenigstens teilweise überlappen, um einen gemeinsamen Überwachungsbereich (5) zu bilden, wobei die Relativlage zwischen dem ersten Sensor-Koordinatensystem und dem Kamera-Koordinatensystem bekannt ist, und ein zweiter bild-trackender Sensor vorhanden ist, so dass die beiden bild-trackenden Sensoren über bekannte Verfahren der Stereoskopie ein dreidimensionales Tiefenbild liefern und aus den Aufnahmen Messdaten der Position der abgebildeten Fahrzeuge ermittelt werden, die mit den Messdaten des ersten Sensors auf Korrelation überprüft werden und gegebenenfalls, während das Fahrzeug den gemeinsamen Überwachungsbereich (5) durchfährt, in die Aufnahmen jeweils auf ein abgebildetes Fahrzeug eine teilweise überdeckende Markierung eingeblendet wird, die wenigstens die Messdaten der Geschwindigkeit darstellt, die von dem betreffenden Fahrzeug gemessen wurde.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Aufnahmezeitpunkte und die Messzeitpunkte zueinander synchronisiert sind und die Messdaten messzeitpunktbezogen auf Korrelation überprüft werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass miteinander korrelierende Messdaten miteinander fusioniert werden, womit die Sicherheit deren Zuordnung zum abgebildeten Fahrzeug erhöht wird.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erste Sensorachse und die Kameraachse (3.1) miteinander in horizontaler Richtung einen Winkel einschließen, insbesondere einen Winkel von 90°.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus der Änderung der Messdaten der Position eines abgebildeten Fahrzeuges zwischen aufeinanderfolgenden Aufnahmen weitere Messdaten zur Geschwindigkeit des abgebildeten Fahrzeuges abgeleitet werden, die zur Verifikation der mit dem ersten Sensor gewonnenen Messdaten zur Geschwindigkeit mit diesen auf Korrelation überprüft und gegebenenfalls fusioniert werden.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Fahrzeuge einen zweiten Sensorbereich eines zweiten objekt-trackenden Sensors durchfahren und zu denselben Messzeitpunkten wie mit dem ersten objekt-trackenden Sensor weitere Messdaten zur Geschwindigkeit und zur Position der Fahrzeuge, bezogen auf ein dem zweiten objekt-trackenden Sensor eigenes zweites Sensor-Koordinatensystem, dessen z-Achse durch die zweite Sensorachse bestimmt ist, erfasst werden, wobei die Relativlage zwischen dem ersten Sensor-Koordinatensystem und dem zweiten Sensor-Koordinatensystem bekannt ist und die zweite Sensorebene den Überwachungsbereich (5) einschließt und zur Verifikation der mit dem ersten Sensor gewonnenen Messdaten die weiteren Messdaten mit diesen auf Korrelation überprüft und gegebenenfalls fusioniert werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die erste Sensorachse und die zweite Sensorachse miteinander in horizontaler Richtung einen Winkel miteinander einschließen, insbesondere einen Winkel von 90°.
  8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Messdaten zur Geschwindigkeit mit einer vorgegebenen Höchstgeschwindigkeit verglichen werden und für sich unterschiedlich ergebende Differenzbereiche die eingeblendeten Markierungen in unterschiedlicher Farbe erscheinen.
  9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus den Messdaten auf die Fahrzeugklasse geschlossen wird und die Markierung durch ein korrelierendes Symbol gestaltet wird.
  10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Messzeitpunkte mit den Schaltphasen einer Ampel verglichen werden und bei Messzeitpunkten, die innerhalb einer Rotphase der Ampel liegen, die Markierungen erkennbar verändert werden.
DE102010012811A 2010-03-23 2010-03-23 Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten Active DE102010012811B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010012811A DE102010012811B4 (de) 2010-03-23 2010-03-23 Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010012811A DE102010012811B4 (de) 2010-03-23 2010-03-23 Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten

Publications (2)

Publication Number Publication Date
DE102010012811A1 DE102010012811A1 (de) 2011-09-29
DE102010012811B4 true DE102010012811B4 (de) 2013-08-08

Family

ID=44585962

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010012811A Active DE102010012811B4 (de) 2010-03-23 2010-03-23 Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten

Country Status (1)

Country Link
DE (1) DE102010012811B4 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010056406A1 (de) * 2010-12-23 2012-06-28 Jenoptik Robot Gmbh Verfahren zur sicheren Identifikation eines durch einen Strahlungssensor erfassten Fahrzeuges in einer Bildaufnahme
DE102011050660B4 (de) * 2011-05-26 2013-01-03 Jenoptik Robot Gmbh Verfahren zur Ausrichtung und Verfahren zur Kontrolle der Ausrichtung eines Verkehrsüberwachungsgerätes zu einem Fahrbahnrand
WO2012172526A1 (en) 2011-06-17 2012-12-20 Leddartech Inc. System and method for traffic side detection and characterization
DE102011053284B8 (de) * 2011-09-05 2012-09-06 Jenoptik Robot Gmbh Verfahren zur Verifikation der Geschwindigkeit eines angemessenen Fahrzeuges mittels Kamera
DE102011056948A1 (de) * 2011-12-22 2013-06-27 Jenoptik Robot Gmbh Verfahren zur Kalibrierung einer Kamera zu einem Lagesensor
CA2998166C (en) 2012-03-02 2019-04-09 Leddartech Inc. System and method for vehicle detection
DE102012106860A1 (de) * 2012-07-27 2014-02-13 Jenoptik Robot Gmbh Vorrichtung und Verfahren zum Identifizieren und Dokumentieren mindestens eines ein Strahlungsfeld durchfahrenden Objektes
DE102013104443B4 (de) 2013-04-30 2022-03-17 Jenoptik Robot Gmbh Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
DE102013104411B3 (de) * 2013-04-30 2014-07-31 Jenoptik Robot Gmbh Verfahren zum Erfassen und Dokumentieren der Geschwindigkeiten mehrerer Fahrzeuge in einem Bilddokument
DE102013104425B3 (de) 2013-04-30 2014-05-28 Jenoptik Robot Gmbh Verfahren zur Erfassung von Geschwindigkeitsverstößen mit restriktiver Datenspeicherung
CN107003406B (zh) 2014-09-09 2019-11-05 莱达科技股份有限公司 检测区的离散化
KR102371616B1 (ko) * 2017-11-07 2022-03-07 현대자동차주식회사 차량의 센서 데이터 연계 장치 및 방법
FR3113145B1 (fr) * 2020-07-31 2022-09-30 Idemia Identity & Security France Procédé de contrôle de véhicule par plusieurs capteurs

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0616232A2 (de) * 1993-03-09 1994-09-21 Siemens Aktiengesellschaft Verkehrsradargerät
WO1999046613A1 (de) * 1998-03-10 1999-09-16 Wienand Hans Theo Geschwindigkeitsmessgerät
EP0912970B1 (de) * 1996-07-26 2000-04-19 Paolo Sodi Verfahren und vorrichtung zur detektierung von verkehrsübertrtungen mit dynamischer zielanordnung
DE602004001568T2 (de) * 2003-12-10 2007-06-28 SAGEM Défense Sécurité Verfahren und System zur Identifikation eines sich bewegenden Fahrzeuges
DE102007022373A1 (de) * 2007-05-07 2008-11-13 Robot Visual Systems Gmbh Verfahren zur beweiskräftigen Erfassung der Geschwindigkeit eines Fahrzeuges
DE102007038364A1 (de) * 2007-08-10 2009-02-12 Robot Visual Systems Gmbh Verfahren zur Geschwindigkeitsmessung von Fahrzeugen mittels Laserscanner
EP2048515A1 (de) * 2007-10-11 2009-04-15 ROBOT Visual Systems GmbH Verfahren zur Erfassung und Dokumentation von Verkehrsverstössen an einer Verkehrsampel
EP2075775A1 (de) * 2007-12-27 2009-07-01 ROBOT Visual Systems GmbH Verfahren zur Dokumentation nahezu zeitgleicher Verkehrsverstösse

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007022272B4 (de) 2007-05-09 2016-06-02 Heraeus Quarzglas Gmbh & Co. Kg Verfahren zur Herstellung eines Rohres aus Quarzglas durch Elongieren eines Quarzglas-Hohlzylinders

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0616232A2 (de) * 1993-03-09 1994-09-21 Siemens Aktiengesellschaft Verkehrsradargerät
EP0912970B1 (de) * 1996-07-26 2000-04-19 Paolo Sodi Verfahren und vorrichtung zur detektierung von verkehrsübertrtungen mit dynamischer zielanordnung
WO1999046613A1 (de) * 1998-03-10 1999-09-16 Wienand Hans Theo Geschwindigkeitsmessgerät
DE602004001568T2 (de) * 2003-12-10 2007-06-28 SAGEM Défense Sécurité Verfahren und System zur Identifikation eines sich bewegenden Fahrzeuges
DE102007022373A1 (de) * 2007-05-07 2008-11-13 Robot Visual Systems Gmbh Verfahren zur beweiskräftigen Erfassung der Geschwindigkeit eines Fahrzeuges
DE102007038364A1 (de) * 2007-08-10 2009-02-12 Robot Visual Systems Gmbh Verfahren zur Geschwindigkeitsmessung von Fahrzeugen mittels Laserscanner
EP2048515A1 (de) * 2007-10-11 2009-04-15 ROBOT Visual Systems GmbH Verfahren zur Erfassung und Dokumentation von Verkehrsverstössen an einer Verkehrsampel
EP2075775A1 (de) * 2007-12-27 2009-07-01 ROBOT Visual Systems GmbH Verfahren zur Dokumentation nahezu zeitgleicher Verkehrsverstösse

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE Xplore: A.ROY, N.GALE, L.HONG, Fusion of Doppler Radar and video information for automated traffic surveillance, 12th International Conference on Information Fusion, Seattle, USA, July 6-9, 2009, p. 1989-1996 (Version vom 18.08.2009) *

Also Published As

Publication number Publication date
DE102010012811A1 (de) 2011-09-29

Similar Documents

Publication Publication Date Title
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE102004010197B4 (de) Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
EP2048515B1 (de) Verfahren zur Erfassung und Dokumentation von Verkehrsverstössen an einer Verkehrsampel
EP2234081B1 (de) Verfahren zur Herstellung einer bekannten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung
EP1990655B1 (de) Verfahren zur beweiskräftigen Erfassung der Geschwindigkeit eines Fahrzeuges
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
DE102013104443A1 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
EP2690459B1 (de) Vorrichtung und Verfahren zum Identifizieren und Dokumentieren mindestens eines ein Strahlungsfeld durchfahrenden Objektes
DE102012200139A1 (de) Verfahren und Vorrichtung zur radunabhängigen Geschwindigkeitsmessung bei einem Fahrzeug
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102007022372A1 (de) Verfahren und Vorrichtung zur Ermittlung der Fahrzeugklasse von Fahrzeugen
DE10154861A1 (de) Verfahren zur Bereitstellung von Bildinformationen
EP2221640B1 (de) Verfahren zur Messung der Geschwindigkeit eines Fahrzeuges und sichtbaren Zuordnung in einer Dokumentation
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
EP2341367B1 (de) Verfahren und Anordnung zur Erfassung von Verkehrsverstößen in einem Ampelbereich
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE102020110809B3 (de) Verfahren und Vorrichtung zum Erkennen von Blooming in einer Lidarmessung
EP3531167B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
DE19517026B4 (de) Verfahren zur Bestimmung der Geschwindigkeit eines Fahrzeuges mit Hilfe einer das Fahrzeug aufnehmenden Videokamera und Vorrichtung zur Durchführung des Verfahrens
EP3082119A1 (de) Abstandsmessung von fahrzeugen
WO2012089205A2 (de) Verfahren zur sicheren identifikation eines durch einen strahlungssensor erfassten fahrzeuges in einer bildaufnahme
DE102019134985B4 (de) Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE602004001311T2 (de) Verfahren und Vorrichtung für Geschwindigkeitsmessung eines Fahrzeugs, das sich auf einem bestimmten Kurvenverlauf befindet

Legal Events

Date Code Title Description
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20131109

R082 Change of representative

Representative=s name: GLEIM PETRI PATENT- UND RECHTSANWALTSPARTNERSC, DE

Representative=s name: GLEIM PETRI OEHMKE PATENT- UND RECHTSANWALTSPA, DE

R082 Change of representative

Representative=s name: GLEIM PETRI PATENT- UND RECHTSANWALTSPARTNERSC, DE