DE102014221285B3 - Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen - Google Patents

Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen Download PDF

Info

Publication number
DE102014221285B3
DE102014221285B3 DE102014221285.5A DE102014221285A DE102014221285B3 DE 102014221285 B3 DE102014221285 B3 DE 102014221285B3 DE 102014221285 A DE102014221285 A DE 102014221285A DE 102014221285 B3 DE102014221285 B3 DE 102014221285B3
Authority
DE
Germany
Prior art keywords
unit
camera
traffic information
time
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014221285.5A
Other languages
English (en)
Inventor
Mathias Haberjahn
Andreas Luber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102014221285.5A priority Critical patent/DE102014221285B3/de
Application granted granted Critical
Publication of DE102014221285B3 publication Critical patent/DE102014221285B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung (1) zur Generierung von Verkehrsinformationen, umfassend mindestens zwei Sensoreinheiten (2), die an verschiedenen Positionen eines Verkehrsnetzes angeordnet sind, mindestens eine der jeweiligen Sensoreinheit (2) zugeordnete Recheneinheit (7) und mindestens eine Auswerteeinheit (3) zur Generierung von Verkehrsinformationen, wobei jede Sensoreinheit (2) mindestens eine Kamera (4) und mindestens einen Detektor (5) von drahtlosen Endgeräten aufweist, wobei die Vorrichtung (1) derart ausgebildet ist, dass zu einem ersten Zeitpunkt T1 im Erfassungsbereich der jeweiligen Sensoreinheit (2) mindestens ein Bild durch die jeweilige Kamera (4) aufgenommen wird und Kennungen ID von drahtlosen Endgeräten durch den Detektor (5) detektiert werden, wobei die Kamera (4) oder die Recheneinheit (7) derart ausgebildet ist, dass anhand des mindestens einen Bildes der Kamera (4) der jeweiligen Sensoreinheit (2) Objekthypothesen OH aufgestellt werden, wobei in der Recheneinheit (7) alle Objekthypothesen OH zusammen mit dem ersten Zeitpunkt T1 den jeweils detektierten Kennungen ID der drahtlosen Endgeräte zu einer Botschaft B zugeordnet werden und an die mindestens eine Auswerteeinheit (3) übermittelt werden, wobei die Vorrichtung (1) derart ausgebildet ist, dass dieser Vorgang zu mindestens einem zweiten Zeitpunkt T2 wiederholt wird, wobei die Auswerteeinheit (3) derart ausgebildet ist, dass die Botschaften B einer Kennung ID von verschiedenen Zeitpunkten T1, T2 verglichen werden, wobei aufgrund des Vergleichs Objekthypothesen OH für die Kennung ID verworfen oder bestätigt werden und daraus Verkehrsinformationen generiert werden.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Generierung von Verkehrsinformationen.
  • Die Generierung von Verkehrsinformationen bildet eine wesentliche Grundlage für eine verbesserte Verkehrsplanung bzw. Verkehrskontrolle insbesondere im städtischen Bereich. Für eine Generierung von Verkehrsinformationen bzw. eine Verkehrsdatenerfassung können Verfahren zur Generierung von lokalen Verkehrsinformationen, von streckenbezogenen Verkehrsinformationen oder von räumlichen (flächendeckenden, netzweiten) Verkehrsinformationen unterschieden werden. Lokale Verkehrsinformationen betreffen z. B. einen Verkehrsfluss an einer Ampelanlage. Streckenbezogene Verkehrsinformationen dienen beispielsweise der Überwachung eines Autobahnabschnitts. Flächendeckende oder räumliche Verkehrsinformationen dienen hierbei im Gegensatz zu den lokalen bzw. streckenbezogenen Verkehrsinformationen einer Verkehrsplanung bzw. Verkehrskontrolle in einem räumlichen Gebiet, welches in der Regel eine Vielzahl von Verkehrsknoten oder Verkehrsabschnitten umfasst. Beispielsweise kann ein räumliches Gebiet ein Stadtgebiet sein.
  • Von besonderem Interesse sind Informationen über Routen von Verkehrsteilnehmern.
  • Zur Erfassung von Verkehrsinformationen werden verschiedene Sensoren eingesetzt. Diese lassen sich in stationäre oder mobile Sensoren unterteilen. Beispielsweise sind Verkehrsinformationen aus Signalen extrahierbar, die beispielsweise von Induktionsschleifen, videobasierten Überwachungseinrichtungen, radarbasierten Überwachungseinrichtungen, funkbasierten Überwachungseinrichtungen, infrarotbasierten Überwachungseinrichtungen, BluetoothTM-basierten Überwachungseinrichtungen, WLAN-basierten Überwachungseinrichtungen, luftgestützten Überwachungseinrichtungen oder RFID-basierten Überwachungseinrichtungen erzeugt werden. Verkehrsinformationen werden aber auch aus sogenannter Floating Car Data (FCD) erzeugt. Auch existieren Ansätze, Verkehrsinformationen aus sogenannter Floating Phone Data zu generieren. Hierbei ist zu beachten, dass spezifische Sensoren, beispielsweise Induktionsschleifen, nur zur Generierung von lokalen Verkehrsinformationen geeignet sind. Hingegen können andere Sensoren oder Verfahren, beispielsweise die FCD-basierten Verfahren, zur Generierung von räumlichen Verkehrsinformationen genutzt werden.
  • In der Regel werden die Signale aller Sensoren, die zur Erzeugung von lokalen, streckenbezogenen oder räumlichen Verkehrsinformationen dienen, an eine zentrale Einheit zur Generierung von Verkehrsinformationen übermittelt. Diese kann aus der Gesamtheit von übertragenen Verkehrsinformationen eine aktuelle, genaue und umfassende Verkehrslage bestimmen.
  • Aus der WO 2011/134647 A1 ist ein Verfahren zur Generierung von Verkehrsinformationen innerhalb eines räumlichen Bereiches bekannt, wobei eine räumliche Position eines Detektors zumindest bezüglich des räumlichen Bereichs bestimmt wird, wobei der Detektor mindestens ein Signal mindestens einer ersten Sendeeinheit detektiert, wobei der Detektor eine Kennung der ersten Sendeeinheit an eine zentrale Einheit zur Generierung von Verkehrsinformationen übermittelt, wobei die zentrale Einheit aus den übermittelten Daten Verkehrsinformationen innerhalb des räumlichen Bereichs bestimmt, wobei das Signal der ersten Sendeeinheit einer datentechnischen Kommunikation der ersten Sendeeinheit mit mindestens einer weiteren Kommunikationseinheit dient. Der Detektor ist dabei beispielsweise ein Detektor für WLAN-Signale und/oder Bluetooth-Signale und/oder WI-FI-Direct-Signale und/oder GSM-Signale.
  • Aus der GB 2498876 A ist ein Verfahren zur Schätzung eines Zustandes eines Verkehrsnetzes bekannt, bei dem die Daten verschiedener Sensoren mittels eines Kalman-Filters fusioniert werden. Dabei ist mindestens ein Sensor ein Detektor zur Erfassung von mobilen Endgeräten. Die anderen Sensoren können Induktionsschleifen, Radarsensoren oder Kameras sein, die als existent vorausgesetzt werden.
  • Aus der DE 10 2012 218 058 A1 ist ein Verfahren zum Auswählen einer Teilmenge von Verkehrssensoren bekannt, wobei eine Modellierung mehrerer Sensortypen erfolgt, um wenigstens ein Sensormodell zu generieren. Es wird ein Beispielsraum von wenigstens einer Sensorkombination aus mehreren Sensoren erstellt und der Verkehrsfluss einer Region modelliert. Anschließend wird eine Verkehrssimulation ausgeführt, basierend auf wenigstens einem Sensormodell, dem Beispielraum von wenigstens einer Sensorkombination und dem Verkehrsfluss der Region, wobei die Verkehrssimulation mehrere Sensorkandidatenmengen generiert und eine Teilmenge ausgewählt wird, wobei wenigstens einer der Schritte durch eine Computervorrichtung ausgeführt wird.
  • Aus der DE 10 2011 100 628 A1 ist ein Verfahren zur Bestimmung mindestens eines Kameraparameters einer ersten Kamera zur Verkehrsüberwachung bekannt, wobei der ersten Kamera ein erster Erfassungsbereich zugeordnet ist. Mittels der ersten Kamera wird der erste Erfassungsbereich in ein zweidimensionales erstes Kamerabild abgebildet, wobei dem ersten Kamerabild ein erstes Kamerakoordinatensystem zugeordnet ist, wobei eine mit zumindest dem einen Kameraparameter parametrierbare Abbildungsfunktion einen Zusammenhang zwischen dem ersten Kamerakoordinatensystem und ein Weltkoordinatensystem beschreibt. In dem ersten Kamerabild werden eine vorbestimmte kartographierte Kalibrationsstruktur und deren Abbildungskoordinaten bestimmt, wobei eine Position und/oder Orientierung der kartographierten Kalibrationsstruktur bezüglich des Weltkoordinatensystems vorbekannt und ortsfest ist, wobei in Abhängigkeit von Abbildungskoordinaten der Kalibrationsstruktur, von Weltkoordinaten der Kalibrationsstruktur und der parametrierbaren Abbildungsfunktion der mindestens eine Kameraparameter bestimmt.
  • Der Erfindung liegt das technische Problem zugrunde, ein verbessertes Verfahren und eine verbesserte Vorrichtung zur Generierung von Verkehrsinformationen zu schaffen.
  • Die Lösung des technischen Problems ergibt sich durch das Verfahren mit den Merkmalen des Anspruchs 1 sowie eine Vorrichtung mit den Merkmalen des Anspruchs 6. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Das Verfahren zur Generierung von Verkehrsinformationen erfolgt mittels mindestens zweier an verschiedenen Positionen eines Verkehrsnetzes angeordneten Sensoreinheiten und mindestens einer Auswerteeinheit zur Generierung von Verkehrsinformationen, wobei jede Sensoreinheit mindestens eine Kamera und mindestens einen Detektor von drahtlosen Endgeräten aufweist. Vorzugsweise ist der Detektor derart ausgebildet, dass dieser auf verschiedene Telekommunikationsschnittstellen wie z. B. GSM- und/oder WLAN- und/oder Bluetooth- und/oder WIFI-Schnittstellen abgestimmt ist. Dabei kann auch vorgesehen sein, dass für einzelne Telekommunikationsschnittstellen ein spezieller separater Detektor vorgesehen ist. Entscheidend ist, dass durch den oder die Detektoren Kennungen, die vorzugsweise eindeutig sind, der Endgeräte erfasst werden. Die Kamera nimmt dabei mindestens ein Bild auf. Der überlappende Bereich von Kamera und Detektor stellt dabei den Erfassungsbereich der jeweiligen Sensoreinheit dar. Dabei wird vorzugsweise versucht, den überlappenden Bereich zu maximieren. Zu einem ersten Zeitpunkt werden dann Kennungen der drahtlosen Endgeräte und Objekte mittels des aufgenommenen Bildes der Kamera ermittelt. Dabei sei angemerkt, dass die Detektion und die Bildaufnahme nicht streng synchron sein müssen, sondern nur in einem eng begrenzten Zeitintervall erfolgen müssen.
  • Anhand des mindestens einen Bildes werden Objekthypothesen aufgestellt. Dabei können bekannte Bildungsverarbeitungsprogramme zur Anwendung kommen, um Objekte zu detektieren, hier Verkehrsobjekte. Den Objekthypothesen wird dabei vorzugsweise auch eine Geoinformation zugeordnet. Danach werden jeder erfassten Kennung alle Objekthypothesen (gegebenenfalls mit genauer Geoinformation) sowie der erste Zeitpunkt als Zeitstempel zugeordnet. Diese Kennung mit Zeitstempel und allen Objekthypothesen stellt eine Botschaft dar. Dabei sei angemerkt, dass gegebenenfalls durch Verwendung richtungssensitiver Detektoren bereits einzelne Objekthypothesen für einzelne IDs verworfen werden können.
  • Diese Generierung von Botschaften erfolgt an allen Sensoreinheiten. Dabei sei angemerkt, dass sich die Erfassungsbereiche der Sensoreinheiten überlappen können, aber nicht müssen. Vorzugsweise werden die Sensoreinheiten insbesondere an Verkehrsknotenpunkten wie beispielsweise Kreuzungen angeordnet.
  • Diese Botschaften werden dann an mindestens eine Auswerteeinheit übermittelt, wobei es sich vorzugsweise um eine zentrale Auswerteeinheit handelt. Es ist aber auch denkbar, dass die Botschaften jeweils an benachbarte lokale Auswerteeinheiten übermittelt werden. Weiter sei angemerkt, dass die ersten Zeitpunkte (bzw. Zeitstempel) für die verschiedenen Sendeeinheiten nicht absolut gleich sein müssen. Dieser Vorgang wird zu mindestens einem zweiten Zeitpunkt wiederholt, wobei vorzugsweise eine Vielzahl von Wiederholungen durchgeführt wird. Die Wiederholung kann dabei periodisch sein oder aber auch ereignisgesteuert sein.
  • In der Auswerteeinheit werden dann die Botschaften mit der gleichen Kennung, die zu verschiedenen Zeitpunkten erstellt wurden, miteinander verglichen. Dabei können diese Botschaften von der gleichen oder von verschiedenen Sensoreinheiten übermittelt werden. Durch den Vergleich können Objekthypothesen verworfen oder bestätigt werden. Verworfen wird eine Objekthypothese beispielsweise, wenn diese nicht in allen Botschaften mit der gleichen Kennung vorhanden ist. Analog wird eine Objekthypothese bestätigt, wenn diese in allen Botschaften mit der gleichen Kennung vorhanden ist. Bleibt dann beispielsweise nur eine Objekthypothese übrig, stellt diese das der Kennung zugeordnete Objekt dar und aus der Differenz der Zeitpunkte kann beispielsweise eine Reisezeitinformation ermittelt werden. Entsprechend können weitere Verkehrsinformationen gewonnen werden.
  • Die Kombination von Kamera und Detektor zur Erfassung verschiedener Telekommunikationsschnittstellen erlaubt dabei, den Objekthypothesen ein Fortbewegungs-Modus zuzuordnen und/oder diese zu klassifizieren. Beispielsweise kann der Fortbewegungs-Modus die Modi Fußgänger und/oder Radfahrer und/oder PKW und/oder LKW und/oder ÖPNV und/oder Motorradfahrer umfassen. Dies kann auch als Klassifizierung verstanden werden, wobei beispielsweise die Klasse PKW und/oder LKW in weitere Unterklassen unterteilt werden kann. Dabei sei angemerkt, dass durch die eindeutige Kennung auch ein Wechsel der Modi erfassbar ist (intermodale Fortbewegung). So kann beispielsweise erkannt werden, dass ein Fußgänger sich mit einem Verkehrsmittel des ÖPNV weiterbewegt.
  • In einer weiteren Ausführungsform werden mittels der Daten einer Orientierungseinheit die Objektdaten der Kamera in einem übergeordneten Koordinatensystem bestimmt.
  • In einer weiteren Ausführungsform werden aus den Daten einer Sensoreinheit lokale Verkehrsparameter ermittelt.
  • Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figuren zeigen:
  • 1 ein schematisches Blockschaltbild einer Vorrichtung zur Generierung von Verkehrsinformationen,
  • 2a eine schematische Darstellung einer Verkehrssituation zu einem ersten Zeitpunkt und
  • 2b eine schematische Darstellung einer Verkehrssituation zu einem zweiten Zeitpunkt.
  • Die Vorrichtung 1 zur Generierung von Verkehrsinformationen umfasst mindestens zwei Sensoreinheiten 2 sowie eine zentrale Auswerteeinheit 3. Jede Sensoreinheit 2 umfasst mindestens eine Kamera 4, mindestens einen Detektor 5 zur Erfassung von drahtlosen Endgeräten sowie eine Orientierungseinheit 6. Weiter weist jede Sensoreinheit 2 eine Recheneinheit 7 sowie eine Kommunikationsschnittstelle 8 auf, um Daten an die zentrale Auswerteeinheit 3 zu übermitteln.
  • Die Kamera 4 ist in der Lage, bildhafte Informationen digital zu erfassen. Des Weiteren ist die Kamera 4 in der Lage, aus der bildhaften Information Verkehrsobjekte zu erkennen und zu extrahieren. Zudem ist die Kamera 4 in der Lage, ein extrahiertes Verkehrsobjekt entsprechend einer geeigneten Klassifikation (z. B. LKW, PKW, Radfahrer, Fußgänger) einzuordnen. Ergänzend kann die Kamera 4 die Objektinformation durch weitere Merkmale wie z. B. räumliche Ausdehnung und/oder Farbe anreichern. Als Ergebnis übermittelt die Kamera eine aktuelle Objekthypothesenliste an die Recheneinheit 7.
  • Die Orientierungseinheit 6 ist in der Lage, die sechs Parameter ihrer äußeren Orientierung in einem übergeordneten Koordinatensystem (z. B. UTM) durch Positions- und Lage-Sensorik zu bestimmen und diese im Ergebnis an die Recheneinheit 7 zu übertragen. Durch eine vorab durchgeführte Kalibrierung lässt sich diese Orientierung innerhalb der Recheneinheit 7 auf die Orientierung der Kamera 4 übertragen. Die Objektdaten der Kamera 4 lassen sich somit auf der Recheneinheit 7 georeferenzieren. Hinsichtlich einer möglichen konkreten Ausbildung der Orientierungseinheit 6 wird beispielsweise auf die DE 10 2011 100 628 A1 verwiesen.
  • Der Detektor 5 ist in der Lage, auf Grundlage eines oder mehrerer Standards zur drahtlosen Übertragung (z. B. Bluetooth, WLAN, ZigBee etc.) eindeutig Geräteadressen als Kennung ID von drahtlosen Endgeräten im Messumfeld zu extrahieren. Durch die Eindeutigkeit einer Adresse kann eine fehlerfreie Zuordnung zu einer späteren wiederholten Erkennung der gleichen Adresse gewährleistet werden. Um den Empfangsbereich des Detektors 5 räumlich auf den durch die Kamera sichtbaren Bereich einzugrenzen, kann beispielsweise eine geeignete Antennenkonstruktion (z. B. Richtantenne) verwendet werden. Im Ergebnis werden die erfassten Geräteadressen bzw. Kennungen ID an die Recheneinheit 7 übertragen.
  • Die Recheneinheit 7 empfängt die erfassten Daten der drei Sensoren Kamera 4, Detektor 5 und Orientierungseinheit 6 zur anschließenden Vorverarbeitung und Datenfusion. In der Vorverarbeitung werden die eingehenden Sensordaten zeitlich und die Objekthypothesen der Kamera 4 zusätzlich geografisch referenziert. In einem Fusionsschritt wird jeder detektierten Geräteadresse bzw. Kennung ID eine Liste der zeitgleich detektierten Objekthypothesen durch die Kamera 4 hinzugefügt. Im Ergebnis besteht eine solche Botschaft aus einer detektierten Geräteadresse bzw. Kennung ID, einem Detektionszeitpunkt T und einer Liste OH mit den zugehörigen potentiellen Objekthypothesen, bestehend aus der jeweiligen Objektklassifikation K und Objektposition Pos: ID|T|OH[(K, Pos)1...(K, Pos)n] = Botschaft
  • Zusätzlich können auf Grundlage der Objekthypothesen der Kamera 4 aktuelle lokale Verkehrsparameter, wie Verkehrsstärke oder Zeitlücken, bestimmt und durch die Recheneinheit 7 bereitgestellt werden.
  • Diese Botschaften werden dann über die Kommunikationsschnittstelle 8 an die zentrale Auswerteeinheit 3 übermittelt. Diese ist in der Lage, die einzelnen Objektdetektionen der räumlich und zeitlich verteilten Sensoreinheiten 2 zusammenzuführen und auf Wiedererkennungen zu überprüfen. Für ein mehrfach detektiertes Verkehrsobjekt (bzw. genauer gesagt mehrfach detektierte Kennung ID) lassen sich somit die gefahren Route und die Reisezeit bestimmen. Um die Lokalisierungsgenauigkeit und die Klassifikations-Zuverlässigkeit für ein mehrfach identifiziertes Verkehrsobjekt zu erhöhen, werden die zugehörigen Objekthypothesen listen OH an den unterschiedlichen Detektionsstandorten miteinander abgeglichen. Hierbei wird die Schnittmenge auf den Klassifikationshypothesen K in Objekthypothesenlisten OH gebildet. Im Idealfall reduziert sich die resultierende Schnittmenge auf eine Klassifikations- bzw. Objekthypothese, wodurch eine eindeutige Zuordnung einer Klasse K und der zugehörigen Position möglich ist. Im Falle einer Nullmenge liegt eine Falschdetektion vor, die entsprechend behandelt werden muss. Bei einer mehrstelligen Schnittmenge werden weitere Wiedererkennungen benötigt, um die Mehrdeutigkeit aufzulösen. Die Klassifikations- und Lokalisierungsgenauigkeit erhöht sich demnach mit jeder Wiedererkennung. Ist einer Geräteadresse bzw. Kennung ID für jede Detektion eine Objekthypothese eindeutig zugeordnet worden, so kann die Reisezeit auf Grundlage der Positionsinformationen der Objekthypothesen aktualisiert werden.
  • Dies soll anhand des Beispiels gemäß einer Verkehrssituation in den 2a und 2b kurz erläutert werden. In 2a und 2b sind jeweils zwei räumlich entfernte Kreuzungen zu unterschiedlichen Zeitpunkten dargestellt, an denen jeweils eine Sensoreinheit 2 angeordnet ist. Dabei erfasst der Detektor 5 zum Zeitpunkt T1 die Kennungen ID1 und ID2 an der linken Kreuzung. Die Kamera 4 erfasst einen PKW an der Position A und einen Fußgänger F an der Position B. Dabei ist gestrichelt ein beispielhafter Erfassungsbereich der Sensoreinheit 2 eingezeichnet.
  • Entsprechend erfasst der Detektor 5 der Sensoreinheit 2 an der rechten Kreuzung zum Zeitpunkt T1 die IDs ID3 und ID4 und die Kamera 4 einen PKW an der Position C und einen LKW an der Position D.
  • Die linke Sensoreinheit 2 generiert dann die beiden Botschaften B1, B2: B1 = {ID1|T1|OH[(PKW, Pos. A)(F, Pos. B)]} B2 = {ID2|T1|OH[(PKW, Pos. A)(F, Pos. B)]}
  • Entsprechend generiert die rechte Sensoreinheit 2 die beiden Botschaften B3, B4: B3 = {ID3|T1|OH[(PKW, Pos. C)(LKW, Pos. D)]} B4 = {ID4|T1|OH[(PKW, Pos. C)(LKW, Pos. D)]}
  • Die Botschaften B1 bis B4 werden dann an die zentrale Auswerteeinheit 3 übermittelt.
  • Zu einem späteren Zeitpunkt T2 stellt sich dann eine Verkehrssituation, wie in 2b dargestellt, ein.
  • An der linken Kreuzung werden die Kennung ID2 und ID3 sowie ein LKW an Position E und ein Fußgänger F an Position F erfasst. Die linke Sensoreinheit 2 generiert dann die Botschaften B5, B6: B5 = {ID2|T2|OH[(LKW, Pos. E)(F, Pos. F)]} B6 = {ID3|T2|OH[(LKW, Pos. E)(F, Pos. F)]}
  • An der rechten Kreuzung werden zum Zeitpunkt T2 die Kennungen ID1 und ID5 sowie ein PKW an Position G und ein PKW an Position H ermittelt und die Botschaften B7 und B8 generiert. B7 = {ID1|T2|OH[(PKW, Pos. G)(PKW, Pos. H)]} B8 = {ID5|T2|OH[(PKW, Pos. H)(PKW, Pos. H)]}
  • Die Botschaften B5 bis B8 werden dann wieder an die zentrale Auswerteeinheit 3 übermittelt, die dann durch Schnittmengenbildung die Objekte eindeutig zuordnet, nämlich
    ID1: PKW an Pos. A und G
    ID2: Fußgänger an Pos. B und F
    ID3: LKW an Pos. D und E
    ID4: PKW an Pos. C
    ID5: PKW an Pos. H

Claims (10)

  1. Verfahren zur Generierung von Verkehrsinformationen, mittels mindestens zweier an verschiedenen Positionen eines Verkehrsnetzes angeordneten Sensoreinheiten (2) und mindestens einer Auswerteeinheit (3) zur Generierung von Verkehrsinformationen, wobei jede Sensoreinheit (2) mindestens eine Kamera (4) und mindestens einen Detektor (5) von drahtlosen Endgeräten aufweist, umfassend folgende Verfahrensschritte: a) Aufnehmen mindestens eines Bildes und Detektion von Kennungen (ID) von drahtlosen Endgeräten im Erfassungsbereich der jeweiligen Sensoreinheit (2) zu einem ersten Zeitpunkt (T1), b) Aufstellen von Objekthypothesen (OH) anhand des mindestens einen Bildes der Kamera (4) der jeweiligen Sensoreinheit (2), c) Zuordnen aller Objekthypothesen (OH) zusammen mit dem ersten Zeitpunkt (T1) zu den jeweils detektierten Kennungen (ID) der drahtlosen Endgeräte zu einer Botschaft (B), d) Übermitteln aller Botschaften (B) an die mindestens eine Auswerteeinheit (3), e) Wiederholen der Verfahrensschritte a) bis d) zu mindestens einem zweiten Zeitpunkt (T2) an mindestens einer weiteren oder gleichen Position, f) Vergleich der Botschaften (B) einer Kennung (ID) vom ersten Zeitpunkt (T1) und zweiten Zeitpunkt (T2) in der mindestens einen Auswerteeinheit (3), wobei aufgrund des Vergleichs Objekthypothesen (OH) verworfen oder bestätigt werden und daraus Verkehrsinformationen generiert werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Objekthypothesen (OH) einen Fortbewegungs-Modus der Objekte umfassen.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Objekthypothesen (OH) mindestens eine Klassifizierung (K) der Objekte umfassen.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass mittels der Daten einer Orientierungseinheit (6) die Objektdaten der Kamera (4) in einem übergeordneten Koordinatensystem bestimmt werden.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass aus den Daten einer Sensoreinheit (2) lokale Verkehrsparameter ermittelt werden.
  6. Vorrichtung (1) zur Generierung von Verkehrsinformationen, umfassend mindestens zwei Sensoreinheiten (2), die an verschiedenen Positionen eines Verkehrsnetzes angeordnet sind, mindestens eine der jeweiligen Sensoreinheit (2) zugeordnete Recheneinheit (7) und mindestens eine Auswerteeinheit (3) zur Generierung von Verkehrsinformationen, wobei jede Sensoreinheit (2) mindestens eine Kamera (4) und mindestens einen Detektor (5) von drahtlosen Endgeräten aufweist, wobei die Vorrichtung (1) derart ausgebildet ist, dass zu einem ersten Zeitpunkt (T1) im Erfassungsbereich der jeweiligen Sensoreinheit (2) mindestens ein Bild durch die jeweilige Kamera (4) aufgenommen wird und Kennungen (ID) von drahtlosen Endgeräten durch den Detektor (5) detektiert werden, wobei die Kamera (4) oder die Recheneinheit (7) derart ausgebildet ist, dass anhand des mindestens einen Bildes der Kamera (4) der jeweiligen Sensoreinheit (2) Objekthypothesen (OH) aufgestellt werden, wobei in der Recheneinheit (7) alle Objekthypothesen (OH) zusammen mit dem ersten Zeitpunkt (T1) den jeweils detektierten Kennungen (ID) der drahtlosen Endgeräte zu einer Botschaft (B) zugeordnet werden und an die mindestens eine Auswerteeinheit (3) übermittelt werden, wobei die Vorrichtung (1) derart ausgebildet ist, dass dieser Vorgang zu mindestens einem zweiten Zeitpunkt (T2) wiederholt wird, wobei die Auswerteeinheit (3) derart ausgebildet ist, dass die Botschaften (B) einer Kennung (ID) von verschiedenen Zeitpunkten (T1, T2) verglichen werden, wobei aufgrund des Vergleichs Objekthypothesen (OH) für die Kennung (ID) verworfen oder bestätigt werden und daraus Verkehrsinformationen generiert werden.
  7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Recheneinheit (7) derart ausgebildet ist, dass die Objekthypothesen (OH) einen Fortbewegungs-Modus der Objekte umfassen.
  8. Vorrichtung nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Recheneinheit (7) derart ausgebildet ist, dass die Objekthypothesen (OH) mindestens eine Klassifizierung (K) der Objekte umfassen.
  9. Vorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass den Recheneinheiten (7) jeweils mindestens eine Orientierungseinheit (6) zugeordnet ist, wobei die Recheneinheit (7) derart ausgebildet ist, dass mittels der Daten der Orientierungseinheit (6) die Objektdaten der Kamera (4) in einem übergeordneten Koordinatensystem bestimmt werden.
  10. Vorrichtung nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Recheneinheit (7) derart ausgebildet ist, dass diese aus den Daten der Sensoreinheit (2) lokale Verkehrsparameter ermittelt.
DE102014221285.5A 2014-10-21 2014-10-21 Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen Active DE102014221285B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014221285.5A DE102014221285B3 (de) 2014-10-21 2014-10-21 Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014221285.5A DE102014221285B3 (de) 2014-10-21 2014-10-21 Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen

Publications (1)

Publication Number Publication Date
DE102014221285B3 true DE102014221285B3 (de) 2015-12-03

Family

ID=54481765

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014221285.5A Active DE102014221285B3 (de) 2014-10-21 2014-10-21 Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen

Country Status (1)

Country Link
DE (1) DE102014221285B3 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011134647A1 (de) * 2010-04-29 2011-11-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und vorrichtung zur generierung von verkehrsinformationen
DE102011100628A1 (de) * 2011-05-05 2012-11-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung mindestens eines Kameraparameters
DE102012218058A1 (de) * 2011-10-05 2013-04-25 International Business Machines Corporation Verkehrssensormanagement
GB2498876A (en) * 2012-01-27 2013-07-31 Siemens Plc Estimating a traffic state of a road network by using an Extended Kalman Filter to combine data from vehicle probes and other sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011134647A1 (de) * 2010-04-29 2011-11-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und vorrichtung zur generierung von verkehrsinformationen
DE102011100628A1 (de) * 2011-05-05 2012-11-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung mindestens eines Kameraparameters
DE102012218058A1 (de) * 2011-10-05 2013-04-25 International Business Machines Corporation Verkehrssensormanagement
GB2498876A (en) * 2012-01-27 2013-07-31 Siemens Plc Estimating a traffic state of a road network by using an Extended Kalman Filter to combine data from vehicle probes and other sensors

Similar Documents

Publication Publication Date Title
EP3357050B1 (de) Vorrichtung und verfahren zur charakterisierung von objekten
EP2191233B1 (de) Vorrichtung und verfahren zum aktualisieren von kartendaten
DE102017208124B4 (de) Verfahren, Vorrichtung und System zum Ermitteln einer Straßenbaustelle
DE102017217297B4 (de) System zur Erzeugung und/oder Aktualisierung eines digitalen Modells einer digitalen Karte
EP2850607B1 (de) Verfahren und system zur erstellung eines aktuellen situationsabbilds
DE102020133982A1 (de) Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte
EP2624231A1 (de) Vorrichtungen und Verfahren zur Kontrolle in einem Straßenmautsystem
DE102016205434A1 (de) Verfahren und System zum Erstellen einer spurgenauen Belegungskarte für Fahrspuren
DE112018007073T5 (de) Informationserzeugungsvorrichtung, Informationserzeugungsverfahren, Computerprogramm und fahrzeuginterne Vorrichtung
DE102012021403A1 (de) Verfahren zum Identifizieren eines von einer Sensoreinrichtung erfassten Fahrzeugs
DE102016218934A1 (de) Verfahren zum Datenaustausch und Datenfusionierung von Umfelddaten
CN107077784A (zh) 用于提供关于在机动车的环境区域中的至少一个对象的信息的方法和系统
DE102022100213A1 (de) Auf Maschinenlernen basierendes Framework für die Annotation befahrbarer Oberflächen
KR102178598B1 (ko) 다시점 블랙박스 카메라 영상을 이용한 도로교통정보 제공시스템
DE102019217187A1 (de) Verfahren und Vorrichtung zur Ermittlung von Navigationsinformationen
DE102013107960B4 (de) Verfahren zur Aktualisierung einer Datenbasis sowie Einrichtung und Computerprogramm
EP2116981A2 (de) Verfahren und Vorrichtung zur Ermittlung von Rückstaulängen an Lichtsignalanlagen
EP2521070A2 (de) Verfahren und System zum Erfassen einer statischen oder dynamischen Szene, zum Bestimmen von Rohereignissen und zum Erkennen von freien Flächen in einem Beobachtungsgebiet
DE102023111485A1 (de) Nachverfolgungssegmentbereinigung nachverfolgter objekte
WO2017102267A1 (de) Verfahren zur erkennung von falschparkern
DE102018132355A1 (de) Verfahren zur Verkehrszeichenbestimmung
WO2018210487A1 (de) Verfahren, vorrichtung und system zum ermitteln eines wettergebiets
DE102014221285B3 (de) Verfahren und Vorrichtung zur Generierung von Verkehrsinformationen
EP1972894B1 (de) Verfahren, computergestützte Vorrichtung und System zur Wegstreckenbestimmung
CN113378719B (zh) 车道线的识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final