DE102019134985B4 - Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers - Google Patents

Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers Download PDF

Info

Publication number
DE102019134985B4
DE102019134985B4 DE102019134985.0A DE102019134985A DE102019134985B4 DE 102019134985 B4 DE102019134985 B4 DE 102019134985B4 DE 102019134985 A DE102019134985 A DE 102019134985A DE 102019134985 B4 DE102019134985 B4 DE 102019134985B4
Authority
DE
Germany
Prior art keywords
road user
radar
determined
detected
optical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019134985.0A
Other languages
English (en)
Other versions
DE102019134985A1 (de
Inventor
Michael Lenning
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SMS Smart Microwave Sensors GmbH
Original Assignee
SMS Smart Microwave Sensors GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE102019134985.0A priority Critical patent/DE102019134985B4/de
Application filed by SMS Smart Microwave Sensors GmbH filed Critical SMS Smart Microwave Sensors GmbH
Priority to KR1020227022756A priority patent/KR20220110543A/ko
Priority to JP2022535905A priority patent/JP2023519061A/ja
Priority to US17/787,024 priority patent/US20230008876A1/en
Priority to EP20829905.7A priority patent/EP4078230A2/de
Priority to CN202080087799.6A priority patent/CN114829972A/zh
Priority to PCT/EP2020/086540 priority patent/WO2021122828A2/de
Publication of DE102019134985A1 publication Critical patent/DE102019134985A1/de
Application granted granted Critical
Publication of DE102019134985B4 publication Critical patent/DE102019134985B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/44Monopulse radar, i.e. simultaneous lobing
    • G01S13/4454Monopulse radar, i.e. simultaneous lobing phase comparisons monopulse, i.e. comparing the echo signals received by an interferometric antenna arrangement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/356Receivers involving particularities of FFT processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/358Receivers using I/Q processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/343Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation

Abstract

Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers auf einem Verkehrsweg mittels eines Radarsensors und eines optischen Detektors, wobei bei dem Verfahren
- Radarstrahlung von wenigstens einem Radar-Sender des Radarsensors ausgesendet und von dem wenigstens einen Verkehrsteilnehmer reflektiert wird,
- die reflektierte Radarstrahlung mittels wenigstens eines Radar-Empfängers des Radarsensors detektiert wird,
- die detektierte Radarstrahlung derart ausgewertet wird, dass zumindest ein Abstand und eine Radialgeschwindigkeit des wenigstens einen Verkehrsteilnehmers relativ zu dem Radarsensor bestimmt wird,
- ein optisches Bild des wenigstens einen Verkehrsteilnehmers mittels des optischen Detektors detektiert wird, und
- das optische Bild ausgewertet wird, wobei wenigstens ein Parameter des wenigstens einen Verkehrsteilnehmers sowohl aus der detektierten Radarstrahlung als auch aus dem optischen Bild bestimmt wird, wobei der Parameter eine Richtung, in der sich der Verkehrsteilnehmer befindet, oder ein Abstand des Verkehrsteilnehmers vom Radarsensor und/oder vom optischen Detektor ist.

Description

  • Die Erfindung betrifft ein Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers auf einem Verkehrsweg. Derartige Verfahren sind aus dem Stand der Technik seit langem und in unterschiedlichen Ausführungsformen bekannt. Auch Vorrichtungen und Sensoren zum Durchführen derartiger Verfahren sind im Stand der Technik beschrieben worden.
  • Für unterschiedliche Anwendungen ist es von Vorteil, Verkehrsteilnehmer auf einem Verkehrsweg zu erfassen und gegebenenfalls zu klassifizieren. Derartige Verfahren finden Anwendung beispielsweise bei der Steuerung von Kreuzungen von Verkehrswegen, bei der statistischen Erfassung beispielsweise von Straßenverkehr, bei der Abrechnung von Maut-Systemen, bei denen die Benutzung eines Verkehrsweges gebührenpflichtig ist, sowie bei der Verfolgung von Verkehrsdelikten, beispielsweise Rotlichtverstößen oder Geschwindigkeitsüberschreitungen. Dabei ist es heute oft nicht mehr ausreichend, die Anzahl bestimmter Verkehrsteilnehmer zu kennen. Sensoren für die Erfassung von Verkehrsteilnehmern auf einem Verkehrsweg können auch am Verkehrsteilnehmer selbst, beispielsweise in einem Kraftfahrzeug, eingesetzt werden, um andere Verkehrsteilnehmer, die den gleichen Verkehrsweg verwenden, zu detektieren, zu klassifizieren und deren Verhalten einzuschätzen und gegebenenfalls vorherzusagen. Dafür ist es notwendig oder zumindest von großem Vorteil, die anderen Verkehrsteilnehmer möglichst detailliert zu kennen, zu erkennen und zu klassifizieren.
  • Unterschiedliche Sensoren werden seit Jahren eingesetzt, um Verkehrsteilnehmer zu erfassen. Dies betrifft beispielsweise die Verwendung von optischen Kameras in Form von Mono-Kameras oder Stereo-Kameras. Eine Kamera liefert eine sehr gute Auflösung bezüglich der transversalen Richtung, in der sich ein Verkehrsteilnehmer bezüglich der Kamera befindet. Sie liefert folglich eine gute Winkelauflösung in Azimutrichtung und Elevationsrichtung, die auch als Seitenrichtung und Höhenrichtung bezeichnet werden. Aus einzelnen optischen Bildern, die eine einzelne Kamera liefert, kann jedoch in der Regel nicht auf die Entfernung eines Objektes geschlossen werden, sofern nicht die Größe wenigstens eines Teilbereiches eines Objektes, beispielsweise ein Nummernschild eines Verkehrsteilnehmers, bekannt und aus dem optischen Bild zu ermitteln ist. Die Geschwindigkeit eines Objektes ist aus einem einzelnen optischen Bild in der Regel nicht zu ermitteln. Stereo-Kameras hingegen können bei bekanntem Versatz zwischen den beiden Einzelkameras, die die Stereo-Kamera bilden, Informationen über die Entfernung eines Objektes liefern. Die Geschwindigkeit kann jedoch auch in dieser Sensoranordnung nicht aufgelöst werden. Hinzu kommt, dass Kameras in der Regel sichtbares Licht detektieren und somit bei Dunkelheit, Nebel oder Regen und Schnee nicht oder nur sehr eingeschränkt funktionieren. Dies ist jedoch für beispielsweise die Ausrüstung von Fahrzeugen für das autonome Fahren notwendig, da solche Fahrzeuge auch nachts autonom fahren sollen.
  • Auch Laserscanner werden für die Verkehrsüberwachung eingesetzt. Sie verfügen jedoch über eine geringe räumliche Auflösung, die auch durch neuere Entwicklungen wie beispielsweise die Verwendung von Solid State Lasern und/oder Frequenzmodulation nicht an die Auflösung von Kamerasystemen heranreicht. Durch die Verwendung von Wellenlängen in der Größenordnung des sichtbaren Lichtes, beispielsweise im nahen Infrarot ergeben sich die gleichen Reflexionsproblematiken wie bei Kamerasystemen, beispielsweise an glänzenden und optisch reflektierenden Oberflächen. Zudem ergeben sich eine eingeschränkte Reichweite sowie eine Leistungsbeschränkung aufgrund der einzuhaltenden für Laser geltenden Sicherheitsvorschriften. Als weitere Nachteile sind die geringe räumliche Auflösung, Empfindlichkeit gegen Verschmutzung und bei frequenzmodulierten Laserscannern der hohe technische und finanzielle Aufwand zu nennen.
  • Häufig werden im Stand der Technik Radarsensoren verwendet, um Verkehrsteilnehmer zu erfassen. Dabei wird Radarstrahlung mittels eines Radar-Senders des Radarsensors ausgesendet, vom jeweiligen Verkehrsteilnehmer reflektiert und anschließend von einem Radar-Empfänger des Radarsensors detektiert. Wird die Radarstrahlung beispielsweise in Form von Frequenzrampen ausgesendet, kann aus der detektierten Radarstrahlung der Abstand oder die Entfernung des Verkehrsteilnehmers vom Radarsensor sowie die Radialgeschwindigkeit, also die Geschwindigkeitskomponente des Verkehrsteilnehmers, die auf den Sensor zu oder von dem Sensor weg gerichtet ist, bestimmt werden. Aus der DE 10 2017 105 783 ist ein derartiges Verfahren bekannt, bei dem unterschiedliche Frequenzrampen ausgesendet werden und aus den detektierten Empfangssignalen, die der detektierten Radarstrahlung entsprechen, sogenannte Range-Doppler-Matrizen berechnet werden. Mehrere unterschiedliche Frequenzrampen sind notwendig, um Mehrdeutigkeiten, die aus der Dopplerfrequenz bei der Bestimmung der Radialgeschwindigkeit stammen, zu beheben oder ihren Effekt wenigstens abzumildern. Ein Verfahren ähnlicher Natur ist beispielsweise aus der DE 10 2012 008 350 bekannt. Es sind jedoch auch andere Verfahren zur Erzeugung einer Range-Doppler-Matrix möglich, beispielsweise mittels PMCW (phase modulated continuous wave) Modulation, insbesondere digitaler Modulation und geeigneter Auswertung.
  • Radarsensoren haben den Nachteil, nur eine schlechte Winkelauflösung zu bieten. Diesem Nachteil wird mit unterschiedlichen Ansätzen entgegengewirkt. Die Winkelauflösung eines Radarsensors kann deutlich verbessert werden, wenn mehrere in festen und bekannten Abständen zueinander angeordnete Radar-Empfänger und/oder mehrere in festen und bekannten Abständen zueinander angeordnete Radar-Sender verwendet werden und den Radarsensor bilden. Die Auflösung ist selbst dann jedoch mit der eines optischen Sensors, beispielsweise einer Kamera, nicht vergleichbar.
  • Aus der DE 10 2018 205 879 A1 ist ein Verfahren bekannt, bei dem Radarsensoren verwendet werden, um Verkehrsteilnehmer zu erfassen. Diese werden auch mit einer optischen Kamera erfasst. Es werden dann die Sensordaten verwendet, um Pixel in dem durch die Kamera erfasste Bild einem Verkehrsteilnehmer zuzuordnen.
  • Der EP 3 252 501 A1 ist ein Verfahren zu entnehmen, bei dem ein Radarsensor verwendet wird, um eine Radialgeschwindigkeit eines Verkehrsteilnehmers aus der Dopplerverschiebung der reflektierten Radarstrahlung bestimmen. Gleichzeitig wird der Verkehrsteilnehmer mit einem optischen Sensor erfasst und aus einem zeitlichen Fluss des Kamerabildes eine Geschwindigkeitskomponente bestimmt, die senkrecht zur Blickrichtung des optischen Sensors verläuft. Die DE 10 2013 206 707 A1 beschreibt ein Verfahren, bei dem an einem Kraftfahrzeug ein erster Sensor und ein zweiter Sensor angeordnet sind, die unterschiedliche Sensoren sind und deren Sichtbereiche einander nicht überlappen. Zunächst erfasst der erste Sensor ein statisches Objekt und bestimmt dessen Abstand. Das Kraftfahrzeug bewegt sich dabei relativ zu dem statischen Objekt, bis dieses den Sichtbereich des ersten Sensors verlässt. Gelangt das Objekt danach in den Sichtbereich des zweiten Sensors, bestimmt dieser den Abstand des Objektes vom Kraftfahrzeug. Dieser wird mit einem erwarteten Abstand verglichen, der aus den Messungen des ersten Sensors und der Eigengeschwindigkeit des Kraftfahrzeuges ermittelt wird.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren anzugeben, mit dem die Nachteile aus dem Stand der Technik behoben und der Verkehrsteilnehmer besser erfasst werden kann.
  • Die Erfindung löst die gestellte Aufgabe durch ein Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers auf einem Verkehrsweg mittels eines Radarsensors und eines optischen Detektors, bei dem
    • - Radarstrahlung von wenigstens einem Radar-Sender des Radarsensors ausgesendet und von dem wenigstens einen Verkehrsteilnehmer reflektiert wird,
    • - die reflektierte Radarstrahlung mittels wenigstens eines Radar-Empfängers des Radarsensors detektiert wird,
    • - die detektierte Radarstrahlung derart ausgewertet wird, dass zumindest ein Abstand und eine Radialgeschwindigkeit des wenigstens einen Verkehrsteilnehmers relativ zu dem Radarsensor bestimmt wird,
    • - ein optisches Bild des wenigstens einen Verkehrsteilnehmers mittels des optischen Detektors detektiert wird, und
    • - das optische Bild ausgewertet wird,
    wobei wenigstens ein Parameter des wenigstens einen Verkehrsteilnehmers sowohl aus der detektierten Radarstrahlung als auch aus dem optischen Bild bestimmt wird, wobei der Parameter eine Richtung, in der sich der Verkehrsteilnehmer befindet oder ein Abstand des Verkehrsteilnehmers vom Radarsensor und/oder vom optischen Detektor ist.
  • Das Verfahren kombiniert die Vorteile eines Radarsensors mit den Vorteilen eines optischen Detektors, beispielsweise einer Mono-Kamera oder einer Stereo-Kamera. Die Radarstrahlung wird von dem wenigstens einen Radar-Sender ausgesendet, vom Verkehrsteilnehmer reflektiert und als reflektierte Radarstrahlung vom Radar-Empfänger detektiert. Dies entspricht der Funktionsweise eines Radarsensors aus dem Stand der Technik. Der optische Detektor, der bei dem Verfahren verwendet wird, detektiert ein optisches Bild. Dazu kann er sichtbares Licht, Infrarot-Strahlung oder UV-Strahlung detektieren. Die detektierte Strahlung kann unterschiedliche Wellenlängen aufweisen oder monochromatisch sein. Die optimale Wahl hängt von den Erfordernissen des Anwendungsfalls ab. Dieses optische Bild, das von dem optischen Detektor detektiert wird, wird ausgewertet, wobei alle Auswertungsverfahren verwendet werden können, die aus dem Stand der Technik bekannt sind. Selbstverständlich können auch zusätzliche Auswertungen durchgeführt werden. Erfindungsgemäß wird wenigstens ein Parameter des wenigstens einen Verkehrsteilnehmers durch beide Messprinzipien - also doppelt - bestimmt, nämlich einmal bei der Auswertung der detektierten Radarstrahlung und einmal bei der Auswertung des optischen Bildes. Diese Doppelbestimmung sorgt dafür, dass die Parameter, die beim Auswerten der detektierten Radarstrahlung ermittelt werden, und die Parameter, die beim Auswerten des optischen Bildes bestimmt werden, einem einzigen Verkehrsteilnehmer zugeordnet werden können, sofern sie denn zu diesem einen Verkehrsteilnehmer gehören.
  • Als Parameter des Verkehrsteilnehmers können unterschiedlichste Größen herangezogen werden. Dies betrifft den Abstand vom Radarsensor und/oder vom optischen Detektor, die Richtung, in der sich der Verkehrsteilnehmer bezüglich des Radarsensors und/oder des optischen Detektors befindet, die Radialgeschwindigkeit in Bezug auf den Radarsensor und/oder den optischen Detektor, andere Geschwindigkeitskomponenten in andere Richtungen, die Größe, die Orientierung, die Temperatur und alle weiteren Größen, die aus detektierter Radarstrahlung und/oder ausgewertet dem optischen Bild ermittelt werden können. Der wenigstens eine Parameter, der sowohl aus der detektierten Radarstrahlung als auch aus dem optischen Bild bestimmt wird, beinhaltet vorzugsweise eine Richtung, in der sich der Verkehrsteilnehmer befindet. Auch wenn die Auflösung der beiden verwendeten Messverfahren bezüglich dieses Parameters deutlich unterschiedlich ist, lassen sich doch bestimmte Parameter wie beispielsweise diese Raumrichtung, die mit den beiden unterschiedlichen Sensoren und Verfahren bestimmt wurden, einem einzigen Verkehrsteilnehmer zuordnen. Dieser Parameter, der sowohl aus dem optischen Bild als auch aus der detektierten Radarstrahlung bestimmt wird, kann auch als Brückenparameter bezeichnet werden, da er es ermöglicht, die Parameter der unterschiedlichen Detektionsweisen zu kombinieren und dem richtigen Verkehrsteilnehmer zuzuordnen. Auf diese Weise wird es möglich, die nur durch eine der beiden Sensoranordnungen bestimmbaren Parameter zu kombinieren, dem gleichen Verkehrsteilnehmer zuzuordnen und so die Kenntnis über den Verkehrsteilnehmer zu ergänzen und zu erweitern. Parameter, die durch beide Sensoranordnungen, also den Radarsensor und den optischen Detektor bestimmbar sind, können kontrolliert und verglichen werden, auf Plausibilität geprüft werden und so mit geringeren Fehlertoleranzen angegeben werden.
  • Vorzugsweise wird aus der detektierten Radarstrahlung wenigstens eine Detektionsmatrix, insbesondere wenigstens eine Range-Doppler-Matrix, bestimmt, aus der der Abstand des wenigstens einen Verkehrsteilnehmers vom Radarsensor und/oder die Radialgeschwindigkeit des Verkehrsteilnehmers bezüglich des Radarsensors bestimmt wird. Die Verwendung von Range-Doppler-Matrizen ist aus dem Stand der Technik bekannt. Die Radarstrahlung wird vorzugsweise in Form von Frequenzrampen oder anderweitig codiert ausgesendet. Die reflektierte Radarstrahlung, die vom Radar-Empfänger des Radarsensors detektiert wird, wird anschließend mit dem ausgesendeten Signal gemischt und der Auswertung zugeführt. Dabei werden unterschiedliche Fast-Fourier-Transformationen (FFT), Korrelationen oder andere Verfahren durchgeführt, sodass am Ende eine Matrix erhalten werden kann, in der spektrales Gewicht, also detektierte Energie, bei bestimmten Werten für den Abstand und die Dopplerfrequenz und damit die Radialgeschwindigkeit enthalten ist.
  • Vorzugsweise verfügt der Radarsensor über mehrere Radar-Sender und/oder mehrere Radar-Empfänger, sodass mehrere Kombinationen aus Sender und Empfänger gebildet werden können. Für jede dieser Kombinationen kann eine eigene Range-Doppler-Matrix gebildet werden. Diese können in Form eines digitalen Strahlformung-Prozesses („Digital Beam Forming“) so kombiniert werden, dass unterschiedliche Richtungen, vorzugsweise sowohl in Azimutrichtung als auch in Elevationsrichtung, erfasst werden. Durch geschickte Kombination der verschiedenen Range-Doppler-Matrizen kann auf diese Weise die Winkelauflösung verbessert werden. Man erzeugt damit den gleichen Effekt, wie mit einer schwenkbaren Sensoranordnung und/oder schwenkbaren Radar-Sensoren. Vorzugsweise werden mehrere Detektionsmatrizen, insbesondere mehrere Range-Doppler-Matrizen, bestimmt, die Informationen über Verkehrsteilnehmer in unterschiedlichen Richtungen, insbesondere Azimutwinkel-Bereichen, enthalten. Aus der detektierten Radarstrahlung werden so Informationen über die Richtung ermittelt, in der sich der wenigstens eine Verkehrsteilnehmer relativ zu dem Radarsensor befindet.
  • Vorzugsweise wird aus dem optischen Bild eine Raumrichtung bestimmt, in der sich der wenigstens eine Verkehrsteilnehmer relativ zu dem optischen Detektor befindet. Dies ist aus dem Stand der Technik seit langem bekannt und kann beispielsweise durch Multiplikation einzelner verzeichniskorrigierter Pixel des optischen Detektors, beispielsweise einer CMOS-Kamera, mit der inversen Kameramatrix erreicht werden. Auf diese Weise kann jedem Pixel eine genaue Raumrichtung und ein Winkelbereich zugewiesen werden, aus dem die elektromagnetische Strahlung, die der Pixel detektiert hat, stammt. Wird die Raumrichtung sowohl aus dem optischen Bild als auch aus der detektierten Radarstrahlung ermittelt, eignet sie sich als Brückenparameter, um die Messwerte und Parameter, die mit den unterschiedlichen Sensortypen und Verfahren bestimmt wurden, zu kombinieren und einem Verkehrsteilnehmer zuzuordnen.
  • Vorteilhafterweise wird die detektierte Radarstrahlung und/oder das optische Bild des wenigstens einen Verkehrsteilnehmers zu verschiedenen Zeitpunkten detektiert und ausgewertet. Insbesondere bei der Auswertung der optischen Bilder, die mehrfach nacheinander zu unterschiedlichen Zeitpunkten aufgenommen und detektiert wurden, lässt sich ein optischer Fluss bestimmen. Dies bedeutet, dass bestimmte Objekte oder Teile von Objekten, beispielsweise der Verkehrsteilnehmer oder sein Nummernschild, auf den verschiedenen optischen Bildern identifiziert und somit verfolgt werden kann. Daraus lässt sich beispielsweise eine Geschwindigkeit, eine Bewegungsrichtung, ein Abstand und/oder eine Größe des Objektes, insbesondere des wenigstens einen Verkehrsteilnehmers, bestimmen. Dabei ist es von Vorteil, wenn andere Parameter bei der Auswertung der optischen Bilder und des optischen Flusses herangezogen werden, die bevorzugt aus der Auswertung der detektierten Radarstrahlung bestimmt wurden.
  • Vorzugsweise wird beim Auswerten der detektierten Radarstrahlung wenigstens ein Parameter berücksichtigt, der bei wenigstens einer vorherigen Auswertung des optischen Bildes bestimmt wurde. Alternativ oder zusätzlich dazu wird beim Auswerten des optischen Bildes wenigstens ein Parameter berücksichtigt, der bei wenigstens einer vorherigen Auswertung der detektierten Radarstrahlung bestimmt wurde. Selbstverständlich können auch Parameter verwendet werden, die bei der Auswertung der gleichen Größe ermittelt wurden. Auf diese Weise können beispielsweise Verkehrsteilnehmer erfasst und verfolgt werden, die nicht über die gesamte Messzeit für den jeweiligen Sensor sichtbar sind. Nähert sich beispielsweise ein Pkw einer Kreuzung, ist er für die Sensoranordnung beispielsweise zunächst sichtbar, bis er hinter einem größeren Fahrzeug, beispielsweise einem Lkw, anhalten muss oder von diesem verdeckt wird. Da der Pkw bei vorherigen Auswertungen erkannt und verfolgt wurde, können diese Parameter verwendet werden, um den Pkw auch bei späteren Auswertungen aktiv zu suchen und dabei die bekannten Werte beispielsweise für Abstand, Position und/oder Orientierung des Pkws zu verwenden. Gleiches gilt beispielsweise für Pkw, die zwar für den Sensor noch sichtbar sind, jedoch beispielsweise an einer Lichtsignalanlage halten müssen. Die Geschwindigkeit des Fahrzeugs reduziert sich auf 0 m/s, sodass insbesondere bei der Auswertung der detektierten Radarstrahlung keine sich von anderen feststehenden Objekten, beispielsweise Verkehrsschildern, unterscheidende Geschwindigkeit mehr ermittelt werden kann. Dennoch können die Parameter früherer Auswertungen herangezogen werden, sodass der jeweilige Verkehrsteilnehmer wiedererkannt werden kann, sobald er wieder anfährt und wieder eine Radialgeschwindigkeit aufweist.
  • Bevorzugt wird zumindest auch aus dem optischen Fluss, bevorzugt in Kombination mit der Radialgeschwindigkeit, die besonders bevorzugt aus der detektierten Radarstrahlung bestimmt wird, eine Geschwindigkeit des wenigstens einen Verkehrsteilnehmers und/oder eine Richtung bestimmt, in der sich der wenigstens eine Verkehrsteilnehmer relativ zu dem optischen Detektor befindet. Auf diese Weise kann nicht nur die Radialgeschwindigkeit, sondern auch eine andere richtungweisende Geschwindigkeitskomponente des Geschwindigkeitsvektors, vorzugsweise der gesamte Geschwindigkeitsvektor bestimmt werden. Dies ist beispielsweise für die Anwendung von großem Vorteil, in der die Sensoranordnung an einem Kraftfahrzeug positioniert ist. Die Sensoranordnung kann beispielsweise den Teil des Verkehrsweges überwachen, der vor dem Kraftfahrzeug liegt, an dem sie positioniert ist. Dabei wird das beschriebene Verfahren zur genauen Ermittlung der relativen Bewegung anderer Fahrzeuge durchgeführt. Ebenso kann dieses Verfahren genutzt werden, um die eigene Geschwindigkeit relativ zu ruhenden Komponenten und Objekten zu ermitteln. Für das autonome Fahren ist es wichtig, zu erkennen, ob sich das Fahrzeug, das mit der Sensoranordnung ausgerüstet ist, mit einem voranfahrenden Fahrzeug, das eine geringere Geschwindigkeit aufweist, auf Kollisionskurs befindet oder nicht. Dazu ist es nicht ausreichend, die Radialgeschwindigkeit zu bestimmen, vielmehr muss auch eine gegebenenfalls kleine Komponente der Relativgeschwindigkeit zwischen den beiden Fahrzeugen bestimmt werden, die nicht auf eines der Fahrzeuge zu oder von ihm weg zeigt. Nur so kann bestimmt werden, ob beispielsweise ein Spurwechsel nötig ist oder ob die beiden Fahrzeuge aneinander vorbeifahren können.
  • In einer bevorzugten Ausgestaltung wird in dem detektierten optischen Bild ein Bestandteil des wenigstens einen Verkehrsteilnehmers erkannt, dessen Abmessung in wenigstens einer Raumrichtung, bevorzugt in zwei zueinander senkrecht stehenden Raumrichtungen, bekannt ist, sodass aus dem detektierten optischen Bild ein Abstand des wenigstens einen Verkehrsteilnehmers von dem optischen Detektor und/oder eine Größe des wenigstens einen Verkehrsteilnehmers bestimmbar ist, besonders bevorzugt bestimmt wird. Ein derartiger Bestandteil ist beispielsweise das Nummernschild, das in vielen Ländern in seiner Größe genormt ist. Gegebenenfalls gibt es zwei oder drei unterschiedliche Ausführungsformen eines Nummernschildes, deren Maße jedoch stark unterschiedlich und bekannt sind. Daher kann aus der scheinbaren Größe, also den Abmessungen in wenigstens einer Richtung in dem detektierten Bild, und der Kenntnis der wahren Größe auf den Abstand des Objektes, hier also des Bestandteils des wenigstens einen Verkehrsteilnehmers, geschlossen werden. Dadurch kann der Abstand sowohl bei der Auswertung des optischen Bildes als auch bei der Auswertung der detektierten Radarstrahlung bestimmt werden, sodass er als Brückenparameter verwendet werden kann.
  • Bevorzugt wird ein Abstand zwischen dem Radarsensor und dem optischen Detektor und/oder eine Orientierung des Radarsensors relativ zu dem optischen Detektor aus der detektierten Radarstrahlung und dem optischen Bild bestimmt. Dies kann auf unterschiedliche Weise geschehen. In der Regel funktioniert dies dann, wenn ein Gegenstand, ein Objekt oder ein Teil eines Gegenstandes oder eines Objektes sowohl bei der Auswertung der detektierten Radarstrahlung als auch bei der Auswertung des optischen Bildes erkannt wird. Besonders bevorzugt wird die Orientierung des Gegenstandes oder Objektes relativ zum Radarsensor und relativ zum optischen Detektor erkannt. Ist die Größe, Form oder Orientierung des Objektes bekannt, kann aus den unterschiedlichen Blickwinkeln, die der Radarsensor und der optische Detektor auf den Gegenstand oder das Objekt haben, auf die Positionierung, also insbesondere den Abstand und/oder die Orientierung, der beiden Sensoren zueinander geschlossen werden.
  • In einer bevorzugten Ausgestaltung ist der Abstand und/oder die Orientierung der beiden Sensoren zueinander bekannt. Dennoch ist es sinnvoll, den Abstand und/oder die Orientierung aus der detektierten Radarstrahlung und dem optischen Bild zu bestimmen, um ihn dann beispielsweise mit den bekannten Soll-Daten zu vergleichen. Auf diese Weise können Fehlfunktionen der Sensoranordnung erkannt werden, die beispielsweise durch eine Verschiebung oder eine Bewegung des optischen Detektors und/oder des Radarsensors relativ zum jeweils anderen Detektor oder Sensor hervorgerufen werden.
  • Vorzugsweise wird beim Auswerten des optischen Bildes eine Ausdehnung des wenigstens einen Verkehrsteilnehmers in Azimutrichtung und/oder in Elevationsrichtung bestimmt. Beim Auswerten der detektierten Radarstrahlung wird bevorzugt die Entfernung des wenigstens einen Verkehrsteilnehmers vom Radarsensor bestimmt, wobei aus der Ausdehnung und der Entfernung die Lage und/oder Größe und/oder Orientierung des Verkehrsteilnehmers ermittelt wird. Dies ist insbesondere dann von Vorteil, wenn Bewegungen des Verkehrsteilnehmers vorhergesagt oder antizipiert werden sollen. Ist die genaue Lage und Orientierung eines Verkehrsteilnehmers bekannt, scheiden Bewegungen in einer Reihe von Richtungen aus. Ein Pkw beispielsweise kann sich nur vorwärts oder rückwärts bewegen und gegebenenfalls eine Kurve einschlagen. Eine Seitwärtsbewegung ist aufgrund der Konstruktion des Pkw in der Regel ausgeschlossen. Ist die Orientierung des Pkw bekannt, können damit bestimmte Bewegungen von vornherein ausgeschlossen werden, da der Verkehrsteilnehmer aufgrund seiner technischen Beschaffenheit nicht in der Lage ist, diese Bewegungen durchzuführen.
  • Vorzugsweise wird beim Auswerten des optischen Bildes eine Orientierung des wenigstens einen Verkehrsteilnehmers bestimmt, aus der mit der Radialgeschwindigkeit und der Entfernung des wenigstens einen Verkehrsteilnehmers eine vollständige Geschwindigkeit und/oder eine vollständige Bewegungsrichtung des wenigstens einen Verkehrsteilnehmers bestimmt wird. Eine vollständige Geschwindigkeit und eine vollständige Bewegungsrichtung beinhalten nicht nur eine einzige Bewegungskomponente, beispielsweise die Radialgeschwindigkeit oder die Bewegung auf den Sensor zu, sondern auch alle anderen Komponenten der jeweiligen vektoriellen Größe.
  • Vorteilhafterweise wird der wenigstens eine Verkehrsteilnehmer auf der Grundlage von Parametern klassifiziert, von denen wenigstens einer bei der Auswertung der detektierten Radarstrahlung und wenigstens einer bei der Auswertung des optischen Bildes bestimmt wurde. Selbstverständlich ist die Klassifizierung umso genauer und weniger fehleranfällig, je mehr unterschiedliche Parameter verwendet werden.
  • Die Erfindung löst die gestellte Aufgabe zudem durch eine Vorrichtung zum Erfassen wenigstens eines Verkehrsteilnehmers auf einem Verkehrsweg, die wenigstens einen Radarsensor mit wenigstens einem Radar-Sender und wenigstens einen Radar-Empfänger, wenigstens einen optischen Detektor sowie eine elektrische Steuerung aufweist, die eingerichtet ist zum Durchführen eines hier beschriebenen Verfahrens. Vorzugsweise verfügt der wenigstens eine Radar-Sender über mehrere Sendeantennen und/oder der wenigstens eine Radar-Empfänger über mehrere Empfangsantennen.
  • Mithilfe der beigefügten Zeichnungen werden nachfolgend einige Ausführungsbeispiele der vorliegenden Erfindung näher erläutert. Es zeigen
    • 1 bis 3 - verschiedene Stufen bei der Auswertung der Radarstrahlung,
    • 4 - die schematische Anordnung mehrerer Radar-Empfänger,
    • 5 - die schematische Darstellung mehrerer Detektionsmatrizen, insbesondere Range-Doppler-Matrizen,
    • 6 - einen weiteren Schritt bei der Auswertung der richtungsabhängigen Detektionsmatrizen,
    • 7 und 8- verschiedene Verkehrsteilnehmer und ihre Parameter und
    • 9 - die schematische Darstellung der Bestimmung von Range-Doppler-Matrizen für unterschiedliche Raumrichtungen.
  • 1 bis 3 zeigen schematisch Schritte zur Bestimmung einer Detektionsmatrix, insbesondere einer Range-Doppler-Matrix. Die ausgesendete Radarstrahlung wird bevorzugt in Form von Frequenzrampen ausgesendet, die als „Ramp“ bezeichnet werden. In der in 1 gezeigten Matrix werden unter den Begriffen „Abtast 0“, „Abtast 1“ usw., die die Spalten der gezeigten Matrix bezeichnen, die jeweils empfangene oder detektierten Radarstrahlung als komplexe Amplitudenwerte gespeichert. Die verschiedenen Spalten betreffen folglich verschiedene Zeitpunkte, die vorzugsweise äquidistant sind, zu denen die detektierte Radarstrahlung ausgelesen wird. Dies geschieht mehrfach für Vielzahl nacheinander ausgesendete Frequenzrampen. Die jeweiligen Messwerte werden in die verschiedenen Zeilen eingetragen, wobei jede Zeile für einen Frequenzrampenverlauf steht.
  • Tatsächlich wird die detektierte Radarstrahlung mit der ausgesendeten Radarstrahlung gemischt. Diese gemischt Strahlung wird in die in 1 gezeigte Matrix übertragen und der Auswertung zugeführt. Aus dem Frequenzversatz zwischen der ausgesendeten Radarstrahlung und der detektierten Radarstrahlung, der im Wesentlichen durch die Zeitspanne definiert wird, die Radarstrahlung benötigt, um vom Radar-Sender zum Verkehrsteilnehmer und zurück zum Radar-Empfänger zu gelangen, lässt sich ein Rückschluss auf die Entfernung des Verkehrsteilnehmers vom Radarsensor erreichen.
  • Dazu wird im gezeigten Ausführungsbeispiel eine erste Fourier-Transformation durchgeführt, wobei die Fourier-Transformation für jede Zeile der Matrix in 1 durchgeführt wird. Es werden folglich die Messwerte innerhalb jeder einzelnen Frequenzrampe einer Fourier-Transformation überführt. Es entsteht die in 2 schematisch dargestellte Matrix, bei der nun die Spalten durch unterschiedliche radiale Abstände vom Radarsensor definiert werden.
  • Um zu der in 3 gezeigten Matrix zu gelangen, wird eine zweite Fourier-Transformation durchgeführt, die nun jedoch nicht über die Einträge einer Zeile, sondern über die Einträge einer Spalte der Matrix durchgeführt wird. Dies ist die sogenannte Doppler-Transformation, die über ein sogenanntes „Range-gate“, also eine Spalte der in 2 gezeigten Matrix, durchgeführt wird. Es ergeben sich Dopplerfrequenzen, die in Radialgeschwindigkeiten, also Geschwindigkeiten, die auf den Radarsensor zu oder von ihm weg führen, umgerechnet werden können. Auf diese Weise entsteht die in 3 dargestellte Range-Doppler-Matrix.
  • 4 zeigt schematisch eine Ausführungsform eines Radar-Empfängers, die Teil eines Radarsensors sein kann. Sie verfügt über eine Mehrzahl von Empfangsantennen 2, die im Abstand d zueinander äquidistant angeordnet sind. Eine äquidistante Anordnung ist von Vorteil, jedoch nicht zwangsläufig notwendig. Durch die Pfeile 4 wird Radarstrahlung dargestellt, die im gezeigten Ausführungsbeispiel von einem Verkehrsteilnehmer reflektiert wurde. Zwischen der Erstreckungsrichtung, in der die Empfangsantennen 2 nebeneinander angeordnet sind und der Richtung der Pfeile 4, aus der die reflektierte Radarstrahlung auf die Empfangsantennen 2 trifft, ist ein von 90° verschiedener Winkel eingeschlossen. Durch die gestrichelten Linien 6 werden Wellenfronten ebener Wellen der Radarstrahlung schematisch dargestellt. Durch den Winkel trifft die reflektierte Radarstrahlung im gezeigten Ausführungsbeispiel zunächst auf die am weitesten rechts angeordnete Empfangsantennen 2 und erst zu späteren Zeitpunkten auf die weiter links angeordneten Empfangsantennen 2.
  • Soll nun die auf diese Weise detektierte Radarstrahlung entsprechend den 1 bis 3 ausgewertet werden, kann für jede der Empfangsantennen 2 die detektierte Radarstrahlung mit der ausgesendeten Strahlung gemischt und der Auswertung zugeführt werden. Es entstehen auf diese Weise eine Vielzahl von Range-Doppler-Matrizen. Insbesondere kann für jede gewünschte Raumrichtung eine eigene Range-Doppler-Matrix berechnet werden, indem man die komplexen Amplitudenwerte phasenkorrigiert für die jeweilige gewünschte Raumrichtung dem Auswerteverfahren zuführt. Dieses Verfahren wird als sogenannte digitale Strahlformung (engl. Digital Beam Forming - DBF) bezeichnet. Systematisch ist dieses Vorgehen in 9 gezeigt. Die Anzahl der möglichen M Raumrichtungen, für die jeweils eine Range-Doppler-Matrix berechnet wird, kann dabei deutlich über der Anzahl der N (virtuellen) Empfangsantennen liegen. Auch wenn man grundsätzlich M immer weiter vergrößern könnte, sprechen der rechnerische Aufwand und die maximal erreichbare räumliche Auflösung dagegen. Insbesondere kann aber für bestimmte Raumrichtungen, die sich aufgrund der Analyse des Kamerabilds als interessant ergeben, explizit eine Range-Doppler-Matrix berechnet werden und dieses Ergebnis der Fusion zugeführt werden.
  • Während in 4 die schematisch dargestellten Empfangsantennen 2 in einer Reihe oder Linie angeordnet sind, ist dies in der Praxis natürlich nicht notwendig. Selbstverständlich ist es möglich, Empfangsantennen 2 auch in einer zweidimensionalen Anordnung, beispielsweise einen Rechteckgitter, anzuordnen. Diese Anordnung ermöglicht somit durch die Anwendung der digitalen Strahlformung die Berechnung einer Range-Doppler-Matrix für beliebige Raumrichtungen. Ein Beispiel für so berechnete Range-Doppler-Matrizen für verschiedene Raumrichtungen ist schematisch in 5 dargestellt. Jedes der schraffierten Vierecke stellt eine Range-Doppler-Matrix 8 dar, die gemäß der Methodik in 9 berechnet wurde.
  • Durch an sich bekannte Rechnungen der Strahlformung lassen sich unterschiedliche Range-Doppler-Matrizen 8 gewichtet addieren, um so eine Winkelauflösung zu erhalten. 6 zeigt schematisch, dass die in 5 dargestellten neun Range-Doppler-Matrizen 8 zusammengefasst werden. Dies ist selbstverständlich auch mit mehr oder weniger Range-Doppler-Matrizen 8 möglich. Durch die Zusammenfassung der Informationen, die aus den unterschiedlichen Range-Doppler-Matrizen 8 erreicht und errechnet werden, lässt sich ein Tiefenbild 10 ermitteln. In diesem sind nicht nur der radiale Abstand eines Verkehrsteilnehmers vom Radarsensor sowie seine Radialgeschwindigkeit in Bezug auf den Radarsensor enthalten, sondern insbesondere auch Winkelinformationen über die Azimutrichtung und gegebenenfalls die Elevationsrichtung. In welche Richtung eine Winkelauflösung erreicht werden kann, hängt insbesondere davon ab, wie die Musteranordnung der Empfangsantennen 2 aufgebaut ist.
  • 7 zeigt schematisch unterschiedliche Verkehrsteilnehmer, die durch eine Klassifikation unterschieden werden können. Dargestellt ist ein Lastkraftwagen 12, ein Kraftfahrzeug 14, ein Motorrad 16, ein Fahrradfahrer 18 sowie ein Fußgänger 20. Diese unterschiedlichen Verkehrsteilnehmer können aufgrund der zu ermittelnden Parameter voneinander unterschieden werden. Dies betrifft sowohl Geschwindigkeiten als auch Streuquerschnitte, Abmessungen und Verhalten auf dem jeweiligen Verkehrsweg.
  • 8 zeigt schematisch und beispielhaft den Lastkraftwagen 12 mit unterschiedlichen Parametern. Er verfügt über eine Höhe 22, eine Breite 24 sowie eine Länge 26, die einige der zu bestimmenden Parameter darstellen. Zudem bewegt er sich entlang des Geschwindigkeitspfeils 28 vorwärts und weist eine Orientierung und Richtung, die auch als Pose bezeichnet werden kann, auf.
  • Die Abmessungen Höhe 22, Breite 24 und Länge 26 können beispielsweise aus dem optischen Bild, das mittels des wenigstens einen optischen Detektors aufgenommen wurde, bestimmt werden. Dies ist insbesondere dann der Fall, wenn Elemente, die ebenfalls in dem optischen Bild erfasst sind, bekannt sind, wie beispielsweise Gebäude, Schilder, Abmessungen von gezeigten Elementen oder sonstige Größen der dargestellten Gegenstände. In diesem Fall können die im optischen Bild enthaltenen Abmessungen des Verkehrsteilnehmers zu den bekannten Abmessungen eines weiteren dargestellten Gegenstandes in Relation gesetzt werden, sodass eine Abschätzung der Abmessungen möglich ist. Ein deutlich besseres Ergebnis ergibt sich jedoch, wenn die im optischen Bild enthaltenen Abmessungen mit den Entfernungsdaten in Relation gesetzt werden, die aus der ausgewerteten Radarstrahlung ermittelt wurden. Über den Abstand verschiedene Punkte des im optischen Bild abgebildeten Verkehrsteilnehmers, beispielsweise der beiden Außenspiegel eines Lastkraftwagens 12, lässt sich die Breite 24 des Lastkraftwagens 12 bestimmen, wenn bekannt ist, wie weit der Lastkraftwagen 12 vom Radarsensor entfernt ist. Diese Informationen können aus der Range-Doppler-Matrix 8 oder auf sonstige Weise aus den detektierten und ausgewerteten Radarstrahlen ermittelt werden.
  • Ein vollständiger Aufenthaltsort des Verkehrsteilnehmers, insbesondere des gezeigten Lastkraftwagens 12, lässt sich ebenfalls allein aus dem ausgewerteten optischen Bild bestimmen, sofern die Straßengeometrie, also insbesondere der Verlauf, die Anzahl der Spuren, und sonstige bauliche Gegebenheiten des Verkehrsweges, bekannt sind. Auch in diesem Fall lässt sich der Aufenthaltsort zumindest abschätzen, in dem lediglich das optische Bild ausgewertet wird. Ein besseres Ergebnis wird jedoch auch bei diesen Parametern erreicht, wenn diese aus dem optischen Bild bestimmten Daten mit Entfernungsdaten kombiniert werden, die aus der Auswertung der detektierten Radarstrahlung ermittelt werden. Insbesondere bei dem sogenannten Radartracking, bei dem ein Verkehrsteilnehmer über einen Zeitraum hin verfolgt wird und seine Bewegung durch die Auswertung einer Mehrzahl, insbesondere vieler, zeitlich nacheinander erstellter Detektionsmatrizen nach verfolgt wird, lässt sich besonders einfach der Abstand und die Veränderung des Abstandes des Verkehrsteilnehmers zum Radarsensor bestimmen. In Kombination mit der im Vergleich zum Radarsensor deutlich besseren Winkelauflösung des optischen Bildes kann der tatsächliche Aufenthaltsort des Verkehrsteilnehmers sehr genau festgestellt werden.
  • Gleiches gilt für die Pose, also insbesondere die Orientierung des Verkehrsteilnehmers. Auch diese lässt sich beispielsweise mittels einer Bilderkennungssoftware bei der Auswertung des optischen Bildes ermitteln. Die Kombination mit den aus der detektierten Radarstrahlung ermittelten Informationen verbessert jedoch auch in diesem Fall die Qualität des bestimmten Parameters und ermöglicht es zudem, die ermittelten Werte abzugleichen und zu überprüfen. Stimmt beispielsweise die aus dem optischen Bild ermittelte Orientierung eines Verkehrsteilnehmers, beispielsweise des dargestellten Lastkraftwagens 12 nicht mit der aus der detektierten Radarstrahlung ermittelten Geschwindigkeit und insbesondere der Richtung dieser Geschwindigkeit über ein, lässt dies auf eine fehlerhafte Auswertung der Daten schließen.
  • Die vollständige Geschwindigkeit, also die Bestimmung der Geschwindigkeit als vektorielle Größe mit Richtung und Betrag lässt sich ebenfalls verbessern, indem die Daten aus der Auswertung des optischen Bildes mit den ermittelten Parametern aus der detektierten Radarstrahlung kombiniert werden. Während eine Auswertung mehrerer nacheinander aufgenommener optischer Bilder einen optischen Fluss ermittelt und so beispielsweise die Veränderung der Ausdehnung eines Verkehrsteilnehmers im optischen Bild auf die Veränderung des Abstandes rückschließen lässt, ist die Auswertung zeitlich nacheinander detektierter Radarstrahlung insbesondere was den Abstand und die Veränderung des Abstandes zum Radarsensor angeht, deutlich genauer.
  • 9 zeigt schematisch den Weg zur Berechnung von Range-Doppler-Matrizen 8 für unterschiedliche Raumrichtungen. Dazu werden unterschiedliche Empfangsantennen 2, von denen zur besseren Übersichtlichkeit nur zwei dargestellt sind, verwendet. Die empfangenen Messsignale werden zunächst in herkömmlicherweise verwendet, um jeweils eine Range-Doppler-Matrix 8 zu bestimmen. Diese beinhaltet komplexe Werte, die insbesondere eine Intensität I und eine Phase aufweisen. Sind die Empfangsantennen 2 beispielsweise nebeneinander angeordnet, besteht zwischen ihnen ein Versatz. Dadurch erreicht die von einem Verkehrsteilnehmer reflektierte Radarstrahlung die verschiedenen Empfangsantennen 2 zu unterschiedlichen Zeiten, wie in 4 schematisch dargestellt ist. Dadurch unterscheiden sich die einzelnen Einträge der für jede Empfangsantenne 2 separat erzeugten Range-Doppler-Matrizen auch in der Phase Q.
  • Soll nun eine Range-Doppler-Matrix 8 für eine bestimmte Raumrichtung ausgerechnet werden, werden die einzelnen Range-Doppler-Matrizen 8 in einem Summierer 30 aufsummiert. Dargestellt ist ein separater Summierer 30 für jede gewünschte Raumrichtung. Die einzelnen Range-Doppler-Matrizen werden zuvor einem für die gewünschte Raumrichtung individuell bestimmten Phasenschieber 32 unterworfen. Die Phase Q jedes einzelnen Matrix-Elementes der zu summierenden Range-Doppler-Matrizen 8 wird mittels dieser Phasenschieber 32 im Rahmen der digitalen Strahlformung verändert um so die gewünschte Raumrichtung zu erreichen.
  • Bezugszeichenliste
  • 2
    Empfangsantenne
    4
    Pfeil
    6
    gestrichelte Linie
    8
    Range-Doppler-Matrix
    10
    Tiefenbild
    12
    Lastkraftwagen
    14
    Kraftfahrzeug
    16
    Motorrad
    18
    Fahrradfahrer
    20
    Fußgänger
    22
    Höhe
    24
    Breite
    26
    Länge
    28
    Geschwindigkeitspfeil
    30
    Summierer
    32
    Phasenschieber

Claims (15)

  1. Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers auf einem Verkehrsweg mittels eines Radarsensors und eines optischen Detektors, wobei bei dem Verfahren - Radarstrahlung von wenigstens einem Radar-Sender des Radarsensors ausgesendet und von dem wenigstens einen Verkehrsteilnehmer reflektiert wird, - die reflektierte Radarstrahlung mittels wenigstens eines Radar-Empfängers des Radarsensors detektiert wird, - die detektierte Radarstrahlung derart ausgewertet wird, dass zumindest ein Abstand und eine Radialgeschwindigkeit des wenigstens einen Verkehrsteilnehmers relativ zu dem Radarsensor bestimmt wird, - ein optisches Bild des wenigstens einen Verkehrsteilnehmers mittels des optischen Detektors detektiert wird, und - das optische Bild ausgewertet wird, wobei wenigstens ein Parameter des wenigstens einen Verkehrsteilnehmers sowohl aus der detektierten Radarstrahlung als auch aus dem optischen Bild bestimmt wird, wobei der Parameter eine Richtung, in der sich der Verkehrsteilnehmer befindet, oder ein Abstand des Verkehrsteilnehmers vom Radarsensor und/oder vom optischen Detektor ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus der detektierten Radarstrahlung wenigstens eine Detektionsmatrix, insbesondere wenigstens eine Range-Doppler-Matrix, bestimmt wird, aus der der Abstand und die Radialgeschwindigkeit bestimmt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass mehrere Detektionsmatrizen, insbesondere mehrere Range-Doppler-Matrizen, bestimmt werden, die Informationen über Verkehrsteilnehmer in unterschiedlichen Richtungen, insbesondere Azimutwinkel-Bereichen, enthalten und aus der detektierten Radarstrahlung so Informationen über die Richtung ermittelt werden, in der sich der wenigstens eine Verkehrsteilnehmer relativ zu dem Radarsensor befindet.
  4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass aus dem optischen Bild eine Richtung bestimmt wird, in der sich der wenigstens eine Verkehrsteilnehmer relativ zu dem optischen Detektor befindet.
  5. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die reflektierte Radarstrahlung und das optische Bild des wenigstens einen Verkehrsteilnehmers mehrfach nacheinander zu verschiedenen Zeitpunkten detektiert werden, wobei bevorzugt aus verschiedenen nacheinander detektierten optischen Bildern des wenigstens einen Verkehrsteilnehmers ein optischer Fluss bestimmt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass beim Auswerten der detektierten Radarstrahlung wenigstens ein Parameter berücksichtigt wird, der bei wenigstens einer vorherigen Auswertung des optischen Bildes bestimmt wurde und/oder beim Auswerten des optischen Bildes wenigstens ein Parameter berücksichtigt wird, der bei wenigstens einer vorherigen Auswertung der detektierten Radarstrahlung bestimmt wurde.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass zumindest auch aus dem optischen Fluss, bevorzugt in Kombination mit der Radialgeschwindigkeit, die aus der detektierten Radarstrahlung bestimmt wurde, eine Geschwindigkeit des wenigstens einen Verkehrsteilnehmers und/oder eine Richtung bestimmt wird, in der sich der wenigstens eine Verkehrsteilnehmer relativ zu dem optischen Detektor befindet.
  8. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass in dem detektierten optischen Bild ein Bestandteil des wenigstens einen Verkehrsteilnehmers erkannt wird, dessen Abmessung in wenigstens einer Richtung bekannt ist, so dass aus dem detektierten optischen Bild ein Abstand des wenigstens einen Verkehrsteilnehmers von dem optischen Detektor bestimmt wird.
  9. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass ein relativer Versatz zwischen dem Radarsensor und dem optischen Detektor und/oder eine relative Orientierung des Radarsensors zu dem optischen Detektor aus der detektierten Radarstrahlung und dem optischen Bild bestimmt wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Abstand und/oder die Orientierung während des Verfahrens mehrfach bestimmt wird und bevorzugt mit vorgegebenen Sollwerten verglichen wird.
  11. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass beim Auswerten des optischen Bildes eine Ausdehnung des wenigstens einen Verkehrsteilnehmer in Azimutrichtung und/oder in Elevationsrichtung bestimmt wird und beim Auswerten der detektierten Radarstrahlung die Entfernung des wenigstens einen Verkehrsteilnehmers bestimmt wird, wobei aus der Ausdehnung und der Entfernung des wenigstens einen Verkehrsteilnehmers die Lage und/oder Größe des wenigstens einen Verkehrsteilnehmers ermittelt wird.
  12. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass beim Auswerten des optischen Bildes eine Orientierung des wenigstens einen Verkehrsteilnehmers bestimmt wird, aus der mit der Radialgeschwindigkeit und Entfernung des wenigstens einen Verkehrsteilnehmers, die aus der detektierten Radarstrahlung bestimmt wurden, eine vollständige Geschwindigkeit und/oder Bewegungsrichtung und/oder eine Längsbeschleunigung und/oder eine Querbeschleunigung des wenigstens einen Verkehrsteilnehmers bestimmt wird.
  13. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der wenigstens eine Verkehrsteilnehmer auf der Grundlage von Parametern klassifiziert wird, von denen wenigstens einer bei der Auswertung der detektierten Radarstrahlung und wenigstens einer bei der Auswertung des optischen Bildes bestimmt wurde.
  14. Vorrichtung zum Erfassen wenigstens eines Verkehrsteilnehmer auf einem Verkehrsweg, die wenigstens einen Radarsensor mit wenigstens einem Radar-Sender und wenigstens einem Radar-Empfänger, wenigstens einen optischen Detektor und einer elektrischen Steuerung aufweist, die eingerichtet ist zum Durchführen eines Verfahrens gemäß einem der vorstehenden Ansprüche.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass der wenigstens eine Radar-Sender mehrere Sendeantennen und/oder der wenigstens eine Radar-Empfänger mehrere Empfangsantennen aufweist.
DE102019134985.0A 2019-12-18 2019-12-18 Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers Active DE102019134985B4 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102019134985.0A DE102019134985B4 (de) 2019-12-18 2019-12-18 Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
JP2022535905A JP2023519061A (ja) 2019-12-18 2020-12-16 少なくとも1つの交通参加者を検出する方法
US17/787,024 US20230008876A1 (en) 2019-12-18 2020-12-16 Method for detecting at least one road user
EP20829905.7A EP4078230A2 (de) 2019-12-18 2020-12-16 Verfahren zum erfassen wenigstens eines verkehrsteilnehmers
KR1020227022756A KR20220110543A (ko) 2019-12-18 2020-12-16 적어도 하나의 도로 사용자를 검출하는 방법
CN202080087799.6A CN114829972A (zh) 2019-12-18 2020-12-16 用于检测至少一个交通参与者的方法
PCT/EP2020/086540 WO2021122828A2 (de) 2019-12-18 2020-12-16 Verfahren zum erfassen wenigstens eines verkehrsteilnehmers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019134985.0A DE102019134985B4 (de) 2019-12-18 2019-12-18 Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers

Publications (2)

Publication Number Publication Date
DE102019134985A1 DE102019134985A1 (de) 2021-06-24
DE102019134985B4 true DE102019134985B4 (de) 2022-06-09

Family

ID=74095834

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019134985.0A Active DE102019134985B4 (de) 2019-12-18 2019-12-18 Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers

Country Status (7)

Country Link
US (1) US20230008876A1 (de)
EP (1) EP4078230A2 (de)
JP (1) JP2023519061A (de)
KR (1) KR20220110543A (de)
CN (1) CN114829972A (de)
DE (1) DE102019134985B4 (de)
WO (1) WO2021122828A2 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012008350A1 (de) 2012-04-19 2013-10-24 S.M.S Smart Microwave Sensors Gmbh Verfahren und Vorrichtung zur Abstimmung von Abstand und Radialgeschwindigkeit eines Objekts mittels Radarsignalen
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
EP3252501A1 (de) 2016-06-03 2017-12-06 Autoliv Development AB Verbesserte objekterkennung und bewegungsstatusschätzung für ein fahrzeugumgebungserkennungssystem
DE102017105783A1 (de) 2017-03-17 2018-09-20 S.M.S Smart Microwave Sensors Gmbh Verfahren zum Bestimmen eines Abstandes und einer Geschwindigkeit eines Objektes
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012008350A1 (de) 2012-04-19 2013-10-24 S.M.S Smart Microwave Sensors Gmbh Verfahren und Vorrichtung zur Abstimmung von Abstand und Radialgeschwindigkeit eines Objekts mittels Radarsignalen
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
EP3252501A1 (de) 2016-06-03 2017-12-06 Autoliv Development AB Verbesserte objekterkennung und bewegungsstatusschätzung für ein fahrzeugumgebungserkennungssystem
DE102017105783A1 (de) 2017-03-17 2018-09-20 S.M.S Smart Microwave Sensors Gmbh Verfahren zum Bestimmen eines Abstandes und einer Geschwindigkeit eines Objektes
DE102018205879A1 (de) 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SONG, Y. [et al.]: Fast Monocular Vision Based Vehicle Distance Measurement by License Plate Localization: In: 2018 Chinese Automation Congress (CAC), 2018, S. 2774–2779 – ISBN 978-1-7281-1312-8
TEXAS INSTRUMENTS: TI Designs: TIDEP-01011, Automated Parking System Reference Design Using 77-GHz mmWave Sensor, 24.01.2019. S. 1–13. - Firmenschrift URL: https://www.ti.com/lit/pdf/tidueo9 [abgerufen am 12.10.2020]

Also Published As

Publication number Publication date
WO2021122828A3 (de) 2021-08-12
KR20220110543A (ko) 2022-08-08
EP4078230A2 (de) 2022-10-26
JP2023519061A (ja) 2023-05-10
CN114829972A (zh) 2022-07-29
DE102019134985A1 (de) 2021-06-24
WO2021122828A2 (de) 2021-06-24
US20230008876A1 (en) 2023-01-12

Similar Documents

Publication Publication Date Title
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP1797450B1 (de) Radarsensor und verfahren zur abstands- und geschwindigkeitsregelung
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
EP1557692B1 (de) Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
EP1418444B1 (de) Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs
DE102011081740A1 (de) Fahrumgebung-Erkennungseinrichtung und Fahrumgebung-Erkennungsverfahren
EP2046619B1 (de) Fahrerassistenzsystem
EP2963631B1 (de) Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten
DE102009006113A1 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102014200638A1 (de) Verfahren und System zum Schätzen eines Fahrspurverlaufs
DE102013104443A1 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
EP1298454A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE102018115372A1 (de) Verfahren und vorrichtung zur parallelen beleuchtung durch ein vcsel-array
EP3259614B1 (de) Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug
DE102011005727A1 (de) Verfahren und Vorrichtung zur Erfassung von Straßenrändern
EP2804014A1 (de) Vorrichtung und Verfahren zum Bestimmen eines Fahrzeugmerkmals
EP2221640B1 (de) Verfahren zur Messung der Geschwindigkeit eines Fahrzeuges und sichtbaren Zuordnung in einer Dokumentation
DE102011075674A1 (de) Abstandsbestimmung mittels eines Kamerasensors
EP2409174B1 (de) Verfahren und einrichtung zum ermitteln von aspektwinkelverläufen
WO2020127245A1 (de) Bestimmung der orientierung von objekten mittels radar oder durch die verwendung von elektromagnetischer abfragestrahlung
EP3374791A1 (de) Seitliche leitplankenerkennung über einen abstandssensor im kfz
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
DE102019134985B4 (de) Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE102020106680A1 (de) System und verfahren zum steuern des betriebs einer vorrichtung mit einem lenkbaren optischen sensor und einer lenkbaren radareinheit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final