DE102018216984A1 - Umfelderfassungssystem für Kraftfahrzeuge - Google Patents

Umfelderfassungssystem für Kraftfahrzeuge Download PDF

Info

Publication number
DE102018216984A1
DE102018216984A1 DE102018216984.5A DE102018216984A DE102018216984A1 DE 102018216984 A1 DE102018216984 A1 DE 102018216984A1 DE 102018216984 A DE102018216984 A DE 102018216984A DE 102018216984 A1 DE102018216984 A1 DE 102018216984A1
Authority
DE
Germany
Prior art keywords
objects
detection system
environment
model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018216984.5A
Other languages
English (en)
Inventor
Carsten Hasberg
Jan-Hendrik Pauls
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018216984.5A priority Critical patent/DE102018216984A1/de
Priority to JP2019173620A priority patent/JP2020077384A/ja
Priority to US16/591,866 priority patent/US11402492B2/en
Priority to CN201910950043.9A priority patent/CN111025332A/zh
Publication of DE102018216984A1 publication Critical patent/DE102018216984A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Umfelderfassungssystem für Kraftfahrzeuge (10), mit mehreren Sensoren (12 - 20), die für elektromagnetische Strahlung in unterschiedlichen Bereichen des elektromagnetischen Spektrums empfindlich sind, und mit zugehörigen Auswertemodulen (22) zur Ortung und/oder Klassifizierung von im Umfeld vorhandenen Objekten anhand der von den Sensoren gelieferten Daten, gekennzeichnet durch ein Modellmodul (26, 28), in dem ein Umfeldmodell gespeichert ist, das neben den 3D-Positionensdaten der Objekte auch Daten über die spektralen Reflexionseigenschaften von Oberflächen der Objekte enthält, wobei das Modellmodul in der Lage ist, diese Daten den Auswertemodulen (22) zur Verfügung zu stellen.

Description

  • Die Erfindung betrifft ein Umfelderfassungssystem für Kraftfahrzeuge, mit mehreren Sensoren, die für elektromagnetische Strahlung in unterschiedlichen Bereichen des elektromagnetischen Spektrums empfindlich sind, und mit zugehörigen Auswertemodulen zur Ortung und/oder Klassifizierung von im Umfeld vorhandenen Objekten anhand der von den Sensoren gelieferten Daten.
  • Stand der Technik
  • In Fahrerassistenzsystemen für Kraftfahrzeuge ist wichtig, das Umfeld des Fahrzeugs mit Hilfe einer geeigneten Sensorik möglichst präzise zu erfassen. Im Zuge zunehmender Automatisierung der Fahrzeugführung werden an die Präzision und Verlässlichkeit des Umfelderfassungssystems immer strengere Anforderungen gestellt.
  • Es ist bekannt, unterschiedliche Typen von Sensoren zu verwenden, die in unterschiedlichen Bereichen des elektromagnetischen Spektrums arbeiten, beispielsweise langreichweitige und kurzreichweitige Radarsensoren mit unterschiedlichen Radarfrequenzen, Lidarsensoren und optische Kameras. Wenn die von den verschiedenen Sensoren erhaltenen Daten miteinander fusioniert werden, lässt sich das Bild des erfassten Umfelds vervollständigen.
  • Ein Problem besteht jedoch darin, dass die von den Objekten emittierte oder reflektierte Strahlung an Oberflächen anderer Objekte reflektiert werden kann und dann auf mehreren Wegen zum Sensor gelangt, wodurch im Sensor Scheinobjekte vorgetäuscht werden, die in Wahrheit nicht existieren. Beispiele sind etwa die Reflexion von Radarstrahlung an der Fahrbahnoberfläche oder an Leitplanken, die Reflexion von sichtbarem Licht an Schaufensterscheiben und dergleichen. Die auf diese Weise vorgetäuschten Scheinobjekte sind oft nur schwer von echten Objekten zu unterscheiden, so dass man ein unzutreffendes Bild des Umfelds gewinnt.
  • Offenbarung der Erfindung
  • Aufgabe der Erfindung ist es, ein Umfelderfassungssystem zu schaffen, das eine bessere Unterscheidung zwischen echten Objekten und reflexionsbedingten Artefakten ermöglicht.
  • Diese Aufgabe wird erfindungsgemäß gelöst durch ein Modellmodul, in dem ein Umfeldmodell gespeichert ist, das neben 3D-Positionensdaten der Objekte auch Daten über die spektralen Reflexionseigenschaften von Oberflächen der Objekte enthält, wobei das Modellmodul in der Lage ist, diese Daten den Auswertemodulen zur Verfügung zu stellen.
  • Anhand des im Modellmodul gespeicherten Modells ist es dann möglich, die Stahlausbreitung in den Wellenlängenbereichen, in denen die betreffenden Sensoren empfindlich sind, zu simulieren und so das Auftreten von durch Mehrfachreflexion erzeugten Scheinobjekten vorherzusagen. Anhand dieser Information lassen sich dann bei der Auswertung der Sensordaten die Scheinobjekte leichter ausfiltern, so dass die Wahrscheinlichkeit von Fehlinterpretationen deutlich verringert wird.
  • Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • In dem Umfeldmodell können Daten gespeichert werden, die die Positionen und, mit mehr oder weniger hoher räumlicher Auflösung, die Geometrien der im Umfeld vorhandenen Objekte charakterisieren. Anhand dieser Daten lassen sich dann auch die Orte, Geometrien und Orientierungen von Objektoberflächen bestimmen, an denen potentiell Reflexionen auftreten können. Zusätzlich wird für jede dieser Oberflächen wenigstens ein Parameter gespeichert, der die Reflexionseigenschaften der Oberfläche bei einer oder mehreren der in den Sensoren verwendeten Wellenlängen charakterisiert. Beispielsweise kann zu jeder Oberfläche und für jede interessierende Frequenz ein Reflexionskoeffizient und/oder ein Glanzparameter gespeichert werden, wobei der Glanzparameter das Verhältnis zwischen gerichteter Reflexion und diffuser Streuung der Strahlung angibt.
  • In einer Ausführungsform kann das Modellmodul im Fahrzeug implementiert sein. Die Daten zur Konstruktion des Modells werden dann von den zur Umfelderfassung eingesetzten Sensoren geliefert und gegebenenfalls ergänzt durch „Vorwissen“ über die typische Beschaffenheit von Objekten. Wenn beispielsweise mit einem Kamerasystem eine Lärmschutzwand, eine Leitplanke oder eine Gebäudefront erkannt wird, so lässt sich anhand der Kameradaten die Lage und Orientierung der reflektierenden Flächen erkennen und im Modell eintragen. Zugleich können die Reflexionseigenschaften für sichtbares Licht und für Radarstrahlung bei den interessierenden Frequenzen geschätzt und ebenfalls in das Modell eingetragen werden, so dass Vorhersagen über reflexionsbedingte Artefakte gemacht werden können.
  • Umgekehrt können die von einem Radarsensor oder Lidarsensor gelieferten Daten für eine genaue Bestimmung der Entfernung der Objekte genutzt werden, um Entfernungsinformation zu erhalten, die mit einem Kamerasystem, auch mit einer Stereokamera, unter Umständen nur schwer mit der nötigen Präzision zu erhalten wäre. Durch Zugriff auf das Umfeldmodell können dem Auswertungsmodul des Kamerasystems dann Entfernungsdaten zur Verfügung gestellt werden, die die Interpretation des Kamerabildes erleichtern.
  • Das Umfeldmodell kann dynamisch an dem jeweiligen Ort des mit dem Umfelderfassungssystem ausgerüsteten Fahrzeugs sowie an die Orte beweglicher Objekte (wie z. B. anderer Fahrzeuge) angepasst werden.
  • In einer anderen Ausführungsform kann das Modellmodul jedoch auch ortsfest außerhalb des Fahrzeugs in einem Server implementiert sein, der drahtlos mit dem Umfelderfassungssystem im Fahrzeug kommuniziert. Ein solches ortsfestes Modellmodul eignet sich insbesondere zur Speicherung eines Umfeldmodells für einen gegebenen Streckenabschnitt im Verkehrsnetz und kann seine Daten den Umfelderfassungssystemen mehrerer Fahrzeuge zur Verfügung stellen. Der Vorteil besteht darin, dass in diesem Fall die Reflexionseigenschaften der Oberflächen wie auch die Orte und Geometrien der Objekte gemessen oder aus anderen Quellen bezogen und manuell in das Model eingegeben werden können, wodurch eine größere Genauigkeit des Modells erreicht wird. Da Aktualisierungen dieser Daten allenfalls von Zeit zu Zeit vorgenommen werden können, handelt es sich in diesem Fall bei dem Modell allerdings um ein eher statisches Modell.
  • Besonders vorteilhaft ist es, die beiden Ausführungsformen miteinander zu kombinieren, so dass die Auswertemodule einerseits Zugriff auf ein dynamisches Modell im lokalen Modellmodul und andererseits Zugriff auf ein statisches aber genaueres Modell im ortsfesten Modul haben.
  • Im folgenden werden Ausführungsbeispiele anhand der Zeichnung näher erläutert.
  • Es zeigen:
    • 1 ein Blockdiagramm eines erfindungsgemäßen Umfelderfassungssystems;
    • 2 ein Beispiel einer Datenstruktur eines Umfeldmodells;
    • 3 ein Flussdiagramm für eine in dem Umfelderfassungssystem nach 1 ablaufende Routine zur Prädiktion von Reflexionsartefakten, und
    • 4 und 5 Skizzen von Verkehrssituationen zur Illustration von Anwendungen der Erfindung.
  • In 1 ist schematisch ein Umriss eines Kraftfahrzeugs 10 dargestellt, in dem verschiedene Sensoren zur Umfelderfassung installiert sind. Bei den Sensoren handelt es sich im gezeigten Beispiel um langreichweitige Radarsensoren 12, 14, die mit einer Frequenz von beispielsweise 76 GHz arbeiten und insbesondere zur Erfassung des vorausfahrenden Verkehrs und des nachfolgenden Verkehrs dienen, kurzreichweitige Radarsensoren 16, die mit einer Frequenz von beispielsweise 24 GHz arbeiten und an den vier Ecken des Fahrzeugs installiert sind, um das nähere Umfeld des Fahrzeugs zu überwachen, ein StereoKamerasystem mit zwei an der Frontseite des Fahrzeugs installierten optischen Kameras 18 und einen Lidarsensor 20 zur Rundum-Überwachung des Umfelds mit einem Lidar-Strahl, der eine bestimmte Frequenz im sichtbaren Bereich des Spektrums oder im Infrarotbereich hat. Jedem dieser Sensoren ist ein Auswertemodul 22 zur Vorauswertung der vom Sensor gelieferten Daten zugeordnet. Die Ergebnisse dieser Vorauswertung werden dann an eine zentrale Auswerteeinheit 24 übermittelt und dort weiter verarbeitet und miteinander fusioniert, damit ein möglichst vollständiges Bild des Fahrzeugumfelds gewonnen wird, das dann die Grundlage für verschiedene Fahrerassistenzfunktionen oder autonome Fahrzeugsteuerungsfunktionen bildet.
  • In der zentralen Auswerteeinheit 24 ist ein lokales Modellmodul 26 implementiert, in dem ein Umfeldmodell gespeichert ist, das die Positionen und Geometrien der von den fahrzeugeigenen Sensoren georteten Objekte im aktuellen Umfeld des Fahrzeugs 10 angibt. Das Modell wird anhand der von den Auswertemodulen 22 gelieferten Daten fortlaufend aktualisiert.
  • Im gezeigten Beispiel kommuniziert die zentrale Auswerteeinheit 24 drahtlos mit einem ortsfesten Modellmodul 28, das beispielsweise in einem Server außerhalb des Fahrzeugs implementiert ist und in dem ein statisches Modell der Verkehrsinfrastruktur und statischer Objekte in dem von dem Fahrzeug 10 durchfahrenen Streckenabschnitt gespeichert ist.
  • 2 zeigt ein Beispiel einer Datenstruktur eines in dem Modellmodul 26 oder 28 gespeicherten Umfeldmodells 30. Das Modell enthält eine Liste von im Umfeld vorhandenen Objekten 32.
  • Beispiele für solche Objekte wären im Fall des lokalen Modellmoduls 26 etwa: „unmittelbar vorausfahrendes Fahrzeug“, „Fahrzeug auf der Nebenspur“, „Fußgänger am Fahrbahnrand“, „Leitplanke“, „Fahrbahnoberfläche“ und dergleichen. Jedes dieser Objekte ist von mindestens einem der Sensoren 12 bis 20 geortet und gegebenenfalls durch Abgleich der Daten mehrerer Sensoren klassifiziert worden.
  • Im Fall des ortfesten Modellmoduls 28 könnte es sich bei den Objekten 32 beispielsweise um Gebäude rechts und links neben der Fahrbahn handeln oder auch um Leitplanken, die Fahrbahnoberfläche und dergleichen.
  • Für jedes der Objekte 32 sind in dem Umfeldmodell 3D-Positionsdaten 34 gespeichert, die die Position und ggf. die Geometrie des betreffenden Objekts kennzeichnen. Im lokalen Modellmodul 26 könnten die Positionsdaten im Falle eines vorausfahrenden Fahrzeugs beispielsweise der vom Radarsensor gemessene Abstand und der Richtungswinkel (im Azimut und gegebenenfalls auch im Elevation) sein. Im Fall einer Leitplanke könnten die Positionsdaten 24 beispielsweise durch die Lage und Orientierung der Hauptfläche der Leitplanken gebildet werden, und im Fall der Fahrbahnoberfläche könnten die Positionsdaten die Fahrbahnneigung als Funktion des Abstands enthalten. Im lokalen Modellmodul 26 könnten diese Positionsdaten beispielsweise anhand der Kameradaten berechnet werden, während im ortsfesten Modellmodul 28 diese Daten direkt eingegeben werden können. Im Fall eines im ortsfesten Modellmodul 28 gespeicherten Gebäudes, das annähernd Quaderform hat, könnten die Positionsdaten 34 die Koordinaten der Ecken des Gebäudes in einem ortsfesten, globalen Koordinatensystem sein.
  • Anhand der 3D-Positionsdaten 34 lassen sich für jedes Objekt 32 Oberflächen identifizieren, an denen elektromagnetische Strahlung je nach Wellenlänge mehr oder weniger gut reflektiert werden kann. Von Interesse sind dabei insbesondere solche Oberflächen, die in der Lage sind, die Strahlung in einen der Sensoren des Fahrzeugs 10 zu reflektieren. Für jede dieser Oberflächen ist in dem Umfeldmodell 30 ein Satz von Daten 36 gespeichert, die die spektralen Reflexionseigenschaften der betreffenden Oberfläche angeben, beispielsweise auf der Grundlage bekannter Materialeigenschaften oder gegebenenfalls auf der Grundlage vorheriger Messungen oder Objektklassifizierungen. Im gezeigten Bespiel werden für drei verschiedene Frequenzen f1 (76GHz), f2 (24 GHz) und f3 (Frequenz des vom Lidar-Sensor 20 verwendeten sichtbaren Lichts) ein Reflexionskoeffizient p und ein Glanzparameter γ gespeichert. Anhand dieser Daten kann dann für jede betrachtete Oberfläche berechnet werden, wie elektromagnetische Strahlung der betreffenden Wellenlänge an der Oberfläche reflektiert und/oder gestreut wird. Anhand der Berechnungsergebnisse lässt sich dann entscheiden, ob die reflektierte oder gestreute Strahlung in einen der fahrzeugeigenen Sensoren gelangt und dort ein Scheinobjekt vortäuscht. Auch die Stärke des das Scheinobjekt angebenden Signals lässt sich innerhalb gewisser Grenzen vorhersagen. Das erleichtert es, in den Auswertemodulen 22 oder in der zentralen Auswerteeinheit 24 zwischen echten Objekten und auf Reflexionen beruhenden Scheinobjekten zu unterscheiden.
  • 3 zeigt die wesentlichen Schritte eines Verfahrens, mit dem beispielsweise in der zentralen Auswerteeinheit 24 das Auftreten von Scheinobjekten oder Geisterbildern vorhergesagt wird. In Schritt S1 wird anhand der von einem oder mehreren der Auswertemodule gelieferten Signale ein einzelnes Objekt identifiziert. Dieses Objekt wird dann in Schritt im Umfeldmodell 30 aufgesucht, und die 3D-Positionsdaten 34 sowie die Daten 36 zu den Reflexionseigenschaften des Objekts werden in Schritt S2 gelesen, wobei die Positionsdaten gegebenenfalls in ein fahrzeugfestes Koordinatensystem umgerechnet werden. In Schritt S3 werden dann Reflexionspfade für Strahlen berechnet, die von einem georteten Objekt ausgehen und an der Oberfläche reflektiert werden, deren Eigenschaften in Schritt S2 gelesen wurden. In Schritt S4 werden dann diejenigen Reflexionspfade ausgewählt, die zu einem der fahrzeugeigenen Sensoren 12 - ist 20 führen, und anhand der für die jeweilige Frequenz geltenden Reflexionseigenschaften wird das Signal vorhergesagt, das in dem betreffenden Sensor ein Geisterbild erzeugt.
  • In 4 ist als Beispiel eine Situation dargestellt, in der das Fahrzeug 10 eine Fahrbahn 38 befährt, an der auf einer Seite eine Lärmschutzwand 40 installiert ist. Der Radarsensor 12 des Fahrzeugs 10 sendet einen Radarstrahl 42 aus, der an der Rückfront eines vorausfahrenden Fahrzeugs (Objekts) 44 reflektiert wird und als reflektierter Strahl 46 direkt zum Radarsensor 12 zurück verläuft. Da jedoch die Rückfront des Fahrzeugs 44 nicht vollständig eben ist, wird ein Teil der Radarstrahlung auch in Richtung auf die Lärmschutzwand 40 reflektiert und an der Lärmschutzwand dann erneut reflektiert, so dass ein reflektierter Strahl 48 auf einem Umweg zu dem Radarsensor 12 gelangt und dort ein Scheinobjekt 50 vortäuscht, das die gleiche Relativgeschwindigkeit wie das Fahrzeug 44 hat, aber einen etwas größeren Abstand und unter einem anderen Richtungswinkel gesehen wird.
  • Anhand der in 3 dargestellten Prozedur lässt sich dieser Prozess simulieren, so dass das Scheinobjekt 50 vorhergesagt und korrekt als unechtes Objekt interpretiert werden kann.
  • Im gezeigten Beispiel hat die Lärmschutzwand 40 in einem Abschnitt (links in 4) eine aufgeraute schallschluckende Struktur 52, während ein nachfolgender Abschnitt der Lärmschutzwand eine glatte Oberfläche 54 hat. An der aufgerauten Struktur 52 wird die Radarstrahlung allenfalls diffus gestreut, so dass allenfalls ein schwaches Reflexionssignal erzeugt wird, das sich kaum vom Rauschhintergrund abhebt. Wenn die Fahrzeuge dagegen den Abschnitt der Lärmschutzwand 40 mit der glatten Oberfläche 54 erreichen, tritt plötzlich ein deutliches Reflexionssignal auf, das dann vom Umfelderfassungssystem des Fahrzeugs 10 schnell und korrekt interpretiert werden muss. Mit den Kameras 18 am Fahrzeug 10 kann der Strukturwechsel an der Lärmschutzwand 40 erkannt werden, so dass sich dann das plötzliche Auftreten des Reflexionssignals vorhersagen lässt. Ebenso ist eine Vorhersage auch auf der Grundlage des im ortsfesten Modellmodul 28 gespeicherten Modells möglich.
  • Auf analoge Weise können auch Reflexionen von sichtbarem Licht, beispielsweise an einer Schaufensterfront vorhergesagt werden.
  • Ein weiteres Beispiel ist die Vorhersage von Reflexionen von Radarstrahlen an der Fahrbahnoberfläche. Diese Reflexionen können anhand der gespeicherten Fahrbahnneigung und/oder anhand der mit Hilfe der Kameras 18 geschätzten Fahrbahnneigung berechnet werden. Weiterhin ist es z.B. möglich, anhand des Kamerabildes zwischen einer nassen Fahrbahnfläche und einer trockenen Fahrbahn zu unterscheiden und dann im Umfeldmodell 30 die Reflexionseigenschaften für die Radarstrahlung entsprechend anzupassen.
  • 5 illustriert ein Beispiel, bei dem mit dem Kameras 18 und dem Lidarsensor 20 des Fahrzeugs 10 eine Rückfront 56 eines vorausfahrenden LKW 58 geortet wird. Die Rückfront 56 wird beispielsweise durch ein hochgeklappte Ladeplattform gebildet, die eine ebene, fast strukturlose Oberfläche hat. Das erschwert eine Entfernungsmessung mit dem Stereokamerasystem, da für eine Entfernungsbestimmung die parallaktische Verschiebung einer identifizieren Struktur im Sichtfeld der Kameras bestimmt werden müsste.
  • Da die Fahrzeuge gerade eine Kurve durchfahren, bildet die Rückfront 56 mit der Vorwärtsrichtung des Fahrzeugs 10 keinen rechten Winkel. Da die Rückfront 56 im sichtbarem Licht einen hohen Glanzwert hat, liefert der Lidarsensor 20 nur dann ein Signal, wenn sein Strahl rechtwinklig auf die Rückfront 56 trifft. Mit Hilfe des Lidarsensors 20 ist deshalb nicht zu erkennen, dass es sich bei der Rückwand in Wahrheit um ein wesentlich weiter ausgedehntes Objekt handelt. Anhand der Daten der Kameras 18 kann nun im Umfeldmodell 30 die Information ergänzt werden, dass die Rückwand 26 weitgehend eben und strukturlos ist und einen hohen Glanzwert aufweist. Umgekehrt kann anhand der Daten des Lidarsensors ein genauer Wert für den Abstand zwischen der Rückfront 56 und dem Fahrzeug 10 angegeben werden. Indem nun diese Informationen zusammengeführt werden, lässt sich eindeutig feststellen, dass es sich bei dem von den Kameras 18 gesehenen Objekt um dieselbe Rückfront 56 handelt, die auch vom Lidarsensor 20 geortet wurde. Zum einen ist aufgrund des hohen Glanzwertes der Rückfront zu erwarten, dass sie vom Lidarsensor nur als punktförmiges Objekt geortet wird, obwohl sie in Wahrheit wesentlich ausgedehnter ist. Umgekehrt ermöglicht es die vom Lidarsensor gelieferte Entfernungsinformation, in den Kamerabildern gezielt nach schwer erkennbaren Strukturen zu suchen, deren Parallaxe genau den zu dem gemessen Abstand passend Wert hat, wodurch die Entfernungsmessung auch mit Hilfe des Kamerasystems verifiziert werden kann.
  • In einer Situation, in der der LKW 58 steht und die Ladeplattform gerade heruntergeklappt wird, führt die zunehmende Neigung der Rückfront 56 zu einem plötzlichen Verschwinden des Signals des Lidarsensors 20. Das gibt Anlass, in den Kamerabildern nach einer Veränderung in der Umrissform der Ladeplattform zu suchen und so festzustellen, dass die Ladeplattform gerade heruntergeklappt wird und damit möglicherweise die Kollisionsgefahr zunimmt.

Claims (6)

  1. Umfelderfassungssystem für Kraftfahrzeuge (10), mit mehreren Sensoren (12 - 20), die für elektromagnetische Strahlung in unterschiedlichen Bereichen des elektromagnetischen Spektrums empfindlich sind, und mit zugehörigen Auswertemodulen (22) zur Ortung und/oder Klassifizierung von im Umfeld vorhandenen Objekten (32, 44, 58) anhand der von den Sensoren gelieferten Daten, gekennzeichnet durch ein Modellmodul (26, 28), in dem ein Umfeldmodell (30) gespeichert ist, das neben den 3D-Positionensdaten (34) der Objekte (32, 44, 58) auch Daten (36) über die spektralen Reflexionseigenschaften von Oberflächen der Objekte enthält, wobei das Modellmodul in der Lage ist, diese Daten den Auswertemodulen (22) zur Verfügung zu stellen.
  2. Umfelderfassungssystem nach Anspruch 1, bei dem das Modellmodul (26) lokal im Fahrzeug (10) implementiert ist.
  3. Umfelderfassungssystem nach Anspruch 1, bei dem das Modellmodul (28) in einem ortsfesten Server implementiert ist, der drahtlos mit einer Auswerteeinrichtung (24) im Fahrzeug (10) kommuniziert.
  4. Umfelderfassungssystem nach Anspruch 1, mit einem im Fahrzeug implementierten lokalen Modellmodul (26) und einem außerhalb des Fahrzeugs implementierten ortsfesten Modellmodul (28).
  5. Umfelderfassungssystem nach einem der vorstehenden Ansprüche, mit einer Auswerteeinrichtung (24), die dazu ausgebildet ist, das Umfeldmodell (30) anhand der von den Auswertemodulen (22) generierten Daten zu konstruieren.
  6. Umfelderfassungssystem nach einem der vorstehenden Ansprüche, mit einer Auswerteeinrichtung (24), die dazu ausgebildet ist, anhand der im Umfeldmodell (30) gespeicherten Daten Reflexionspfade für elektromagnetische Strahlung zu berechnen, die von einem georteten Objekt ausgeht und durch Reflexion an einer Oberfläche eines anderen Objekts in einen der Sensoren (12 - 20) des Umfelderfassungssystems gelangt, wobei die Auswerteeinrichtung (24) weiterhin dazu ausgebildet ist, anhand der berechneten Reflexionspfade Signale zu prädizieren, die in den Auswertemodulen (22) als Signale von Objekten interpretierbar sind, und diesen Signalen entsprechenden Objekte als Scheinobjekte zu identifizieren.
DE102018216984.5A 2018-10-04 2018-10-04 Umfelderfassungssystem für Kraftfahrzeuge Pending DE102018216984A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018216984.5A DE102018216984A1 (de) 2018-10-04 2018-10-04 Umfelderfassungssystem für Kraftfahrzeuge
JP2019173620A JP2020077384A (ja) 2018-10-04 2019-09-25 車両のための周囲検出システム
US16/591,866 US11402492B2 (en) 2018-10-04 2019-10-03 Surroundings detection system for motor vehicles
CN201910950043.9A CN111025332A (zh) 2018-10-04 2019-10-08 用于机动车的环境感测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018216984.5A DE102018216984A1 (de) 2018-10-04 2018-10-04 Umfelderfassungssystem für Kraftfahrzeuge

Publications (1)

Publication Number Publication Date
DE102018216984A1 true DE102018216984A1 (de) 2020-04-09

Family

ID=69886226

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018216984.5A Pending DE102018216984A1 (de) 2018-10-04 2018-10-04 Umfelderfassungssystem für Kraftfahrzeuge

Country Status (4)

Country Link
US (1) US11402492B2 (de)
JP (1) JP2020077384A (de)
CN (1) CN111025332A (de)
DE (1) DE102018216984A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219929A1 (de) * 2019-12-17 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zum Erstellen einer Radarkarte

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10146808A1 (de) * 2001-09-22 2003-04-10 Adc Automotive Dist Control Optisches System für ein Kraftfahrzeug
JP3770189B2 (ja) * 2002-03-19 2006-04-26 株式会社デンソー 物体認識装置、物体認識方法、レーダ装置
EP1894779B1 (de) * 2006-09-01 2009-11-25 Harman Becker Automotive Systems GmbH Verfahren zum Betreiben eines Nachtsichtsystems in einem Kraftfahrzeug und entsprechendes Nachtsichtsystem
DE102007049516A1 (de) * 2006-10-13 2008-04-24 A.D.C. Automotive Distance Control Systems Gmbh System zur Bestimmung von Objekten
US8988276B2 (en) * 2010-03-17 2015-03-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring device
JP5519381B2 (ja) * 2010-04-09 2014-06-11 トヨタ自動車株式会社 スペクトル測定装置
DE102010026564A1 (de) * 2010-07-08 2012-01-12 Hella Kgaa Hueck & Co. Verfahren und Sensoranordnung zum Detektieren der Sichtverhältnisse außerhalb eines Kraftfahrzeuges
EP2810267A1 (de) * 2012-02-03 2014-12-10 Continental Teves AG&Co. Ohg SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
US9234618B1 (en) * 2012-09-27 2016-01-12 Google Inc. Characterizing optically reflective features via hyper-spectral sensor
CN105308626A (zh) * 2013-01-17 2016-02-03 西奥尼克斯股份有限公司 生物识别成像装置以及其方法
CN104118351A (zh) * 2013-04-24 2014-10-29 鸿富锦精密工业(深圳)有限公司 车辆辅助系统及车辆辅助方法
JP2015148173A (ja) * 2014-02-05 2015-08-20 浜名湖電装株式会社 逆止弁装置及びこれを備える蒸発燃料供給システム
DE102014207694A1 (de) * 2014-04-24 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Evaluieren der Errechnung von Umfeldmodellen durch Fahrzeuge
DE102014223741A1 (de) * 2014-11-20 2016-05-25 Conti Temic Microelectronic Gmbh Erfassen von Terahertz-Strahlung zum Unterstützen eines Fahrers eines Fahrzeugs
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
DE102015202330A1 (de) * 2015-02-10 2016-08-11 Continental Automotive Gmbh Fahrerassistenzsystem
DE102017203838B4 (de) * 2017-03-08 2022-03-17 Audi Ag Verfahren und System zur Umfelderfassung
DE102018201305A1 (de) * 2018-01-29 2019-08-01 Robert Bosch Gmbh Verfahren und Umgebungserkennungsvorrichtung zum Bestimmen des Vorhandenseins und/oder von Eigenschaften eines oder mehrerer Objekte in der Umgebung eines Kraftfahrzeugs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219929A1 (de) * 2019-12-17 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zum Erstellen einer Radarkarte

Also Published As

Publication number Publication date
US20200110169A1 (en) 2020-04-09
CN111025332A (zh) 2020-04-17
US11402492B2 (en) 2022-08-02
JP2020077384A (ja) 2020-05-21

Similar Documents

Publication Publication Date Title
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
EP1557692B1 (de) Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
EP1557693B1 (de) Verfahren zur Verfolgung von Objekten
DE202018100323U1 (de) LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität
EP2778714B1 (de) Verfahren zur Erfassung von Verkehrsverstößen in einem Ampelbereich durch Heckanmessung mit einem Radargerät
DE102017221691A1 (de) Verfahren und Vorrichtung zur Eigenlokalisierung eines Fahrzeugs
EP2804014B1 (de) Vorrichtung und Verfahren zum Bestimmen eines Fahrzeugmerkmals
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
DE112016006962B4 (de) Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm
WO2017207151A1 (de) Verfahren zur erkennung wenigstens einer parklücke für ein fahrzeug
US20210208282A1 (en) Detection device and detection system
DE102015012812A1 (de) Verfahren zum Betrieb von Radarsensoren in einem Kraftfahrzeug und Kraftfahrzeug
WO2016131541A1 (de) Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug
DE102016015405A1 (de) Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar
US11900691B2 (en) Method for evaluating sensor data, including expanded object recognition
DE102018216984A1 (de) Umfelderfassungssystem für Kraftfahrzeuge
DE102016001101A1 (de) Verfahren zur Erkennung und Identifikation eines Fahrmanövers eines Verkehrsteilnehmers und Kraftfahrzeug
EP3109663B1 (de) Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug
DE102014008732A1 (de) Verfahren und Vorrichtung zum Überwachen eines Radarmesswerts eines Radarsystems und Verkehrsüberwachungssystem
DE102004060432B4 (de) Verfahren zur Früherkennung von Straßen-Ausfahrten
EP3531167B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
DE102007013501B4 (de) Fahrerassistenzsystem mit unterschiedlich ausgerichteten Kameras
EP3658953B1 (de) Vorrichtung und verfahren zum erkennen der hoehe eines objekts
WO2021078335A1 (de) Verfahren zur erfassung eines zielobjekts
DE102019218059A1 (de) Erkennung länglicher Objekte