DE102022113274A1 - Infrastrukturvorrichtung zur Führung eines Fahrzeugs - Google Patents

Infrastrukturvorrichtung zur Führung eines Fahrzeugs Download PDF

Info

Publication number
DE102022113274A1
DE102022113274A1 DE102022113274.9A DE102022113274A DE102022113274A1 DE 102022113274 A1 DE102022113274 A1 DE 102022113274A1 DE 102022113274 A DE102022113274 A DE 102022113274A DE 102022113274 A1 DE102022113274 A1 DE 102022113274A1
Authority
DE
Germany
Prior art keywords
vehicle
infrastructure device
camera
drivable area
computing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022113274.9A
Other languages
English (en)
Inventor
Joerg SCHREPFER
Maximilian Poepperl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102022113274.9A priority Critical patent/DE102022113274A1/de
Priority to PCT/EP2023/063610 priority patent/WO2023227508A1/de
Publication of DE102022113274A1 publication Critical patent/DE102022113274A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Infrastrukturvorrichtung (1) zur Führung eines Fahrzeugs (2) enthält eine Kamera (5), die dazu eingerichtet ist, wenigstens ein Kamerabild zu erzeugen, das ein erstes Sichtfeld (9) abbildet, sowie ein Lidarsystem (6), das dazu eingerichtet ist, Lidarsensordaten zu erzeugen, die ein zweites Sichtfeld (10) darstellen. Ein erster Teilbereich eines befahrbaren Bereichs (3a, 3b, 3c, 3d) liegt innerhalb des ersten Sichtfelds (9) und ein zweiter Teilbereich des befahrbaren Bereichs (3a, 3b, 3c, 3d) liegt innerhalb des zweiten Sichtfelds (10). Die Infrastrukturvorrichtung (1) weist eine Recheneinheit (8) auf, die dazu eingerichtet ist, Eingabedaten zu erhalten, die das wenigstens eine Kamerabild und die Lidarsensordaten beinhalten, und basierend auf wenigstens einem Teil der Eingabedaten ein Fahrzeug (2) innerhalb des befahrbaren Bereichs (3a, 3b, 3c, 3d) zu lokalisieren. Das Lidarsystem (6) ist derart angeordnet, dass ein Maximalabstand des zweiten Teilbereichs von dem Lidarsystem (6) größer ist als ein vorgegebener erster Grenzwert.

Description

  • Die vorliegende Erfindung betrifft eine Infrastrukturvorrichtung zur wenigstens teilweise automatischen Führung eines Fahrzeugs innerhalb eines vorgegebenen befahrbaren Bereichs sowie Verfahren zum Betreiben einer solchen Infrastrukturvorrichtung.
  • Bei vielen Anwendungsfällen zum teilweise oder vollständig automatisierten Führen von Fahrzeugen werden die mittels der vielfältigen Sensorsysteme des Fahrzeugs erzeugten Sensordaten als Grundlage zur Lokalisierung, Trajektorienplanung, Objekterkennung und sonstige Aufgaben und Funktionen verwendet. In anderen Anwendungsfällen, beispielsweise aber nicht ausschließlich beim automatischen fahrerlosen Parken, was auch als automatisches oder autonomes Valet-Parken bezeichnet wird, oder Logistikanwendungen, wie beispielsweise der Verladung oder dem Transport oder der Produktion von Fahrzeugen, werden Infrastruktursysteme eingesetzt, die eine Vielzahl von Sensorknoten aufweisen, wobei jeder der Sensorknoten eines oder mehrere Umfeldsensorsysteme, insbesondere Kameras, aufweist. Ein vorgegebener befahrbarer Bereich ist dann beispielsweise vollständig von der Vielzahl von Sensorknoten einsehbar und überwachbar. Basierend auf den so erzeugten Sensordaten kann das jeweilige Fahrzeug lokalisiert und geführt werden.
  • Als Umfeldsensorsysteme der einzelnen Sensorknoten können dabei zum Beispiel Kameras eingesetzt werden, insbesondere Weitwinkelkameras oder Fisheye-Kameras mit einem sehr großen erfassbaren Winkelbereich, insbesondere vertikalem Winkelbereich. Ein Nachteil solcher Kameras ist es jedoch, dass sie sich, insbesondere bei vergleichsweise großen Abständen zu dem zu lokalisierenden Fahrzeug, nicht oder nur sehr eingeschränkt zur Entfernungsschätzung eignen. Eine Kamera, die nicht speziell als 3D-Kamera oder Stereokamera ausgebildet ist, erlaubt keine direkte Entfernungsmessung. Dies ist insbesondere nachteilhaft, wenn sich das zu lokalisierende Fahrzeug weit von dem entsprechenden Sensorknoten entfernt befindet.
  • Es ist eine Aufgabe der vorliegenden Erfindung, eine Infrastrukturvorrichtung zum wenigstens teilweise automatischen Führen eines Fahrzeugs anzugeben, welche es ermöglicht, das Fahrzeug in einem vordefinierten befahrbaren Bereich zuverlässiger und/oder genauer zu lokalisieren, ohne dabei auf fahrzeuginterne Sensoren zurückzugreifen.
  • Diese Aufgabe wird gelöst durch den Gegenstand des unabhängigen Anspruchs. Vorteilhafte Weiterbildungen und bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
  • Die Erfindung beruht auf dem Gedanken, eine Infrastrukturvorrichtung sowohl mit einer Kamera als auch mit einem Lidarsystem auszustatten und das Lidarsystem derart bezüglich des befahrbaren Bereichs anzuordnen, dass ein Maximalabstand einer Position in dem befahrbaren Bereich, die von dem Lidarsystem erfasst werden kann, größer ist als ein vorgegebener Grenzwert.
  • Gemäß einem Aspekt der Erfindung wird eine Infrastrukturvorrichtung zu wenigstens teilweise automatischen Führung, vorzugsweise zur vollautomatischen Führung, eines Fahrzeugs innerhalb eines vorgegebenen befahrbaren Bereichs, insbesondere eines für das Fahrzeug befahrbaren Bereichs, angegeben. Die Infrastrukturvorrichtung enthält eine Kamera, die dazu eingerichtet ist, ein Kamerabild zu erzeugen, welches ein erstes Sichtfeld der Kamera abbildet. Die Infrastrukturvorrichtung enthält außerdem ein Lidarsystem, das dazu eingerichtet ist, Lidarsensordaten zu erzeugen, die ein zweites Sichtfeld des Lidarsystems darstellen, insbesondere abbilden. Ein erster Teilbereich des befahrbaren Bereichs liegt innerhalb des ersten Sichtfelds und ein zweiter Teilbereich des befahrbaren Bereichs liegt innerhalb des zweiten Sichtfelds. Das Lidarsystem ist derart angeordnet, insbesondere bezüglich des befahrbaren Bereichs, dass ein Maximalabstand des zweiten Teilbereichs von dem Lidarsystem größer ist als ein vorgegebener erster Grenzwert. Die Infrastrukturvorrichtung weist wenigstens eine Recheneinheit auf, die dazu eingerichtet ist, Eingabedaten zu erhalten, insbesondere von der Kamera und dem Lidarsystem, wobei die Eingabedaten das wenigstens eine Kamerabild enthalten und wobei die Eingabedaten die die Lidarsensordaten enthalten. Die wenigstens eine Recheneinheit ist dazu eingerichtet, basierend auf wenigstens einem Teil der Eingabedaten, insbesondere basierend auf wenigstens einem Teil des wenigstens einen Kamerabilds und/oder der Lidarsensordaten, ein Fahrzeug innerhalb des befahrbaren Bereichs zu lokalisieren.
  • Das Lokalisieren des Fahrzeugs beinhaltet dabei insbesondere das Bestimmen einer Position und/oder Orientierung des Fahrzeugs innerhalb des befahrbaren Bereichs, insbesondere in einem vorgegebenen Referenzkoordinatensystem, das beispielsweise starr mit dem befahrbaren Bereich verbunden ist.
  • Die Infrastrukturvorrichtung befindet sich vollständig außerhalb beziehungsweise extern zu dem Fahrzeug. Die Infrastrukturvorrichtung ist daher nicht ausschließlich zum wenigstens teilweise automatischen Führen eines einzigen Fahrzeugs geeignet, sondern kann mehrere Fahrzeuge, gegebenenfalls auch gleichzeitig, lokalisieren. Insbesondere ist weder die Kamera noch das Lidarsystem an oder in dem Fahrzeug montiert.
  • Insbesondere sind sowohl die Kamera als auch das Lidarsystem fest bezüglich des befahrbaren Bereichs montiert, wobei dies auch in verschiedenen Ausführungsformen die beispielsweise Möglichkeit zum Schwenken, Neigen und/oder Kippen der Kamera beziehungsweise des Lidarsensorsystems beinhalten kann, sodass das erste und/oder das zweite Sichtfeld gegebenenfalls modifiziert werden kann. Der erste und der zweite Teilbereich sind in solchen Ausführungsformen beispielsweise derart zu verstehen, dass sie sich für eine beliebige konstante Einstellung des ersten und/oder zweiten Sichtfelds ergeben.
  • Insbesondere handelt es sich auch bei der wenigstens einen Recheneinheit um wenigstens eine fahrzeugexterne Recheneinheit des Infrastruktursystems. Die wenigstens eine Recheneinheit ist drahtlos und/oder drahtgebunden mit dem Lidarsystem und der Kamera gekoppelt oder verbunden, um die Eingabedaten zu erhalten.
  • Die Infrastrukturvorrichtung kann außer der Kamera und dem Lidarsystem eines oder mehrere weitere Umfeldsensorsysteme, beispielsweise eine oder mehrere weitere Kameras und/oder eines oder mehrere Lidarsysteme beinhalten, deren jeweilige Sichtfelder ebenfalls wenigstens zum Teil in dem befahrbaren Bereich liegen oder einen entsprechenden Teilbereich des befahrbaren Bereichs abdecken oder abbilden können.
  • Im Allgemeinen kann die Infrastrukturvorrichtung beispielsweise eine Vielzahl von Sensorknoten beinhalten, die räumlich verteilt bezüglich des befahrbaren Bereichs angeordnet sind, wobei jeder Sensorknoten eines oder mehrere Umfeldsensorsysteme beinhaltet.
  • Ein Umfeldsensorsystem kann beispielsweise als Sensorsystem verstanden werden, das dazu in der Lage ist, Sensordaten oder Sensorsignale zu erzeugen, welche eine Umgebung Umfeldsensorsystems abbilden, darstellen oder wiedergeben. Insbesondere ist die Fähigkeit, elektromagnetische oder sonstige Signale aus der Umgebung zu erfassen, nicht hinreichend, um ein Sensorsystem als Umfeldsensorsystem zu qualifizieren. Beispielsweise können Kameras, Radarsysteme, Lidarsysteme oder Ultraschallsensorsysteme als Umfeldsensorsysteme aufgefasst werden.
  • Eine bekannte Bauform von Lidarsystemen sind sogenannte Laserscanner, bei denen ein Laserstrahl mittels einer Umlenkeinheit abgelenkt wird, so dass verschiedene Ablenkwinkel des Laserstrahls realisiert werden können. Die Umlenkeinheit kann beispielsweise einen drehbar gelagerten Spiegel enthalten. Alternativ kann die Umlenkeinheit ein Spiegelelement mit einer kipp- und/oder schwenkbaren Oberfläche aufweisen. Das Spiegelelement kann beispielsweise als mikroelektromechanisches System, MEMS, ausgestaltet sein. In der Umgebung können die ausgesendeten Laserstrahlen teilweise reflektiert werden und die reflektierten Anteile können wiederum auf den Laserscanner treffen, insbesondere auf die Umlenkeinheit, die sie auf eine Detektoreinheit des Laserscanners lenken kann. Jeder optische Detektor der Detektoreinheit erzeugt insbesondere ein zugehöriges Detektorsignal basierend auf den von dem jeweiligen optischen Detektor erfassten Anteilen. Anhand der räumlichen Anordnung des jeweiligen Detektors kann zusammen mit der aktuellen Position der Umlenkeinheit, insbesondere ihrer Drehposition beziehungsweise ihrer Kipp- und/oder Schwenkposition, somit auf die Einfallsrichtung der detektierten reflektierten Anteile geschlossen werden. Eine Auswerteeinheit kann zudem beispielsweise eine Lichtlaufzeitmessung durchführen, um einen radialen Abstand des reflektierenden Objekts zu bestimmen. Zur Abstandsbestimmung kann alternativ oder zusätzlich auch ein Verfahren eingesetzt werden, gemäß dem ein Phasenunterschied zwischen emittiertem und detektiertem Licht ausgewertet wird.
  • Hier und im Folgenden kann der Begriff „Licht“ derart verstanden werden, dass davon elektromagnetische Wellen im sichtbaren Bereich, im infraroten Bereich und/oder im ultravioletten Bereich umfasst sind. Dementsprechend kann auch der Begriff „optisch“ derart verstanden werden, dass er sich auf Licht nach diesem Verständnis bezieht.
  • Das Lidarsystem der Infrastrukturvorrichtung kann beispielsweise als Laserscanner ausgestaltet sein. Die Lidarsensordaten können beispielsweise eine oder mehrere Punktwolken beinhalten.
  • Die Kamera und das Lidarsystem können Teil desselben Sensorknotens sein. Dies ist jedoch nicht notwendigerweise der Fall, sodass das Lidarsystem und die Kamera von unterschiedlichen Sensorknoten der Infrastrukturvorrichtung beinhaltet sein können.
  • Der befahrbare Bereich kann in manchen Ausführungsformen Teil der Infrastrukturvorrichtung sein. Der befahrbare Bereich kann beispielsweise eine oder mehrere Straßen oder Fahrwege zum Befahren durch das Fahrzeug aufweisen. Der befahrbare Bereich kann auch einen oder mehrere, insbesondere eine Vielzahl von, Parkplätzen für das Fahrzeug aufweisen. Das Fahrzeug kann einen der Parkplätze belegen und daher befahren. Verschiedene Teile des befahrbaren Bereichs können voneinander räumlich getrennt sein, beispielsweise durch bauliche Vorrichtungen, wie etwa Wände, Mauern, Fahrbahnbegrenzungen und so weiter. Verschiedene Teile des befahrbaren Bereichs können auch auf unterschiedlichen Höhenpositionen liegen, beispielsweise auf verschiedenen Stockwerken eines Parkhauses oder dergleichen.
  • Der befahrbare Bereich kann beispielswiese als derjenige Bereich verstanden werden, auf dem sich das Fahrzeug und/oder weitere Fahrzeuge bestimmungsgemäß bewegen sollen und können, vorausgesetzt der entsprechende Teil des befahrbaren Bereichs ist nicht, beispielsweise vorübergehend, durch ein weiteres Objekt, wie etwa ein weiteres Fahrzeug oder dergleichen, belegt. Der befahrbare Bereich kann sichtbar markiert und/oder definiert sein, beispielsweise anhand von Fahrbahnmarkierungslinien, baulichen Begrenzungen und so weiter. Alternativ oder zusätzlich kann der befahrbare Bereich unsichtbar oder digital markiert oder definiert sein, beispielsweise durch eine digitale Karte oder dergleichen.
  • Die Kamera und/oder das Lidarsystem können innerhalb des befahrbaren Bereichs angeordnet sein. Dies ist jedoch nicht notwendigerweise der Fall. Das Lidarsystem und/oder die Kamera können auch außerhalb des befahrbaren Bereichs angeordnet sein, sodass das erste Sichtfeld und das zweite Sichtfeld wenigstens einen Teil des befahrbaren Bereichs abdecken, nämlich den ersten Teilbereich beziehungsweise den zweiten Teilbereich.
  • Der erste Teilbereich und der zweite Teilbereich können als diejenigen Bereiche aufgefasst werden, die sowohl von dem befahrbaren Bereich als auch von dem jeweiligen Sichtfeld umfasst beziehungsweise abgedeckt sind. Das erste Sichtfeld und das zweite Sichtfeld können einander teilweise überlappen, jedoch ist auch dies nicht notwendigerweise der Fall. Entsprechendes gilt analog für den ersten und den zweiten Teilbereich.
  • Der Maximalabstand des zweiten Teilbereichs kann als Maximalwert der Abstände sämtlicher Punkte des zweiten Teilbereichs von dem Lidarsystem verstanden werden, beispielsweise als maximaler euklidischer Abstand oder maximaler radialer Abstand.
  • Betrachtet man eine virtuelle Verbindungslinie zwischen dem Lidarsystem und einem Punkt in dem zweiten Teilbereich, so ist die Länge dieser Verbindungslinie gleich dem euklidischen Abstand. Betrachtet man eine Projektion der Verbindungslinie auf eine Fahrbahnoberfläche des befahrbaren Bereichs, so ist die Länge dieser Projektion beispielsweise gleich dem radialen Abstand. Der radiale Abstand und der euklidische Abstand unterscheiden sich voneinander, wenn das Lidarsystem in einer bestimmten Höhe über der Fahrbahnoberfläche montiert ist. Beide Definitionen des Abstands sind im Sinne der Erfindung möglich.
  • Um das Fahrzeug zu lokalisieren kann die wenigstens eine Recheneinheit in manchen Ausführungsformen außer den Eingabedaten auch auf weitere Informationen und/oder Daten, insbesondere der Kamera, des Lidarsystems und/oder weiterer Umfeldsensorsysteme der Infrastrukturvorrichtung, zurückgreifen. Insbesondere kann die wenigstens eine Recheneinheit einen Objektverfolgungsalgorithmus durchführen, um das Fahrzeug zu verfolgen. Wurde das Fahrzeug beispielsweise zu einem früheren Zeitpunkt vor der oben beschriebenen Lokalisierung des Fahrzeugs bereits detektiert und lokalisiert, insbesondere verfolgt, so kann das Lokalisieren des Fahrzeugs als Berechnen einer aktuellen oder momentanen Position und/oder Orientierung des Fahrzeugs verstanden werden. Wurde das Fahrzeug zuvor nicht verfolgt beziehungsweise detektiert, so kann das Lokalisieren auch das Bestimmen einer initialen Position und/oder Orientierung des Fahrzeugs beinhalten.
  • Je nach Position des Fahrzeugs bezüglich des Lidarsystems und der Kamera, also insbesondere je nachdem, wo sich das Fahrzeug in dem befahrbaren Bereich befindet, kann die wenigstens eine Recheneinheit wahlweise das wenigstens eine Kamerabild zur Lokalisierung des Fahrzeugs verwenden und nicht die Lidarsensordaten oder die wenigstens eine Recheneinheit kann die Lidarsensordaten zur Lokalisierung des Fahrzeugs verwenden und nicht das wenigstens eine Kamerabild oder die wenigstens eine Recheneinheit kann sowohl das wenigstens eine Kamerabild als auch die Lidarsensordaten zur Lokalisierung des Fahrzeugs verwenden. Welche Inhalte der Eingabedaten die wenigstens eine Recheneinheit konkret zu Lokalisierung des Fahrzeugs verwendet kann daher beispielsweise abhängig von einer früheren oder vorangegangenen Position und/oder Orientierung des Fahrzeugs in dem befahrbaren Bereich entschieden werden, beispielsweise abhängig von einem Ergebnis der Objektverfolgung des Fahrzeugs durch die wenigstens eine Recheneinheit. In anderen Ausführungsformen ist es auch möglich, dass fest vorgegebene Bereiche des befahrbaren Bereichs definiert sind und die Verwendung der Eingabedaten beziehungsweise der einzelnen Teile der Eingabedaten davon abhängt, in welchem dieser definierten Bereiche sich das Fahrzeug befindet. Dies kann beispielswiese anhand von Objekterkennungsalgorithmen für die einzelnen Teile der Eingabedaten bestimmt werden.
  • Indem der Maximalabstand des zweiten Teilbereichs größer ist als der vorgegebene erste Grenzwert wird sichergestellt, dass die Lidarsensordaten und damit die Eingabedaten, die der wenigstens einen Recheneinheit zur Lokalisierung des Fahrzeugs zur Verfügung stehen, Lidarsensordaten aus einem Bereich enthalten, der weiter von dem Lidarsensorsystem entfernt ist als der erste Maximalabstand. Mit anderen Worten wird das Lidarsystem derart positioniert, dass es zumindest auch Lidarsensordaten aus einem Fernbereich erfassen kann, wobei der Fernbereich durch den ersten Grenzwert für den Maximalabstand definiert ist.
  • Der erste Grenzwert kann beispielsweise in der Größenordnung von 10 m oder mehr, vorzugsweise 15 m oder mehr, beispielsweise 20 m oder mehr und so weiter liegen. In solchen Bereichen ist aufgrund der beschränkten Auflösung von Kameras die die typischerweise für Infrastrukturvorrichtungen eingesetzt werden können, die Möglichkeit zur Tiefenschätzung und Entfernungsschätzung sehr begrenzt oder unmöglich. Hier wird durch die Erfindung gezielt ein Lidarsystem eingesetzt, um diese Beschränkungen zu überwinden.
  • Die Erfindung ermöglicht es also insbesondere, im Fernbereich eines entsprechenden Sensorknotens ein Lidarsystem vorzusehen und im Nahbereich eines entsprechenden Sensorknotens beispielsweise eine Kamera. So können die Vorteile der verschiedenen Umfeldsensorsysteme optimal ausgenutzt werden, ohne dass deren jeweilige Nachteile einen signifikanten Einfluss haben. Insbesondere wird das sehr große Sichtfeld einer entsprechenden Kamera, beispielsweise einer nicht-gnomonischen Kamera, bezüglich des horizontalen und insbesondere vertikalen Erfassungswinkels einer solchen Kamera im Nahbereich ausgenutzt. Ein Lidarsensorsystem, das im Nahbereich gegebenenfalls aufgrund eines beschränkten vertikalen Erfassungswinkels relevante Objekte nicht zuverlässig erkennen kann, wird gezielt für den Fernbereich eingesetzt, wo seine Fähigkeiten und Vorteile zur Abstandsmessung und Tiefenerkennung ausgenutzt werden.
  • Letztlich führt dies zu einer erhöhten Genauigkeit und Zuverlässigkeit der Lokalisierung des Fahrzeugs durch die wenigstens eine Recheneinheit und damit zu einer verbesserten Sicherheit der automatischen Führung des Fahrzeugs, die insbesondere basierend auf der Lokalisierung erfolgen kann.
  • Insbesondere kann abhängig von der durch die Lokalisierung bestimmten aktuellen Position und/oder Orientierung des Fahrzeugs eine Trajektorienplanung zur Führung des Fahrzeugs durchgeführt werden und das Fahrzeug entsprechend der gelplanten Trajektorie geführt werden.
  • Gemäß zumindest einer Ausführungsform der Infrastrukturvorrichtung ist der erste Grenzwert größer oder gleich 10 m, 15 m, insbesondere größer oder gleich 25 m, vorzugsweise größer oder gleich 40 m.
  • In dementsprechend definierten Fernbereichen wirken sich die Vorteile des Lidarsystems besonders deutlich aus, wohingegen die gegebenenfalls vorhandenen Nachteile aufgrund eines möglicherweise eingeschränkten vertikalen Sichtfeldes weniger stark hervortreten.
  • Gemäß zumindest einer Ausführungsform ist die Kamera derart angeordnet, insbesondere bezüglich des befahrbaren Bereichs, dass ein Minimalabstand des ersten Teilbereichs von der Kamera kleiner ist als ein vorgegebener zweiter Grenzwert, der kleiner ist als der erste Grenzwert.
  • Die oben stehenden Erläuterungen zum Maximalabstand des zweiten Teilbereichs können analog auf den Minimalabstand des ersten Teilbereichs übertragen werden, also insbesondere einem euklidischen oder radialen Abstand.
  • In solchen Ausführungsformen wird also gezielt die Kamera derart eingesetzt, dass sie einen durch den zweiten Grenzwert definierten Nahbereich um die Kamera beziehungsweise den entsprechenden Sensorknoten abdeckt. Die Vorteile einer Kamera im Nahbereich, die insbesondere als Fisheye-Kamera oder sonstige nicht-gnomonische Kamera ausgestaltet sein kann, werden gezielt genutzt.
  • Beispielsweise hat das erste Sichtfeld der Kamera einen vertikalen Öffnungswinkel von 40° oder mehr, vorzugsweise 100° oder mehr, besonders bevorzugt 150° oder mehr, beispielsweise 180°.
  • Gemäß zumindest einer Ausführungsform ist der zweite Grenzwert kleiner oder gleich 10 m, insbesondere kleiner oder gleich 5 m, vorzugsweise kleiner oder gleich 2 m.
  • Gemäß zumindest einer Ausführungsform ist die Kamera als nicht-gnomonische Kamera, insbesondere als Fish-Eye-Kamera, ausgestaltet.
  • Eine nicht-gnomonische oder nicht-geradlinige Kamera kann als eine Kamera mit einer nicht-gnomonischen oder nicht-geradlinigen Linseneinheit verstanden werden. Eine nicht-gnomonische oder nicht-geradlinige Linseneinheit kann als eine Linseneinheit, das heißt eine oder mehrere Linsen, mit einer nicht-gnomonischen, also nicht-geradlinigen oder kurvilinearen, Abbildungsfunktion verstanden werden. Insbesondere stellen Fischaugenkameras nicht-gnomonische oder nicht-geradlinige Kameras dar.
  • Die Abbildungsfunktion der Linseneinheit kann als eine Funktion r(θ) verstanden werden, die einen Winkel θ von der Mittelachse der radialen Verzeichnung der Linseneinheit auf eine radiale Verschiebung r aus dem Bildzentrum abbildet. Die Funktion hängt parametrisch von der Brennweite f der Linseneinheit ab.
  • Zum Beispiel weist eine gnomonische oder geradlinige Linseneinheit eine gnomonische Abbildungsfunktion auf, insbesondere r(θ) = f tan(θ). Mit anderen Worten bildet eine gnomonische oder geradlinige Linseneinheit gerade Linien in der realen Welt auf gerade Linien im Bild ab, zumindest bis auf Linsenungenauigkeiten.
  • Eine nicht-gnomonische, nicht-geradlinige oder kurvilineare Linseneinheit bildet im Allgemeinen gerade Linien nicht auf gerade Linien ab. Insbesondere kann die Abbildungsfunktion einer nicht-gnomonischen oder nicht-geradlinigen Kamera stereographisch, äquidistant, raumwinkelgleich oder orthographisch sein. Abbildungsfunktionen von nicht-geradlinigen Linseneinheiten können auch, zumindest näherungsweise, durch Polynomfunktionen gegeben sein.
  • Gemäß zumindest einer Ausführungsform ist ein Minimalabstand des zweiten Teilbereichs von dem Lidarsystem größer als der zweite Grenzwert.
  • Mit anderen Worten wird der Nahbereich des Sensorknotens, der das Lidarsystem enthält, nicht von dem Lidarsystem abgedeckt. Vorzugsweise kann in solchen Ausführungsformen dieser Sensorknoten auch eine Kamera aufweisen. Alternativ kann der Nahbereich dieses Sensorknotens von einem anderen Sensorknoten, insbesondere einem anderen Lidarsystem und/oder einer anderen Kamera des anderen Sensorknotens, abgedeckt werden.
  • Indem der Nahbereich des jeweiligen Sensorknotens von dem Lidarsystem gezielt ausgespart wird, kann mit Vorteil der zur Verfügung stehende vertikale Sichtwinkel des zweiten Sichtfelds optimal im Fernbereich genutzt werden.
  • Gemäß zumindest einer Ausführungsform weist die Infrastrukturvorrichtung die Vielzahl von Sensorknoten auf, wobei die Vielzahl von Sensorknoten räumlich verteilt angeordnet sind, insbesondere in einer Umgebung des befahrbaren Bereichs oder auf dem befahrbaren Bereich oder beides. Ein Gesamtsichtfeld der Vielzahl von Sensorknoten deckt den befahrbaren Bereich ab, insbesondere vollständig.
  • Das Gesamtsichtfeld der Vielzahl von Sensorknoten kann dabei beispielsweise als Vereinigung aller Sichtfelder aller Umfeldsensorsysteme aller Sensorknoten der Vielzahl von Sensorknoten aufgefasst werden. Mit anderen Worten ist jeder Punkt im befahrbaren Bereich in dem Gesamtsichtfeld enthalten und insbesondere im wenigstens einen Sichtfeld der einzelnen Umfeldsensorsysteme der Vielzahl von Sensorknoten. Das erste Sichtfeld und das zweite Sichtfeld sind ebenfalls Teil des Gesamtsichtfeldes. Jeder Sensorknoten kann eine Kamera und/oder ein Lidarsystem und/oder ein sonstiges Umfeldsensorsystem beinhalten.
  • Gemäß zumindest einer Ausführungsform enthält jeder Sensorknoten der Vielzahl von Sensorknoten ein Lidarsystem, wenn ein freier Bereich zwischen dem jeweiligen Sensorknoten und einer Grenze des befahrbaren Bereichs oder einem Hindernis in dem befahrbaren Bereich größer ist als der erste Grenzwert.
  • Gemäß zumindest einer Ausführungsform enthält ein erster Sensorknoten der Vielzahl der Sensorknoten die Kamera und ein zweiter Sensorknoten der Vielzahl von Sensorknoten enthält das Lidarsystem, wobei der zweite Sensorknoten von dem ersten Sensorknoten verschieden ist.
  • In alternativen Ausführungsformen sind die Kamera und das Lidarsystem von demselben Sensorknoten der Vielzahl von Sensorknoten enthalten.
  • Gemäß zumindest einer Ausführungsform ist die wenigstens eine Recheneinheit dazu eingerichtet, das Fahrzeug unter Anwendung eines Objektverfolgungsalgorithmus zu verfolgen und basierend auf der der Verfolgung eine erste Position des Fahrzeugs in dem befahrbaren Bereich zu einem ersten Zeitpunkt zu bestimmen. Die wenigstens eine Recheneinheit ist dazu eingerichtet, zum Lokalisieren des Fahrzeugs, eine zweite Position des Fahrzeugs in dem befahrbaren Bereich zu einem zweiten Zeitpunkt zu bestimmen, wobei der zweite Zeitpunkt nach dem ersten Zeitpunkt liegt.
  • Gemäß zumindest einer Ausführungsform ist die wenigstens eine Recheneinheit dazu eingerichtet, die Eingabedaten durch Anwendung eines Verfahrens zur Sensordatenfusion aufzubereiten und zum Aufbereiten der Eingabedaten Informationen des wenigstens einen Kamerabildes und Informationen der Lidarsensordaten bezüglich einander abhängig von der ersten Position zu gewichten. Die wenigstens eine Recheneinheit ist dazu eingerichtet, die zweite Position des Fahrzeugs abhängig von den aufbereiteten Eingabedaten zu bestimmen.
  • Das Verfahren zur Sensordatenfusion kann also insbesondere basierend auf dem wenigstens einem Kamerabild und basierend auf den Lidarsensordaten fusionierte Sensordaten erzeugen. Durch die Gewichtung werden die Informationen des wenigstens einen Kamerabildes und der Lidarsensordaten gegebenenfalls unterschiedlich stark berücksichtigt. Indem die Berücksichtigung und Gewichtung der jeweiligen Daten abhängig von der zweiten Position durchgeführt wird, also abhängig von einem Ergebnis der Lokalisierung des Fahrzeugs, kann daher den Lidarsensordaten im Fernbereich des entsprechenden Sensorknotens ein höheres Gewicht beigemessen werden als im Nahbereich, wohingegen im Nahbereich dem wenigstens einen Kamerabild eine höhere Bedeutung und eine höhere Gewichtung zugemessen werden kann, als im Fernbereich. Das wenigstens eine Kamerabild und die Lidarsensordaten können daher optimal genutzt werden.
  • Insbesondere können die Informationen des wenigstens einen Kamerabildes mittels der wenigstens einen Recheneinheit umso stärker gewichtet werden, je näher sich das Fahrzeug an der Kamera befindet und/oder die Informationen der Lidarsensordaten können umso stärker gewichtet werden, je weiter das Fahrzeug von dem Lidarsystem entfernt ist.
  • Gemäß zumindest einer Ausführungsform beinhaltet der befahrbare Bereich eine Vielzahl von potentiellen Parkplätzen für das Fahrzeug.
  • Die Infrastrukturvorrichtung kann beispielsweise als Parkvorrichtung, Parkplatz, Parkhaus oder Valet-Parkeinrichtung ausgestaltet sein.
  • Gemäß zumindest einer Ausführungsform ist die wenigstens eine Recheneinheit dazu eingerichtet, abhängig von einem Ergebnis der Lokalisierung des Fahrzeugs, insbesondere abhängig von der bestimmten Position und/oder Orientierung des Fahrzeugs, eine Trajektorie für das Fahrzeug innerhalb des befahrbaren Bereichs zu planen und die Trajektorie oder von der Trajektorie abhängige Daten an das Fahrzeug zu übermitteln, insbesondere an eine Fahrzeugrecheneinheit des Fahrzeugs.
  • Das Fahrzeug kann dann beispielsweise mittels eines elektronischen Fahrzeugführungssystems des Fahrzeugs, welches beispielsweise die wenigstens eine Fahrzeugrecheneinheit beinhaltet, automatisch gemäß der Trajektorie geführt werden.
  • Gemäß zumindest einer Ausführungsform führt die Trajektorie von der zweiten Position des Fahrzeugs zu einem der potentiellen Parkplätze.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein Fahrzeugführungssystem für ein Fahrzeug angegeben, wobei das Fahrzeugführungssystem eine erfindungsgemäße Infrastrukturvorrichtung aufweist sowie ein elektronisches Fahrzeugführungssystem, für das Fahrzeug.
  • Unter einem elektronischen Fahrzeugführungssystem kann ein elektronisches System verstanden werden, das dazu eingerichtet ist, ein Fahrzeug vollautomatisch oder vollautonom zu führen, insbesondere ohne dass ein Eingriff in eine Steuerung durch einen Fahrer erforderlich ist. Das Fahrzeug führt alle erforderlichen Funktionen, wie Lenk, Brems- und/oder Beschleunigungsmanöver, die Beobachtung und Erfassung des Straßenverkehrs sowie entsprechende Reaktionen automatisch durch. Insbesondere kann das elektronische Fahrzeugführungssystem einen vollautomatischen oder vollautonomen Fahrmodus des Kraftfahrzeugs nach Stufe 5 der Klassifizierung gemäß SAE J3016 implementieren. Unter einem elektronischen Fahrzeugführungssystem kann auch ein Fahrerassistenzsystem (englisch: „advanced driver assistance system“, ADAS) verstanden werden, welches den Fahrer beim teilweise automatisierten oder teilautonomen Fahren unterstützt. Insbesondere kann das elektronische Fahrzeugführungssystem einen teilweise automatisierten oder teilautonomen Fahrmodus nach Stufe 4 gemäß der SAE J3016-Klassifizierung implementieren. Hier und im Folgenden bezieht sich „SAE J3016“ auf die entsprechende Norm in der Version vom Juni 2018.
  • Das elektronische Fahrzeugführungssystem ist dabei dazu eingerichtet, die Trajektorie von der wenigstens einen Recheneinheit der Infrastrukturvorrichtung zu erhalten und das Fahrzeug abhängig von der Trajektorie, insbesondere gemäß oder entlang der Trajektorie wenigstens teilweise automatisch, vorzugsweise vollautomatisch, zu führen.
  • Dazu kann das elektronische Fahrzeugführungssystem beispielsweise die Fahrzeugrecheneinheit aufweisen und die Fahrzeugrecheneinheit kann Steuersignale für einen oder mehrere Aktuatoren des Fahrzeugs, insbesondere des elektronischen Fahrzeugführungssystems, erzeugen und an den wenigstens einen Aktuator übermitteln. Der wenigstens eine Aktuator kann dann eine Quer und/oder Längssteuerung des Fahrzeugs abhängig von den Steuersignalen beeinflussen oder durchführen.
  • Gemäß einem weiteren Aspekt der Erfindung wird auch ein Verfahren zum Betreiben einer erfindungsgemäßen Infrastrukturvorrichtung angegeben. Das Fahrzeug wird dabei innerhalb des befahrbaren Bereichs mittels der wenigstens einen Recheneinheit abhängig von den Eingabedaten lokalisiert und das Fahrzeug wir abhängig von einem Ergebnis der Lokalisierung, insbesondere abhängig von der Trajektorie, wenigstens teilweise automatisch geführt, vorzugsweise vollautomatisch geführt, insbesondere mittels eines elektronischen Fahrzeugführungssystems für das Fahrzeug beziehungsweise des Fahrzeugs.
  • In verschiedenen Ausführungsformen des Verfahrens kann das Bereitstellen der Infrastrukturvorrichtung sowie gegebenenfalls des elektronischen Fahrzeugführungssystems als jeweiliger Verfahrensschritt aufgefasst werden. Das Bereitstellen der Infrastrukturvorrichtung beinhaltet dann insbesondere das Positionieren der Kamera und des Lidarsystems entsprechend wie oben beschrieben.
  • Gemäß zumindest einer Ausführungsform des Verfahrens wird mittels der wenigstens einen Recheneinheit abhängig von dem Ergebnis der Lokalisierung die Trajektorie für das Fahrzeug innerhalb des befahrbaren Bereichs geplant. Die Trajektorie wird mittels der wenigstens einen Recheneinheit von der wenigstens einen Recheneinheit an das Fahrzeug, insbesondere die Fahrzeugrecheneinheit, übermittelt. Das Fahrzeug wird abhängig von der Trajektorie wenigstens teilweise automatisch geführt, insbesondere mittels des elektronischen Fahrzeugführungssystems.
  • Gemäß zumindest einer Ausführungsform des Verfahrens wird mittels der wenigstens einen Recheneinheit ein Parkplatz für das Fahrzeug in dem befahrbaren Bereich bestimmt und die Trajektorie wird so geplant, dass eine Zielposition für das Fahrzeug gemäß der Trajektorie dem bestimmten Parkplatz entspricht.
  • Weitere Ausführungsformen des erfindungsgemäßen Verfahrens folgen unmittelbar aus den verschiedenen Ausgestaltungen der erfindungsgemäßen Infrastrukturvorrichtung und umgekehrt. Insbesondere lassen sich einzelne Merkmale und entsprechende Erläuterungen bezüglich der verschiedenen Ausführungsformen zu dem erfindungsgemäßen Verfahren analog auf entsprechende Ausführungsformen der erfindungsgemäßen Infrastrukturvorrichtung übertragen. Insbesondere ist die erfindungsgemäße Infrastrukturvorrichtung zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet oder programmiert. Insbesondere führt die erfindungsgemäße Infrastrukturvorrichtung das erfindungsgemäße Verfahren durch.
  • Unter einer Recheneinheit kann insbesondere ein Datenverarbeitungsgerät verstanden werden, die einen Verarbeitungsschaltkreis enthält. Die Recheneinheit kann also insbesondere Daten zur Durchführung von Rechenoperationen verarbeiten. Darunter fallen gegebenenfalls auch Operationen, um indizierte Zugriffe auf eine Datenstruktur, beispielsweise eine Umsetzungstabelle, LUT (englisch: „look-up table“), durchzuführen.
  • Die Recheneinheit kann insbesondere einen oder mehrere Computer, einen oder mehrere Mikrocontroller und/oder einen oder mehrere integrierte Schaltkreise enthalten, beispielsweise eine oder mehrere anwendungsspezifische integrierte Schaltungen, ASIC (englisch: „application-specific integrated circuit“), eines oder mehrere feldprogrammierbare Gate-Arrays, FPGA, und/oder eines oder mehrere Einchipsysteme, SoC (englisch: „system on a chip“). Die Recheneinheit kann auch einen oder mehrere Prozessoren, beispielsweise einen oder mehrere Mikroprozessoren, eine oder mehrere zentrale Prozessoreinheiten, CPU (englisch: „central processing unit“), eine oder mehrere Grafikprozessoreinheiten, GPU (englisch: „graphics processing unit“) und/oder einen oder mehrere Signalprozessoren, insbesondere einen oder mehrere digitale Signalprozessoren, DSP, enthalten. Die Recheneinheit kann auch einen physischen oder einen virtuellen Verbund von Computern oder sonstigen der genannten Einheiten beinhalten.
  • In verschiedenen Ausführungsbeispielen beinhaltet die Recheneinheit eine oder mehrere Hardware- und/oder Softwareschnittstellen und/oder eine oder mehrere Speichereinheiten.
  • Eine Speichereinheit kann als flüchtiger Datenspeicher, beispielsweise als dynamischer Speicher mit wahlfreiem Zugriff, DRAM (englisch: „dynamic random access memory“) oder statischer Speicher mit wahlfreiem Zugriff, SRAM (englisch: „static random access memory“), oder als nicht-flüchtiger Datenspeicher, beispielsweise als Festwertspeicher, ROM (englisch: „read-only memory“), als programmierbarer Festwertspeicher, PROM (englisch: „programmable read-only memory“), als löschbarer Festwertspeicher, EPROM (englisch: „erasable read-only memory“), als elektrisch löschbarer Festwertspeicher, EEPROM (englisch: „electrically erasable read-only memory“), als Flash-Speicher oder Flash-EEPROM, als ferroelektrischer Speicher mit wahlfreiem Zugriff, FRAM (englisch: „ferroelectric random access memory“), als magnetoresistiver Speicher mit wahlfreiem Zugriff, MRAM (englisch: „magnetoresistive random access memory“) oder als Phasenänderungsspeicher mit wahlfreiem Zugriff, PCRAM (englisch: „phase-change random access memory“), ausgestaltet sein.
  • Ist im Rahmen der vorliegenden Offenbarung die Rede davon, dass eine Komponente der erfindungsgemäßen Infrastrukturvorrichtung, insbesondere die wenigstens eine Recheneinheit der Infrastrukturvorrichtung dazu eingerichtet, ausgebildet, ausgelegt, oder dergleichen ist, eine bestimmte Funktion auszuführen oder zu realisieren, eine bestimmte Wirkung zu erzielen oder einem bestimmten Zweck zu dienen, so kann dies derart verstanden werden, dass die Komponente, über die prinzipielle oder theoretische Verwendbarkeit oder Eignung der Komponente für diese Funktion, Wirkung oder diesen Zweck hinaus, durch eine entsprechende Anpassung, Programmierung, physische Ausgestaltung und so weiter konkret und tatsächlich dazu in der Lage ist, die Funktion auszuführen oder zu realisieren, die Wirkung zu erzielen oder dem Zweck zu dienen.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren gezeigten Merkmale und Merkmalskombinationen können nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen von der Erfindung umfasst sein. Es können insbesondere auch Ausführungen und Merkmalskombinationen von der Erfindung umfasst sein, die nicht alle Merkmale eines ursprünglich formulierten Anspruchs aufweisen. Es können darüber hinaus Ausführungen und Merkmalskombinationen von der Erfindung umfasst, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder von diesen abweichen.
  • Die Erfindung wird im Folgenden anhand konkreter Ausführungsbeispiele und zugehöriger schematischer Zeichnungen näher erläutert. In den Figuren können gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen sein. Die Beschreibung gleicher oder funktionsgleicher Elemente wird gegebenenfalls nicht notwendigerweise bezüglich verschiedener Figuren wiederholt.
  • Dabei zeigen:
    • 1 eine schematische Darstellung einer beispielhaften Ausführungsform einer erfindungsgemäßen Infrastrukturvorrichtung;
    • 2 ein Lidarsystem einer weiteren beispielhaften Ausführungsform einer erfindungsgemäßen Infrastrukturvorrichtung und ein zugehöriges Sichtfeld;
    • 3 ein weiteres Lidarsystem sowie ein zugehöriges weiteres Sichtfeld; und
    • 4 eine schematische Darstellung einer Kamera einer weiteren beispielhaften Ausführungsform einer erfindungsgemäßen Infrastrukturvorrichtung und eines zugehörigen Sichtfelds.
  • In 1 ist eine schematische Draufsicht einer beispielhaften Ausführungsform einer erfindungsgemäßen Infrastrukturvorrichtung 1 gezeigt, die einen für ein Fahrzeug 2 befahrbaren Bereich 3a, 3b, 3c, 3d, beispielsweise Straßen 3a, 3b und/oder Parkbereiche 3c, 3d mit potentiellen Parkplätzen 4 für das Fahrzeug 2 aufweist.
  • Die Infrastrukturvorrichtung 1 enthält eine Vielzahl von Sensorknoten 5, 6, wobei jeder Sensorknoten 5, 6 eine Kamera 5 und/oder ein Lidarsystem 6, insbesondere einen Laserscanner, enthält. Darüber hinaus kann die Infrastrukturvorrichtung 1 optional auch weitere Sensorknoten (nicht dargestellt) aufweisen, die weder eine Kamera noch ein Lidarsystem aufweisen sondern eines oder mehrere sonstige Umfeldsensorsysteme, etwa Ultraschallsensorsysteme, Radarsysteme und so weiter.
  • Einzelne Teile des befahrbaren Bereichs 3a, 3b, 3c, 3d können beispielsweise durch Markierungen, Wände oder sonstige Begrenzungen 7 voneinander abgegrenzt sein. Die Begrenzungen 7 können je nach Ausgestaltung Begrenzungen 7 und je nach Anordnung der Begrenzungen 7 sowie der Kameras 5 und Lidarsysteme 6 die Sichtfelder der Kameras 5 und/oder Lidarsysteme 6 begrenzen.
  • Jede Kamera 5 der Infrastrukturvorrichtung 1 ist dazu eingerichtet entsprechende Kamerabilder, insbesondere einen entsprechenden Kamerabilddatenstrom, zu erzeugen, die ein entsprechendes Sichtfeld 9 abbilden, wie schematisch in 4 gezeigt. Jedes Lidarsystem 6 der Infrastrukturvorrichtung 1 ist dazu eingerichtet entsprechende Lidarsensordaten, insbesondere einen entsprechenden Sensordatenstrom, zu erzeugen, die ein entsprechendes Sichtfeld 10 abbilden, wie schematisch in 2 gezeigt.
  • Jedenfalls eines der Lidarsysteme 6, vorzugsweise alle Lidarsysteme 6 der Infrastrukturvorrichtung 1, sind derart angeordnet, dass ein jeweiliger Maximalabstand desjenigen Teilbereichs des befahrbaren Bereichs 3a, 3b, 3c, 3d, der im Sichtfeld des entsprechenden Lidarsystems 6 liegt, von dem Lidarsystem 6 größer ist als ein vorgegebener erster Grenzwert, der beispielsweise größer oder gleich 10 m, vorzugsweise größer oder gleich 15 m ist. Das Lidarsystem 6, vorzugsweise alle Lidarsysteme 6 der Infrastrukturvorrichtung 1, sind also derart angeordnet, dass sie einen durch den ersten Grenzwert definierten Fernbereich abdecken.
  • Analog kann jedenfalls eine der Kameras 5, vorzugsweise alle Kameras 5 der Infrastrukturvorrichtung 1, derart angeordnet sein, dass ein jeweiliger Minimalabstand desjenigen Teilbereichs des befahrbaren Bereichs 3a, 3b, 3c, 3d, der im Sichtfeld der entsprechenden Kamera 5 liegt, von der Kamera kleiner ist als ein vorgegebener zweiter Grenzwert, der beispielsweise kleiner oder gleich 10 m, vorzugsweise kleiner oder gleich 10 m ist. Die Kamera 5, vorzugsweise alle Kameras 5 der Infrastrukturvorrichtung 1, sind also derart angeordnet, dass sie einen durch den zweiten Grenzwert definierten Nahbereich abdecken.
  • Die Infrastrukturvorrichtung 1 weist auch eine Recheneinheit 8 auf, die die Kamerabilder und Lidarsensordaten erhalten kann. Die Recheneinheit 8 ist dazu eingerichtet, basierend auf wenigstens einem Teil der erhaltenen Kamerabilder und Lidarsensordaten ein Position und/oder Orientierung des Fahrzeugs 2 innerhalb des befahrbaren Bereichs 3a, 3b, 3c, 3d zu bestimmen.
  • Durch die Kombination der Kameras 5 und der Lidarsysteme 6 lässt sich der gesamte befahrbare Bereich 3a, 3b, 3c, 3d abdecken, wobei die Vorteile der Lidarsysteme 6 gezielt ausgenutzt und negative Auswirkungen des möglicherweise begrenzten vertikalen Öffnungswinkels im Nahbereich vermieden werden, wie in 3 schematisch angedeutet, die das Fahrzeug 2 in einer hypothetischen Situation im Nahbereich eines weiteren Lidarsystems 6' mit einem Sichtfeld 10' zeigt.
  • Wie in 2 gezeigt können Fahrzeuge 2 im Fernbereich des Lidarsystems 6 zuverlässig lokalisiert werden, besonders indem auf die Möglichkeit der direkten Entfernungsmessung anhand der Lidarsensordaten zurückgegriffen wird. Im Nahbereich kann dagegen der sehr große vertikale und/oder horizontale Sichtfeldwinkel einer Kamera 5 ausgenutzt werden, wie in 4 gezeigt.

Claims (15)

  1. Infrastrukturvorrichtung (1) zur wenigstens teilweise automatischen Führung eines Fahrzeugs (2) innerhalb eines vorgegebenen befahrbaren Bereichs (3a, 3b, 3c, 3d), dadurch gekennzeichnet, dass - die Infrastrukturvorrichtung (1) eine Kamera (5) enthält, die dazu eingerichtet ist, wenigstens ein Kamerabild zu erzeugen, das ein erstes Sichtfeld (9) der Kamera (5) abbildet; - die Infrastrukturvorrichtung (1) ein Lidarsystem (6) enthält, das dazu eingerichtet ist, Lidarsensordaten zu erzeugen, die ein zweites Sichtfeld (10) des Lidarsystems (6) darstellen; - ein erster Teilbereich des befahrbaren Bereichs (3a, 3b, 3c, 3d) innerhalb des ersten Sichtfelds (9) liegt und ein zweiter Teilbereich des befahrbaren Bereichs (3a, 3b, 3c, 3d) innerhalb des zweiten Sichtfelds (10) liegt; - das Lidarsystem (6) derart angeordnet ist, dass ein Maximalabstand des zweiten Teilbereichs von dem Lidarsystem (6) größer ist als ein vorgegebener erster Grenzwert; und - die Infrastrukturvorrichtung (1) wenigstens eine Recheneinheit (8) aufweist, die dazu eingerichtet ist, Eingabedaten zu erhalten, die das wenigstens eine Kamerabild und die Lidarsensordaten beinhalten, und basierend auf wenigstens einem Teil der Eingabedaten ein Fahrzeug (2) innerhalb des befahrbaren Bereichs (3a, 3b, 3c, 3d) zu lokalisieren.
  2. Infrastrukturvorrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass der erste Grenzwert größer oder gleich 10 m ist, beispielsweise größer oder gleich 15 m, insbesondere größer oder gleich 25 m, vorzugsweise größer oder gleich 40 m.
  3. Infrastrukturvorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (5) derart angeordnet ist, dass ein Minimalabstand des ersten Teilbereichs von der Kamera (5) kleiner ist als ein vorgegebener zweiter Grenzwert, der kleiner ist als der erste Grenzwert.
  4. Infrastrukturvorrichtung (1) nach Anspruch 3, dadurch gekennzeichnet, dass der zweite Grenzwert kleiner oder gleich 10 m ist, insbesondere kleiner oder gleich 5 m, vorzugsweise kleiner oder gleich 2 m.
  5. Infrastrukturvorrichtung (1) nach einem der Ansprüche 3 oder 4, dadurch gekennzeichnet, dass dass ein Minimalabstand des zweiten Teilbereichs von dem Lidarsystem (6) größer ist, als der zweite Grenzwert.
  6. Infrastrukturvorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Infrastrukturvorrichtung (1) eine Vielzahl von Sensorknoten aufweist, die räumlich verteilt angeordnet sind, sodass ein Gesamtsichtfeld der Vielzahl von Sensorknoten den befahrbaren Bereich (3a, 3b, 3c, 3d) abdeckt.
  7. Infrastrukturvorrichtung (1) nach Anspruch 6, dadurch gekennzeichnet, dass ein erster Sensorknoten der Vielzahl von Sensorknoten die Kamera (5) enthält und ein zweiter Sensorknoten der Vielzahl von Sensorknoten, der von dem ersten Sensorknoten verschieden ist, das Lidarsystem (6) enthält.
  8. Infrastrukturvorrichtung (1) nach Anspruch 6, dadurch gekennzeichnet, dass die Kamera (5) und das Lidarsystem (6) von demselben Sensorknoten der Vielzahl von Sensorknoten enthalten sind.
  9. Infrastrukturvorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Recheneinheit (8) dazu eingerichtet ist, - das Fahrzeug (2) unter Anwendung eines Objektverfolgungsalgorithmus zu verfolgen und basierend auf der Verfolgung eine erste Position des Fahrzeugs (2) in dem befahrbaren Bereich (3a, 3b, 3c, 3d) zu einem ersten Zeitpunkt zu bestimmen; - zum Lokalisieren des Fahrzeugs (2) eine zweite Position des Fahrzeugs (2) in dem befahrbaren Bereich (3a, 3b, 3c, 3d) zu einem zweiten Zeitpunkt, der nach dem ersten Zeitpunkt liegt, zu bestimmen.
  10. Infrastrukturvorrichtung (1) nach Anspruch 9, dadurch gekennzeichnet, dass die wenigstens eine Recheneinheit (8) dazu eingerichtet ist, - die Eingabedaten durch Anwendung eines Verfahrens zur Sensordatenfusion aufzubereiten und zum Aufbereiten der Eingabedaten Informationen des wenigstens einen Kamerabildes und Informationen der Lidarsensordaten bezüglich einander abhängig von der ersten Position zu gewichten; und - die zweite Position des Fahrzeugs (2) abhängig von den aufbereiteten Eingabedaten zu bestimmen.
  11. Infrastrukturvorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der befahrbare Bereich (3a, 3b, 3c, 3d) eine Vielzahl von potentiellen Parkplätzen (4) für das Fahrzeug (2) enthält.
  12. Infrastrukturvorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Recheneinheit (8) dazu eingerichtet ist, abhängig von einem Ergebnis der Lokalisierung des Fahrzeugs (2) eine Trajektorie für das Fahrzeug (2) innerhalb des befahrbaren Bereichs (3a, 3b, 3c, 3d) zu planen und die Trajektorie an das Fahrzeug (2) zu übermitteln.
  13. Verfahren zum Betreiben einer Infrastrukturvorrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - das Fahrzeug (2) innerhalb des befahrbaren Bereichs (3a, 3b, 3c, 3d) mittels der wenigstens einen Recheneinheit (8) abhängig von den Eingabedaten lokalisiert wird; und - das Fahrzeug (2) abhängig von einem Ergebnis der Lokalisierung wenigstens teilweise automatisch geführt wird.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass - mittels der wenigstens einen Recheneinheit (8), abhängig von dem Ergebnis der Lokalisierung eine Trajektorie für das Fahrzeug (2) innerhalb des befahrbaren Bereichs (3a, 3b, 3c, 3d) geplant wird; - die Trajektorie von der wenigstens einen Recheneinheit (8) an das Fahrzeug (2) übermittelt wird; und - das Fahrzeug (2) abhängig von der Trajektorie wenigstens teilweise automatisch geführt wird.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass - mittels der wenigstens eine Recheneinheit (8) ein Parkplatz (4) für das Fahrzeug (2) in dem befahrbaren Bereich (3a, 3b, 3c, 3d) bestimmt wird; und - die Trajektorie geplant wird, sodass eine Zielposition für das Fahrzeug (2) gemäß der Trajektorie dem Parkplatz (4) entspricht.
DE102022113274.9A 2022-05-25 2022-05-25 Infrastrukturvorrichtung zur Führung eines Fahrzeugs Pending DE102022113274A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022113274.9A DE102022113274A1 (de) 2022-05-25 2022-05-25 Infrastrukturvorrichtung zur Führung eines Fahrzeugs
PCT/EP2023/063610 WO2023227508A1 (de) 2022-05-25 2023-05-22 Infrastrukturvorrichtung zur führung eines fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022113274.9A DE102022113274A1 (de) 2022-05-25 2022-05-25 Infrastrukturvorrichtung zur Führung eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102022113274A1 true DE102022113274A1 (de) 2023-11-30

Family

ID=86604532

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022113274.9A Pending DE102022113274A1 (de) 2022-05-25 2022-05-25 Infrastrukturvorrichtung zur Führung eines Fahrzeugs

Country Status (2)

Country Link
DE (1) DE102022113274A1 (de)
WO (1) WO2023227508A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444241B2 (en) 2005-12-09 2008-10-28 Gm Global Technology Operations, Inc. Method for detecting or predicting vehicle cut-ins
DE102018212998A1 (de) 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren zum Führen eines Fahrzeugs in einer Parkumgebung
US20210316763A1 (en) 2018-07-27 2021-10-14 Embotech Ag Method for steering a vehicle and apparatus therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10394237B2 (en) * 2016-09-08 2019-08-27 Ford Global Technologies, Llc Perceiving roadway conditions from fused sensor data
DE102017107701A1 (de) * 2017-04-10 2018-10-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum ferngesteuerten Manövrieren eines Kraftfahrzeugs auf einer Parkfläche, Infrastrukturvorrichtung für eine Parkfläche sowie Parkflächenkommunikationssystem
US10955857B2 (en) * 2018-10-02 2021-03-23 Ford Global Technologies, Llc Stationary camera localization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444241B2 (en) 2005-12-09 2008-10-28 Gm Global Technology Operations, Inc. Method for detecting or predicting vehicle cut-ins
US20210316763A1 (en) 2018-07-27 2021-10-14 Embotech Ag Method for steering a vehicle and apparatus therefor
DE102018212998A1 (de) 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren zum Führen eines Fahrzeugs in einer Parkumgebung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hendirik Härter. Lidar-Sensor erkennt Objekte bis 250 Meter Entfernung IN. Elektronik Praxis, 24.09.2019 URL: https://www.elektronikpraxis.de/lidar-sensor-erkennt-objekte-bis-250-meter-entfernung-a-867989; [abgerufen am 10.02.2023]

Also Published As

Publication number Publication date
WO2023227508A1 (de) 2023-11-30

Similar Documents

Publication Publication Date Title
EP3177498B1 (de) Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102019121140A1 (de) Sensorfusion
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019127058A1 (de) Fahrzeugwegplanung
DE102019133536A1 (de) Verfahren und Vorrichtung zum Ermöglichen der sequentiellen Bodenansichts-Bildprojektionssynthese und der komplizierten Szenenrekonstruktion an Kartenanomalie-Hotspots
WO2020229002A1 (de) Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge
EP3008534B1 (de) Verfahren zum modellieren eines umfelds eines fahrzeugs
DE102013107861A1 (de) Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten
DE102011082478A1 (de) Verfahren, System sowie Vorrichtung zur Lokalisation eines Fahrzeugs relativ zu einem vordefinierten Bezugssystem
DE102017216442A1 (de) Automatisches Parksystem
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
DE102018130597A1 (de) 3d-kartierung mit hoher bildschärfe
EP3454084A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem
EP3475921B1 (de) Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
EP1724726B1 (de) Verfahren und Vorrichtung zur Parkraumvermessung mittels einer Monokamera
WO2020160796A1 (de) Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge
DE102022113274A1 (de) Infrastrukturvorrichtung zur Führung eines Fahrzeugs
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE112022002046T5 (de) Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren
DE102021125592A1 (de) Verkehrskamerakalibrierung
WO2020212102A1 (de) Verfahren und vorrichtung zum erstellen eines höhenprofils für einen von einem fahrzeug zu befahrenden bereich
EP3338263B1 (de) Verfahren und vorrichtung zum bestimmen eines strassenrand-parkplatzes

Legal Events

Date Code Title Description
R163 Identified publications notified