DE102017120498A1 - Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten - Google Patents

Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten Download PDF

Info

Publication number
DE102017120498A1
DE102017120498A1 DE102017120498.9A DE102017120498A DE102017120498A1 DE 102017120498 A1 DE102017120498 A1 DE 102017120498A1 DE 102017120498 A DE102017120498 A DE 102017120498A DE 102017120498 A1 DE102017120498 A1 DE 102017120498A1
Authority
DE
Germany
Prior art keywords
sensor data
vehicle
view
camera
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017120498.9A
Other languages
English (en)
Inventor
Wei Xu
Fazal Urrahman Syed
Venkatapathi Raju Nallapa
Scott Vincent Myers
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017120498A1 publication Critical patent/DE102017120498A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0289Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten. Aspekte der Erfindung verwenden eine Kombination aus verschiedenen Arten von Kameras, die am Fahrzeug angebracht sind, um eine visuelle Wahrnehmung für autonomes Fahren des Fahrzeugs zu erreichen. Jede Kamera in der Kombination von Kameras erzeugt Sensordaten durch Erfassen mindestens eines Teils der Umgebung um das Fahrzeug. Die Sensordaten von jeder Kamera werden dann zu einer Ansicht der Umgebung um das Fahrzeug fusioniert. Die Sensordaten von jeder Kamera (und, falls zutreffend, von jeder anderen Art von Sensor) werden in einen zentralen Sensorwahrnehmungschip eingegeben. Der zentrale Sensorwahrnehmungschip verwendet einen Sensorfusionsalgorithmus, um die Sensordaten zu einer Ansicht der Umgebung um das Fahrzeug zu fusionieren.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft allgemein das Gebiet der autonomen Fahrzeuge und genauer das Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten.
  • Stand der Technik
  • Lösungen für autonomes Fahren verwenden üblicherweise LiDAR-Sensoren, die die Umgebung um ein Fahrzeug wahrnehmen. Die LiDAR-Sensoren werden an einem Fahrzeug angebracht, häufig auf dem Dach. Die LiDAR-Sensoren weisen bewegliche Teile auf, die eine Erfassung der Umgebung zu 360 Grad um das Fahrzeug bis zu einem Abstand von ungefähr 100–150 Metern ermöglichen. Die Sensordaten von den LiDAR-Sensoren werden verarbeitet, um eine „Ansicht“ der Umgebung um das Fahrzeug wahrzunehmen. Die Ansicht wird verwendet, um Fahrzeugsysteme, wie Lenkung, Beschleunigung, Bremsung usw. automatisch zu steuern, um innerhalb der Umgebung zu navigieren. Die Ansicht wird kontinuierlich aktualisiert, während das Fahrzeug in der Umgebung navigiert (sich darin bewegt).
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die spezifischen Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden unter Berücksichtigung der nachfolgenden Beschreibung und begleitenden Zeichnungen deutlicher, wobei:
  • 1 ein beispielhaftes Blockdiagramm einer Rechenvorrichtung veranschaulicht.
  • 2 veranschaulicht eine beispielhafte Umgebung, die das Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten vereinfacht.
  • 3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten.
  • 4 veranschaulicht ein beispielhaftes Fahrzeug, das Fahrbahnbedingungen aus fusionierten Sensordaten wahrnehmen kann.
  • 5 veranschaulicht einen beispielhaften Datenfluss zum Sammeln von Sensordaten zum Fusionieren zu einer Fahrbahnansicht.
  • 6 veranschaulicht ein Beispiel eines Chips mit RGB-IR-Pixeln.
  • DETAILLIERTE BESCHREIBUNG
  • Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten.
  • Viele Fahrzeuge für autonomes Fahren verwenden LiDAR-Sensoren, um die Umgebung um das Fahrzeug sehen zu können. Jedoch sind LiDAR-Sensoren relativ teuer und beinhalten mechanische drehende Teile. Weiterhin sind LiDAR-Sensoren häufig oben auf Fahrzeugen angebracht, wodurch ästhetische Designs begrenzt sind. Aspekte der Erfindung können zuverlässiges autonomes Fahren bei geringeren Kosten für Sensoren und verbesserter Ästhetik bereitstellen.
  • Zum Beispiel verwenden Aspekte der Erfindung eine Kombination aus verschiedenen Arten von Kameras, die am Fahrzeug angebracht sind, um eine visuelle Wahrnehmung für autonomes Fahren des Fahrzeugs zu erreichen. Jede Kamera in der Kombination von Kameras erzeugt Sensordaten durch Erfassen mindestens eines Teils der Umgebung um das Fahrzeug. Die Sensordaten von jeder Kamera werden dann in eine Ansicht der Umgebung um das Fahrzeug zusammengeführt.
  • Die Kombination von Kameras kann eine Mehrzweck-Flugzeitmessungs(TOF – time-of-flight)-Kamera mit einem Verarbeitungschip, wie beispielsweise einen komplementären Metalloxidhalbleiterchip (CMOS – complementary metal-oxide semiconductor) mit Rot-Grün-Blau-Infrarot (RGB-IR), beinhalten. Die TOF-Kamera ist konfiguriert, um zwischen Kameramodus und LiDAR-Modus umzuschalten. Die TOF-Kamera verwendet eine Nahsichtfeld(FOV – field-of-view)-Linse, um eine Objektnachverfolgungsfähigkeit über eine längere Distanz zu vereinfachen. Die TOF-Kamera kann zur Kollisionssteuerung und Tempomatsteuerung verwendet werden.
  • Die Kombination von Kameras kann auch eine oder mehrere RGB-IR-Kameras beinhalten. Die eine oder mehreren RGB-IR-Kameras verwenden ein weiteres FOV, um Objekte näher am Fahrzeug zu erfassen. Die Intensitätsinformationen von den IR-Signalen können während der Nacht wie auch in anderen Umgebungen mit wenig (oder keinem) Licht verwendet werden.
  • Bei einem Aspekt sind ein oder mehrere andere Sensoren ebenfalls am Fahrzeug angebracht. Der eine oder die mehreren anderen Sensoren können die gleichen Sensorarten oder unterschiedliche Sensorarten sein, wie zum Beispiel Radar, Globales Positionierungssystem (GPS), inertiale Messungseinheit (IMU), usw. Der eine oder die mehreren anderen Sensoren erzeugen ebenfalls Sensordaten durch Erfassen mindestens eines Teils der Umgebung um das Fahrzeug.
  • Die Sensordaten von jeder Kamera (und, falls zutreffend, von jeder anderen Art von Sensor) werden in einen zentralen Sensorwahrnehmungschip eingegeben. Der zentrale Sensorwahrnehmungschip verwendet einen Sensorfusionsalgorithmus, um die Sensordaten in eine Ansicht der Umgebung um das Fahrzeug zu fusionieren.
  • Aspekte der Erfindung können in verschiedenen unterschiedlichen Arten von Rechenvorrichtungen implementiert werden. 1 veranschaulicht ein beispielhaftes Blockdiagramm einer Rechenvorrichtung 100. Die Rechenvorrichtung 100 kann zum Ausführen verschiedener Vorgänge, wie etwa der hier erörterten, benutzt werden. Die Rechenvorrichtung 100 kann als ein Server, ein Client oder eine beliebige andere Recheneinheit dienen. Die Rechenvorrichtung 100 kann verschiedene Kommunikations- und Datenübertragungsfunktionen, wie hier beschrieben, erfüllen und kann ein oder mehrere Anwendungsprogramme, wie etwa die hier beschriebenen Anwendungsprogramme, ausführen. Bei der Rechenvorrichtung 100 kann es sich um eine von vielen verschiedenen Rechenvorrichtungen handeln, wie etwa ein Mobiltelefon oder anderes mobiles Gerät, einen Desktopcomputer, einen Notebookcomputer, einen Servercomputer, einen Handheld- Computer, Tabletcomputer und dergleichen.
  • Die Rechenvorrichtung 100 beinhaltet einen oder mehrere Prozessor(en) 102, eine oder mehrere Speichervorrichtung(en) 104, eine oder mehrere Schnittstelle(n) 106, eine oder mehrere Massenspeichervorrichtung(en) 108, eine oder mehrere Eingabe-/Ausgabe(E/A)-Vorrichtung(en) 110 und eine Anzeigevorrichtung 130, die alle an einen Bus 112 gekoppelt sind. Der Prozessor oder die Prozessoren 102 beinhalten einen oder mehrere Prozessoren oder Controller, die auf Speichervorrichtung(en) 104 und/oder Massenspeichervorrichtung(en) 108 gespeicherte Anweisungen ausführen. Der Prozessor oder die Prozessoren 102 können auch verschiedene Arten von Computerspeichermedien wie etwa einen Cache-Speicher beinhalten.
  • Die Speichervorrichtung(en) 104 beinhalten verschiedene Computerspeichermedien wie etwa flüchtigen Speicher (z. B. Direktzugriffspeicher ((RAM) 114) und/oder nichtflüchtigen Speicher (z. B. Lesezugriffspeicher ((ROM) 116). Die Speichervorrichtung(en) 104 können auch wieder beschreibbaren ROM, wie etwa Flash-Speicher, beinhalten.
  • Die Massenspeichervorrichtung(en) 108 beinhalten verschiedene Computerspeichermedien, wie etwa Magnetbänder, Magnetplatten, optische Platten Festkörperspeicher (z. B. Flash-Speicher) und so fort. Wie in 1 gezeigt, ist ein Festplattenlaufwerk 124 eine bestimmte Massenspeichervorrichtung. Verschiedene Laufwerke können auch Teil von Massenspeichervorrichtung(en) 108 sein, um das Auslesen und/oder Beschreiben der verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 108 beinhalten wechselfähige Medien 126 und/oder nicht wechselfähige Medien.
  • Die E/A-Vorrichtung(en) 110 beinhalten verschiedene Vorrichtungen, die das Eingeben von Daten und/oder anderen Informationen in die Rechenvorrichtung 100 oder das Abrufen derselben daraus zulassen. Beispielhafte E/A-Vorrichtung(en) 110 beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Barcodescanner, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Kameras, Linsen, Radare, CCDs oder andere Bildaufnahmevorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 130 beinhaltet eine beliebige Art von Vorrichtung, die Informationen an einen oder mehrere Benutzer der Rechenvorrichtung 100 anzeigen kann. Beispiele der Anzeigevorrichtung 130 beinhalten ein Monitor, Anzeigeendgerät, Videoprojektionsgerät und dergleichen.
  • Die Schnittstelle(n) 106 beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung 100 erlauben, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen sowie Menschen zu interagieren. Zu beispielhaften Schnittstelle(n) 106 kann eine beliebige Anzahl von Netzschnittstellen 120 gehören, wie etwa Schnittstellen zu persönlichen Netzen (PANs), lokalen Netzen (LANs), Weitverkehrsnetzen (WANs), drahtlosen Netzen (z. B. Near Field Communication(NFC)-, Bluetooth-, Wi-Fi- usw. Netzen) und dem Internet. Andere Schnittstellen beinhalten eine Benutzerschnittstelle 118 und eine Peripheriegeräteschnittstelle 122.
  • Der Bus 112 erlaubt es dem oder den Prozessor(en) 102, der oder den Speichervorrichtung(en) 104, Schnittstelle(n) 106, Massenspeichervorrichtung(en) 108 und E/A-Vorrichtung(en) 110 miteinander sowie mit anderen Vorrichtungen oder Komponenten zu kommunizieren, die an den Bus 112 gekoppelt sind. Der Bus 112 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so fort.
  • 2 veranschaulicht eine beispielhafte Fahrbahnumgebung 200, die das Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten vereinfacht. Die Fahrbahnumgebung 200 beinhaltet ein Fahrzeug 201, wie beispielsweise ein Auto, einen Lastwagen oder einen Bus. Das Fahrzeug 201 kann Insassen enthalten oder nicht, wie beispielsweise einen oder mehrere Passagiere. Die Fahrbahnumgebung 200 kann Fahrbahnmarkierungen (z. B. Fahrspurbegrenzungen), Fußgänger, Fahrräder, andere Fahrzeuge, Schilder oder beliebige andere Arten von Gegenständen beinhalten. Das Fahrzeug 201 kann sich innerhalb der Fahrbahnumgebung 200 bewegen, zum Beispiel auf einer Straße fahren.
  • Das Fahrzeug 201 beinhaltet eine Kamera 211A, eine Kamera 211B, eine Kamera 221, einen Wahrnehmungschip 203, einen Wahrnehmungsalgorithmus 202, Fahrzeugsteuersysteme 204 und Fahrzeugbetriebskomponenten 206. Die Kameras 211A, 211B und 221 können am Fahrzeug 201 angebracht sein, um in die Richtung zu weisen, in die sich das Fahrzeug 201 bewegt (z. B. vorwärts oder rückwärts). Bei einem Aspekt beinhaltet das Fahrzeug 201 auch einen entsprechenden Satz von Kameras, der in die andere Richtung weist. Zum Beispiel kann das Fahrzeug 201 einen Satz von vorwärtsweisenden Kameras und einen Satz von rückwärtsweisenden Kameras beinhalten.
  • Die Kamera 211A beinhaltet Sensorkomponenten 212A (z. B. eine Linse, eine Öffnung, eine Blende, eine Sensorplatte, einen IR-Emitter, eine IR-Detektor, usw.) und eine anwendungsspezifische integrierte Schaltung (ASIC – application-specific integrated circuit) 213A. Die ASIC 213A kann eine Funktionalität zur digitalen Signalverarbeitung (DSP – digital signal processing) beinhalten, um verschiedene Operationen an den Bildsensordaten, die von den Sensorkomponenten 212A aufgenommen wurden, durchzuführen. In ähnlicher Weise beinhaltet die Kamera 211A beinhaltet Sensorkomponenten 212B (z. B. eine Linse, eine Öffnung, eine Blende, eine Sensorplatte, einen IR-Emitter, eine IR-Detektor, usw.) und eine anwendungsspezifische integrierte Schaltung (ASIC) 213B. Die ASIC 213B kann eine Funktionalität zur digitalen Signalverarbeitung (DSP) beinhalten, um verschiedene Operationen an den Bildsensordaten, die von den Sensorkomponenten 212B aufgenommen wurden, durchzuführen.
  • Die Kameras 211A und 211B können ähnliche Arten oder sogar die gleiche Art von Kameras sein. Die Kameras 211A und 211B weisen ein Sichtfeld 216A bzw. 216B auf. Die Sichtfelder 216A und 216B können ähnlich oder möglicherweise im Wesentlichen gleich sein. Innerhalb der Sichtfelder 216A und 216B können die Kameras 211A bzw. 211B jeweils die Fahrbahnumgebung 200 vom Fahrzeug 201 ausgehend zu einer ungefähren Entfernungsgrenze 231 erfassen.
  • Bei einem Aspekt sind die Kameras 211A und 211B Rot-Grün-Blau/Infrarot(RGB/IR)-Kameras. Somit können die Kameras 211A und 211B Bilder erzeugen, bei denen jeder Bildbereich ein Rotpixel, ein Grünpixel, ein Blaupixel und ein IR-Pixel beinhaltet. Die RGB-Pixelintensitäten werden verwendet, wenn ausreichend Licht (z. B. während des Tages) vorhanden ist. Die Intensitätsinformationen der IR-Signale können während der Nacht wie auch in anderen Umgebungen mit wenig (oder keinem) Licht verwendet werden, um die Fahrbahnumgebung 200 zu erfassen. Umgebungen mit wenig (oder keinem) Licht können eine Fahrt durch Tunnels oder andere Umgebungen, in denen das natürliche Licht blockiert ist, beinhalten.
  • Die Kamera 221 beinhaltet Sensorkomponenten 222 (z. B. eine Linse, eine Öffnung, eine Blende, eine Sensorplatte, einen Laser, einen Sensor zum Erkennen von Laserreflexionen, usw.) und eine anwendungsspezifische integrierte Schaltung (ASIC) 223. Die ASIC 223 kann eine Funktionalität zur digitalen Signalverarbeitung (DSP) beinhalten, um verschiedene Operationen an den Bildsensordaten, die von den Sensorkomponenten 222 aufgenommen wurden, durchzuführen. Die Kamera 221 weist ein Sichtfeld 226 auf. Innerhalb des Sichtfelds 226 kann die Kamera 221 die Fahrbahnumgebung 200 vom Fahrzeug 201 aus bis über eine Entfernungsgrenze 232 hinaus erfassen. Die Kamera 221 kann zur Kollisionssteuerung und Tempomatsteuerung verwendet werden.
  • Bei einem Aspekt ist die Kamera 221 eine Mehrzweck-Flugzeitmessungskamera (TOF) mit einem Verarbeitungschip, zum Beispiel einem komplementären Metalloxidhalbleiterchip (CMOS-Chip) mit Rot-Grün-Blau-Infrarot (RGB-IR). Die Kamera 221 kann konfiguriert sein, um in verschiedenen Modi zu arbeiten, wenn Objekte in unterschiedlichen Entfernungen vom Fahrzeug 201 erfasst werden. Die Kamera 221 kann hauptsächlich im LiDAR-Modus arbeiten, wenn Objekte innerhalb des Sichtfelds 226 jenseits der Entfernungsgrenze 232 erkannt werden. Andererseits kann die Kamera 221 zwischen Kameramodus und LiDAR-Modus umschalten, wenn Objekte innerhalb des Sichtfelds 226 zwischen der Entfernungsgrenze 231 und der Entfernungsgrenze 232 erkannt werden. Zum Beispiel kann die Kamera 221 zu ungefähr 50 % der Zeit im LiDAR-Modus und zu 50 % der Zeit im Kameramodus arbeiten, wenn Objekte innerhalb des Sichtfelds 226 zwischen der Entfernungsgrenze 231 und der Entfernungsgrenze 232 erkannt werden.
  • Die Kamera 221 kann Bilder erzeugen, bei denen jeder Bildbereich ein Rotpixel, ein Grünpixel, ein Blaupixel und ein IR-Pixel beinhaltet. Die RGB-Pixelintensitäten werden verwendet, wenn ausreichend Licht (z. B. während des Tages) vorhanden ist. Im LiDAR-Modus emittiert der Laser einen Impuls auf IR-Wellenlänge. Ein Verarbeitungschip (z. B. innerhalb der ASIC 223) liest die Flugzeitinformationen, um die Tiefe des Objekts zu verarbeiten. Der Verarbeitungschip kann geeignete IR-Pixelintensitätsinformationen auf Grundlage der Objekttiefen festlegen. Der LiDAR-Modus und die IR-Pixelintensität können während der Nacht, bei Umgebungen mit wenig (oder keinem) Licht oder wenn dies anderweitig geeignet erscheint, verwendet werden, um die Fahrbahnumgebung 200 zu erfassen.
  • Bei einem Aspekt ist die Entfernungsgrenze 231 ungefähr 20 Meter vom Fahrzeug 201 entfernt und die Entfernungsgrenze 232 ist ungefähr 100 Meter vom Fahrzeug 201 entfernt. Jedoch sind auch andere Entfernungen für die Entfernungsgrenzen 231 und 232 möglich. Zum Beispiel kann die Entfernungsgrenze 231 von 0–20 Meter reichen und die Entfernungsgrenze 232 kann von 20–200 Meter reichen.
  • Der Wahrnehmungschip 203 kann eine Mehrzweck- oder eine Spezialverarbeitungseinheit sein, zum Beispiel eine zentrale Recheneinheit (CPU – central processing unit), eine graphische Verarbeitungseinheit (GPU – graphics processing unit), usw. Alternativ und/oder in Kombination kann der Wahrnehmungschip 203 auch Logikschaltungen beinhalten, wie zum Beispiel eine ASIC oder ein Field Programmable Gate Array (FPGA). Der Wahrnehmungsalgorithmus 202 läuft auf dem Wahrnehmungschip 203.
  • Allgemein ist der Wahrnehmungsalgorithmus 202 konfiguriert, um Sensordaten von verschiedenen Kameras (und möglicherweise anderen Sensoren) zu einer Ansicht der Fahrbahnumgebung 200 zu fusionieren. Der Wahrnehmungsalgorithmus 202 kann die Kamerasensordaten verarbeiten, um Gegenstände von Interesse innerhalb der Fahrbahnumgebung 200 zu identifizieren. Der Wahrnehmungsalgorithmus 202 kann auch Objekte von Interesse innerhalb der Fahrbahnumgebung 200 klassifizieren. Objektklassifizierungen können folgendes beinhalten: Fahrspurbegrenzungen, Zebrastreifen, Schilder, Regelungssignale, Autos, Lastwagen, Fußgänger usw. Einige Objektklassifizierungen können Unterklassifizierungen aufweisen. Beispielsweise kann ein Schild nach dem Schildtyp klassifiziert werden, etwa ein Stoppschild, ein Vorfahrt-beachten-Schild, ein Schulbereichsschild, ein Geschwindigkeitsbegrenzungsschild usw.
  • Der Wahrnehmungsalgorithmus 202 kann auch die Position eines Objekts innerhalb der Fahrbahnumgebung 200 bestimmen, wie zum Beispiel zwischen dem Fahrzeug 201 und der Entfernungsgrenze 231, zwischen der Entfernungsgrenze 231 und der Entfernungsgrenze 232 oder jenseits der Entfernungsgrenze 232. Wenn sich ein Objekt bewegt, kann der Wahrnehmungsalgorithmus 202 auch einen wahrscheinlichen Weg des Objekts bestimmen.
  • Bei einem Aspekt beinhaltet der Wahrnehmungsalgorithmus 202 ein neuronales Netz, das gemäß einem vielschichtigen (oder „tiefen“) Modell konstruiert ist. Ein mehrschichtiges neuronales Netzmodell kann eine Eingangsschicht, eine Vielzahl von verdeckten Schichten und eine Ausgangsschicht beinhalten. Ein mehrschichtiges neuronales Netzmodell kann auch eine Verlustschicht beinhalten. Zur Klassifizierung von fusionierten Kamerasensordaten (z. B. einem Bild) werden Werte in den Sensordaten (z. B. Pixelwerte) Eingangsknoten zugewiesen und dann durch die Vielzahl von verdeckten Schichten des neuronalen Netzes geschickt. Die Vielzahl von verdeckten Schichten kann eine Anzahl nicht-linearer Transformationen durchführen. Am Ende der Transformationen erzeugt ein Ausgangsknoten eine wahrgenommene Ansicht der Fahrbahnumgebung 200.
  • Der Wahrnehmungsalgorithmus 202 kann Fahrbahnansichten an Fahrzeugsteuersysteme 204 senden. Die Fahrzeugsteuersysteme 204 (z. B. Tempomat, Spurwechsel, Kollisionsvermeidung, Bremsen, Lenken, usw.) sind konfiguriert, um Fahrzeugbetriebskomponenten 206 (z. B. Gaspedal, Bremsen, Lenkrad, Getriebe, usw.) zu steuern, um das Fahrzeug 201 autonom in der Fahrbahnumgebung 200 zu betreiben. Die Fahrzeugsteuersysteme 204 können die Konfiguration der Fahrzeugbetriebskomponenten 206 auf Grundlage von Fahrbahnansichten, die vom Wahrnehmungsalgorithmus 202 empfangen werden, verändern. Veränderungen an den Fahrzeugbetriebskomponenten 206 können das Abbiegen des Fahrzeugs 201, das Beschleunigen des Fahrzeugs 201, das Verlangsamen des Fahrzeugs 201, einen Richtungswechsel des Fahrzeugs 201 usw. vereinfachen.
  • Das Fahrzeug 201 kann außerdem einen oder mehrere andere Sensoren beinhalten. Der eine oder die mehreren anderen Sensoren können die gleichen Sensorarten oder unterschiedliche Sensorarten sein, wie zum Beispiel Radar, inertiale Messungseinheit (IMU), Globales Positionierungssystem (GPS), usw. Der eine oder die mehreren anderen Sensoren können ebenfalls Sensordaten durch Erfassen mindestens eines Teils der Fahrbahnumgebung 200 erzeugen. Der Wahrnehmungsalgorithmus 202 kann Sensordaten von diesen anderen Sensoren mit Sensordaten von den Kameras 211A, 211B und 221 (sowie anderen Kameras) zu einer Ansicht der Fahrbahnumgebung 200 fusionieren.
  • 3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens 300 zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten. Das Verfahren 300 wird unter Bezugnahme auf die Komponenten und Daten der Umgebung 200 beschrieben.
  • Das Verfahren 300 beinhaltet, für jede der einen oder mehreren am Fahrzeug angebrachten Kameras, Empfangen von Sensordaten von der Kamera, wobei die Sensordaten von einem Gebiet zwischen dem Fahrzeug und einer bestimmten Entfernung vom Fahrzeug entfernt innerhalb eines Sichtfelds der Kamera erfasst werden, wobei jede der einen oder mehreren Kameras ein Sichtfeld aufweist (301). Zum Beispiel kann der Wahrnehmungsalgorithmus 202 Sensordaten 214A von der Kamera 211A empfangen. Die Kamera 211A kann Sensordaten 214A von einem Gebiet zwischen dem Fahrzeug 201 und der Entfernungsgrenze 231 innerhalb des Sichtfelds 216A erfassen. Die Kamera 211A kann die Sensordaten 214A an den Wahrnehmungsalgorithmus 202 senden. In ähnlicher Weise kann der Wahrnehmungsalgorithmus 202 Sensordaten 214B von der Kamera 211B empfangen. Die Kamera 211B kann die Sensordaten 214B von einem Gebiet zwischen dem Fahrzeug 201 und der Entfernungsgrenze 231 innerhalb des Sichtfelds 216B erfassen. Die Kamera 211B kann die Sensordaten 214B an den Wahrnehmungsalgorithmus 202 senden. Objekte innerhalb der Sichtfelder 216A und 216B können gruppiert und durch die Bildinformationen nachverfolgt werden. Die Sensordaten 214A und 214B können Objekte, die innerhalb der Sichtfelder 216A und 216B nachverfolgt werden, angeben.
  • Das Verfahren 300 beinhaltet, für jede andere am Fahrzeug angebrachte Kamera, Empfangen anderer Sensordaten von der anderen Kamera, wobei die anderen Sensordaten von einem Gebiet jenseits der bestimmten Entfernung innerhalb eines anderen Sichtfelds der anderen Kamera erfasst werden, wobei das andere Sichtfeld schmäler ist als das Sichtfeld (302). Zum Beispiel kann der Wahrnehmungsalgorithmus 202 Sensordaten 224 von der Kamera 221 empfangen. Im Allgemeinen kann die Kamera 221 kann Sensordaten 224 überall innerhalb des Sichtfelds 226 erfassen. Die Kamera 221 kann die Sensordaten 224 an den Wahrnehmungsalgorithmus 202 senden. Unter Verwendung verschiedener Mechanismen können Objekte innerhalb des Sichtfelds 226 nachverfolgt werden. Die Sensordaten 224 können Objekte, die innerhalb des Sichtfelds 226 nachverfolgt werden, angeben.
  • Bei einem Aspekt arbeitet die Kamera 221 im LiDAR-Modus, um Sensordaten 224 von einem Gebiet jenseits der Entfernungsgrenze 232 innerhalb des Sichtfelds 226 zu erfassen. Jenseits der Entfernungsgrenze 232 können Objekte auf Grundlage von dreidimensionalen (3D) Punkwolken nachverfolgt werden. Bei einem weiteren Aspekt schaltet die Kamera 221 zwischen Kameramodus und LiDAR-Modus um, um Sensordaten 224 von einem Gebiet zwischen der Entfernungsgrenze 231 und der Entfernungsgrenze 232 innerhalb des Sichtfelds 226 zu erfassen. Objekte zwischen der Entfernungsgrenze 231 und der Entfernungsgrenze 232 können gruppiert und sowohl durch 3D-Punktwolken als auch Bildinformationen nachverfolgt werden.
  • Bei einem weiteren Aspekt erfasst die Kamera 211 Sensordaten 224 von einem Gebiet um (und möglicherweise etwas innerhalb der) die Entfernungsgrenze 231, zum Beispiel wenn Objekte nahe dem Bereich sind, der von den Kameras 211A und 211B abgedeckt wird. Die Kamera 221 schätzt die Position von Objekten durch eine Bewegungsnachverfolgung, wie zum Beispiel Kalman-Filter, optischer Fluss, usw.
  • Das Verfahren 300 beinhaltet Fusionieren der Sensordaten von jeder der einen oder mehreren Kameras und der anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung (303). Zum Beispiel kann der Wahrnehmungsalgorithmus 202 Sensordaten 214A, Sensordaten 214B und Sensordaten 224 zu einer Fahrbahnansicht 226 der Fahrbahnumgebung 200 fusionieren. Die Fahrbahnansicht 236 kann Objekte, die innerhalb der Sichtfelder 216A, 216B und 226 nachverfolgt werden, angeben.
  • Das Verfahren 300 beinhaltet Senden der Fahrbahnansicht an die Fahrzeugsteuerkomponenten, so dass die Fahrzeugsteuerkomponenten die Konfiguration der Fahrzeugbetriebskomponenten auf Grundlage der Fahrbahnansicht einstellen können (304). Zum Beispiel kann der Wahrnehmungsalgorithmus 202 die Fahrbahnansicht 236 an die Fahrzeugsteuersysteme 204 senden. Die Fahrzeugsteuersysteme 204 können die Fahrbahnansicht 236 vom Wahrnehmungsalgorithmus 202 empfangen. Die Fahrzeugsteuersysteme 204 können die Fahrbahnansicht 236 verwenden, um die Fahrzeugbetriebskomponenten 206 einzustellen. Das Einstellen der Fahrzeugbetriebskomponenten 206 kann die Konfiguration des Fahrzeugs 201 verändern, um diese auf die Fahrbahnumgebung 200 anzupassen. Zum Beispiel können die Fahrzeugsteuersysteme 204 die Fahrzeugbetriebskomponenten 206 einstellen, um die Geschwindigkeit des Fahrzeugs 201 zu erhöhen (z. B. beschleunigen), um die Geschwindigkeit des Fahrzeugs 201 zu verringern (z. B. verlangsamen oder bremsen), um die Richtungen des Fahrzeugs 201 umzukehren (z. B. die Gänge von Fahren zu Rückwärts oder umgekehrt wechseln), um die Bewegungsbahn des Fahrzeugs 201 für eine Kurve oder Straßenverengung zu verändern (z. B. den Winkel der Vorderräder einstellen), usw.
  • Die Kameras 211A, 211B und 211 (sowie beliebige andere Kameras und/oder andere Sensoren) können Sensordaten fortlaufend sammeln, während sich das Fahrzeug 201 bewegt. Die Sensordaten können an den Wahrnehmungsalgorithmus 202 gesendet werden. Der Wahrnehmungsalgorithmus 202 kann die Sensordaten zu zusätzlichen Fahrbahnansichten fusionieren. Die Fahrzeugsteuersysteme 204 können die zusätzlichen Fahrbahnansichten verwenden, um die Fahrzeugbetriebskomponenten 206 fortlaufend einzustellen, um das Fahrzeug 201 innerhalb der Fahrbahnumgebung 200 sicher autonom betreiben zu können.
  • 4 veranschaulicht ein beispielhaftes Fahrzeug 401, das Fahrbahnbedingungen von fusionierten Sensordaten wahrnehmen kann. Wie dargestellt, weist das Fahrzeug 401 vorne angebrachte Kameras 411A, 411B und 421 auf. Die vorne angebrachten Kameras 411A, 411B und 421 weisen entsprechende Sichtfelder 416A, 416B bzw. 426 auf. Die Kameras 411A und 411B können RGB/IR-Kameras sein. Die Kameras 411A und 411B können Objekte zwischen dem Fahrzeug 401 und der Entfernungsgrenze 431, die innerhalb der Sichtfelder 416A und 416B liegen, erfassen. Die Kameras 411A und 411B können Bildinformationen verwenden, um Objekte innerhalb der Sichtfelder 416A und 416B nachzuverfolgen.
  • Die Kamera 421 kann eine Flugzeitmessung(TOF)-basierte Kamera sein, die zwischen einem Kameramodus und einem LiDAR-Modus umschalten kann. Die Kamera 421 kann Objekte innerhalb des Sichtfelds 426 erfassen. Die Kamera 421 kann verschiedene Mechanismen verwenden, um Objekte zu erfassen, abhängig davon, wie weit die Objekte vom Fahrzeug 401 entfernt sind. Die Kamera 421 kann hauptsächlich den LiDAR-Modus und 3D-Punktwolken verwenden, um Objekte außerhalb der Entfernungsgrenze 432 nachzuverfolgen. Die Kamera 421 kann zwischen Kameramodus und LiDAR-Modus umschalten und 3D-Punktwolken und Bildinformationen verwenden, um Objekte zwischen der Entfernungsgrenze 431 und der Entfernungsgrenze 432 nachzuverfolgen. Die Kamera 421 kann hauptsächlich den Kameramodus und die Bildinformationen verwenden, um Objekte nachzuverfolgen, die sich der Entfernungsgrenze 431 annähern oder sich kürzlich in diese hinein bewegt haben.
  • Ein Fusionsalgorithmus kann Sensordaten, die von den vorne angebrachten Kameras 411A, 411B und 421 empfangen wurden, zu einer Fahrbahnansicht der Straße vor dem Fahrzeug 401 fusionieren. Die Fahrzeugsteuersysteme können die Fahrbahnansicht verwenden, um die Fahrzeugbetriebssteuerungen einzustellen, um das Fahrzeug 401 sicher auf der Straße zu betreiben.
  • 5 veranschaulicht einen beispielhaften Datenfluss 500 zum Sammeln von Sensordaten zum Fusionieren zu einer Fahrbahnansicht. Der Datenfluss 500 beginnt bei 501. Bei 502 wird ein Laser für ein kleineres Sichtfeld für eine Flugzeitmessungs(TOF)-Kamera ausgelöst. Bei 503 werden Objekte (z. B. auf einer Fahrbahn) auf Grundlage von 3D-Punktwolken, die aus der TOF-Kamera ausgelesen werden, nachverfolgt. Die 3D-Punktwolke beinhaltet sowohl RGB-Pixel als auch IR-Pixel. Bei 504 erkennt die TOF-Kamera, ob sich Objekte innerhalb einer weiteren Entfernungsgrenze (z. B. 232, 432, usw.) befinden. Falls nicht, dreht der Datenfluss 500 eine Schleife zurück zu 502. Falls ja, kann sich ein Objekt zwischen der weiteren Entfernungsgrenze und einer näheren Entfernungsgrenze (z. B. 231, 431, usw.) befinden und der Datenfluss geht weiter zu 505 und 506.
  • Bei 505 und 506 wird die TOF-Kamera zwischen Lasermodus und Kameramodus umgeschaltet. Bei 507 werden Objekte (z. B. innerhalb der Fahrbahn) auf Grundlage von 3D-Punktwolken mit Tiefe, aus der TOF-Kamera ausgelesen, nachverfolgt. Bei 509 werden Objekte (z. B. innerhalb der Fahrbahn) unter Verwendung von Bildinformationen nachverfolgt. Bei 508 fusioniert ein Fusionsalgorithmus Sensordaten für eine Objektnachverfolgung mit Tiefe. Bei 510 erkennt die TOF-Kamera, ob sich Objekte innerhalb der näheren Entfernungsgrenze befinden. Falls nicht, dreht der Datenfluss 500 eine Schleife zurück zu 505 und 506.
  • Falls ja, geht der Datenfluss 500 weiter zu 511. Bei 511 verwendet die TOF-Kamera einem Kalman-Filter oder einen optischen Fluss, um Objektpositionen zu schätzen. Bei 512 sendet die TOF-Kamera die Objektposition an einen Wahrnehmungsalgorithmus. Bei 513 erzeugen RGB/IR-Kameras mit großem Sichtfeld Bilddaten. Objekte werden von innerhalb der Bilddaten nachverfolgt. Bei 514 werden nachverfolgte Objekte (z. B. innerhalb der Fahrbahn) an den Wahrnehmungsalgorithmus gesendet. Bei 515 erzeugen andere Sensoren Sensordaten. Objekte werden von innerhalb der Sensordaten nachverfolgt. Bei 516 werden nachverfolgte Objekte (z. B. innerhalb der Fahrbahn) an den Wahrnehmungsalgorithmus gesendet. Bei 517 fusioniert der Fusionsalgorithmus Objekte zu einer Fahrbahnansicht (z. B. der Fahrbahn).
  • 6 veranschaulicht ein Beispiel eines Chips 600 mit RGB-IR-Pixeln. Bei einem Aspekt ist der Chip 600 ein CMOS/Charged-Coupled-Device(CCD)-Chip. Wie dargestellt weist der Chip 600 vier unterschiedliche Arten von Pixeln auf: Rotpixel, Grünpixel, Blaupixel und IR-Pixel. Die Pixel sind zu Bereichen gruppiert. Jeder Bereich beinhaltet ein Rotpixel, ein Grünpixel, ein Blaupixel und ein IR-Pixel. Zum Beispiel beinhaltet der Bereich 601 ein Rotpixel 611, ein Grünpixel 612, ein Blaupixel 613 und ein IR-Pixel 614. Die Bereiche sind in Reihen und Spalten angeordnet, einschließlich einer Reihe 602 und einer Reihe 603.
  • Der Chip 600 kann verwendet werden, um lokale Sensorinformationen in einer Kamera (z. B. Pixelintensitäten) zu speichern. Eine ASIC innerhalb der Kamera kann die lokalen Sensorinformationen, die im Chip gespeichert sind, verarbeiten. Die ASIC kann die verarbeiteten Sensorinformationen an einen zentralen Sensorwahrnehmungschip weiterleiten, wie zum Beispiel den Wahrnehmungschip 203. Am zentralen Sensorwahrnehmungschip kann ein Fusionsalgorithmus die verarbeiteten Sensorinformationen zusammen mit anderen verarbeiteten Sensordaten von anderen Kameras (und/oder anderen Sensoren) zu einer Fahrbahnansicht fusionieren. Die Fahrbahnansicht kann verwendet werden, um einen autonomen Betrieb eines Fahrzeugs zu vereinfachen.
  • Bei einem Aspekt sind ein oder mehrere Prozessoren dazu konfiguriert, Anweisungen (z. B. computerlesbare Anweisungen, von einem Computer ausführbare Anweisungen usw.) auszuführen, um beliebige von einer Vielzahl von beschriebenen Vorgängen auszuführen. Der eine oder die mehreren Prozessoren können auf Informationen aus dem Systemspeicher zugreifen und/oder Informationen im Systemspeicher speichern. Einer oder mehrere Prozessoren können Informationen zwischen verschiedenen Formaten, wie z. B. Sensordaten, Bilddaten, Pixelwerte, Pixelintensitäten, Fahrbahnansichten usw. umwandeln.
  • Der Systemspeicher kann an den einen oder die mehreren Prozessoren gekoppelt sein und kann Anweisungen (z. B. computerlesbare Anweisungen, von einem Computer ausführbare Anweisungen usw.) speichern, die von dem eine oder den mehreren Prozessoren ausgeführt werden. Der Systemspeicher kann auch so konfiguriert sein, dass er jede von einer Vielzahl von anderen Arten von Daten speichert, die durch die beschriebenen Komponenten erzeugt werden, wie z. B. Sensordaten, Bilddaten, Pixelwerte, Pixelintensitäten, Fahrbahnansichten, usw.
  • In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen spezifische Implementierungen zur Veranschaulichung gezeigt werden, in denen die Offenbarung ausgeübt werden kann. Es versteht sich, dass andere Implementierungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine Struktur oder Eigenschaft einschließen kann, aber nicht jede Ausführungsform muss notwendigerweise dieses bestimmte Merkmal, diese Struktur oder Eigenschaft einschließen. Darüber hinaus beziehen sich solche Ausdrücke nicht unbedingt auf dieselbe Ausführungsform. Wenn ein Merkmal, eine Struktur oder eine Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissens eines Fachmanns liegt, das Merkmal, die Struktur oder die Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
  • Implementierungen der hierin offenbarten Systeme, Vorrichtung und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware einschließt, wie etwa einen oder mehrere Prozessoren und einen Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem Datenträger und andere computerlesbare Medien zum Weiterleiten oder Speichern von von einem Computer ausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen von einem Computer ausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien(-geräte). Bei computerlesbaren Medien, die von einem Computer ausführbare Anweisungen weiterleiten, handelt es sich um Übertragungsmedien. Daher können Implementierungen der Offenbarung beispielsweise und nicht einschränkend wenigstens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien(-geräte) und Übertragungsmedien
  • Computerspeichermedien(-geräte) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder beliebige andere Medien ein, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Implementierung der hierin offenbaren Vorrichtungen, Systemen und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination aus drahtgebunden oder drahtlos) an einen Computer übertragen oder diesem bereitgestellt wird, betrachtet der Computer die Verbindung dementsprechend als ein Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen einschließen, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu übertragen, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden fallen ebenfalls in den Umfang computerlesbarer Medien.
  • Von einem Computer ausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die von einem Computer ausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
  • Fachleute werden anerkennen, dass die Offenbarung in Netzwerkrechenumgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, darunter ein Instrumententafel- oder anderer Fahrzeugcomputer, PCs, Desktop-Computer, Laptopcomputer, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichergeräte und dergleichen. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netzwerk (entweder durch drahtgebundene Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus drahtgebundenen und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer verteilten Systemumgebung können Programmmodule sowohl auf lokalen als auch Remote-Speicherungsvorrichtungen angesiedelt sein.
  • Soweit zutreffend, können die hier beschriebenen Funktionen zudem in einem oder mehreren der folgenden ausgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eins oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Wie ein Fachmann verstehen wird, kann auf Komponenten durch die Verwendung verschiedener Bezeichnungen Bezug genommen werden. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es sei angemerkt, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um wenigstens einen Teil der Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen werden hierin zu Veranschaulichungszwecken bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie einem Fachmann auf dem oder den Gebieten bekannt.
  • Wenigstens einige Ausführungsformen der Offenbarung betreffen Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während verschiedene Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, versteht es sich, dass diese nur als Beispiel und nicht als Einschränkung dargestellt wurden. Es ist für den Fachmann auf dem Gebiet offensichtlich, dass verschiedene Änderungen in Form und Detail vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung nicht durch eines der vorangehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Ansprüchen und ihrer Äquivalente definiert sein. Die vorangehende Beschreibung wurde zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der oben angegebenen Lehren möglich. Ferner ist angemerkt, dass eine beliebige oder alle der vorangehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE-1394-Bus [0024]

Claims (15)

  1. Verfahren zum Wahrnehmen einer Fahrbahn, wobei das Verfahren umfasst: Empfangen von Sensordaten von einer Vielzahl von Kameras, wobei die Sensordaten innerhalb einer Entfernungsgrenze eines Fahrzeugs und innerhalb eines Sichtfeldes für jede Kamera erfasst werden; Empfangen anderer Sensordaten von einer anderen Kamera, wobei die anderen Sensordaten von jenseits der Entfernungsgrenze innerhalb eines anderen schmaleren Sichtfelds erfasst werden; und Fusionieren der Sensordaten und der anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahn.
  2. Verfahren nach Anspruch 1, ferner umfassend autonomes Steuern des Fahrzeugs durch Einstellen der Konfiguration des Fahrzeugs, um Steuerkomponenten des Fahrzeugs auf Grundlage der Fahrbahnansicht zu steuern.
  3. Verfahren nach Anspruch 1, wobei das Empfangen von Sensordaten von einer Vielzahl von Kameras ein Empfangen von Infrarot(IR)-Sensordaten umfasst.
  4. Verfahren nach Anspruch 1, wobei das Empfangen anderer Sensordaten von einer anderen Kamera ein Empfangen von Bildsensordaten und LiDAR-Sensordaten von der anderen Kamera umfasst, wenn die andere Kamera zwischen einem Kameramodus und einem LiDAR-Modus umschaltet.
  5. Verfahren nach Anspruch 4, wobei das Empfangen von Sensordaten von der anderen Kamera ein Empfangen von Sensordaten für ein Objekt, das zwischen der Entfernungsgrenze und einer anderen Entfernungsgrenze erfasst wird, umfasst, wobei die andere Entfernungsgrenze weiter weg vom Fahrzeug ist als die Entfernungsgrenze.
  6. Verfahren nach Anspruch 1, ferner umfassend Empfangen weiterer Sensordaten von einem weiteren einen oder mehreren Sensoren, wobei jeder der weiteren einen oder mehreren Sensoren ausgewählt ist aus: einem Radarsensor, einem Ultraschallsensor, einem globalen Positionierungssystem(GPS)-Sensor und einem inertiale Messungseinheit(IMU)-Sensor; und wobei das Fusionieren der Sensordaten und der anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahn ein Fusionieren der Sensordaten, der anderen Sensordaten und der weiteren Sensordaten zu einer Fahrbahnansicht der Fahrbahn umfasst.
  7. Fahrzeug, wobei das Fahrzeug Folgendes umfasst: eine Kamera, die konfiguriert ist, eine Fahrbahnumgebung innerhalb einer bestimmten Entfernungsgrenze von dem Fahrzeug zu erfassen, wobei die Kamera ein Sichtfeld aufweist; eine andere Kamera, die konfiguriert ist, die Fahrbahnumgebung jenseits der bestimmten Entfernungsgrenze zu erfassen, wobei die andere Kamera ein anderes Sichtfeld aufweist, wobei das andere Sichtfeld schmäler als das Sichtfeld ist; Fahrzeugbetriebskomponenten zum Betreiben des Fahrzeugs; Fahrzeugsteuersysteme, die das Fahrzeug durch Steuern der Fahrzeugbetriebskomponenten autonom betreiben; einen oder mehrere Prozessoren; einen Systemspeicher, der an den einen oder die mehreren Prozessoren gekoppelt ist, wobei der Systemspeicher Anweisungen speichert, die von dem einen oder den mehreren Prozessoren ausführbar sind; wobei der eine oder die mehreren Prozessoren konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um Fahrbahnbedingungen in der Fahrbahnumgebung aus den fusionierten Sensordaten wahrzunehmen, einschließlich der folgenden: Sensordaten von der Kamera zu empfangen, wobei die Sensordaten von zwischen dem Fahrzeug und der bestimmten Entfernungsgrenze innerhalb des Sichtfelds für die Kamera erfasst werden; andere Sensordaten von der anderen Kamera zu empfangen, wobei die anderen Sensordaten von jenseits der Entfernungsgrenze innerhalb des anderen Sichtfelds erfasst werden; die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren; und die Fahrbahnansicht an die Fahrzeugsteuersysteme zu senden, so dass das Fahrzeugsteuersystem die Konfiguration der Fahrzeugbetriebskomponenten auf Grundlage der Fahrbahnansicht einstellen können.
  8. Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten von der Kamera zu empfangen, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten von der Kamera zu empfangen, wobei die RGB-IR-Bilddaten IR-Pixelinformationen beinhalten; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die IR-Pixelinformationen aufgrund dessen, dass das Fahrzeug in einer Umgebung mit verringertem Licht betrieben wird, mit den anderen Sensordaten zu einer Fahrbahnansicht zu fusionieren.
  9. Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um andere Sensordaten von der anderen Kamera zu empfangen, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um eine Angabe von nachverfolgten Objekten innerhalb des anderen Sichtfelds zu empfangen, wobei die nachverfolgten Objekte aus einer dreidimensionalen Punktwolke verarbeitet werden, die erzeugt wird, wenn sich die andere Kamera in einem Lasermodus befindet; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um andere Sensordaten von der anderen Kamera zu empfangen, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten von der anderen Kamera zu empfangen, wobei die Bilddaten erzeugt werden, wenn sich die andere Kamera in einem Kameramodus befindet.
  10. Fahrzeug nach Anspruch 7, ferner umfassend eine zusätzliche Kamera, die konfiguriert ist, um die Fahrbahnumgebung innerhalb der bestimmten Entfernungsgrenze vom Fahrzeug zu erfassen, wobei die weitere Kamera ein weiteres Sichtfeld aufweist, wobei das weitere Sichtfeld im Wesentlichen die gleiche Größe wie das Sichtfeld aufweist; ferner umfassend den einen oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um zusätzliche Sensordaten von der zusätzlichen Kamera zu empfangen, wobei die zusätzlichen Sensordaten von zwischen dem Fahrzeug und der bestimmten Entfernungsgrenze innerhalb des weiteren Sichtfelds für die weitere Kamera erfasst werden; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten, die anderen Sensordaten und die weiteren Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren.
  11. Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht zu fusionieren, die ein oder mehrere Objekte beinhaltet, ausgewählt aus Folgenden: Fahrbahnmarkierungen, Fahrräder, Fußgänger, andere Fahrzeuge und Schilder.
  12. Fahrzeug nach Anspruch 7, ferner umfassend einen oder mehrere weitere Sensoren, wobei jeder der einen oder mehreren weiteren Sensoren ausgewählt ist aus: einem Radarsensor, einem Ultraschallsensor, einem globalen Positionierungssystem(GPS)-Sensor und einem inertiale Messungseinheit(IMU)-Sensor; ferner umfassend den einen oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um weitere Sensordaten von dem einen oder den mehreren weiteren Sensoren zu empfangen; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten, die anderen Sensordaten und die weiteren Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren.
  13. Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Fahrbahnansicht an die Fahrzeugsteuersysteme zu senden, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Fahrbahnansicht an die Fahrzeugsteuersysteme zu senden, so dass die Fahrzeugsteuersysteme eines der folgenden auf der Fahrbahn autonom durchführen können: Beschleunigen des Fahrzeugs, Verlangsamen des Fahrzeugs, Gänge des Fahrzeugs wechseln, oder Wenden des Fahrzeugs auf der Fahrbahn.
  14. Verfahren zur Verwendung an einem Fahrzeug, wobei das Verfahren zum Wahrnehmen von Fahrbahnbedingungen in einer Fahrbahnumgebung aus fusionierten Sensordaten dient, wobei das Verfahren Folgendes umfasst: für jede einer Vielzahl von Kameras, die am Fahrzeug angebracht ist, Empfangen von Sensordaten von der Kamera, wobei jede der einen oder mehreren Kameras ein Sichtfeld aufweist, wobei die Sensordaten von zwischen dem Fahrzeug und einer bestimmten Entfernungsgrenze entfernt vom Fahrzeug innerhalb des Sichtfelds für die Kamera erfasst werden; für eine andere Kamera, die am Fahrzeug angebracht ist, Empfangen anderer Sensordaten von der anderen Kamera, wobei die andere Kamera ein anderes Sichtfeld aufweist, wobei das andere Sichtfeld schmäler als das Sichtfeld ist, wobei die anderen Sensordaten von jenseits der bestimmten Entfernungsgrenze innerhalb des anderen Sichtfelds erfasst werden; Fusionieren der Sensordaten von jeder der einen oder mehreren Kameras und dem anderen Sensor zu einer Fahrbahnansicht der Fahrbahnumgebung; und Senden der Fahrbahnansicht an Fahrzeugsteuerkomponenten, so dass die Fahrzeugsteuerkomponenten die Konfiguration von Fahrzeugbetriebskomponenten auf Grundlage der Fahrbahnansicht einstellen können, wobei die Fahrzeugsteuersysteme das Fahrzeug durch Steuern der Fahrzeugbetriebskomponenten autonom betreibt.
  15. Verfahren nach Anspruch 14, wobei das Empfangen von Sensordaten von der Kamera für jede einer Vielzahl von Kameras, die am Fahrzeug angebracht ist, ein Empfangen von Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten von der Kamera für jede der Vielzahl von Kameras umfasst; und wobei, für eine andere am Fahrzeug angebrachte Kamera, das Empfangen anderer Sensordaten von der anderen Kamera ein Empfangen einer Angabe von nachverfolgten Objekten innerhalb des anderen Sichtfelds umfasst, wobei die nachverfolgten Objekte aus einer dreidimensionalen Punktwolke verarbeitet werden, die erzeugt wird, wenn sich die andere Kamera in einem Lasermodus befindet; und wobei das Fusionieren der Sensordaten von jeder der einen oder mehreren Kameras und dem anderen Sensor zu einer Fahrbahnansicht ein Fusionieren der Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten mit der Angabe der nachverfolgten Objekte zu der Fahrbahnansicht umfasst.
DE102017120498.9A 2016-09-08 2017-09-06 Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten Pending DE102017120498A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/259,513 2016-09-08
US15/259,513 US10394237B2 (en) 2016-09-08 2016-09-08 Perceiving roadway conditions from fused sensor data

Publications (1)

Publication Number Publication Date
DE102017120498A1 true DE102017120498A1 (de) 2018-03-08

Family

ID=60050709

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017120498.9A Pending DE102017120498A1 (de) 2016-09-08 2017-09-06 Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten

Country Status (6)

Country Link
US (1) US10394237B2 (de)
CN (1) CN107807632B (de)
DE (1) DE102017120498A1 (de)
GB (1) GB2555923A (de)
MX (1) MX2017011428A (de)
RU (1) RU2017131047A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205965A1 (de) 2018-04-19 2019-10-24 Zf Friedrichshafen Ag Verfahren und Steuergerät zum Kennzeichnen einer Person

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10600199B2 (en) * 2017-06-27 2020-03-24 Toyota Research Institute, Inc. Extending object detection and identification capability for an object sensor device
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10678234B2 (en) * 2017-08-24 2020-06-09 Tusimple, Inc. System and method for autonomous vehicle control to minimize energy cost
US10785400B2 (en) * 2017-10-09 2020-09-22 Stmicroelectronics (Research & Development) Limited Multiple fields of view time of flight sensor
EP3737968A1 (de) 2018-01-11 2020-11-18 Apple Inc. Architektur für fahrzeugautomatisierung und betriebssicherungsautomatisierung
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11435752B2 (en) * 2018-03-23 2022-09-06 Motional Ad Llc Data fusion system for a vehicle equipped with unsynchronized perception sensors
CN108414973B (zh) * 2018-05-08 2020-03-13 中国人民解放军战略支援部队信息工程大学 一种基于神经网络计算的多目标直接定位方法
US10930001B2 (en) 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
DE102018210812A1 (de) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Verfahren zu einer sensor- und speicherbasierten Darstellung einer Umgebung, Anzeigevorrichtung und Fahrzeug mit der Anzeigevorrichtung
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US10611372B2 (en) * 2018-09-06 2020-04-07 Zebra Technologies Corporation Dual-mode data capture system for collision detection and object dimensioning
US10985203B2 (en) * 2018-10-10 2021-04-20 Sensors Unlimited, Inc. Sensors for simultaneous passive imaging and range finding
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11061406B2 (en) * 2018-10-22 2021-07-13 Waymo Llc Object action classification for autonomous vehicles
US20200132832A1 (en) * 2018-10-25 2020-04-30 TransRobotics, Inc. Technologies for opportunistic synthetic aperture radar
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11018974B1 (en) * 2018-11-16 2021-05-25 Zoox, Inc. Context based bandwidth switching
US20200167573A1 (en) * 2018-11-27 2020-05-28 GM Global Technology Operations LLC Method and apparatus for object detection in camera blind zones
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
CN111435450A (zh) * 2019-01-11 2020-07-21 阿里巴巴集团控股有限公司 一种道路数据处理方法及其装置
CN109917413B (zh) * 2019-01-21 2021-07-06 苏州雷泰医疗科技有限公司 一种智能转移床的精确导航定位方法
US10627823B1 (en) * 2019-01-30 2020-04-21 StradVision, Inc. Method and device for performing multiple agent sensor fusion in cooperative driving based on reinforcement learning
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
DE102019102923B4 (de) * 2019-02-06 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
EP3716140A1 (de) * 2019-03-27 2020-09-30 Elektrobit Automotive GmbH Verarbeitung von umgebungsdaten einer umgebung eines fahrzeugs
EP3719532B1 (de) 2019-04-04 2022-12-28 Transrobotics, Inc. Technologien zum handeln auf basis von objektverfolgung
CN110422173B (zh) * 2019-07-11 2021-01-15 惠州市德赛西威智能交通技术研究院有限公司 一种行车环境识别方法
CN111246186A (zh) * 2020-01-21 2020-06-05 重庆金康新能源汽车有限公司 车载摄像机系统及方法
CN111401446A (zh) * 2020-03-16 2020-07-10 重庆长安汽车股份有限公司 单传感器、多传感器车道线合理性检测方法、系统及车辆
CN113498011B (zh) * 2020-03-19 2023-08-15 中移(上海)信息通信科技有限公司 车联网方法、装置、设备、存储介质及系统
JP7207366B2 (ja) * 2020-05-19 2023-01-18 トヨタ自動車株式会社 車載表示システム
US11823458B2 (en) 2020-06-18 2023-11-21 Embedtek, LLC Object detection and tracking system
US11654932B2 (en) * 2020-12-28 2023-05-23 Waymo Llc Architecture for variable motion control envelope
CN112925310B (zh) * 2021-01-22 2023-08-08 广州大学 一种智能除虫系统的控制方法、装置、设备及存储介质
WO2022182653A1 (en) * 2021-02-23 2022-09-01 Neural Propulsion Systems, Inc. Lidar systems and methods with improved eye safety cross-reference to reuated appuications
CN113071498B (zh) * 2021-06-07 2021-09-21 新石器慧通(北京)科技有限公司 车辆控制方法、装置、系统、计算机设备及存储介质
US11722789B1 (en) 2022-02-01 2023-08-08 Ford Global Technologies, Llc Multi-camera imaging system selecting between visible and infrared views in a vehicle
WO2023192272A1 (en) * 2022-03-28 2023-10-05 Seegrid Corporation A hybrid, context-aware localization system for ground vehicles
DE102022113274A1 (de) * 2022-05-25 2023-11-30 Valeo Schalter Und Sensoren Gmbh Infrastrukturvorrichtung zur Führung eines Fahrzeugs
WO2024025421A1 (en) * 2022-07-29 2024-02-01 Kongsberg Maritime As Multi-sensor and related aspects
WO2024063860A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Data selection
CN116071400B (zh) * 2023-04-06 2023-07-18 浙江光珀智能科技有限公司 一种基于激光雷达设备的目标轨迹跟踪方法
CN117163071B (zh) * 2023-11-03 2024-03-05 安徽蔚来智驾科技有限公司 车辆控制方法、控制装置、可读存储介质及车辆

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298851B2 (ja) * 1999-08-18 2002-07-08 松下電器産業株式会社 多機能車載カメラシステムと多機能車載カメラの画像表示方法
WO2005072358A2 (en) 2004-01-28 2005-08-11 Canesta, Inc. Single chip red, green, blue, distance (rgb-z) sensor
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US8139109B2 (en) * 2006-06-19 2012-03-20 Oshkosh Corporation Vision system for an autonomous vehicle
WO2009046268A1 (en) 2007-10-04 2009-04-09 Magna Electronics Combined rgb and ir imaging sensor
US8576286B1 (en) * 2010-04-13 2013-11-05 General Dynamics Armament And Technical Products, Inc. Display system
CN101975951B (zh) * 2010-06-09 2013-03-20 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
US8648702B2 (en) 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
US20120056988A1 (en) 2010-09-07 2012-03-08 David Stanhill 3-d camera
CN101950426B (zh) * 2010-09-29 2014-01-01 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
US8983717B2 (en) * 2010-12-21 2015-03-17 Ford Global Technologies, Llc Vehicle camera system operable in off-road mode and method
CN202130447U (zh) * 2011-05-31 2012-02-01 德尔福电子(苏州)有限公司 一种新型的车道线偏离检测装置
CN102303605A (zh) * 2011-06-30 2012-01-04 中国汽车技术研究中心 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
CN102389361B (zh) * 2011-07-18 2014-06-25 浙江大学 一种基于计算机视觉的盲人户外支援系统
TW201305794A (zh) * 2011-07-27 2013-02-01 Hon Hai Prec Ind Co Ltd 電子裝置
US9069075B2 (en) 2012-02-10 2015-06-30 GM Global Technology Operations LLC Coupled range and intensity imaging for motion estimation
US10609335B2 (en) * 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
CN102944224B (zh) * 2012-11-09 2014-08-27 大连理工大学 一种无人驾驶车的自动环境感知系统的工作方法
US9296301B2 (en) * 2012-11-24 2016-03-29 Ford Global Technologies, Llc Environment-aware regenerative braking energy calculation method
US9525818B2 (en) * 2013-07-29 2016-12-20 Adobe Systems Incorporated Automatic tuning of images based on metadata
WO2015056105A1 (en) 2013-10-14 2015-04-23 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
US9507345B2 (en) * 2014-04-10 2016-11-29 Nissan North America, Inc. Vehicle control system and method
CA2916062C (en) 2014-04-18 2020-08-11 Cnh Industrial America Llc Stereo vision for sensing vehicles operating environment
CN105404844B (zh) * 2014-09-12 2019-05-31 广州汽车集团股份有限公司 一种基于多线激光雷达的道路边界检测方法
US10127463B2 (en) 2014-11-21 2018-11-13 Magna Electronics Inc. Vehicle vision system with multiple cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE-1394-Bus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205965A1 (de) 2018-04-19 2019-10-24 Zf Friedrichshafen Ag Verfahren und Steuergerät zum Kennzeichnen einer Person
WO2019201537A1 (de) 2018-04-19 2019-10-24 Zf Friedrichshafen Ag Verfahren und steuergerät zum kennzeichnen einer person

Also Published As

Publication number Publication date
GB2555923A (en) 2018-05-16
US10394237B2 (en) 2019-08-27
CN107807632B (zh) 2022-05-31
CN107807632A (zh) 2018-03-16
US20180067487A1 (en) 2018-03-08
MX2017011428A (es) 2018-09-21
RU2017131047A (ru) 2019-03-04
GB201713958D0 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
DE102017120498A1 (de) Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE102017107626A1 (de) Detektion verfügbarer parkstellflächen
DE102016114535A1 (de) Wegbestimmung für automatisierte Fahrzeuge
DE112019000279T5 (de) Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
DE102020114916A1 (de) Systeme und verfahren zum reduzieren von flimmerartefakten in bildlichtquellen
DE102018101318A1 (de) Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung
DE102018101220A1 (de) Zeichenerkennung für autonome fahrzeuge
DE102017120709A1 (de) Gegenstandsabstandsschätzung unter verwendung von daten von einer einzigen kamera
DE102017123180A1 (de) Rückwertige Hinderniserkennung und Abstandsschätzung
DE112017007050T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE112017000643T5 (de) Detektion eines teilweise verdeckten Objekts unter Verwendung von Kontext und Tiefenordnung
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
EP2289044B1 (de) Bilddatenvisualisierung
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE102017122867A1 (de) Vorrichtung und Verfahren zum Leiten von Fahrinformationen und diese aufweisendes Fahrzeugsystem
DE112019004488B4 (de) Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE102019122020A1 (de) Anhängerkupplungsassistenzsystem
DE102017120845A1 (de) Verfahren und Systeme zur adaptiven On-Demand-Infrarot-Fahrspurerkennung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R012 Request for examination validly filed