DE102017120498A1 - Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten - Google Patents
Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten Download PDFInfo
- Publication number
- DE102017120498A1 DE102017120498A1 DE102017120498.9A DE102017120498A DE102017120498A1 DE 102017120498 A1 DE102017120498 A1 DE 102017120498A1 DE 102017120498 A DE102017120498 A DE 102017120498A DE 102017120498 A1 DE102017120498 A1 DE 102017120498A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor data
- vehicle
- view
- camera
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 238000005259 measurement Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 abstract description 3
- 230000016776 visual perception Effects 0.000 abstract description 2
- 230000008447 perception Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0289—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten. Aspekte der Erfindung verwenden eine Kombination aus verschiedenen Arten von Kameras, die am Fahrzeug angebracht sind, um eine visuelle Wahrnehmung für autonomes Fahren des Fahrzeugs zu erreichen. Jede Kamera in der Kombination von Kameras erzeugt Sensordaten durch Erfassen mindestens eines Teils der Umgebung um das Fahrzeug. Die Sensordaten von jeder Kamera werden dann zu einer Ansicht der Umgebung um das Fahrzeug fusioniert. Die Sensordaten von jeder Kamera (und, falls zutreffend, von jeder anderen Art von Sensor) werden in einen zentralen Sensorwahrnehmungschip eingegeben. Der zentrale Sensorwahrnehmungschip verwendet einen Sensorfusionsalgorithmus, um die Sensordaten zu einer Ansicht der Umgebung um das Fahrzeug zu fusionieren.
Description
- ALLGEMEINER STAND DER TECHNIK
- Gebiet der Erfindung
- Die vorliegende Erfindung betrifft allgemein das Gebiet der autonomen Fahrzeuge und genauer das Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten.
- Stand der Technik
- Lösungen für autonomes Fahren verwenden üblicherweise LiDAR-Sensoren, die die Umgebung um ein Fahrzeug wahrnehmen. Die LiDAR-Sensoren werden an einem Fahrzeug angebracht, häufig auf dem Dach. Die LiDAR-Sensoren weisen bewegliche Teile auf, die eine Erfassung der Umgebung zu 360 Grad um das Fahrzeug bis zu einem Abstand von ungefähr 100–150 Metern ermöglichen. Die Sensordaten von den LiDAR-Sensoren werden verarbeitet, um eine „Ansicht“ der Umgebung um das Fahrzeug wahrzunehmen. Die Ansicht wird verwendet, um Fahrzeugsysteme, wie Lenkung, Beschleunigung, Bremsung usw. automatisch zu steuern, um innerhalb der Umgebung zu navigieren. Die Ansicht wird kontinuierlich aktualisiert, während das Fahrzeug in der Umgebung navigiert (sich darin bewegt).
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- Die spezifischen Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden unter Berücksichtigung der nachfolgenden Beschreibung und begleitenden Zeichnungen deutlicher, wobei:
-
1 ein beispielhaftes Blockdiagramm einer Rechenvorrichtung veranschaulicht. -
2 veranschaulicht eine beispielhafte Umgebung, die das Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten vereinfacht. -
3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten. -
4 veranschaulicht ein beispielhaftes Fahrzeug, das Fahrbahnbedingungen aus fusionierten Sensordaten wahrnehmen kann. -
5 veranschaulicht einen beispielhaften Datenfluss zum Sammeln von Sensordaten zum Fusionieren zu einer Fahrbahnansicht. -
6 veranschaulicht ein Beispiel eines Chips mit RGB-IR-Pixeln. - DETAILLIERTE BESCHREIBUNG
- Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten.
- Viele Fahrzeuge für autonomes Fahren verwenden LiDAR-Sensoren, um die Umgebung um das Fahrzeug sehen zu können. Jedoch sind LiDAR-Sensoren relativ teuer und beinhalten mechanische drehende Teile. Weiterhin sind LiDAR-Sensoren häufig oben auf Fahrzeugen angebracht, wodurch ästhetische Designs begrenzt sind. Aspekte der Erfindung können zuverlässiges autonomes Fahren bei geringeren Kosten für Sensoren und verbesserter Ästhetik bereitstellen.
- Zum Beispiel verwenden Aspekte der Erfindung eine Kombination aus verschiedenen Arten von Kameras, die am Fahrzeug angebracht sind, um eine visuelle Wahrnehmung für autonomes Fahren des Fahrzeugs zu erreichen. Jede Kamera in der Kombination von Kameras erzeugt Sensordaten durch Erfassen mindestens eines Teils der Umgebung um das Fahrzeug. Die Sensordaten von jeder Kamera werden dann in eine Ansicht der Umgebung um das Fahrzeug zusammengeführt.
- Die Kombination von Kameras kann eine Mehrzweck-Flugzeitmessungs(TOF – time-of-flight)-Kamera mit einem Verarbeitungschip, wie beispielsweise einen komplementären Metalloxidhalbleiterchip (CMOS – complementary metal-oxide semiconductor) mit Rot-Grün-Blau-Infrarot (RGB-IR), beinhalten. Die TOF-Kamera ist konfiguriert, um zwischen Kameramodus und LiDAR-Modus umzuschalten. Die TOF-Kamera verwendet eine Nahsichtfeld(FOV – field-of-view)-Linse, um eine Objektnachverfolgungsfähigkeit über eine längere Distanz zu vereinfachen. Die TOF-Kamera kann zur Kollisionssteuerung und Tempomatsteuerung verwendet werden.
- Die Kombination von Kameras kann auch eine oder mehrere RGB-IR-Kameras beinhalten. Die eine oder mehreren RGB-IR-Kameras verwenden ein weiteres FOV, um Objekte näher am Fahrzeug zu erfassen. Die Intensitätsinformationen von den IR-Signalen können während der Nacht wie auch in anderen Umgebungen mit wenig (oder keinem) Licht verwendet werden.
- Bei einem Aspekt sind ein oder mehrere andere Sensoren ebenfalls am Fahrzeug angebracht. Der eine oder die mehreren anderen Sensoren können die gleichen Sensorarten oder unterschiedliche Sensorarten sein, wie zum Beispiel Radar, Globales Positionierungssystem (GPS), inertiale Messungseinheit (IMU), usw. Der eine oder die mehreren anderen Sensoren erzeugen ebenfalls Sensordaten durch Erfassen mindestens eines Teils der Umgebung um das Fahrzeug.
- Die Sensordaten von jeder Kamera (und, falls zutreffend, von jeder anderen Art von Sensor) werden in einen zentralen Sensorwahrnehmungschip eingegeben. Der zentrale Sensorwahrnehmungschip verwendet einen Sensorfusionsalgorithmus, um die Sensordaten in eine Ansicht der Umgebung um das Fahrzeug zu fusionieren.
- Aspekte der Erfindung können in verschiedenen unterschiedlichen Arten von Rechenvorrichtungen implementiert werden.
1 veranschaulicht ein beispielhaftes Blockdiagramm einer Rechenvorrichtung100 . Die Rechenvorrichtung100 kann zum Ausführen verschiedener Vorgänge, wie etwa der hier erörterten, benutzt werden. Die Rechenvorrichtung100 kann als ein Server, ein Client oder eine beliebige andere Recheneinheit dienen. Die Rechenvorrichtung100 kann verschiedene Kommunikations- und Datenübertragungsfunktionen, wie hier beschrieben, erfüllen und kann ein oder mehrere Anwendungsprogramme, wie etwa die hier beschriebenen Anwendungsprogramme, ausführen. Bei der Rechenvorrichtung100 kann es sich um eine von vielen verschiedenen Rechenvorrichtungen handeln, wie etwa ein Mobiltelefon oder anderes mobiles Gerät, einen Desktopcomputer, einen Notebookcomputer, einen Servercomputer, einen Handheld- Computer, Tabletcomputer und dergleichen. - Die Rechenvorrichtung
100 beinhaltet einen oder mehrere Prozessor(en)102 , eine oder mehrere Speichervorrichtung(en)104 , eine oder mehrere Schnittstelle(n)106 , eine oder mehrere Massenspeichervorrichtung(en)108 , eine oder mehrere Eingabe-/Ausgabe(E/A)-Vorrichtung(en)110 und eine Anzeigevorrichtung130 , die alle an einen Bus112 gekoppelt sind. Der Prozessor oder die Prozessoren102 beinhalten einen oder mehrere Prozessoren oder Controller, die auf Speichervorrichtung(en)104 und/oder Massenspeichervorrichtung(en)108 gespeicherte Anweisungen ausführen. Der Prozessor oder die Prozessoren102 können auch verschiedene Arten von Computerspeichermedien wie etwa einen Cache-Speicher beinhalten. - Die Speichervorrichtung(en)
104 beinhalten verschiedene Computerspeichermedien wie etwa flüchtigen Speicher (z. B. Direktzugriffspeicher ((RAM)114 ) und/oder nichtflüchtigen Speicher (z. B. Lesezugriffspeicher ((ROM)116 ). Die Speichervorrichtung(en)104 können auch wieder beschreibbaren ROM, wie etwa Flash-Speicher, beinhalten. - Die Massenspeichervorrichtung(en)
108 beinhalten verschiedene Computerspeichermedien, wie etwa Magnetbänder, Magnetplatten, optische Platten Festkörperspeicher (z. B. Flash-Speicher) und so fort. Wie in1 gezeigt, ist ein Festplattenlaufwerk124 eine bestimmte Massenspeichervorrichtung. Verschiedene Laufwerke können auch Teil von Massenspeichervorrichtung(en)108 sein, um das Auslesen und/oder Beschreiben der verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en)108 beinhalten wechselfähige Medien126 und/oder nicht wechselfähige Medien. - Die E/A-Vorrichtung(en)
110 beinhalten verschiedene Vorrichtungen, die das Eingeben von Daten und/oder anderen Informationen in die Rechenvorrichtung100 oder das Abrufen derselben daraus zulassen. Beispielhafte E/A-Vorrichtung(en)110 beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Barcodescanner, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Kameras, Linsen, Radare, CCDs oder andere Bildaufnahmevorrichtungen und dergleichen. - Die Anzeigevorrichtung
130 beinhaltet eine beliebige Art von Vorrichtung, die Informationen an einen oder mehrere Benutzer der Rechenvorrichtung100 anzeigen kann. Beispiele der Anzeigevorrichtung130 beinhalten ein Monitor, Anzeigeendgerät, Videoprojektionsgerät und dergleichen. - Die Schnittstelle(n)
106 beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung100 erlauben, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen sowie Menschen zu interagieren. Zu beispielhaften Schnittstelle(n)106 kann eine beliebige Anzahl von Netzschnittstellen120 gehören, wie etwa Schnittstellen zu persönlichen Netzen (PANs), lokalen Netzen (LANs), Weitverkehrsnetzen (WANs), drahtlosen Netzen (z. B. Near Field Communication(NFC)-, Bluetooth-, Wi-Fi- usw. Netzen) und dem Internet. Andere Schnittstellen beinhalten eine Benutzerschnittstelle118 und eine Peripheriegeräteschnittstelle122 . - Der Bus
112 erlaubt es dem oder den Prozessor(en)102 , der oder den Speichervorrichtung(en)104 , Schnittstelle(n)106 , Massenspeichervorrichtung(en)108 und E/A-Vorrichtung(en)110 miteinander sowie mit anderen Vorrichtungen oder Komponenten zu kommunizieren, die an den Bus112 gekoppelt sind. Der Bus112 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so fort. -
2 veranschaulicht eine beispielhafte Fahrbahnumgebung200 , die das Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten vereinfacht. Die Fahrbahnumgebung200 beinhaltet ein Fahrzeug201 , wie beispielsweise ein Auto, einen Lastwagen oder einen Bus. Das Fahrzeug201 kann Insassen enthalten oder nicht, wie beispielsweise einen oder mehrere Passagiere. Die Fahrbahnumgebung200 kann Fahrbahnmarkierungen (z. B. Fahrspurbegrenzungen), Fußgänger, Fahrräder, andere Fahrzeuge, Schilder oder beliebige andere Arten von Gegenständen beinhalten. Das Fahrzeug201 kann sich innerhalb der Fahrbahnumgebung200 bewegen, zum Beispiel auf einer Straße fahren. - Das Fahrzeug
201 beinhaltet eine Kamera211A , eine Kamera211B , eine Kamera221 , einen Wahrnehmungschip203 , einen Wahrnehmungsalgorithmus202 , Fahrzeugsteuersysteme204 und Fahrzeugbetriebskomponenten206 . Die Kameras211A ,211B und221 können am Fahrzeug201 angebracht sein, um in die Richtung zu weisen, in die sich das Fahrzeug201 bewegt (z. B. vorwärts oder rückwärts). Bei einem Aspekt beinhaltet das Fahrzeug201 auch einen entsprechenden Satz von Kameras, der in die andere Richtung weist. Zum Beispiel kann das Fahrzeug201 einen Satz von vorwärtsweisenden Kameras und einen Satz von rückwärtsweisenden Kameras beinhalten. - Die Kamera
211A beinhaltet Sensorkomponenten212A (z. B. eine Linse, eine Öffnung, eine Blende, eine Sensorplatte, einen IR-Emitter, eine IR-Detektor, usw.) und eine anwendungsspezifische integrierte Schaltung (ASIC – application-specific integrated circuit)213A . Die ASIC213A kann eine Funktionalität zur digitalen Signalverarbeitung (DSP – digital signal processing) beinhalten, um verschiedene Operationen an den Bildsensordaten, die von den Sensorkomponenten212A aufgenommen wurden, durchzuführen. In ähnlicher Weise beinhaltet die Kamera211A beinhaltet Sensorkomponenten212B (z. B. eine Linse, eine Öffnung, eine Blende, eine Sensorplatte, einen IR-Emitter, eine IR-Detektor, usw.) und eine anwendungsspezifische integrierte Schaltung (ASIC)213B . Die ASIC213B kann eine Funktionalität zur digitalen Signalverarbeitung (DSP) beinhalten, um verschiedene Operationen an den Bildsensordaten, die von den Sensorkomponenten212B aufgenommen wurden, durchzuführen. - Die Kameras
211A und211B können ähnliche Arten oder sogar die gleiche Art von Kameras sein. Die Kameras211A und211B weisen ein Sichtfeld216A bzw.216B auf. Die Sichtfelder216A und216B können ähnlich oder möglicherweise im Wesentlichen gleich sein. Innerhalb der Sichtfelder216A und216B können die Kameras211A bzw.211B jeweils die Fahrbahnumgebung200 vom Fahrzeug201 ausgehend zu einer ungefähren Entfernungsgrenze231 erfassen. - Bei einem Aspekt sind die Kameras
211A und211B Rot-Grün-Blau/Infrarot(RGB/IR)-Kameras. Somit können die Kameras211A und211B Bilder erzeugen, bei denen jeder Bildbereich ein Rotpixel, ein Grünpixel, ein Blaupixel und ein IR-Pixel beinhaltet. Die RGB-Pixelintensitäten werden verwendet, wenn ausreichend Licht (z. B. während des Tages) vorhanden ist. Die Intensitätsinformationen der IR-Signale können während der Nacht wie auch in anderen Umgebungen mit wenig (oder keinem) Licht verwendet werden, um die Fahrbahnumgebung200 zu erfassen. Umgebungen mit wenig (oder keinem) Licht können eine Fahrt durch Tunnels oder andere Umgebungen, in denen das natürliche Licht blockiert ist, beinhalten. - Die Kamera
221 beinhaltet Sensorkomponenten222 (z. B. eine Linse, eine Öffnung, eine Blende, eine Sensorplatte, einen Laser, einen Sensor zum Erkennen von Laserreflexionen, usw.) und eine anwendungsspezifische integrierte Schaltung (ASIC)223 . Die ASIC223 kann eine Funktionalität zur digitalen Signalverarbeitung (DSP) beinhalten, um verschiedene Operationen an den Bildsensordaten, die von den Sensorkomponenten222 aufgenommen wurden, durchzuführen. Die Kamera221 weist ein Sichtfeld226 auf. Innerhalb des Sichtfelds226 kann die Kamera221 die Fahrbahnumgebung200 vom Fahrzeug201 aus bis über eine Entfernungsgrenze232 hinaus erfassen. Die Kamera221 kann zur Kollisionssteuerung und Tempomatsteuerung verwendet werden. - Bei einem Aspekt ist die Kamera
221 eine Mehrzweck-Flugzeitmessungskamera (TOF) mit einem Verarbeitungschip, zum Beispiel einem komplementären Metalloxidhalbleiterchip (CMOS-Chip) mit Rot-Grün-Blau-Infrarot (RGB-IR). Die Kamera221 kann konfiguriert sein, um in verschiedenen Modi zu arbeiten, wenn Objekte in unterschiedlichen Entfernungen vom Fahrzeug201 erfasst werden. Die Kamera221 kann hauptsächlich im LiDAR-Modus arbeiten, wenn Objekte innerhalb des Sichtfelds226 jenseits der Entfernungsgrenze232 erkannt werden. Andererseits kann die Kamera221 zwischen Kameramodus und LiDAR-Modus umschalten, wenn Objekte innerhalb des Sichtfelds226 zwischen der Entfernungsgrenze231 und der Entfernungsgrenze232 erkannt werden. Zum Beispiel kann die Kamera221 zu ungefähr 50 % der Zeit im LiDAR-Modus und zu 50 % der Zeit im Kameramodus arbeiten, wenn Objekte innerhalb des Sichtfelds226 zwischen der Entfernungsgrenze231 und der Entfernungsgrenze232 erkannt werden. - Die Kamera
221 kann Bilder erzeugen, bei denen jeder Bildbereich ein Rotpixel, ein Grünpixel, ein Blaupixel und ein IR-Pixel beinhaltet. Die RGB-Pixelintensitäten werden verwendet, wenn ausreichend Licht (z. B. während des Tages) vorhanden ist. Im LiDAR-Modus emittiert der Laser einen Impuls auf IR-Wellenlänge. Ein Verarbeitungschip (z. B. innerhalb der ASIC223 ) liest die Flugzeitinformationen, um die Tiefe des Objekts zu verarbeiten. Der Verarbeitungschip kann geeignete IR-Pixelintensitätsinformationen auf Grundlage der Objekttiefen festlegen. Der LiDAR-Modus und die IR-Pixelintensität können während der Nacht, bei Umgebungen mit wenig (oder keinem) Licht oder wenn dies anderweitig geeignet erscheint, verwendet werden, um die Fahrbahnumgebung200 zu erfassen. - Bei einem Aspekt ist die Entfernungsgrenze
231 ungefähr20 Meter vom Fahrzeug201 entfernt und die Entfernungsgrenze232 ist ungefähr100 Meter vom Fahrzeug201 entfernt. Jedoch sind auch andere Entfernungen für die Entfernungsgrenzen231 und232 möglich. Zum Beispiel kann die Entfernungsgrenze231 von 0–20 Meter reichen und die Entfernungsgrenze232 kann von 20–200 Meter reichen. - Der Wahrnehmungschip
203 kann eine Mehrzweck- oder eine Spezialverarbeitungseinheit sein, zum Beispiel eine zentrale Recheneinheit (CPU – central processing unit), eine graphische Verarbeitungseinheit (GPU – graphics processing unit), usw. Alternativ und/oder in Kombination kann der Wahrnehmungschip203 auch Logikschaltungen beinhalten, wie zum Beispiel eine ASIC oder ein Field Programmable Gate Array (FPGA). Der Wahrnehmungsalgorithmus202 läuft auf dem Wahrnehmungschip203 . - Allgemein ist der Wahrnehmungsalgorithmus
202 konfiguriert, um Sensordaten von verschiedenen Kameras (und möglicherweise anderen Sensoren) zu einer Ansicht der Fahrbahnumgebung200 zu fusionieren. Der Wahrnehmungsalgorithmus202 kann die Kamerasensordaten verarbeiten, um Gegenstände von Interesse innerhalb der Fahrbahnumgebung200 zu identifizieren. Der Wahrnehmungsalgorithmus202 kann auch Objekte von Interesse innerhalb der Fahrbahnumgebung200 klassifizieren. Objektklassifizierungen können folgendes beinhalten: Fahrspurbegrenzungen, Zebrastreifen, Schilder, Regelungssignale, Autos, Lastwagen, Fußgänger usw. Einige Objektklassifizierungen können Unterklassifizierungen aufweisen. Beispielsweise kann ein Schild nach dem Schildtyp klassifiziert werden, etwa ein Stoppschild, ein Vorfahrt-beachten-Schild, ein Schulbereichsschild, ein Geschwindigkeitsbegrenzungsschild usw. - Der Wahrnehmungsalgorithmus
202 kann auch die Position eines Objekts innerhalb der Fahrbahnumgebung200 bestimmen, wie zum Beispiel zwischen dem Fahrzeug201 und der Entfernungsgrenze231 , zwischen der Entfernungsgrenze231 und der Entfernungsgrenze232 oder jenseits der Entfernungsgrenze232 . Wenn sich ein Objekt bewegt, kann der Wahrnehmungsalgorithmus202 auch einen wahrscheinlichen Weg des Objekts bestimmen. - Bei einem Aspekt beinhaltet der Wahrnehmungsalgorithmus
202 ein neuronales Netz, das gemäß einem vielschichtigen (oder „tiefen“) Modell konstruiert ist. Ein mehrschichtiges neuronales Netzmodell kann eine Eingangsschicht, eine Vielzahl von verdeckten Schichten und eine Ausgangsschicht beinhalten. Ein mehrschichtiges neuronales Netzmodell kann auch eine Verlustschicht beinhalten. Zur Klassifizierung von fusionierten Kamerasensordaten (z. B. einem Bild) werden Werte in den Sensordaten (z. B. Pixelwerte) Eingangsknoten zugewiesen und dann durch die Vielzahl von verdeckten Schichten des neuronalen Netzes geschickt. Die Vielzahl von verdeckten Schichten kann eine Anzahl nicht-linearer Transformationen durchführen. Am Ende der Transformationen erzeugt ein Ausgangsknoten eine wahrgenommene Ansicht der Fahrbahnumgebung200 . - Der Wahrnehmungsalgorithmus
202 kann Fahrbahnansichten an Fahrzeugsteuersysteme204 senden. Die Fahrzeugsteuersysteme204 (z. B. Tempomat, Spurwechsel, Kollisionsvermeidung, Bremsen, Lenken, usw.) sind konfiguriert, um Fahrzeugbetriebskomponenten206 (z. B. Gaspedal, Bremsen, Lenkrad, Getriebe, usw.) zu steuern, um das Fahrzeug201 autonom in der Fahrbahnumgebung200 zu betreiben. Die Fahrzeugsteuersysteme204 können die Konfiguration der Fahrzeugbetriebskomponenten206 auf Grundlage von Fahrbahnansichten, die vom Wahrnehmungsalgorithmus202 empfangen werden, verändern. Veränderungen an den Fahrzeugbetriebskomponenten206 können das Abbiegen des Fahrzeugs201 , das Beschleunigen des Fahrzeugs201 , das Verlangsamen des Fahrzeugs201 , einen Richtungswechsel des Fahrzeugs201 usw. vereinfachen. - Das Fahrzeug
201 kann außerdem einen oder mehrere andere Sensoren beinhalten. Der eine oder die mehreren anderen Sensoren können die gleichen Sensorarten oder unterschiedliche Sensorarten sein, wie zum Beispiel Radar, inertiale Messungseinheit (IMU), Globales Positionierungssystem (GPS), usw. Der eine oder die mehreren anderen Sensoren können ebenfalls Sensordaten durch Erfassen mindestens eines Teils der Fahrbahnumgebung200 erzeugen. Der Wahrnehmungsalgorithmus202 kann Sensordaten von diesen anderen Sensoren mit Sensordaten von den Kameras211A ,211B und221 (sowie anderen Kameras) zu einer Ansicht der Fahrbahnumgebung200 fusionieren. -
3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens300 zum Wahrnehmen von Fahrbahnbedingungen aus fusionierten Sensordaten. Das Verfahren300 wird unter Bezugnahme auf die Komponenten und Daten der Umgebung200 beschrieben. - Das Verfahren
300 beinhaltet, für jede der einen oder mehreren am Fahrzeug angebrachten Kameras, Empfangen von Sensordaten von der Kamera, wobei die Sensordaten von einem Gebiet zwischen dem Fahrzeug und einer bestimmten Entfernung vom Fahrzeug entfernt innerhalb eines Sichtfelds der Kamera erfasst werden, wobei jede der einen oder mehreren Kameras ein Sichtfeld aufweist (301 ). Zum Beispiel kann der Wahrnehmungsalgorithmus202 Sensordaten214A von der Kamera211A empfangen. Die Kamera211A kann Sensordaten214A von einem Gebiet zwischen dem Fahrzeug201 und der Entfernungsgrenze231 innerhalb des Sichtfelds216A erfassen. Die Kamera211A kann die Sensordaten214A an den Wahrnehmungsalgorithmus202 senden. In ähnlicher Weise kann der Wahrnehmungsalgorithmus202 Sensordaten214B von der Kamera211B empfangen. Die Kamera211B kann die Sensordaten214B von einem Gebiet zwischen dem Fahrzeug201 und der Entfernungsgrenze231 innerhalb des Sichtfelds216B erfassen. Die Kamera211B kann die Sensordaten214B an den Wahrnehmungsalgorithmus202 senden. Objekte innerhalb der Sichtfelder216A und216B können gruppiert und durch die Bildinformationen nachverfolgt werden. Die Sensordaten214A und214B können Objekte, die innerhalb der Sichtfelder216A und216B nachverfolgt werden, angeben. - Das Verfahren
300 beinhaltet, für jede andere am Fahrzeug angebrachte Kamera, Empfangen anderer Sensordaten von der anderen Kamera, wobei die anderen Sensordaten von einem Gebiet jenseits der bestimmten Entfernung innerhalb eines anderen Sichtfelds der anderen Kamera erfasst werden, wobei das andere Sichtfeld schmäler ist als das Sichtfeld (302 ). Zum Beispiel kann der Wahrnehmungsalgorithmus202 Sensordaten224 von der Kamera221 empfangen. Im Allgemeinen kann die Kamera221 kann Sensordaten224 überall innerhalb des Sichtfelds226 erfassen. Die Kamera221 kann die Sensordaten224 an den Wahrnehmungsalgorithmus202 senden. Unter Verwendung verschiedener Mechanismen können Objekte innerhalb des Sichtfelds226 nachverfolgt werden. Die Sensordaten224 können Objekte, die innerhalb des Sichtfelds226 nachverfolgt werden, angeben. - Bei einem Aspekt arbeitet die Kamera
221 im LiDAR-Modus, um Sensordaten224 von einem Gebiet jenseits der Entfernungsgrenze232 innerhalb des Sichtfelds226 zu erfassen. Jenseits der Entfernungsgrenze232 können Objekte auf Grundlage von dreidimensionalen (3D) Punkwolken nachverfolgt werden. Bei einem weiteren Aspekt schaltet die Kamera221 zwischen Kameramodus und LiDAR-Modus um, um Sensordaten224 von einem Gebiet zwischen der Entfernungsgrenze231 und der Entfernungsgrenze232 innerhalb des Sichtfelds226 zu erfassen. Objekte zwischen der Entfernungsgrenze231 und der Entfernungsgrenze232 können gruppiert und sowohl durch 3D-Punktwolken als auch Bildinformationen nachverfolgt werden. - Bei einem weiteren Aspekt erfasst die Kamera
211 Sensordaten224 von einem Gebiet um (und möglicherweise etwas innerhalb der) die Entfernungsgrenze231 , zum Beispiel wenn Objekte nahe dem Bereich sind, der von den Kameras211A und211B abgedeckt wird. Die Kamera221 schätzt die Position von Objekten durch eine Bewegungsnachverfolgung, wie zum Beispiel Kalman-Filter, optischer Fluss, usw. - Das Verfahren
300 beinhaltet Fusionieren der Sensordaten von jeder der einen oder mehreren Kameras und der anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung (303 ). Zum Beispiel kann der Wahrnehmungsalgorithmus202 Sensordaten214A , Sensordaten214B und Sensordaten224 zu einer Fahrbahnansicht226 der Fahrbahnumgebung200 fusionieren. Die Fahrbahnansicht236 kann Objekte, die innerhalb der Sichtfelder216A ,216B und226 nachverfolgt werden, angeben. - Das Verfahren
300 beinhaltet Senden der Fahrbahnansicht an die Fahrzeugsteuerkomponenten, so dass die Fahrzeugsteuerkomponenten die Konfiguration der Fahrzeugbetriebskomponenten auf Grundlage der Fahrbahnansicht einstellen können (304 ). Zum Beispiel kann der Wahrnehmungsalgorithmus202 die Fahrbahnansicht236 an die Fahrzeugsteuersysteme204 senden. Die Fahrzeugsteuersysteme204 können die Fahrbahnansicht236 vom Wahrnehmungsalgorithmus202 empfangen. Die Fahrzeugsteuersysteme204 können die Fahrbahnansicht236 verwenden, um die Fahrzeugbetriebskomponenten206 einzustellen. Das Einstellen der Fahrzeugbetriebskomponenten206 kann die Konfiguration des Fahrzeugs201 verändern, um diese auf die Fahrbahnumgebung200 anzupassen. Zum Beispiel können die Fahrzeugsteuersysteme204 die Fahrzeugbetriebskomponenten206 einstellen, um die Geschwindigkeit des Fahrzeugs201 zu erhöhen (z. B. beschleunigen), um die Geschwindigkeit des Fahrzeugs201 zu verringern (z. B. verlangsamen oder bremsen), um die Richtungen des Fahrzeugs201 umzukehren (z. B. die Gänge von Fahren zu Rückwärts oder umgekehrt wechseln), um die Bewegungsbahn des Fahrzeugs201 für eine Kurve oder Straßenverengung zu verändern (z. B. den Winkel der Vorderräder einstellen), usw. - Die Kameras
211A ,211B und211 (sowie beliebige andere Kameras und/oder andere Sensoren) können Sensordaten fortlaufend sammeln, während sich das Fahrzeug201 bewegt. Die Sensordaten können an den Wahrnehmungsalgorithmus202 gesendet werden. Der Wahrnehmungsalgorithmus202 kann die Sensordaten zu zusätzlichen Fahrbahnansichten fusionieren. Die Fahrzeugsteuersysteme204 können die zusätzlichen Fahrbahnansichten verwenden, um die Fahrzeugbetriebskomponenten206 fortlaufend einzustellen, um das Fahrzeug201 innerhalb der Fahrbahnumgebung200 sicher autonom betreiben zu können. -
4 veranschaulicht ein beispielhaftes Fahrzeug401 , das Fahrbahnbedingungen von fusionierten Sensordaten wahrnehmen kann. Wie dargestellt, weist das Fahrzeug401 vorne angebrachte Kameras411A ,411B und421 auf. Die vorne angebrachten Kameras411A ,411B und421 weisen entsprechende Sichtfelder416A ,416B bzw.426 auf. Die Kameras411A und411B können RGB/IR-Kameras sein. Die Kameras411A und411B können Objekte zwischen dem Fahrzeug401 und der Entfernungsgrenze431 , die innerhalb der Sichtfelder416A und416B liegen, erfassen. Die Kameras411A und411B können Bildinformationen verwenden, um Objekte innerhalb der Sichtfelder416A und416B nachzuverfolgen. - Die Kamera
421 kann eine Flugzeitmessung(TOF)-basierte Kamera sein, die zwischen einem Kameramodus und einem LiDAR-Modus umschalten kann. Die Kamera421 kann Objekte innerhalb des Sichtfelds426 erfassen. Die Kamera421 kann verschiedene Mechanismen verwenden, um Objekte zu erfassen, abhängig davon, wie weit die Objekte vom Fahrzeug401 entfernt sind. Die Kamera421 kann hauptsächlich den LiDAR-Modus und 3D-Punktwolken verwenden, um Objekte außerhalb der Entfernungsgrenze432 nachzuverfolgen. Die Kamera421 kann zwischen Kameramodus und LiDAR-Modus umschalten und 3D-Punktwolken und Bildinformationen verwenden, um Objekte zwischen der Entfernungsgrenze431 und der Entfernungsgrenze432 nachzuverfolgen. Die Kamera421 kann hauptsächlich den Kameramodus und die Bildinformationen verwenden, um Objekte nachzuverfolgen, die sich der Entfernungsgrenze431 annähern oder sich kürzlich in diese hinein bewegt haben. - Ein Fusionsalgorithmus kann Sensordaten, die von den vorne angebrachten Kameras
411A ,411B und421 empfangen wurden, zu einer Fahrbahnansicht der Straße vor dem Fahrzeug401 fusionieren. Die Fahrzeugsteuersysteme können die Fahrbahnansicht verwenden, um die Fahrzeugbetriebssteuerungen einzustellen, um das Fahrzeug401 sicher auf der Straße zu betreiben. -
5 veranschaulicht einen beispielhaften Datenfluss500 zum Sammeln von Sensordaten zum Fusionieren zu einer Fahrbahnansicht. Der Datenfluss500 beginnt bei501 . Bei502 wird ein Laser für ein kleineres Sichtfeld für eine Flugzeitmessungs(TOF)-Kamera ausgelöst. Bei503 werden Objekte (z. B. auf einer Fahrbahn) auf Grundlage von 3D-Punktwolken, die aus der TOF-Kamera ausgelesen werden, nachverfolgt. Die 3D-Punktwolke beinhaltet sowohl RGB-Pixel als auch IR-Pixel. Bei504 erkennt die TOF-Kamera, ob sich Objekte innerhalb einer weiteren Entfernungsgrenze (z. B.232 ,432 , usw.) befinden. Falls nicht, dreht der Datenfluss500 eine Schleife zurück zu502 . Falls ja, kann sich ein Objekt zwischen der weiteren Entfernungsgrenze und einer näheren Entfernungsgrenze (z. B.231 ,431 , usw.) befinden und der Datenfluss geht weiter zu505 und506 . - Bei
505 und506 wird die TOF-Kamera zwischen Lasermodus und Kameramodus umgeschaltet. Bei507 werden Objekte (z. B. innerhalb der Fahrbahn) auf Grundlage von 3D-Punktwolken mit Tiefe, aus der TOF-Kamera ausgelesen, nachverfolgt. Bei509 werden Objekte (z. B. innerhalb der Fahrbahn) unter Verwendung von Bildinformationen nachverfolgt. Bei508 fusioniert ein Fusionsalgorithmus Sensordaten für eine Objektnachverfolgung mit Tiefe. Bei510 erkennt die TOF-Kamera, ob sich Objekte innerhalb der näheren Entfernungsgrenze befinden. Falls nicht, dreht der Datenfluss500 eine Schleife zurück zu505 und506 . - Falls ja, geht der Datenfluss
500 weiter zu511 . Bei511 verwendet die TOF-Kamera einem Kalman-Filter oder einen optischen Fluss, um Objektpositionen zu schätzen. Bei512 sendet die TOF-Kamera die Objektposition an einen Wahrnehmungsalgorithmus. Bei513 erzeugen RGB/IR-Kameras mit großem Sichtfeld Bilddaten. Objekte werden von innerhalb der Bilddaten nachverfolgt. Bei514 werden nachverfolgte Objekte (z. B. innerhalb der Fahrbahn) an den Wahrnehmungsalgorithmus gesendet. Bei515 erzeugen andere Sensoren Sensordaten. Objekte werden von innerhalb der Sensordaten nachverfolgt. Bei516 werden nachverfolgte Objekte (z. B. innerhalb der Fahrbahn) an den Wahrnehmungsalgorithmus gesendet. Bei517 fusioniert der Fusionsalgorithmus Objekte zu einer Fahrbahnansicht (z. B. der Fahrbahn). -
6 veranschaulicht ein Beispiel eines Chips600 mit RGB-IR-Pixeln. Bei einem Aspekt ist der Chip600 ein CMOS/Charged-Coupled-Device(CCD)-Chip. Wie dargestellt weist der Chip600 vier unterschiedliche Arten von Pixeln auf: Rotpixel, Grünpixel, Blaupixel und IR-Pixel. Die Pixel sind zu Bereichen gruppiert. Jeder Bereich beinhaltet ein Rotpixel, ein Grünpixel, ein Blaupixel und ein IR-Pixel. Zum Beispiel beinhaltet der Bereich601 ein Rotpixel611 , ein Grünpixel612 , ein Blaupixel613 und ein IR-Pixel614 . Die Bereiche sind in Reihen und Spalten angeordnet, einschließlich einer Reihe602 und einer Reihe603 . - Der Chip
600 kann verwendet werden, um lokale Sensorinformationen in einer Kamera (z. B. Pixelintensitäten) zu speichern. Eine ASIC innerhalb der Kamera kann die lokalen Sensorinformationen, die im Chip gespeichert sind, verarbeiten. Die ASIC kann die verarbeiteten Sensorinformationen an einen zentralen Sensorwahrnehmungschip weiterleiten, wie zum Beispiel den Wahrnehmungschip203 . Am zentralen Sensorwahrnehmungschip kann ein Fusionsalgorithmus die verarbeiteten Sensorinformationen zusammen mit anderen verarbeiteten Sensordaten von anderen Kameras (und/oder anderen Sensoren) zu einer Fahrbahnansicht fusionieren. Die Fahrbahnansicht kann verwendet werden, um einen autonomen Betrieb eines Fahrzeugs zu vereinfachen. - Bei einem Aspekt sind ein oder mehrere Prozessoren dazu konfiguriert, Anweisungen (z. B. computerlesbare Anweisungen, von einem Computer ausführbare Anweisungen usw.) auszuführen, um beliebige von einer Vielzahl von beschriebenen Vorgängen auszuführen. Der eine oder die mehreren Prozessoren können auf Informationen aus dem Systemspeicher zugreifen und/oder Informationen im Systemspeicher speichern. Einer oder mehrere Prozessoren können Informationen zwischen verschiedenen Formaten, wie z. B. Sensordaten, Bilddaten, Pixelwerte, Pixelintensitäten, Fahrbahnansichten usw. umwandeln.
- Der Systemspeicher kann an den einen oder die mehreren Prozessoren gekoppelt sein und kann Anweisungen (z. B. computerlesbare Anweisungen, von einem Computer ausführbare Anweisungen usw.) speichern, die von dem eine oder den mehreren Prozessoren ausgeführt werden. Der Systemspeicher kann auch so konfiguriert sein, dass er jede von einer Vielzahl von anderen Arten von Daten speichert, die durch die beschriebenen Komponenten erzeugt werden, wie z. B. Sensordaten, Bilddaten, Pixelwerte, Pixelintensitäten, Fahrbahnansichten, usw.
- In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen spezifische Implementierungen zur Veranschaulichung gezeigt werden, in denen die Offenbarung ausgeübt werden kann. Es versteht sich, dass andere Implementierungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine Struktur oder Eigenschaft einschließen kann, aber nicht jede Ausführungsform muss notwendigerweise dieses bestimmte Merkmal, diese Struktur oder Eigenschaft einschließen. Darüber hinaus beziehen sich solche Ausdrücke nicht unbedingt auf dieselbe Ausführungsform. Wenn ein Merkmal, eine Struktur oder eine Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissens eines Fachmanns liegt, das Merkmal, die Struktur oder die Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
- Implementierungen der hierin offenbarten Systeme, Vorrichtung und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware einschließt, wie etwa einen oder mehrere Prozessoren und einen Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem Datenträger und andere computerlesbare Medien zum Weiterleiten oder Speichern von von einem Computer ausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen von einem Computer ausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien(-geräte). Bei computerlesbaren Medien, die von einem Computer ausführbare Anweisungen weiterleiten, handelt es sich um Übertragungsmedien. Daher können Implementierungen der Offenbarung beispielsweise und nicht einschränkend wenigstens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien(-geräte) und Übertragungsmedien
- Computerspeichermedien(-geräte) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder beliebige andere Medien ein, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
- Eine Implementierung der hierin offenbaren Vorrichtungen, Systemen und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination aus drahtgebunden oder drahtlos) an einen Computer übertragen oder diesem bereitgestellt wird, betrachtet der Computer die Verbindung dementsprechend als ein Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen einschließen, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu übertragen, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden fallen ebenfalls in den Umfang computerlesbarer Medien.
- Von einem Computer ausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die von einem Computer ausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
- Fachleute werden anerkennen, dass die Offenbarung in Netzwerkrechenumgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, darunter ein Instrumententafel- oder anderer Fahrzeugcomputer, PCs, Desktop-Computer, Laptopcomputer, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichergeräte und dergleichen. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netzwerk (entweder durch drahtgebundene Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus drahtgebundenen und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer verteilten Systemumgebung können Programmmodule sowohl auf lokalen als auch Remote-Speicherungsvorrichtungen angesiedelt sein.
- Soweit zutreffend, können die hier beschriebenen Funktionen zudem in einem oder mehreren der folgenden ausgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eins oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Wie ein Fachmann verstehen wird, kann auf Komponenten durch die Verwendung verschiedener Bezeichnungen Bezug genommen werden. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
- Es sei angemerkt, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um wenigstens einen Teil der Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen werden hierin zu Veranschaulichungszwecken bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie einem Fachmann auf dem oder den Gebieten bekannt.
- Wenigstens einige Ausführungsformen der Offenbarung betreffen Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
- Während verschiedene Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, versteht es sich, dass diese nur als Beispiel und nicht als Einschränkung dargestellt wurden. Es ist für den Fachmann auf dem Gebiet offensichtlich, dass verschiedene Änderungen in Form und Detail vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung nicht durch eines der vorangehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Ansprüchen und ihrer Äquivalente definiert sein. Die vorangehende Beschreibung wurde zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der oben angegebenen Lehren möglich. Ferner ist angemerkt, dass eine beliebige oder alle der vorangehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- IEEE-1394-Bus [0024]
Claims (15)
- Verfahren zum Wahrnehmen einer Fahrbahn, wobei das Verfahren umfasst: Empfangen von Sensordaten von einer Vielzahl von Kameras, wobei die Sensordaten innerhalb einer Entfernungsgrenze eines Fahrzeugs und innerhalb eines Sichtfeldes für jede Kamera erfasst werden; Empfangen anderer Sensordaten von einer anderen Kamera, wobei die anderen Sensordaten von jenseits der Entfernungsgrenze innerhalb eines anderen schmaleren Sichtfelds erfasst werden; und Fusionieren der Sensordaten und der anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahn.
- Verfahren nach Anspruch 1, ferner umfassend autonomes Steuern des Fahrzeugs durch Einstellen der Konfiguration des Fahrzeugs, um Steuerkomponenten des Fahrzeugs auf Grundlage der Fahrbahnansicht zu steuern.
- Verfahren nach Anspruch 1, wobei das Empfangen von Sensordaten von einer Vielzahl von Kameras ein Empfangen von Infrarot(IR)-Sensordaten umfasst.
- Verfahren nach Anspruch 1, wobei das Empfangen anderer Sensordaten von einer anderen Kamera ein Empfangen von Bildsensordaten und LiDAR-Sensordaten von der anderen Kamera umfasst, wenn die andere Kamera zwischen einem Kameramodus und einem LiDAR-Modus umschaltet.
- Verfahren nach Anspruch 4, wobei das Empfangen von Sensordaten von der anderen Kamera ein Empfangen von Sensordaten für ein Objekt, das zwischen der Entfernungsgrenze und einer anderen Entfernungsgrenze erfasst wird, umfasst, wobei die andere Entfernungsgrenze weiter weg vom Fahrzeug ist als die Entfernungsgrenze.
- Verfahren nach Anspruch 1, ferner umfassend Empfangen weiterer Sensordaten von einem weiteren einen oder mehreren Sensoren, wobei jeder der weiteren einen oder mehreren Sensoren ausgewählt ist aus: einem Radarsensor, einem Ultraschallsensor, einem globalen Positionierungssystem(GPS)-Sensor und einem inertiale Messungseinheit(IMU)-Sensor; und wobei das Fusionieren der Sensordaten und der anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahn ein Fusionieren der Sensordaten, der anderen Sensordaten und der weiteren Sensordaten zu einer Fahrbahnansicht der Fahrbahn umfasst.
- Fahrzeug, wobei das Fahrzeug Folgendes umfasst: eine Kamera, die konfiguriert ist, eine Fahrbahnumgebung innerhalb einer bestimmten Entfernungsgrenze von dem Fahrzeug zu erfassen, wobei die Kamera ein Sichtfeld aufweist; eine andere Kamera, die konfiguriert ist, die Fahrbahnumgebung jenseits der bestimmten Entfernungsgrenze zu erfassen, wobei die andere Kamera ein anderes Sichtfeld aufweist, wobei das andere Sichtfeld schmäler als das Sichtfeld ist; Fahrzeugbetriebskomponenten zum Betreiben des Fahrzeugs; Fahrzeugsteuersysteme, die das Fahrzeug durch Steuern der Fahrzeugbetriebskomponenten autonom betreiben; einen oder mehrere Prozessoren; einen Systemspeicher, der an den einen oder die mehreren Prozessoren gekoppelt ist, wobei der Systemspeicher Anweisungen speichert, die von dem einen oder den mehreren Prozessoren ausführbar sind; wobei der eine oder die mehreren Prozessoren konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um Fahrbahnbedingungen in der Fahrbahnumgebung aus den fusionierten Sensordaten wahrzunehmen, einschließlich der folgenden: Sensordaten von der Kamera zu empfangen, wobei die Sensordaten von zwischen dem Fahrzeug und der bestimmten Entfernungsgrenze innerhalb des Sichtfelds für die Kamera erfasst werden; andere Sensordaten von der anderen Kamera zu empfangen, wobei die anderen Sensordaten von jenseits der Entfernungsgrenze innerhalb des anderen Sichtfelds erfasst werden; die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren; und die Fahrbahnansicht an die Fahrzeugsteuersysteme zu senden, so dass das Fahrzeugsteuersystem die Konfiguration der Fahrzeugbetriebskomponenten auf Grundlage der Fahrbahnansicht einstellen können.
- Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten von der Kamera zu empfangen, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten von der Kamera zu empfangen, wobei die RGB-IR-Bilddaten IR-Pixelinformationen beinhalten; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die IR-Pixelinformationen aufgrund dessen, dass das Fahrzeug in einer Umgebung mit verringertem Licht betrieben wird, mit den anderen Sensordaten zu einer Fahrbahnansicht zu fusionieren.
- Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um andere Sensordaten von der anderen Kamera zu empfangen, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um eine Angabe von nachverfolgten Objekten innerhalb des anderen Sichtfelds zu empfangen, wobei die nachverfolgten Objekte aus einer dreidimensionalen Punktwolke verarbeitet werden, die erzeugt wird, wenn sich die andere Kamera in einem Lasermodus befindet; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um andere Sensordaten von der anderen Kamera zu empfangen, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten von der anderen Kamera zu empfangen, wobei die Bilddaten erzeugt werden, wenn sich die andere Kamera in einem Kameramodus befindet.
- Fahrzeug nach Anspruch 7, ferner umfassend eine zusätzliche Kamera, die konfiguriert ist, um die Fahrbahnumgebung innerhalb der bestimmten Entfernungsgrenze vom Fahrzeug zu erfassen, wobei die weitere Kamera ein weiteres Sichtfeld aufweist, wobei das weitere Sichtfeld im Wesentlichen die gleiche Größe wie das Sichtfeld aufweist; ferner umfassend den einen oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um zusätzliche Sensordaten von der zusätzlichen Kamera zu empfangen, wobei die zusätzlichen Sensordaten von zwischen dem Fahrzeug und der bestimmten Entfernungsgrenze innerhalb des weiteren Sichtfelds für die weitere Kamera erfasst werden; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten, die anderen Sensordaten und die weiteren Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren.
- Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht zu fusionieren, die ein oder mehrere Objekte beinhaltet, ausgewählt aus Folgenden: Fahrbahnmarkierungen, Fahrräder, Fußgänger, andere Fahrzeuge und Schilder.
- Fahrzeug nach Anspruch 7, ferner umfassend einen oder mehrere weitere Sensoren, wobei jeder der einen oder mehreren weiteren Sensoren ausgewählt ist aus: einem Radarsensor, einem Ultraschallsensor, einem globalen Positionierungssystem(GPS)-Sensor und einem inertiale Messungseinheit(IMU)-Sensor; ferner umfassend den einen oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um weitere Sensordaten von dem einen oder den mehreren weiteren Sensoren zu empfangen; und wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten und die anderen Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Sensordaten, die anderen Sensordaten und die weiteren Sensordaten zu einer Fahrbahnansicht der Fahrbahnumgebung zu fusionieren.
- Fahrzeug nach Anspruch 7, wobei der eine oder die mehreren Prozessoren, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Fahrbahnansicht an die Fahrzeugsteuersysteme zu senden, den einen oder die mehreren Prozessoren umfassen, die konfiguriert sind, um die im Systemspeicher gespeicherten Anweisungen auszuführen, um die Fahrbahnansicht an die Fahrzeugsteuersysteme zu senden, so dass die Fahrzeugsteuersysteme eines der folgenden auf der Fahrbahn autonom durchführen können: Beschleunigen des Fahrzeugs, Verlangsamen des Fahrzeugs, Gänge des Fahrzeugs wechseln, oder Wenden des Fahrzeugs auf der Fahrbahn.
- Verfahren zur Verwendung an einem Fahrzeug, wobei das Verfahren zum Wahrnehmen von Fahrbahnbedingungen in einer Fahrbahnumgebung aus fusionierten Sensordaten dient, wobei das Verfahren Folgendes umfasst: für jede einer Vielzahl von Kameras, die am Fahrzeug angebracht ist, Empfangen von Sensordaten von der Kamera, wobei jede der einen oder mehreren Kameras ein Sichtfeld aufweist, wobei die Sensordaten von zwischen dem Fahrzeug und einer bestimmten Entfernungsgrenze entfernt vom Fahrzeug innerhalb des Sichtfelds für die Kamera erfasst werden; für eine andere Kamera, die am Fahrzeug angebracht ist, Empfangen anderer Sensordaten von der anderen Kamera, wobei die andere Kamera ein anderes Sichtfeld aufweist, wobei das andere Sichtfeld schmäler als das Sichtfeld ist, wobei die anderen Sensordaten von jenseits der bestimmten Entfernungsgrenze innerhalb des anderen Sichtfelds erfasst werden; Fusionieren der Sensordaten von jeder der einen oder mehreren Kameras und dem anderen Sensor zu einer Fahrbahnansicht der Fahrbahnumgebung; und Senden der Fahrbahnansicht an Fahrzeugsteuerkomponenten, so dass die Fahrzeugsteuerkomponenten die Konfiguration von Fahrzeugbetriebskomponenten auf Grundlage der Fahrbahnansicht einstellen können, wobei die Fahrzeugsteuersysteme das Fahrzeug durch Steuern der Fahrzeugbetriebskomponenten autonom betreibt.
- Verfahren nach Anspruch 14, wobei das Empfangen von Sensordaten von der Kamera für jede einer Vielzahl von Kameras, die am Fahrzeug angebracht ist, ein Empfangen von Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten von der Kamera für jede der Vielzahl von Kameras umfasst; und wobei, für eine andere am Fahrzeug angebrachte Kamera, das Empfangen anderer Sensordaten von der anderen Kamera ein Empfangen einer Angabe von nachverfolgten Objekten innerhalb des anderen Sichtfelds umfasst, wobei die nachverfolgten Objekte aus einer dreidimensionalen Punktwolke verarbeitet werden, die erzeugt wird, wenn sich die andere Kamera in einem Lasermodus befindet; und wobei das Fusionieren der Sensordaten von jeder der einen oder mehreren Kameras und dem anderen Sensor zu einer Fahrbahnansicht ein Fusionieren der Rot-Grün-Blau-Infrarot(RGB-IR)-Bilddaten mit der Angabe der nachverfolgten Objekte zu der Fahrbahnansicht umfasst.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/259,513 | 2016-09-08 | ||
US15/259,513 US10394237B2 (en) | 2016-09-08 | 2016-09-08 | Perceiving roadway conditions from fused sensor data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017120498A1 true DE102017120498A1 (de) | 2018-03-08 |
Family
ID=60050709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017120498.9A Pending DE102017120498A1 (de) | 2016-09-08 | 2017-09-06 | Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten |
Country Status (6)
Country | Link |
---|---|
US (1) | US10394237B2 (de) |
CN (1) | CN107807632B (de) |
DE (1) | DE102017120498A1 (de) |
GB (1) | GB2555923A (de) |
MX (1) | MX2017011428A (de) |
RU (1) | RU2017131047A (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018205965A1 (de) | 2018-04-19 | 2019-10-24 | Zf Friedrichshafen Ag | Verfahren und Steuergerät zum Kennzeichnen einer Person |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10600199B2 (en) * | 2017-06-27 | 2020-03-24 | Toyota Research Institute, Inc. | Extending object detection and identification capability for an object sensor device |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US10678234B2 (en) * | 2017-08-24 | 2020-06-09 | Tusimple, Inc. | System and method for autonomous vehicle control to minimize energy cost |
US10785400B2 (en) * | 2017-10-09 | 2020-09-22 | Stmicroelectronics (Research & Development) Limited | Multiple fields of view time of flight sensor |
EP3737968A1 (de) | 2018-01-11 | 2020-11-18 | Apple Inc. | Architektur für fahrzeugautomatisierung und betriebssicherungsautomatisierung |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11435752B2 (en) * | 2018-03-23 | 2022-09-06 | Motional Ad Llc | Data fusion system for a vehicle equipped with unsynchronized perception sensors |
CN108414973B (zh) * | 2018-05-08 | 2020-03-13 | 中国人民解放军战略支援部队信息工程大学 | 一种基于神经网络计算的多目标直接定位方法 |
US10930001B2 (en) | 2018-05-29 | 2021-02-23 | Zebra Technologies Corporation | Data capture system and method for object dimensioning |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
DE102018210812A1 (de) * | 2018-06-30 | 2020-01-02 | Robert Bosch Gmbh | Verfahren zu einer sensor- und speicherbasierten Darstellung einer Umgebung, Anzeigevorrichtung und Fahrzeug mit der Anzeigevorrichtung |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US10611372B2 (en) * | 2018-09-06 | 2020-04-07 | Zebra Technologies Corporation | Dual-mode data capture system for collision detection and object dimensioning |
US10985203B2 (en) * | 2018-10-10 | 2021-04-20 | Sensors Unlimited, Inc. | Sensors for simultaneous passive imaging and range finding |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11061406B2 (en) * | 2018-10-22 | 2021-07-13 | Waymo Llc | Object action classification for autonomous vehicles |
US20200132832A1 (en) * | 2018-10-25 | 2020-04-30 | TransRobotics, Inc. | Technologies for opportunistic synthetic aperture radar |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11018974B1 (en) * | 2018-11-16 | 2021-05-25 | Zoox, Inc. | Context based bandwidth switching |
US20200167573A1 (en) * | 2018-11-27 | 2020-05-28 | GM Global Technology Operations LLC | Method and apparatus for object detection in camera blind zones |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
CN111435450A (zh) * | 2019-01-11 | 2020-07-21 | 阿里巴巴集团控股有限公司 | 一种道路数据处理方法及其装置 |
CN109917413B (zh) * | 2019-01-21 | 2021-07-06 | 苏州雷泰医疗科技有限公司 | 一种智能转移床的精确导航定位方法 |
US10627823B1 (en) * | 2019-01-30 | 2020-04-21 | StradVision, Inc. | Method and device for performing multiple agent sensor fusion in cooperative driving based on reinforcement learning |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
DE102019102923B4 (de) * | 2019-02-06 | 2022-12-01 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
EP3716140A1 (de) * | 2019-03-27 | 2020-09-30 | Elektrobit Automotive GmbH | Verarbeitung von umgebungsdaten einer umgebung eines fahrzeugs |
EP3719532B1 (de) | 2019-04-04 | 2022-12-28 | Transrobotics, Inc. | Technologien zum handeln auf basis von objektverfolgung |
CN110422173B (zh) * | 2019-07-11 | 2021-01-15 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种行车环境识别方法 |
CN111246186A (zh) * | 2020-01-21 | 2020-06-05 | 重庆金康新能源汽车有限公司 | 车载摄像机系统及方法 |
CN111401446A (zh) * | 2020-03-16 | 2020-07-10 | 重庆长安汽车股份有限公司 | 单传感器、多传感器车道线合理性检测方法、系统及车辆 |
CN113498011B (zh) * | 2020-03-19 | 2023-08-15 | 中移(上海)信息通信科技有限公司 | 车联网方法、装置、设备、存储介质及系统 |
JP7207366B2 (ja) * | 2020-05-19 | 2023-01-18 | トヨタ自動車株式会社 | 車載表示システム |
US11823458B2 (en) | 2020-06-18 | 2023-11-21 | Embedtek, LLC | Object detection and tracking system |
US11654932B2 (en) * | 2020-12-28 | 2023-05-23 | Waymo Llc | Architecture for variable motion control envelope |
CN112925310B (zh) * | 2021-01-22 | 2023-08-08 | 广州大学 | 一种智能除虫系统的控制方法、装置、设备及存储介质 |
WO2022182653A1 (en) * | 2021-02-23 | 2022-09-01 | Neural Propulsion Systems, Inc. | Lidar systems and methods with improved eye safety cross-reference to reuated appuications |
CN113071498B (zh) * | 2021-06-07 | 2021-09-21 | 新石器慧通(北京)科技有限公司 | 车辆控制方法、装置、系统、计算机设备及存储介质 |
US11722789B1 (en) | 2022-02-01 | 2023-08-08 | Ford Global Technologies, Llc | Multi-camera imaging system selecting between visible and infrared views in a vehicle |
WO2023192272A1 (en) * | 2022-03-28 | 2023-10-05 | Seegrid Corporation | A hybrid, context-aware localization system for ground vehicles |
DE102022113274A1 (de) * | 2022-05-25 | 2023-11-30 | Valeo Schalter Und Sensoren Gmbh | Infrastrukturvorrichtung zur Führung eines Fahrzeugs |
WO2024025421A1 (en) * | 2022-07-29 | 2024-02-01 | Kongsberg Maritime As | Multi-sensor and related aspects |
WO2024063860A1 (en) * | 2022-09-23 | 2024-03-28 | Apple Inc. | Data selection |
CN116071400B (zh) * | 2023-04-06 | 2023-07-18 | 浙江光珀智能科技有限公司 | 一种基于激光雷达设备的目标轨迹跟踪方法 |
CN117163071B (zh) * | 2023-11-03 | 2024-03-05 | 安徽蔚来智驾科技有限公司 | 车辆控制方法、控制装置、可读存储介质及车辆 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3298851B2 (ja) * | 1999-08-18 | 2002-07-08 | 松下電器産業株式会社 | 多機能車載カメラシステムと多機能車載カメラの画像表示方法 |
WO2005072358A2 (en) | 2004-01-28 | 2005-08-11 | Canesta, Inc. | Single chip red, green, blue, distance (rgb-z) sensor |
US8050863B2 (en) * | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
US8139109B2 (en) * | 2006-06-19 | 2012-03-20 | Oshkosh Corporation | Vision system for an autonomous vehicle |
WO2009046268A1 (en) | 2007-10-04 | 2009-04-09 | Magna Electronics | Combined rgb and ir imaging sensor |
US8576286B1 (en) * | 2010-04-13 | 2013-11-05 | General Dynamics Armament And Technical Products, Inc. | Display system |
CN101975951B (zh) * | 2010-06-09 | 2013-03-20 | 北京理工大学 | 一种融合距离和图像信息的野外环境障碍检测方法 |
US8648702B2 (en) | 2010-08-20 | 2014-02-11 | Denso International America, Inc. | Combined time-of-flight and image sensor systems |
US20120056988A1 (en) | 2010-09-07 | 2012-03-08 | David Stanhill | 3-d camera |
CN101950426B (zh) * | 2010-09-29 | 2014-01-01 | 北京航空航天大学 | 一种多摄像机场景下车辆接力跟踪方法 |
US8983717B2 (en) * | 2010-12-21 | 2015-03-17 | Ford Global Technologies, Llc | Vehicle camera system operable in off-road mode and method |
CN202130447U (zh) * | 2011-05-31 | 2012-02-01 | 德尔福电子(苏州)有限公司 | 一种新型的车道线偏离检测装置 |
CN102303605A (zh) * | 2011-06-30 | 2012-01-04 | 中国汽车技术研究中心 | 基于多传感器信息融合的碰撞及偏离预警装置及预警方法 |
CN102389361B (zh) * | 2011-07-18 | 2014-06-25 | 浙江大学 | 一种基于计算机视觉的盲人户外支援系统 |
TW201305794A (zh) * | 2011-07-27 | 2013-02-01 | Hon Hai Prec Ind Co Ltd | 電子裝置 |
US9069075B2 (en) | 2012-02-10 | 2015-06-30 | GM Global Technology Operations LLC | Coupled range and intensity imaging for motion estimation |
US10609335B2 (en) * | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
CN102944224B (zh) * | 2012-11-09 | 2014-08-27 | 大连理工大学 | 一种无人驾驶车的自动环境感知系统的工作方法 |
US9296301B2 (en) * | 2012-11-24 | 2016-03-29 | Ford Global Technologies, Llc | Environment-aware regenerative braking energy calculation method |
US9525818B2 (en) * | 2013-07-29 | 2016-12-20 | Adobe Systems Incorporated | Automatic tuning of images based on metadata |
WO2015056105A1 (en) | 2013-10-14 | 2015-04-23 | Mobileye Vision Technologies Ltd. | Forward-facing multi-imaging system for navigating a vehicle |
US9507345B2 (en) * | 2014-04-10 | 2016-11-29 | Nissan North America, Inc. | Vehicle control system and method |
CA2916062C (en) | 2014-04-18 | 2020-08-11 | Cnh Industrial America Llc | Stereo vision for sensing vehicles operating environment |
CN105404844B (zh) * | 2014-09-12 | 2019-05-31 | 广州汽车集团股份有限公司 | 一种基于多线激光雷达的道路边界检测方法 |
US10127463B2 (en) | 2014-11-21 | 2018-11-13 | Magna Electronics Inc. | Vehicle vision system with multiple cameras |
-
2016
- 2016-09-08 US US15/259,513 patent/US10394237B2/en active Active
-
2017
- 2017-08-31 GB GB1713958.5A patent/GB2555923A/en not_active Withdrawn
- 2017-09-01 CN CN201710780210.0A patent/CN107807632B/zh active Active
- 2017-09-04 RU RU2017131047A patent/RU2017131047A/ru not_active Application Discontinuation
- 2017-09-06 MX MX2017011428A patent/MX2017011428A/es unknown
- 2017-09-06 DE DE102017120498.9A patent/DE102017120498A1/de active Pending
Non-Patent Citations (1)
Title |
---|
IEEE-1394-Bus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018205965A1 (de) | 2018-04-19 | 2019-10-24 | Zf Friedrichshafen Ag | Verfahren und Steuergerät zum Kennzeichnen einer Person |
WO2019201537A1 (de) | 2018-04-19 | 2019-10-24 | Zf Friedrichshafen Ag | Verfahren und steuergerät zum kennzeichnen einer person |
Also Published As
Publication number | Publication date |
---|---|
GB2555923A (en) | 2018-05-16 |
US10394237B2 (en) | 2019-08-27 |
CN107807632B (zh) | 2022-05-31 |
CN107807632A (zh) | 2018-03-16 |
US20180067487A1 (en) | 2018-03-08 |
MX2017011428A (es) | 2018-09-21 |
RU2017131047A (ru) | 2019-03-04 |
GB201713958D0 (en) | 2017-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017120498A1 (de) | Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten | |
DE102018102285A1 (de) | System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs | |
DE102020110458A1 (de) | Fahrzeugpfadvorhersage | |
DE102017105903A1 (de) | Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera | |
DE102017115318A1 (de) | Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität | |
DE102017107626A1 (de) | Detektion verfügbarer parkstellflächen | |
DE102016114535A1 (de) | Wegbestimmung für automatisierte Fahrzeuge | |
DE112019000279T5 (de) | Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten | |
DE102020114916A1 (de) | Systeme und verfahren zum reduzieren von flimmerartefakten in bildlichtquellen | |
DE102018101318A1 (de) | Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung | |
DE102018101220A1 (de) | Zeichenerkennung für autonome fahrzeuge | |
DE102017120709A1 (de) | Gegenstandsabstandsschätzung unter verwendung von daten von einer einzigen kamera | |
DE102017123180A1 (de) | Rückwertige Hinderniserkennung und Abstandsschätzung | |
DE112017007050T5 (de) | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm | |
DE112017000643T5 (de) | Detektion eines teilweise verdeckten Objekts unter Verwendung von Kontext und Tiefenordnung | |
DE102019115455A1 (de) | Fokus-basiertes markieren von sensordaten | |
EP2289044B1 (de) | Bilddatenvisualisierung | |
DE112018003986T5 (de) | Steuervorrichtung, steuerverfahren, programm und mobileinheit | |
DE112018004507T5 (de) | Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm | |
DE102017122867A1 (de) | Vorrichtung und Verfahren zum Leiten von Fahrinformationen und diese aufweisendes Fahrzeugsystem | |
DE112019004488B4 (de) | Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung | |
DE112018005910T5 (de) | Steuervorrichtung und steuerverfahren, programm und mobiler körper | |
DE112016006213T5 (de) | System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen | |
DE102019122020A1 (de) | Anhängerkupplungsassistenzsystem | |
DE102017120845A1 (de) | Verfahren und Systeme zur adaptiven On-Demand-Infrarot-Fahrspurerkennung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE |
|
R012 | Request for examination validly filed |