DE112017006530T5 - Rückmeldung für ein autonomes fahrzeug - Google Patents
Rückmeldung für ein autonomes fahrzeug Download PDFInfo
- Publication number
- DE112017006530T5 DE112017006530T5 DE112017006530.5T DE112017006530T DE112017006530T5 DE 112017006530 T5 DE112017006530 T5 DE 112017006530T5 DE 112017006530 T DE112017006530 T DE 112017006530T DE 112017006530 T5 DE112017006530 T5 DE 112017006530T5
- Authority
- DE
- Germany
- Prior art keywords
- inputs
- autonomous vehicle
- receiving
- control logic
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000009471 action Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0013—Planning or execution of driving tasks specially adapted for occupant comfort
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/02—Control of vehicle driving stability
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0953—Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18145—Cornering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/10—Interpretation of driver requests or demands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0025—Planning or execution of driving tasks specially adapted for specific operations
- B60W60/00253—Taxi operations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/0083—Setting, resetting, calibration
- B60W2050/0088—Adaptive recalibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/215—Selection or confirmation of options
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/30—Data update rate
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2756/00—Output or target parameters relating to data
- B60W2756/10—Involving external transmission of data to or from the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Eine Steuerung empfängt Sensordaten während einer Fahrt und stellt sie an ein Serversystem bereit. Ein Insasse stellt ferner Rückmeldung zur Fahrt in der Form von einigen oder allen von einer Gesamtbewertung, Markierung von Fahrtanomalien und Markierung von Straßenanomalien bereit. Die Sensordaten und die Rückmeldung werden in einen Trainingsalgorithmus eingegeben, wie etwa einen bestärkenden Deep-Learning-Algorithmus, der ein Künstliche-Intelligenz(AI)-Modell aktualisiert. Das aktualisierte Modell wird dann an Steuerungen von einem oder mehreren autonomen Fahrzeugen verteilt, die dann autonome Navigation und Zusammenstoßvermeidung unter Verwendung des aktualisierten AI-Modells durchführen.
Description
- GEBIET DER ERFINDUNG
- Die Erfindung betrifft das Betreiben eines autonomen Fahrzeugs.
- ALLGEMEINER STAND DER TECHNIK
- Autonome Fahrzeuge werden immer relevanter und werden täglich genutzt. In einem autonomen Fahrzeugs greift eine Steuerung auf Sensoren zurück, um Hindernisse und Straßenoberflächen in der Umgebung zu erfassen. Die Steuerung implementiert Logik, die das Steuern von Lenkung, Bremsen und Beschleunigen ermöglicht, um ein Ziel zu erreichen und Zusammenstöße zu vermeiden.
- Das System und das Verfahren, die hierin offenbart sind, stellen einen verbesserten Ansatz zum Implementieren der Steuerlogik für ein autonomes Fahrzeugs bereit.
- Figurenliste
- Zum leichteren Verständnis der Vorteile der Erfindung erfolgt eine ausführlichere Beschreibung der oben kurz beschriebenen Erfindung unter Bezugnahme auf spezifische Ausführungsformen, die in den beigefügten Zeichnungen dargestellt sind. Mit dem Verständnis, dass diese Zeichnungen nur typische Ausführungsformen der Erfindung darstellen und daher nicht als ihren Umfang einschränkend zu betrachten sind, wird die Erfindung mit weiteren Einzelheiten und Details anhand der begleitenden Zeichnungen beschrieben, in denen gilt:
-
1 ist ein schematisches Blockdiagramm von Komponenten, die ein System gemäß einer Ausführungsform der vorliegenden Offenbarung implementieren; -
2 ist ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung, die zum Implementieren von Verfahren gemäß Ausführungsformen der Erfindung geeignet ist; -
3 ist ein Prozessablaufdiagramm eines Verfahrens zum Aktualisieren von Steuerlogik auf Grundlage von Insassenrückmeldung gemäß Ausführungsformen der Erfindung; -
4 stellt eine Schnittstelle zum Empfangen von Insassenrückmeldung gemäß einer Ausführungsform der vorliegenden Offenbarung dar. - AUSFÜHRLICHE BESCHREIBUNG
- Bezug nehmend auf
1 können die hierin offenbarten Verfahren unter Verwendung des dargestellten Systems100 durchgeführt werden. Wie hierin ausführlicher erörtert, kann eine Steuerung102 autonome Navigation und Zusammenstoßvermeidung für ein Fahrzeug durchführen, in dem die Steuerung102 aufgenommen ist. Das Fahrzeug kann alle Strukturen und Merkmale eines beliebigen im Stand der Technik bekannten Fahrzeugs aufweisen, darunter Räder, einen Antriebsstrang, der an die Räder gekoppelt ist, einen Motor, der an den Antriebsstrang gekoppelt ist, ein Lenksystem, ein Bremssystem und andere Systeme, von denen im Stand der Technik bekannt sind, dass ein Fahrzeug sie beinhaltet. - Die Steuerung
102 kann eine oder mehrere Eingaben von einem oder mehreren äußeren Sensoren104 empfangen. Beispielsweise können eine oder mehrere Kameras106a am Fahrzeug100 angebracht sein und Bildstreams an die Steuerung102 ausgeben. Die äußeren Sensoren104 können Sensoren wie etwa einen Ultraschallsensor106b , einen RADAR(Radio Detection and Ranging)-Sensor 106c, einen LIDAR (Light Detection and Ranging)-Sensor 106d, einen SONAR (Sound Navigation and Ranging)-Sensor 106e und dergleichen beinhalten. - Die Steuerung
102 kann ein Modul108 für autonomen Betrieb ausführen, das Ausgaben der äußeren Sensoren104 empfängt. Das Modul108 für autonomen Betrieb kann ein Hindernisidentifikationsmodul110a , ein Zusammenstoßvorhersagemodul110b und ein Entscheidungsmodul110c beinhalten. Das Hindernisidentifikationsmodul110a analysiert die Ausgaben der äußeren Sensoren und identifiziert mögliche Hindernisse einschließlich Menschen, Tieren, Fahrzeugen, Gebäuden, Bordsteinen und anderen Objekten oder Strukturen. Insbesondere kann das Hindernisidentifikationsmodul110a Fahrzeugbilder in den Sensorausgaben identifizieren. - Das Zusammenstoßvorhersagemodul
110b sagt vorher, welches Hindernis mit dem Fahrzeug100 auf Grundlage seiner aktuellen Trajektorie oder seines aktuellen vorgesehenen Wegs mit Wahrscheinlichkeit zusammenstoßen kann. Das Zusammenstoßvorhersagemodul110b kann die Wahrscheinlichkeit des Zusammenstoßes mit Objekten beurteilen, die vom Hindernisidentifikationsmodul110a identifiziert werden. Das Entscheidungsmodul110c kann eine Entscheidung treffen, anzuhalten, zu beschleunigen, abzubiegen usw., um Hindernisse zu vermeiden. Die Art und Weise, wie das Zusammenstoßvorhersagemodul110b mögliche Zusammenstöße vorhersagt, und die Art und Weise, wie das Entscheidungsmodul110c Maßnahmen ergreift, um einen möglichen Zusammenstoß zu vermeiden, kann gemäß einem beliebigen Verfahren oder System erfolgen, das auf dem Gebiet der autonomen Fahrzeuge bekannt ist. - Das Entscheidungsmodul
110c kann die Trajektorie des Fahrzeugs steuern, um zu einem gewünschten Ziel zu navigieren und dabei Hindernisse zu vermeiden. Beispielsweise kann das Entscheidungsmodul110c einen oder mehrere Aktoren112 aktivieren, die die Richtung und Geschwindigkeit des Fahrzeugs100 steuern. Beispielsweise können die Aktoren112 einen Lenkaktor114a , einen Beschleunigungsaktor114b und einen Bremsaktor114c beinhalten. Die Konfiguration der Aktoren114a -114c kann gemäß einer beliebigen Implementierung solcher Aktoren erfolgen, die auf dem Gebiet der autonomen Fahrzeuge bekannt ist. - In Ausführungsformen können die oben beschriebenen Funktionsweisen von einigen oder allen von dem Hindernisidentifikationsmodul
110a , dem Zusammenstoßvorhersagemodul110b und dem Entscheidungsmodul110c durch ein Künstliche-Intelligenz(artificial intelligence -AI)-Modell 116 implementiert werden. Bei dem AI-Modell116 kann es sich um ein Modell für maschinelles Lernen wie etwa ein neuronales Deep-Learning-Netz (deep neural network - DNN), ein Bayes'sches Maschinenlernmodell oder dergleichen handeln. In einigen Ausführungsform kann der von GOOGLE bereitgestellte bestärkende Deep-Learning-Algorithmus zum Erzeugen des AI-Modells116 verwendet werden. - Die Steuerung
102 kann mit einem Serversystem118 in Datenkommunikationsverbindung stehen. Beispielsweise kann die Steuerung102 über ein Netz122 wie etwa einem lokalen Netz (local area network - LAN), Weitverkehrsnetz (wide area network - WAN), dem Internet oder einer beliebigen anderen drahtlosen oder drahtgebundenen Netzverbindung mit einem oder mehreren Mobilfunkmasten120 in Datenkommunikationsverbindung stehen, die mit dem Serversystem118 in Datenkommunikationsverbindung stehen. - Das Serversystem
118 kann eine Datenbank124 enthalten oder darauf zugreifen. Die Datenbank124 kann Fahrtberichte126 speichern. Die Fahrtberichte126 können Benutzerrückmeldung128a beinhalten. Die Rückmeldung128a kann Rückmeldung sein, die von einem Insassen während oder nach einer Fahrt empfangen wird, wie unten beschrieben. - Beispielsweise kann das Modul
108 für autonomen Betrieb ein Rückmeldungsmodul110d beinhalten, über das der Insasse Rückmeldung bereitstellt, wie gemäß dem unten beschriebenen Verfahren beschrieben. Die Fahrtberichte126 können ferner Sensordaten128b für jede Fahrt beinhalten, wie etwa einige oder alle Sensordaten für einige oder alle äußeren Sensoren104 . - Wie nachstehend beschrieben, kann ein Benutzer Rückmeldung mittels einer mobilen Vorrichtung
130 wie etwa einem Mobiltelefon, einem Tabletcomputer am Körper tragbaren Computer bereitstellen. Die hierin der mobilen Vorrichtung130 zugeschriebenen Funktionen können auch von einem Desktop- oder Laptopcomputer oder einer beliebigen anderen Art von Rechenvorrichtung durchgeführt werden. In einigen Ausführungsformen kann die mobile Vorrichtung130 mittels der Steuerung102 oder einer anderen zwischengeschalteten Rechenvorrichtung direkt mit dem Server118 kommunizieren. - Wie nachstehend ausführlicher beschrieben, kann die Datenbank
124 auch eine Version des AI-Modells116 beinhalten. Das AI-Modell116 kann vom Serversystem118 in Reaktion auf die Fahrtberichte126 aktualisiert werden, wie unten beschrieben. Das aktualisierte AI-Modell116 kann an die Steuerungen102 von einem oder mehreren Fahrzeugen übertragen werden, um frühere Versionen des AI-Modells116 zu ersetzen, auf die die Steuerungen zugreifen. -
2 ist ein Blockschaubild, das eine beispielhafte Rechenvorrichtung200 darstellt. Die Rechenvorrichtung200 kann zum Durchführen verschiedener Abläufe verwendet werden, wie etwa den hierin erörterten. Die Steuerung102 , das Serversystem118 und die mobile Vorrichtung130 können einige oder alle Attribute der Rechenvorrichtung200 aufweisen. - Die Rechenvorrichtung
200 beinhaltet einen oder mehrere Prozessoren202 , eine oder mehrere Vorrichtungen204 , eine oder mehrere Schnittstellen206 , eine oder mehrere Massenspeichervorrichtungen208 , eine oder mehrere Eingabe/Ausgabe(Input/Output -I/O)-Vorrichtungen 210 und eine Anzeigevorrichtung230 , die alle an einen Bus212 gekoppelt sind. Der oder die Prozessoren202 beinhalten einen oder mehrere Prozessoren oder eine oder mehrere Steuerungen, die Anweisungen ausführen, die in einer oder mehreren Speichervorrichtungen204 und/oder Massenspeichervorrichtungen208 gespeichert sind. Der oder die Prozessoren202 können auch verschiedene Arten von computerlesbaren Medien wie etwa Cache-Speicher beinhalten. - Die eine oder die mehreren Speichervorrichtungen
204 beinhalten verschiedene computerlesbare Medien wie etwa flüchtigen Speicher (z. B. Direktzugriffsspeicher (random access memory - RAM)214 ) und/oder nicht flüchtigen Speicher (z. B. Nurlesespeicher (readonly memory - ROM)216 ). Die eine oder die mehreren Speichervorrichtungen204 können auch wieder beschreibbaren ROM wie etwa Flash-Speicher beinhalten. - Die eine oder die mehreren Massenspeichervorrichtungen
208 beinhalten verschiedene computerlesbare Medien wie etwa Magnetband, optische Disks, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in2 gezeigt, ist eine bestimmte Massenspeichervorrichtung ein Festplattenlaufwerk224 . In der oder den Massenspeichervorrichtungen208 können verschiedene Laufwerke enthalten sein, um das Lesen oder Beschreiben der verschiedenen computerlesbaren Medien zu ermöglichen. Die eine oder die mehreren Massenspeichervorrichtungen208 beinhalten Wechselmedien226 und/oder nicht wechselbare Medien. - Die eine oder die mehreren I/O-Vorrichtungen
210 beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder Informationen in die Rechenvorrichtung200 eingegeben oder daraus abgerufen werden. Zu beispielhaften I/O-Vorrichtungen210 gehören Cursor-Steuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Linsen, CCDs oder andere Bildaufnahmevorrichtungen und dergleichen. - Die Anzeigevorrichtung
230 beinhaltet eine beliebige Art von Vorrichtung, die Informationen an einen oder mehrere Benutzer der Rechenvorrichtung200 anzeigen kann. Beispiele der Anzeigevorrichtung230 beinhalten einen Monitor, ein Display, eine Videoprojektionsvorrichtung und dergleichen. - Die eine oder die mehreren Schnittstellen
206 beinhalten verschiedene Schnittstellen, mit denen die Rechenvorrichtung200 mit anderen Systemen, Vorrichtungen oder Rechenumgebungen interagieren kann. Beispielhafte Schnittstellen206 beinhalten eine beliebige Anzahl von Netzschnittstellen220 , etwa Schnittstellen zu lokalen Netzen (LANs), Weitverkehrsnetzen (WANs), drahtlosen Netzen und dem Internet. Eine oder mehrere andere Schnittstellen beinhalten eine Benutzerschnittstelle218 und eine Peripheriegeräteschnittstelle222 . Die eine oder die mehreren Schnittstellen206 können auch eine oder mehrere Peripheriegeräteschnittstellen beinhalten, wie etwa Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Trackpad usw.), Tastaturen und dergleichen. - Der Bus
212 ermöglicht es dem oder den Prozessoren202 , der oder den Speichervorrichtungen204 , der oder den Schnittstellen206 , der oder den Massenspeichervorrichtungen208 , der oder den I/O-Vorrichtungen 210 und der Anzeigevorrichtung230 , miteinander sowie mit anderen Vorrichtungen oder Komponenten zu kommunizieren, die an den Bus212 gekoppelt sind. Der Bus212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE -1394-Bus, USB-Bus und so weiter. - Zu Darstellungszwecken sind Programme und andere ausführbare Programmkomponenten hier als separate Blöcke gezeigt, doch versteht es sich, dass diese Programme und Komponenten zu unterschiedlichen Zeiten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung
200 residieren können und von dem oder den Prozessoren202 ausgeführt werden können. Alternativ können die hierin beschriebenen Systeme und Verfahrensweisen in Hardware oder einer Kombination aus Hardware, Software und/oder Firmware implementiert sein. Beispielsweise können eine oder mehrere anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs) dazu programmiert sein, die hierin beschriebenen Systeme und Verfahrensweisen auszuführen. - Bezug nehmend auf
3 kann das dargestellte Verfahren300 von dem Serversystem118 in Zusammenwirkung mit einer mobilen Vorrichtung130 eines Insassen und der Steuerung102 eines autonomen Fahrzeugs ausgeführt werden, in dem der Insasse fährt oder gefahren ist. - Das Verfahren
300 kann das Präsentieren302 einer Schnittstelle an den Kunden der mobilen Vorrichtung130 zum Empfangen von Rückmeldung vom Insassen zur Fahrt beinhalten. Die Daten zum Befüllen der Schnittstelle können vom Serversystem118 an die mobile Vorrichtung130 übertragen werden. Beispielsweise kann die Steuerung102 Daten für eine Fahrt an das Serversystem118 oder direkt an die mobile Vorrichtung130 übertragen. Die Daten für die Fahrt können die gefahrene Route und ein oder mehrere Fahrzeugsignale wie etwa Signale beinhalten, die während der Fahrt von den äußeren Sensoren104 abgeleitet werden. - Die Steuerung
102 oder das Serversystem118 kann die Schnittstelle weiter definieren und an die mobile Vorrichtung130 zur Anzeige bereitstellen, wie etwa in der Form einer Webseite. Alternativ kann die Steuerung102 oder das Serversystem118 Daten, die die Schnittstelle definieren, an eine Anwendung bereitstellen, die auf der mobilen Vorrichtung130 ausgeführt wird, die dann die Schnittstelle auf der mobilen Vorrichtung130 darstellt. - In noch einer anderen Ausführungsform werden die Daten zum Definieren der Schnittstelle von der Steuerung
102 direkt an die mobile Vorrichtung130 bereitgestellt, wie etwa über eine drahtlose Netzverbindung. -
4 stellt eine beispielhafte Schnittstelle dar. Die Schnittstelle kann eine Karte400 beinhalten, die Straßen, Orientierungspunkte, Kennzeichnungen von Straßen und Orientierungspunkten und beliebige andere Informationen darstellt, die in einer im Stand der Technik bekannten Karte enthalten sind. Die Karte kann über ein Satellitenbild der Region gelegt werden, das als die Karte dargestellt ist, wie im Stand der Technik bekannt. - Die Schnittstelle kann ein Schnittstellenelement
404 beinhalten, das ein Benutzer auswählen kann, um eine Bewertung einer Fahrt bereitzustellen, z. B. eine positive oder negative Bewertung, eine Auswahl eines Wertes von 1 bis N, wobei N keine Probleme angibt und 1 eine Fahrt von schlechter Qualität angibt. - Die Schnittstelle beinhaltet eine Darstellung
402 eines Wegs des Fahrzeugs während der Fahrt, der über die Karte gelagert ist. Die Schnittstelle kann Benutzereingaben empfangen, die Positionen406 ,408 angeben, an denen während der Fahrt Anomalien aufgetreten sind. In einigen Ausführungsform kann die Schnittstelle eine Spezifikation des Insassen zur Art von Anomalien empfangen. Beispielsweise kann das Schnittstellenelement410 es einem Insassen ermöglichen, eine Position einer Fahrtanomalie zu markieren. Nach der Auswahl des Schnittstellenelements410 kann beispielsweise eine nachfolgende Auswahl am Weg102 als eine Benutzerspezifikation der Fahrtanomalie interpretiert werden. Die Schnittstelle kann ferner eine Benutzerspezifikation einer Art der Fahrtanomalie empfangen, d. h. eine autonome Handlung des Fahrzeugs, die nach Meinung des Insassen nicht gut ausgeführt wurde, etwa eine Abweichung von einer Spur, ein zu schnelles oder von einem geeigneten Weg abweichendes Abbiegen oder dergleichen. - Die Schnittstelle kann ein Schnittstellenelement
412 beinhalten, das es dem Insassen ermöglicht, einen ausgewählten Punkt auf der Wegkarte400 anzugeben, der einer Straßenanomalie entspricht, z. B. ein Schlagloch, eine gesperrte Spur, eine Baustelle, eine gesperrte Straße, ein Unfall usw. - Erneut Bezug nehmend auf
3 kann das Verfahren300 das Empfangen304 , durch das Serversystem118 , einer Rückmeldung durch die bei Schritt302 präsentierte Schnittstelle beinhalten, wie etwa einige oder alle oben in Bezug auf die Schnittstelle aus4 beschriebenen Rückmeldungen. Das Verfahren300 beinhaltet ferner das Empfangen306 von Sensordaten durch das Serversystem118 . Dies kann, für einige oder alle äußeren Sensoren104 , das Empfangen eines Satzes von Sensormesswerten für den Verlaufe der Fahrt von dem Sensor beinhalten. Entsprechend kann Schritt306 das Empfangen von einigen oder allen aus einem Satz von Bildern, die von einer oder mehreren Kameras106a , einem Strom von Ausgaben des Ultraschallsensors106b , RADAR-Messwerten vom RADAR106c , einem Satz von Punktwolken vom LIDAR-Sensor106d und einem Satz von SONAR-Messwerten vom SONAR-Sensor106e beinhalten. - In einigen Ausführungsform können die GPS(globales Positionsbestimmungssystem)-Koordinaten des Fahrzeugs
100 während der gesamten Fahrt, z. B. ein Zeitpunkt und die GPS-Koordinate zu diesem Zeitpunkt, bei Schritt306 von der Steuerung102 empfangen werden. - In einigen Ausführungsform können die bei Schritt
306 empfangenen Daten Ausgaben des Entscheidungsmoduls110c beinhalten, d. h. von dem Entscheidungsmodul110c veranlasste Handlungen, wie etwa Aktivierungen der Aktoren112 . Die bei Schritt306 empfangenen Daten können Daten beinhalten, die die Positionen und/oder die relative Geschwindigkeit von Hindernissen, die von dem Hindernisidentifikationsmodul110a während der Fahrt erkannt werden, und die Positionen vorhergesagter Zusammenstöße beschreiben, die während der Fahrt vom Zusammenstoßvorhersagemodul110b identifiziert werden. - Das Verfahren
300 kann ferner das Trainieren308 eines Modells gemäß der Rückmeldung aus Schritt304 und den Sensordaten aus Schritt306 beinhalten. Bei dem Modell kann es sich beispielsweise um das AI-Modell116 handeln. Verschiedene maschinelle Lernmodelle ermöglichen es dem Modell, wiederholt mit zusätzlichen Trainingsdaten trainiert zu werden. Beispielsweise kann es sich bei dem AI-Modell116 um ein bestärkendes Deep-Learning-Modell handeln, wie es etwa von GOOGLE bereitgestellt wird. - In diesem Fall kann das Trainieren
308 des Modells das Verwenden der Sensordaten als Eingaben und Entscheidungen des Entscheidungsmoduls110c als Ausgaben beinhalten. In einigen Ausführungsform kann Schritt308 das Trainieren des Modells mit Dutzenden, Hunderten oder sogar Tausenden von Datensätzen beinhalten, wobei jeder Datensatz Daten aus den Schritten304 und306 einer Fahrt beinhaltet. Rückmeldung ist als eine Gesamtbewertung des Insassen sowie als Rückmeldung zu bestimmten Fahrtanomalien verkörpert. Wie auf dem Gebiet der bestärkenden Deep-Learning-Modelle bekannt, kann das Modell auf Grundlage dieser Rückmeldung trainiert werden, um Handlungen zu fördern, die vom Insassen hoch bewertet wurden, d. h. eine ereignisarme Fahrt mit hoher Bewertung, und das Auftreten von Handlungen zu reduzieren, die in niedrig bewerteten Fahrten vorliegen oder vom Insassen als Anomalien markiert wurden. - Wenn der Insasse in einem Beispiel während eines bestimmten Fahrtabschnitts den Eindruck hat, dass die Steuerung
100 das Fahrzeug veranlasst, aggressiv abzubiegen, unterrichtet der Insasse das Serversystem118 durch Rückmeldung in der Form von Bewertungen, wie oben beschrieben. Rückmeldung kann von mehreren Insassen empfangen werden, darunter mehreren Insassen, die an derselben Stelle abbiegen und Rückmeldung bereitstellen. Wenn in diesem Gebiet niedrigere Bewertungen von mehreren Insassen empfangen werden, heißt dies, dass das Serversystem118 das Modell116 unter Verwendung dieser Rückmeldung und der rund um diese Anomalie aufgezeichneten Sensordaten trainiert. Mit mehreren solchen Datensätzen über eine Zeitspanne hilft bestärkendes Deep-Learning, eine Lösung zu erreichen, die eine Art von kumulativer Belohnung maximiert. Wenn das System also bei dieser Abbiegung verschiedene niedrigere Bewertungen empfängt, erlernt das Modell116 anhand dieses Verfahrens die Anomalien dieser Abbiegung und nimmt möglicherweise Änderungen an Steuerstrategien vor, was im Fall ein vorsichtigeres Abbiegen oder sogar eine ganz andere Route bedeuten könnte. - In einem anderen Beispiel kann jede Fahrt eines Insassen als eine Abfolge von Zustand-Handlung-Paaren dargestellt werden, wobei der Zustand des Fahrzeugs Sensorwerten entspricht und die Handlung Steuerausgaben (z. B. dem Lenkwinkel) entspricht. Jede Gruppe neuer Bewertungen mit entsprechenden Zustand-Handlung-Abfolgen kann in einem Schema für bestärkendes Deep-Learning wie etwa einem Deep-Q-Netzwerk verwendet werden. Wenn sich neue Bewertungen ansammeln, konvergiert das Netzwerk hin zu einer Steuerungsrichtlinie, die die von den Insassen abgegebenen Bewertungen verbessert.
- Nach dem Training kann das trainierte AI-Modell
116 dann zum Aktualisieren310 der Steuerungen102 von einem oder mehreren Fahrzeugen verwendet werden. Beispielsweise durch Übertragen des aktualisierten AI-Modells über ein Netz122 und ein oder mehrere Mobilfunkantennen120 oder über eine drahtgebundene Verbindung mit der Steuerung102 an die Steuerungen102 . Die Steuerungen102 dieser Fahrzeuge können dann Hindernisvermeidung und autonome Navigation unter Verwendung des aktualisierten AI-Modells116 durchführen. - In der vorstehenden Offenbarung wurde auf die begleitenden Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung spezifische Implementierungen gezeigt sind, in denen die Offenbarung umgesetzt werden kann. Es versteht sich, dass andere Implementierungen benutzt werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Die Bezugnahme auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ usw. in der Beschreibung gibt an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft beinhalten kann, aber nicht jede Ausführungsform muss zwingend das bestimmte Merkmal, die bestimmte Struktur oder Eigenschaft beinhalten. Auch beziehen sich diese Ausdrücke nicht zwingend auf dieselbe Ausführungsform. Wenn ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissensumfangs eines Fachmanns liegt, dieses Merkmal, diese Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen zu erzielen, ungeachtet dessen, ob dies ausdrücklich beschrieben ist oder nicht.
- Implementierungen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen speziellen oder universellen Computer benutzen, der Computerhardware beinhaltet, wie beispielsweise einen oder mehrere Prozessoren und Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können auch physische und andere computerlesbare Medien zum Übertragen oder Speichern von durch einen Computer ausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Diese computerlesbaren Medien können beliebige verfügbare Medien sein, auf die ein universelles oder spezielles Computersystem zugreifen kann. Computerlesbare Medien, die durch einen Computer ausführbare Anweisungen speichern, sind Computerspeichermedien (-vorrichtungen). Computerlesbare Medien, die durch einen Computer ausführbare Anweisungen übertragen, sind Übertragungsmedien. Als Beispiel und nicht einschränkend können Implementierungen der Offenbarung daher wenigstens zwei voneinander verschiedene Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
- Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - SSDs) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenwechselspeicher (phase-change memory - PCM), andere Arten von Speicher, andere optische Disk- oder andere Magnetdiskspeichervorrichtungen, oder ein beliebiges anderes Medium, das zum Speichern gewünschter Programmcodemittel in der Form von durch einen Computer ausführbaren Anweisungen verwendet werden kann, auf die ein universeller oder spezieller Computer zugreifen kann.
- Eine Implementierung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetz kommunizieren. Ein „Netz“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport von elektronischen Daten zwischen Computersystemen und/oder - modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netz oder eine andere Kommunikationsverbindung (sei diese festverdrahtet, drahtlos oder eine Kombination von festverdrahtet und drahtlos) an einen Computer übertragen oder bereitgestellt werden, betrachtet der Computer die Verbindung faktisch als ein Übertragungsmedium. Übertragungsmedien können ein Netz und/oder Datenverbindungen beinhalten, die dazu verwendet werden können, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen der Vorstehenden sollen ebenfalls im Umfang computerlesbarer Medien eingeschlossen sein.
- Durch einen Computer ausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung an einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die durch einen Computer ausführbaren Anweisungen können beispielsweise Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
- Der Fachmann wird zu schätzen wissen, dass die Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen angewendet werden kann, einschließlich eines Armaturenbrett-Fahrzeugcomputers, PCs, Desktop-Computern, Laptops, Nachrichtenprozessoren, Handgeräten, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedener Speichergeräte und dergleichen. Die Offenbarung kann auch in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch entfernte Computersysteme, die durch ein Netz (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in entfernten Speichervorrichtungen befinden.
- Ferner können die hier beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Beispielsweise können eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) dazu programmiert sein, die hierin beschriebenen Systeme und Verfahrensweisen auszuführen. Einige Begriffe werden in der gesamten Beschreibung und den Ansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird erkennen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
- Es sei angemerkt, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um zumindest einen Teil ihrer Funktionen durchzuführen. Ein Sensor kann zum Beispiel einen Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hier zu Veranschaulichungszwecken bereitgestellt und nicht als einschränkend gedacht. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem Fachmann auf den relevanten Gebieten bekannt ist.
- Zumindest einige Ausführungsformen der Offenbarung richten sich an Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
- Obgleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Für den Fachmann ist ersichtlich, dass verschiedene Änderungen an Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt werden, sondern sollen ausschließlich in Übereinstimmung mit den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zur Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und sie nicht dazu gedacht, die Offenbarung auf die konkrete offenbarte Form zu beschränken. In Anbetracht der vorstehenden Lehren sind viele Modifikationen und Abwandlungen möglich. Ferner ist anzumerken, dass beliebige oder alle der vorstehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.
Claims (20)
- Verfahren, umfassend, durch ein Computersystem: Empfangen von einer oder mehreren Eingaben von einem Insassen eines autonomen Fahrzeugs; Empfangen von Sensordaten von dem autonomen Fahrzeug; und Aktualisieren von Steuerlogik des autonomen Fahrzeugs gemäß der einen oder den mehreren Eingaben und den Sensordaten, um eine aktualisierte Steuerlogik zu erlangen.
- Verfahren nach
Anspruch 1 , wobei die Steuerlogik des autonomen Fahrzeugs ein Künstliche-Intelligent(AI)-Modell implementiert. - Verfahren nach
Anspruch 2 , wobei das Aktualisieren der Steuerlogik des autonomen Fahrzeugs Aktualisieren des AI-Modells unter Verwendung eines bestärkenden Deep-Learning-Algorithmus gemäß der einen oder den mehreren Eingaben und den Sensordaten umfasst. - Verfahren nach
Anspruch 1 , wobei die eine oder die mehreren Eingaben einen Bericht einer Fahranomalie beinhalten. - Verfahren nach
Anspruch 1 , wobei die eine oder die mehreren Eingaben einen Bericht einer Spurabweichung beinhalten. - Verfahren nach
Anspruch 1 , wobei die eine oder die mehreren Eingaben einen Bericht einer Abweichung während eines Abbiegevorgangs beinhalten. - Verfahren nach
Anspruch 1 , wobei das Empfangen der einen oder der mehreren Eingaben Empfangen der einen oder der mehreren Eingaben von einer mobilen Vorrichtung des Insassen umfasst. - Verfahren nach
Anspruch 7 , wobei das Empfangen der einen oder der mehreren Eingaben Empfangen einer Benutzerauswahl von einer oder mehreren Positionen auf einer Karte, die auf der mobilen Vorrichtung angezeigt wird, und einer Angabe umfasst, dass die eine oder die mehreren Positionen wenigstens einer von einer Straßenanomalie und einer Fahranomalie entsprechen. - Verfahren nach
Anspruch 1 , wobei die Sensordaten Ausgaben von wenigstens einem von einem LIDAR-Sensor, einem RADAR-Sensor und einer oder mehreren Kameras beinhalten. - Verfahren nach
Anspruch 1 , ferner umfassend: Empfangen, durch eine Steuerung des autonomen Fahrzeugs, von Ausgaben von einem oder mehreren Sensoren; und autonomes Fahren, durch die Steuerung, des autonomen Fahrzeugs unter Verwendung der Ausgaben, die gemäß der aktualisierten Steuerlogik verarbeitet werden. - System, umfassend eine oder mehrere Verarbeitungsvorrichtungen und eine oder mehrere Speichervorrichtungen, die mit der einen oder den mehreren Verarbeitungsvorrichtungen in Wirkverbindung stehen, wobei die eine oder die mehreren Speichervorrichtungen ausführbaren Code speichern, der wirksam ist, um die eine oder die mehreren Verarbeitungsvorrichtungen zu veranlassen zum: Empfangen von einer oder mehreren Eingaben von einem Insassen eines autonomen Fahrzeugs; Empfangen von Sensordaten von dem autonomen Fahrzeug; und Aktualisieren von Steuerlogik des autonomen Fahrzeugs gemäß der einen oder den mehreren Eingaben und den Sensordaten, um eine aktualisierte Steuerlogik zu erlangen.
- System nach
Anspruch 11 , wobei die Steuerlogik des autonomen Fahrzeugs ein Künstliche-Intelligent(AI)-Modell implementiert. - System nach
Anspruch 12 , wobei der ausführbare Code ferner wirksam ist, um die eine oder die mehreren Verarbeitungsvorrichtungen zum Aktualisieren der Steuerlogik des autonomen Fahrzeugs durch Aktualisieren des AI-Modells unter Verwendung eines bestärkenden Deep-Learning-Algorithmus gemäß der einen oder den mehreren Eingaben und den Sensordaten zu veranlassen. - System nach
Anspruch 11 , wobei die eine oder die mehreren Eingaben einen Bericht einer Fahranomalie beinhalten. - System nach
Anspruch 11 , wobei die eine oder die mehreren Eingaben einen Bericht einer Spurabweichung beinhalten. - System nach
Anspruch 11 , wobei die eine oder die mehreren Eingaben einen Bericht einer Abweichung während eines Abbiegevorgangs beinhalten. - System nach
Anspruch 11 , wobei der ausführbare Code ferner wirksam ist, um die eine oder die mehreren Verarbeitungsvorrichtungen zum Empfangen der einen oder der mehreren Eingaben durch Empfangen der einen oder der mehreren Eingaben von einer mobilen Vorrichtung des Insassen zu veranlassen. - System nach
Anspruch 17 , wobei der ausführbare Code ferner wirksam ist, um die eine oder die mehreren Verarbeitungsvorrichtungen zum Empfangen der einen oder der mehreren Eingaben durch Empfangen einer Benutzerauswahl von einer oder mehreren Positionen auf einer Karte, die auf der mobilen Vorrichtung angezeigt wird, und einer Angabe zu veranlassen, dass die eine oder die mehreren Positionen wenigstens einer von einer Straßenanomalie und einer Fahranomalie entsprechen. - System nach
Anspruch 11 , wobei die Sensordaten Ausgaben von wenigstens einem von einem LIDAR-Sensor, einem RADAR-Sensor und einer oder mehreren Kameras beinhalten. - System nach
Anspruch 11 , ferner umfassend: das autonome Fahrzeug, das eine Steuerung umfasst, wobei die Steuerung programmiert ist zum: Empfangen von Ausgaben von einem oder mehreren Sensoren; und autonomen Fahren des autonomen Fahrzeugs unter Verwendung der Ausgaben, die gemäß der aktualisierten Steuerlogik verarbeitet werden.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2017/014769 WO2018139993A1 (en) | 2017-01-24 | 2017-01-24 | Feedback for an autonomous vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112017006530T5 true DE112017006530T5 (de) | 2019-09-26 |
Family
ID=62979548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112017006530.5T Granted DE112017006530T5 (de) | 2017-01-24 | 2017-01-24 | Rückmeldung für ein autonomes fahrzeug |
Country Status (4)
Country | Link |
---|---|
US (1) | US11318952B2 (de) |
CN (1) | CN110225852B (de) |
DE (1) | DE112017006530T5 (de) |
WO (1) | WO2018139993A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018133675A1 (de) * | 2018-12-28 | 2020-07-02 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs |
DE102020201742A1 (de) | 2020-02-12 | 2021-08-12 | Zf Friedrichshafen Ag | Selektieren von sensorumgebungsbezogenen Trainingsdaten |
DE102020205149A1 (de) | 2020-04-23 | 2021-09-16 | Zf Friedrichshafen Ag | Optimieren einer Fahrstrategie mittels Fahrgastbewertung |
US11345367B2 (en) | 2018-12-28 | 2022-05-31 | Volkswagen Aktiengesellschaft | Method and device for generating control signals to assist occupants in a vehicle |
DE102021104218A1 (de) | 2021-02-23 | 2022-08-25 | Bayerische Motoren Werke Aktiengesellschaft | System und Verfahren zur Überprüfung von Fahrzeugfunktionen |
DE102018129048B4 (de) | 2017-11-21 | 2023-08-10 | Gm Global Technology Operations, Llc | Verfahren zum durchführen einer autonomen fahrzeugbetriebsanalyse |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10346888B2 (en) * | 2017-06-16 | 2019-07-09 | Uber Technologies, Inc. | Systems and methods to obtain passenger feedback in response to autonomous vehicle driving events |
WO2019229729A1 (en) | 2018-06-01 | 2019-12-05 | Thales Canada Inc. | Self learning vehicle control system |
JP7077895B2 (ja) * | 2018-09-21 | 2022-05-31 | トヨタ自動車株式会社 | 運転評価装置、運転評価システム、運転評価方法、及び運転評価用コンピュータプログラム |
KR102521657B1 (ko) * | 2018-10-15 | 2023-04-14 | 삼성전자주식회사 | 차량을 제어하는 방법 및 장치 |
US11657318B2 (en) | 2018-10-19 | 2023-05-23 | Waymo Llc | Assessing ride quality for autonomous vehicles |
CN113015981A (zh) * | 2018-11-16 | 2021-06-22 | 华为技术有限公司 | 利用第一原则和约束进行有效、连续和安全学习的系统和方法 |
FR3089029B1 (fr) * | 2018-11-28 | 2020-10-30 | Psa Automobiles Sa | Procede de constitution d’un ensemble de donnees informatives en utilisant un systeme informatique embarque a bord d’un vehicule terrestre a moteur |
CN109855616B (zh) * | 2019-01-16 | 2021-02-02 | 电子科技大学 | 一种基于虚拟环境和强化学习的多传感器机器人导航方法 |
EP3693243A1 (de) | 2019-02-06 | 2020-08-12 | Zenuity AB | Verfahren und system zur steuerung eines automatisierten fahrsystems eines fahrzeugs |
CN110027553B (zh) * | 2019-04-10 | 2020-10-23 | 湖南大学 | 一种基于深度强化学习的防碰撞控制方法 |
DE102019209707B4 (de) * | 2019-07-02 | 2022-05-19 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines selbstfahrenden Fahrzeugs |
KR20210012730A (ko) | 2019-07-26 | 2021-02-03 | 삼성전자주식회사 | 인공지능 모델의 학습 방법 및 전자 장치 |
KR20190106861A (ko) * | 2019-08-27 | 2019-09-18 | 엘지전자 주식회사 | 학습 데이터를 생성하는 인공 지능 장치, 인공 지능 서버 및 그 방법 |
US11605306B2 (en) | 2020-06-30 | 2023-03-14 | Toyota Research Institute, Inc. | Systems and methods for driver training during operation of automated vehicle systems |
CN114248794A (zh) * | 2020-09-23 | 2022-03-29 | 华为技术有限公司 | 车辆的控制方法、装置及车辆 |
USD985619S1 (en) | 2021-08-23 | 2023-05-09 | Waymo Llc | Display screen or portion thereof with graphical user interface |
US11691634B1 (en) * | 2022-06-24 | 2023-07-04 | Plus AI, Inc. | On-vehicle driving behavior modelling |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8762035B2 (en) * | 2008-05-19 | 2014-06-24 | Waze Mobile Ltd. | System and method for realtime community information exchange |
US8224500B2 (en) * | 2008-09-11 | 2012-07-17 | Deere & Company | Distributed knowledge base program for vehicular localization and work-site management |
TWM353849U (en) * | 2008-09-17 | 2009-04-01 | Jyh-Chiang Liou | Integrated driving assistance apparatus |
US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
KR20120039615A (ko) * | 2009-06-08 | 2012-04-25 | 집카, 인크 | 차량과 통신하기 위한 모바일 디바이스 애플리케이션 |
US9097800B1 (en) * | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
US9988047B2 (en) * | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
US9679489B2 (en) * | 2014-07-22 | 2017-06-13 | Lyft, Inc. | Ride chaining |
US20160132728A1 (en) * | 2014-11-12 | 2016-05-12 | Nec Laboratories America, Inc. | Near Online Multi-Target Tracking with Aggregated Local Flow Descriptor (ALFD) |
CN107249954B (zh) * | 2014-12-29 | 2020-07-10 | 罗伯特·博世有限公司 | 用于使用个性化驾驶简档操作自主车辆的系统和方法 |
JP6491929B2 (ja) * | 2015-03-31 | 2019-03-27 | アイシン・エィ・ダブリュ株式会社 | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム |
US10212536B2 (en) * | 2015-07-10 | 2019-02-19 | Uber Technologies, Inc. | Selecting a messaging protocol for transmitting data in connection with a location-based service |
US9889860B2 (en) * | 2015-12-15 | 2018-02-13 | Universal City Studios Llc | Multi-passenger ride vehicle |
US9533688B1 (en) * | 2015-12-29 | 2017-01-03 | Thunder Power Hong Kong Ltd. | Platform for acquiring driver behavior data |
US9827993B2 (en) * | 2016-01-14 | 2017-11-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for improving ride quality in an autonomous vehicle |
US9884630B1 (en) * | 2016-07-05 | 2018-02-06 | Uber Technologies, Inc. | Autonomous vehicle performance optimization system |
US10607192B2 (en) * | 2016-08-25 | 2020-03-31 | Ford Global Technologies, Llc | Methods and apparatus for autonomous vehicle scheduling |
US9881503B1 (en) * | 2016-09-08 | 2018-01-30 | GM Global Technology Operations LLC | Vehicle-to-pedestrian-communication systems and methods for using the same |
US10423991B1 (en) * | 2016-11-30 | 2019-09-24 | Uber Technologies, Inc. | Implementing and optimizing safety interventions |
US20180360177A1 (en) * | 2017-06-15 | 2018-12-20 | Travelmate Robotics Inc. | Robotic suitcase |
US10532749B2 (en) * | 2017-08-11 | 2020-01-14 | Uatc, Llc | Systems and methods to adjust autonomous vehicle parameters in response to passenger feedback |
US20190056231A1 (en) * | 2017-08-15 | 2019-02-21 | GM Global Technology Operations LLC | Method and apparatus for participative map anomaly detection and correction |
-
2017
- 2017-01-24 CN CN201780084514.1A patent/CN110225852B/zh active Active
- 2017-01-24 WO PCT/US2017/014769 patent/WO2018139993A1/en active Application Filing
- 2017-01-24 DE DE112017006530.5T patent/DE112017006530T5/de active Granted
- 2017-01-24 US US16/479,380 patent/US11318952B2/en active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018129048B4 (de) | 2017-11-21 | 2023-08-10 | Gm Global Technology Operations, Llc | Verfahren zum durchführen einer autonomen fahrzeugbetriebsanalyse |
DE102018133675A1 (de) * | 2018-12-28 | 2020-07-02 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs |
US11345367B2 (en) | 2018-12-28 | 2022-05-31 | Volkswagen Aktiengesellschaft | Method and device for generating control signals to assist occupants in a vehicle |
DE102018133675B4 (de) | 2018-12-28 | 2023-11-30 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs |
DE102020201742A1 (de) | 2020-02-12 | 2021-08-12 | Zf Friedrichshafen Ag | Selektieren von sensorumgebungsbezogenen Trainingsdaten |
DE102020205149A1 (de) | 2020-04-23 | 2021-09-16 | Zf Friedrichshafen Ag | Optimieren einer Fahrstrategie mittels Fahrgastbewertung |
DE102021104218A1 (de) | 2021-02-23 | 2022-08-25 | Bayerische Motoren Werke Aktiengesellschaft | System und Verfahren zur Überprüfung von Fahrzeugfunktionen |
Also Published As
Publication number | Publication date |
---|---|
WO2018139993A8 (en) | 2019-08-01 |
CN110225852A (zh) | 2019-09-10 |
CN110225852B (zh) | 2023-01-17 |
WO2018139993A1 (en) | 2018-08-02 |
US11318952B2 (en) | 2022-05-03 |
US20190382030A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112017006530T5 (de) | Rückmeldung für ein autonomes fahrzeug | |
EP3365741B1 (de) | Verfahren zur vollautomatischen führung eines fahrzeugsystems und kraftfahrzeug | |
DE112018004000B4 (de) | Überwachen eines fahrzeug-bedienungsrisikos unter verwendung von sensoreinheiten | |
DE102018120635A1 (de) | Geteilte verarbeitung mit tiefen neuronalen netzwerken | |
DE102019120880A1 (de) | End-to-end-deep-generative-modell für simultane lokalisierung und abbildung | |
DE102021133415A1 (de) | Sicheres und skalierbares modell für kultursensitives fahren durch automatisierte fahrzeuge | |
DE102018101465A1 (de) | Trainieren eines automatischen ampelerkennungsmoduls unter verwendung simulierter bilder | |
DE102019115455A1 (de) | Fokus-basiertes markieren von sensordaten | |
DE102019108477A1 (de) | Automatische navigation unter verwendung von deep reinforcement learning | |
DE102020134346A1 (de) | Technologie zum generalisieren von erfahrungen für sicheres fahren für die verhaltensvorhersage automatisierter fahrzeuge | |
DE102016212751A1 (de) | Abbiegevorhersagen | |
DE102019121717A1 (de) | Interaktionsbewusste entscheidungsfindung | |
DE112017006567T5 (de) | Autonomes fahrzeug mit fahrerausbildung | |
DE102018101220A1 (de) | Zeichenerkennung für autonome fahrzeuge | |
DE102017223846B4 (de) | System zum Geben einer Meldung vom Vorhandensein eines Insassen in einem Fahrzeug durch historische Muster und Verfahren davon | |
DE102019135333A1 (de) | Systeme und verfahren zur disposition und routenplanung von fahrzeugen | |
DE102017126760A1 (de) | Erkennen von blattwerk unter verwendung von bereichsdaten | |
DE102021125932A1 (de) | System und Verfahren für auf Neuronalem Netzwerk basiertes autonomes Fahren | |
DE102018203583A1 (de) | Verfahren, Fahrerassistenzsystem sowie Kraftfahrzeug zur Prädiktion einer Position oder einer Trajektorie mittels eines graphbasierten Umgebungsmodells | |
DE102018132370A1 (de) | Verwendung von tiefer videobildvorhersage zum trainieren einer steuerung eines autonomen fahrzeugs und verfahren davon | |
DE112017007793T5 (de) | Anomalieerkennung im innenraum eines autonomen fahrzeugs | |
EP3877231A1 (de) | Prädiktion eines voraussichtlichen fahrverhaltens | |
DE112021006846T5 (de) | Systeme und Verfahren zur szenarioabhängigen Trajektorienbewertung | |
DE102022112059B3 (de) | Verfahren, System und Computerprogrammprodukt zur Kalibrierung und Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) | |
DE102020100024A1 (de) | Verwendung von geofences zur einschränkung des fahrzeugbetriebs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE |
|
R012 | Request for examination validly filed | ||
R084 | Declaration of willingness to licence | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |