DE102018119467B4 - Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen - Google Patents
Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen Download PDFInfo
- Publication number
- DE102018119467B4 DE102018119467B4 DE102018119467.6A DE102018119467A DE102018119467B4 DE 102018119467 B4 DE102018119467 B4 DE 102018119467B4 DE 102018119467 A DE102018119467 A DE 102018119467A DE 102018119467 B4 DE102018119467 B4 DE 102018119467B4
- Authority
- DE
- Germany
- Prior art keywords
- control signals
- vehicle
- output
- processing
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 29
- 230000008569 process Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- 238000012886 linear function Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 25
- 238000013528 artificial neural network Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2900/00—Indexing codes relating to the purpose of, or problem solved of road vehicle drive control systems not otherwise provided for in groups B60W30/00
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Electromagnetism (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Durchführen eines autonomen Betriebs eines Fahrzeugs, das Verfahren umfassend:Erhalten eines oder mehrerer Einzelbilder für eine Zeitinstanz t von einem oder mehreren Sensoren;Verarbeiten des einen oder mehrerer Einzelbilder, wobei das Verarbeiten die Durchführung einer Faltungsverarbeitung beinhaltet, um eine mehrdimensionale Matrix xtzu erhalten;Betreiben auf der mehrdimensionalen Matrix xt, um die Ausgabe ht zu erhalten, wobei das Betreiben die Verwendung einer Ausgabe ht-1des Betreibens für eine vorherige Zeitinstanz t-1 beinhaltet; undNachbearbeitung der Ausgabe ht, um ein oder mehrere Steuersignale zu erhalten, die den Betrieb des Fahrzeugs beeinträchtigen.
Description
- EINLEITUNG
- Die vorliegende Erfindung betrifft ein Verfahren zum Durchführen eines autonomen Betriebs eines Fahrzeugs durch tiefes räumlich-zeitliches Lernen.
- Zur Hintergrundinformation sei an dieser Stelle vorab auf die
DE 195 27 323 A1 verwiesen. - Autonome Fahrzeugsysteme können Fahraufgaben wie Bremsen, Lenken, Einparken oder sogar durchgängiges Fahren ergänzen oder automatisieren. Viele dieser autonomen Fahrzeugsysteme basieren auf einer geschichteten Architektur, die das Erhalten von Sensordaten, das Verschmelzen von Sensordaten von verschiedenen Sensoren, das Bestimmen von Umgebungsbedingungen, die Planung und schließlich die Ausgabe von Befehlen zum Ausführen der geplanten Aktionen beinhaltet. Neuronale Netze wurden verwendet, um Befehle direkt basierend auf dem Sensoreingang auszugeben. Diese neuronalen Netze sind typischerweise tiefe neuronale Netze mit verborgenen Schichten, um beispielsweise eine Reihe von Bildern zu verarbeiten. Diese neuronalen Netze arbeiten auf einer Frame-by-Frame-Basis, sodass Befehle unter Berücksichtigung der räumlichen, aber nicht der zeitlichen Verarbeitung ausgegeben werden. Dementsprechend ist es wünschenswert, einen autonomen Betrieb durch tiefes räumlich-zeitliches Lernen vorzusehen.
- KURZDARSTELLUNG
- In einer exemplarischen Ausführungsform beinhaltet ein Verfahren zum Ausführen eines autonomen Betriebs eines Fahrzeugs das Erhalten eines oder mehrerer Einzelbilder für eine Zeitinstanz t von einem oder mehreren Sensoren und das Verarbeiten des einen oder der mehreren Einzelbilder, wobei das Verarbeiten das Ausführen einer Faltungsverarbeitung beinhaltet, um eine mehrdimensionale Matrix xt zu erhalten. Das Verfahren beinhaltet auch das Betreiben der mehrdimensionalen Matrix xt, um die Ausgabe ht zu erhalten, wobei das Betreiben die Verwendung einer Ausgabe ht-1 des Betriebs für eine vorherige Zeitinstanz t-1 und die Nachbearbeitung der Ausgabe ht beinhaltet, um ein oder mehrere Steuersignale zum Beeinflussen des Betriebs des Fahrzeugs zu erhalten.
- Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet die Verarbeitung des einen oder der mehreren Einzelbilder die Normalisierung jedes einzelnen Einzelbildes vor dem Ausführen der Faltungsverarbeitung.
- Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet das Ausführen der Faltungsverarbeitung das Ausführen von N aufeinanderfolgenden Faltungen mit N Kernelmatrizen, wobei die Kernelmatrizen zunächst einen Zufallswert und eine vordefinierte Größe und Abmessung aufweisen.
- Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet das Betreiben der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 des Betriebs für die vorherige Zeitinstanz t-1 das Ausführen von Berechnungen nichtlinearer Funktionen unter Verwendung von Gewichtungen.
- Neben einer oder mehreren der hierin beschriebenen Funktionen werden das eine oder die mehreren Steuersignale während eines Trainingsmodus mit einem oder mehreren tatsächlichen Steuersignalen verglichen.
- Neben einer oder mehreren der hierin beschriebenen Funktionen werden die Gewichtungen basierend auf dem Vergleich optimiert.
- Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet die Nachbearbeitung der Ausgabe ht, um das eine oder die mehreren Steuersignale zu erhalten, das Umwandeln der Ausgabe ht in einen eindimensionalen Vektor und das Abbilden des eindimensionalen Vektors auf das eine oder die mehreren Steuersignale.
- Neben einer oder mehreren der hierin beschriebenen Funktionen werden das eine oder die mehreren Steuersignale einem Fahrzeugsteuerungssystem des Fahrzeugs zur Verfügung gestellt.
- Neben einer oder mehreren der hierin beschriebenen Funktionen werden das eine oder die mehreren Steuersignale einem autonomen Lenksystem des Fahrzeugs zur Verfügung gestellt.
- Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet das Bereitstellen eines oder mehrerer Steuersignale das Bereitstellen eines oder mehrerer Lenkungs-, Gashebel- oder Bremssignale.
- In einer weiteren exemplarischen Ausführungsform beinhaltet ein System zum autonomen Betrieb eines Fahrzeugs einen oder mehrere Sensoren, um einen oder mehrere Einzelbilder für eine Zeitinstanz t zu erhalten. Das System beinhaltet auch eine Steuerung zum Verarbeiten des einen oder der mehreren Einzelbilder, einschließlich dem Ausführen einer Faltungsbearbeitung, um eine mehrdimensionale Matrix xt zu erhalten, um auf der mehrdimensionalen Matrix xt zu arbeiten, um die Ausgabe ht zu erhalten. Eine Ausgabe ht-1 des Betriebs wird für eine vorherige Zeitinstanz t-1 verwendet, und die Ausgabe ht wird nachbearbeitet, um ein oder mehrere Steuersignale zu erhalten, die den Betrieb des Fahrzeugs beeinträchtigen.
- Neben einer oder mehreren der hierin beschriebenen Funktionen verarbeitet die Steuerung das eine oder die mehreren Einzelbilder, indem sie jedes der Einzelbilder vor dem Ausführen der Faltungsverarbeitung normalisiert.
- Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet die Steuerung, welche die Faltungsverarbeitung ausführt, das Ausführen von N aufeinanderfolgenden Faltungen mit N Kernelmatrizen. Die Kernelmatrizen weisen zunächst einen Zufallswert und eine feste Größe und Abmessung auf.
- Neben einer oder mehreren der hierin beschriebenen Funktionen arbeitet die Steuerung auf der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 der Operation für die vorhergehende Zeitinstanz t-1, indem sie Berechnungen nichtlinearer Funktionen mit Gewichtungen durchführt.
- Neben einer oder mehreren der hierin beschriebenen Funktionen vergleicht die Steuerung ein oder mehrere Steuersignale jeweils mit einem oder mehreren tatsächlichen Steuersignalen während eines Trainingsmodus.
- Neben einer oder mehreren der hierin beschriebenen Funktionen optimiert die Steuerung die Gewichtungen basierend auf dem Vergleich.
- Neben einer oder mehreren der hierin beschriebenen Funktionen die Steuerung eine Nachbearbeitung der Ausgabe ht durch, um das eine oder die mehreren Steuersignale zu erhalten, indem sie die Ausgabe ht in einen eindimensionalen Vektor umwandelt und den eindimensionalen Vektor auf ein oder mehrere Steuersignale abbildet.
- Neben einer oder mehreren der hierin beschriebenen Funktionen liefert die Steuerung ein oder mehrere Steuersignale an ein Fahrzeugsteuerungssystem des Fahrzeugs.
- Neben einer oder mehreren der hierin beschriebenen Funktionen ist das Fahrzeugsteuerungssystem ein autonomes Lenksystem des Fahrzeugs.
- Neben einer oder mehreren der hierin beschriebenen Funktionen ist das eine oder die mehreren Steuersignale eines oder mehrere von einem Lenkungs-, Gashebel- oder Bremssignal.
- Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Erfindung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den zugehörigen Zeichnungen ohne weiteres hervor.
- Figurenliste
- Andere Merkmale, Vorteile und Details erscheinen nur exemplarisch in der folgenden ausführlichen Beschreibung der Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, wobei gilt:
-
1 ist ein Blockdiagramm eines autonomen Fahrzeugsystems mit einer autonomen Fahrarchitektur unter Verwendung eines tiefen räumlich-zeitlichen Lernens gemäß einer oder mehrerer Ausführungsformen; -
2 ist ein Blockflussdiagramm der neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen; -
3 ist ein Blockdiagramm der Funktionalität der räumlich-zeitlichen Einheit, die Teil der neuronalen Netzwerkarchitektur gemäß einer oder mehreren Ausführungsformen ist; und -
4 ist ein Prozessablauf des Trainings und der Nutzung der neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. - AUSFÜHRLICHE BESCHREIBUNG
- Die folgende Beschreibung ist lediglich exemplarischer Natur.
- Wie bereits erwähnt, können neuronale Netze Sensoreingänge empfangen und Befehle zum Steuern von Aspekten des autonomen Fahrens bereitstellen. In autonomen Antriebssystemen können beispielsweise Bremse, Gashebel, Lenkung oder Getriebe oder eine beliebige Kombination derselben basierend auf den vom neuronalen Netz erzeugten Steuersignalen gesteuert werden. Wenn die Verarbeitung des neuronalen Netzes auf Frame-by-Frame-Basis erfolgt, können die daraus resultierenden autonomen Fahrbefehle eher eine raue Fahrt als einen reibungslosen Betrieb erzeugen. Die hierin beschriebenen Systeme und Verfahren beziehen sich auf ein neuronales Netz zum Übersetzen von Bildpunkten in Steuersignale. Die Architektur des neuronalen Netzes implementiert tiefes räumlich-zeitliches Lernen basierend auf einem Speicherelement, das eine Rückkopplung von vorherigen Einzelbildern ermöglicht. Diese Berücksichtigung des zeitlichen und räumlichen Einsatzes beim Erzeugen des autonomen Fahrbefehls zu jeder Zeitinstanz führt zu einem Satz ausgegebener Befehle, die einen reibungsloseren Übergang des Systems ermöglichen. Während die Lenkungssteuerung speziell zu Erläuterungszwecken behandelt wird, kann die eine oder die Ausführungsformen der hierin aufgeführten Architektur auch auf andere autonome Antriebssysteme wie Gas-, Getriebe- und Bremssteuerung angewendet werden.
- Gemäß einer exemplarischen Ausführungsform stellt
1 ein Blockdiagramm eines autonomen Fahrzeugsystems mit autonomer Fahrarchitektur unter Verwendung eines tiefen räumlich-zeitlichen Lernens dar. Das in1 dargestellte Fahrzeug 100 ist ein Automobil 101. Eine Steuerung 110 stellt autonome Betriebsbefehle (basierend auf den Steuersignalen 290,2 ) an ein Lenksystem 130 oder andere Fahrzeugsysteme 140 zur Verfügung. Die Steuerung 110 verwendet Bilder von einem oder mehreren Sensoren 150a, 150b, 150c (allgemein als 150 bezeichnet), um die Befehle zu bestimmen. Der Sensor 150 kann beispielsweise eine Stand- oder Videokamera, ein Bildgebungsradar oder ein Lichtdetektions- und Entfernungssystem (Lidar) sein, das eine Punktwolke als Bild erhält. Ein Bildrahmen wird von jedem Sensor 150 zu jedem Zeitpunkt für zwei oder mehr Zeitpunkte erhalten. Während1 drei Sensoren 150 in der exemplarischen Ausführungsform darstellt, können beliebig viele Sensoren 150 an verschiedenen Stellen des Fahrzeugs 100 eingesetzt werden. Das Lenksystem 130 und andere Fahrzeugsysteme 140 stellen die verschiedenen Komponenten dar, die sich auf die Steuerung des vorgegebenen Systems beziehen. Wie bereits erwähnt, können die autonomen Betriebsbefehle der Steuerung 110 beispielsweise Steuersignale 290 (2 ) beinhalten, die neben der Steuerung der Lenkung selbst auch die Steuerung von Brems-, Getriebe- und Gaspedalniveau ermöglichen. Alle Komponenten, aus denen sich die Lenksteuerung zusammensetzt, werden durch das in1 dargestellte Lenksystem 130 repräsentiert. - Die Steuerung 110 beinhaltet die neuronale Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. Die Steuerung 110 beinhaltet eine Verarbeitungsschaltung, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor 115 (gemeinsam genutzte oder dedizierte oder Gruppe) und einen Speicher 120 beinhalten kann, der ein oder mehrere Software- oder Firmwareprogramme, wie in
1 dargestellt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, welche die beschriebene Funktionalität bereitstellen. Die durch die Steuerung 110 implementierte neuronale Netzwerkarchitektur wird unter Bezugnahme auf2 skizziert. -
2 ist ein Blockflussdiagramm der durch die Steuerung 110 implementierten neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. Wie mit Bezug auf1 erwähnt, ist die in2 dargestellte neuronale Netzwerkarchitektur Teil der Steuerung 110, die ein autonomes Fahrzeugsystem mit einer autonomen Lenkungsarchitektur ermöglicht, die gemäß dem zur Erläuterung behandelten exemplarischen Fall ein tiefes, wiederkehrendes Lernen ermöglicht. Die Verarbeitungsblöcke werden für drei Zeitinstanzen (t0, t0+1, t0+k) aus k+1 Zeitinstanzen dargestellt, für die die Verarbeitung durchgeführt wird. Zu jedem Zeitpunkt werden die Einzelbilder 205 (ein Einzelbild 205 von jedem Sensor 150) bei Block 210 erhalten. Bei Block 220 werden die bei Block 210 erhaltenen Einzelbilder 205 normalisiert. Bei diesem bekannten Verfahren wird die Intensität (z. B. 0-255 Graustufen-Intensitätsbereich) der mit jedem Einzelbild assoziierten Pixelmatrix auf einen normierten Wert (z. B. 0-1) normiert oder abgebildet, um eine normierte Pixelmatrix 215 für jedes Einzelbild zu erzeugen. - Bei Block 230 wird ein Faltungsprozess der normierten Pixelmatrix 215 mit einer Kernelmatrix (Kernel1) durchgeführt. Das Ergebnis der Faltung conv1 225 ist eine Eingabe in die Faltung bei Block 240. Eine Faltung der Matrix conv1 225, die sich aus der Faltung bei Block 230 mit einer anderen Kernelmatrix (Kernel2) ergibt, führt zu conv2 235. Dies wiederum ist der Eingang zu einer weiteren Faltung bei Block 250. Eine Faltung der Matrix conv2 235, die sich aus der Faltung bei Block 240 mit einer anderen Kernelmatrix (Kernel3) ergibt, führt zu conv3 245.
- Auf diese Weise ist die Faltung bei Block 260 die Nth Faltung unter Verwendung der Kernelmatrix (Kernel) und ergibt convN 255 (bezeichnet als Eingang xt). Der Wert von N (d. h. die Anzahl der Faltungsprozesse) ist einer oder mehrere und ist, einmal bestimmt, bei der Verarbeitung von Einzelbildern 205 in jeder Zeitinstanz gleich. Die Größe, Dimension und Werte der einzelnen Kernelmatrizen (kernel1 bis kernelN) sind anpassbar. Zunächst sind die Werte der einzelnen Kernelmatrizen zufällig, während die Größe und Dimension festgelegt sind (vordefiniert). Die feste Größe und Dimension kann mit einem bekannten pyramidalen Ansatz, wie beispielsweise den Gaußschen Pyramiden, bestimmt werden. Das Ergebnis jedes Faltungsprozesses (conv1 225 bis convN 255) ist eine mehrdimensionale Matrix, die eine LxL-Matrix ist (z. B. 256 x 256). Somit ist xt eine LxL-Matrix.
- Die N-Faltungsprozesse stellen die räumliche Dimension der Verarbeitung neuronaler Netze dar. Die mehrfachen Zeitinstanzen (t0, t0+1,..., t0+k) stellen die zeitliche Dimension der Verarbeitung des neuronalen Netzes dar. Eine Speichereinheit (MU) 270 verarbeitet die Ausgabe (xt) des letzten (N-ten) Faltungsprozesses und das Ergebnis (ht-1) aus der MU 270 in einem vorherigen Zeitschritt (außer t=t0) bei Block 260 wie in
3 ausgeführt. Die Verwendung des Ergebnisses aus dem vorherigen Zeitschritt stellt den wiederkehrenden (zeitlichen) Aspekt des Lernens dar. Zu einem gegebenen Zeitpunkt t werden die historischen Daten für jeden vorherigen Zeitschritt, der mit t=t0 beginnt, in ht-1 kodiert. Eine exemplarische MU 270 ist eine geschlossene wiederkehrende Einheit (GRU). Bei Block 280 durchläuft der Ausgabe ht der MU 270 bekannte Abflachungs- und Abbildungsprozesse zum Erzeugen des Steuersignals 290. Die Abflachung bezieht sich auf die Umwandlung der mehrdimensionalen Matrix ht, die von der MU 270 ausgegeben wird, in einen eindimensionalen Vektor. Die Abbildung beinhaltet eine nichtlineare Abbildungsfunktion zum Umwandeln des aus der Abflachung resultierenden eindimensionalen Vektors in das Steuersignal 290, das letztlich einem Fahrzeugsystem 140 zur Verfügung gestellt wird. -
3 ist ein Blockdiagramm der Funktionalität der MU 270, die Teil der neuronalen Netzwerkarchitektur gemäß einer oder mehreren Ausführungsformen ist. Jede MU 270 fungiert als Neuron des neuronalen Netzes. Zu einer gegebenen Zeitinstanz t erhält die MU 270 die Ausgabe (xt) des letzten (N-ten) Faltungsprozesses. Wenn der Zeitschritt t ein anderer Zeitschritt als der erste Zeitschritt ist (d. h. wenn t≠t0) ist, erhält die MU 270 auch die Ausgabe oder das MU 270-Ergebnis (ht-1) aus dem vorherigen Zeitschritt. Wenn mehrere Steuersignale 290 zur Verfügung stehen, kann in jedem Zeitschritt eine einzige MU 270 verwendet werden, wie für die exemplarische Ausführungsform von2 dargestellt, wobei die Abbildung (bei Block 280) mehrere Steuersignale 290 (z. B. Lenkung, Gaspedalstellung, Bremsen, Getriebe) statt eines einzelnen Steuersignals 290 aus dem eindimensionalen Vektor ausgibt. Gemäß alternativen Ausführungsformen kann ein separates MU 270 jedes Steuersignal 290 erzeugen. -
-
-
- In GL. 6 ist c eine Konstante, σ eine Varianz und p eine Potenz (z. B. p=2). Die Konstante c, die Varianz σ und die Leistung p sind abstimmbare Parameter, die durch Experimente bestimmt werden können. Unter Verwendung der in den GL. 1-3 dargestellten Berechnungen, wird die Ausgabe der MU 270 (ht) errechnet als:
- Bei der Angabe in
3 ist die Ausgabe ht der MU 270 für die Abflachung und Abbildung, bei Block 280, vorgesehen und wird auch der MU 270 für die nächste Zeitinstanz zur Verfügung gestellt. Diese Verwendung der MU 270-Ausgabe ht in der nachfolgenden Zeitinstanz stellt den zeitlichen Aspekt der autonomen Betriebsarchitektur gemäß der einen oder der mehreren Ausführungsformen dar. -
4 ist ein Prozessablauf des Trainings und der Nutzung der neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. Wie mit Bezug auf2 behandelt, beinhaltet das Erhalten von Einzelbildern 205, bei Block 210, das Erhalten von Einzelbildern 205 der M-Sensoren 150, die an verschiedenen Stellen des Fahrzeugs 100 zu einer Zeitinstanz t angeordnet sind. Die Anzahl der Sensoren 150, M, beträgt einer oder mehrere. Bei Block 410 beinhaltet das Verarbeiten der M-Einzelbilder 205 die Normalisierung, wie bei Block 220 dargestellt, und die N-Faltungsprozesse, wie sie bei den Blöcken 220 bis 260 in2 dargestellt sind. Die Durchführung der MU 270-Funktionalität und der Nachbearbeitung bei Block 420, beinhaltet die Durchführung der unter Bezugnahme auf3 (bei Block 270) behandelten Funktionalität, um die Ausgabe ht zu erhalten, sowie die Durchführung der Abflachung und Abbildung (bei Block 280), um ein oder mehrere Steuersignale 290 zu erhalten. Bei Block 430 wird geprüft, ob das eine oder die mehreren bei Block 420 erzeugten Steuersignale 290 in einem Trainingsmodus erzeugt werden. Wenn das eine oder die mehreren Steuersignale 290 nicht für Trainingszwecke erzeugt werden, bezieht sich das Bereitstellen des einen oder der mehreren Steuersignale 290 bei Block 440 auf das Bereitstellen an die Fahrzeugsysteme 140 zum Steuern des Betriebs des Fahrzeugs 100. - Bei Block 450 bezieht sich das Erhalten der tatsächlichen Steuersignale auf den Betrieb des Fahrzeugs 100 oder die Simulation des Betriebs des Fahrzeugs 100, um die gleiche Art von Steuersignalen (z. B. Lenkung, Gaspedalstellung, Bremsen, Getriebe) zu erhalten, die von der Steuerung 110 erzeugt werden, welche die neuronale Netzwerkarchitektur gemäß der einen oder mehreren hierin ausgeführten Ausführungsformen beinhaltet. Wenn das eine oder die mehreren Steuersignale 290 zu Trainingszwecken erzeugt werden (gemäß der Prüfung bei Block 430), dann bezieht sich das Berechnen eines Verlustes bei Block 460 auf den Vergleich des einen oder der mehreren Steuersignale 290, die von der Steuerung 110 erzeugt werden, mit den gleichen Steuersignalen, die bei Block 450 erhalten werden.
- Die Optimierungsparameter bei Block 470 basieren auf der Berechnung bei Block 460. Diese Optimierung beinhaltet das Modifizieren der Werte von kernel1 bis kernelN, die in den N-Faltungsprozessen verwendet werden. Die Optimierung beinhaltet auch das Modifizieren der Gewichtungen Wz, Wr und Wo nach Bedarf. Die Optimierung wirkt sich auf die Faltungsprozesse oder MU 270 oder beides in der nächsten Zeitinstanz (t+1) aus. Die Anfangswerte der Gewichtungen Wz, Wr und Wo können auf verschiedene Weise bestimmt werden. So können die Werte beispielsweise als Konstanten initialisiert werden. Sie können stattdessen aus einer Gaußschen Verteilung, Gleichverteilung oder Normalverteilung entnommen oder als orthogonale oder spärliche Matrix initialisiert werden.
Claims (10)
- Verfahren zum Durchführen eines autonomen Betriebs eines Fahrzeugs, das Verfahren umfassend: Erhalten eines oder mehrerer Einzelbilder für eine Zeitinstanz t von einem oder mehreren Sensoren; Verarbeiten des einen oder mehrerer Einzelbilder, wobei das Verarbeiten die Durchführung einer Faltungsverarbeitung beinhaltet, um eine mehrdimensionale Matrix xt zu erhalten; Betreiben auf der mehrdimensionalen Matrix xt, um die Ausgabe ht zu erhalten, wobei das Betreiben die Verwendung einer Ausgabe ht-1 des Betreibens für eine vorherige Zeitinstanz t-1 beinhaltet; und Nachbearbeitung der Ausgabe ht, um ein oder mehrere Steuersignale zu erhalten, die den Betrieb des Fahrzeugs beeinträchtigen.
- Verfahren nach
Anspruch 1 , wobei das Verarbeiten des einen oder der mehreren Einzelbilder das Normalisieren jedes der einen oder der mehreren Einzelbilder vor dem Durchführen der Faltungsverarbeitung und das Durchführen der Faltungsverarbeitung das Durchführen von N aufeinanderfolgenden Faltungen mit N Kernelmatrizen beinhaltet, wobei die Kernelmatrizen zunächst einen Zufallswert und eine vordefinierte Größe und Dimension aufweisen. - Verfahren nach
Anspruch 1 , wobei das Arbeiten auf der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 des Betriebs für die vorhergehende Zeitinstanz t-1 das Durchführen von Berechnungen nichtlinearer Funktionen unter Verwendung von Gewichtungen beinhaltet, wobei das eine oder die mehreren Steuersignale jeweils mit einem oder mehreren tatsächlichen Steuersignalen während eines Trainingsmodus verglichen werden und die Gewichtungen basierend auf dem Vergleich optimiert werden. - Verfahren nach
Anspruch 1 , wobei die Nachbearbeitung der Ausgabe ht, um das eine oder die mehreren Steuersignale zu erhalten, das Umwandeln der Ausgabe ht in einen eindimensionalen Vektor und das Abbilden des eindimensionalen Vektors auf das eine oder die mehreren Steuersignale beinhaltet. - Verfahren nach
Anspruch 1 , ferner umfassend das Bereitstellen des einen oder der mehreren Steuersignale an ein Fahrzeugsteuerungssystem des Fahrzeugs, wobei das eine oder die mehreren Steuersignale an ein autonomes Lenksystem des Fahrzeugs als Lenk-, Gaspedal-, Getriebe- oder Bremssignal geliefert werden. - System zum Durchführen eines autonomen Betriebs eines Fahrzeugs, das System umfassend: einen oder mehrere Sensoren, die konfiguriert sind, um einen oder mehrere Einzelbilder für eine Zeitinstanz t zu erhalten; eine Steuerung, die konfiguriert ist, um das eine oder mehrere Einzelbilder zu verarbeiten, einschließlich der Durchführung einer Faltungsverarbeitung, um eine mehrdimensionale Matrix xt zu erhalten, um auf der mehrdimensionalen Matrix xt zu arbeiten, um eine Ausgabe ht zu erhalten, wobei das Arbeiten das Verwenden einer Ausgabe ht-1 des Betriebs für eine vorherige Zeitinstanz t-1 und das Nachverarbeiten der Ausgabe ht, um ein oder mehrere Steuersignale zu erhalten, um den Betrieb des Fahrzeugs zu beinträchtigen.
- System nach
Anspruch 6 , wobei die Steuerung ferner konfiguriert ist, um das eine oder die mehreren Einzelbilder durch Normalisieren jedes der einen oder der mehreren Einzelbilder vor dem Durchführen der Faltungsverarbeitung zu verarbeiten, und die Steuerung, welche die Faltungsverarbeitung durchführt, N aufeinanderfolgende Faltungen mit N Kernelmatrizen beinhaltet, wobei die Kernelmatrizen zunächst einen Zufallswert und eine feste Größe und Dimension aufweisen. - System nach
Anspruch 6 , wobei die Steuerung ferner konfiguriert ist, um auf der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 des Betriebs für die vorhergehende Zeitinstanz t-1 durch Ausführen von Berechnungen nichtlinearer Funktionen unter Verwendung von Gewichtungen zu arbeiten, wobei die Steuerung ferner konfiguriert ist, um das eine oder die mehreren Steuersignale jeweils mit einem oder mehreren tatsächlichen Steuersignalen während eines Trainingsmodus zu vergleichen, und wobei die Steuerung ferner konfiguriert ist, um die Gewichtungen basierend auf dem Vergleich zu optimieren. - System nach
Anspruch 6 , wobei die Steuerung ferner konfiguriert ist, die Ausgabe ht zum Erhalten des einen oder der mehreren Steuersignale nachzubearbeiten, indem die Ausgabe ht in einen eindimensionalen Vektor umgewandelt und der eindimensionale Vektor auf das eine oder die mehreren Steuersignale abgebildet wird. - System nach
Anspruch 6 , wobei die Steuerung ferner konfiguriert ist, um das eine oder die mehreren Steuersignale an ein Fahrzeugsteuerungssystem des Fahrzeugs bereitzustellen, wobei das Fahrzeugsteuerungssystem ein autonomes Lenksystem des Fahrzeugs ist und das eine oder die mehreren Steuersignale ein oder mehrere von einem Lenk-, Gaspedal-, Brems- oder Getriebesteuersignal sind.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/676,125 US10520940B2 (en) | 2017-08-14 | 2017-08-14 | Autonomous operation using deep spatio-temporal learning |
US15/676,125 | 2017-08-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102018119467A1 DE102018119467A1 (de) | 2019-05-02 |
DE102018119467B4 true DE102018119467B4 (de) | 2023-08-03 |
Family
ID=65274989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018119467.6A Active DE102018119467B4 (de) | 2017-08-14 | 2018-08-09 | Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen |
Country Status (3)
Country | Link |
---|---|
US (1) | US10520940B2 (de) |
CN (1) | CN109388135A (de) |
DE (1) | DE102018119467B4 (de) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10520940B2 (en) * | 2017-08-14 | 2019-12-31 | GM Global Technology Operations LLC | Autonomous operation using deep spatio-temporal learning |
US11203361B2 (en) * | 2020-05-05 | 2021-12-21 | StradVision, Inc. | Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same |
EP4162337A4 (de) | 2020-06-05 | 2024-07-03 | Gatik Ai Inc | Verfahren und system zur kontextbewussten entscheidungsfindung eines autonomen agenten |
CA3180994A1 (en) | 2020-06-05 | 2021-12-09 | Gautam Narang | Method and system for data-driven and modular decision making and trajectory generation of an autonomous agent |
WO2023114396A1 (en) | 2021-12-16 | 2023-06-22 | Gatik Ai Inc. | Method and system for addressing failure in an autonomous agent |
US12037011B2 (en) | 2021-12-16 | 2024-07-16 | Gatik Ai Inc. | Method and system for expanding the operational design domain of an autonomous agent |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19527323A1 (de) | 1995-07-26 | 1997-01-30 | Siemens Ag | Schaltungsanordnung zum Steuern einer Einrichtung in einem Kraftfahrzeug |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286524B1 (en) * | 2015-04-15 | 2016-03-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-task deep convolutional neural networks for efficient and robust traffic lane detection |
US20170286826A1 (en) * | 2016-03-30 | 2017-10-05 | Nec Laboratories America, Inc. | Real-time deep learning for danger prediction using heterogeneous time-series sensor data |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN106056628B (zh) * | 2016-05-30 | 2019-06-18 | 中国科学院计算技术研究所 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
US10139823B2 (en) * | 2016-09-13 | 2018-11-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and device for producing vehicle operational data based on deep learning techniques |
CN106407931B (zh) * | 2016-09-19 | 2019-11-22 | 杭州电子科技大学 | 一种深度卷积神经网络运动车辆检测方法 |
CN106599773B (zh) * | 2016-10-31 | 2019-12-24 | 清华大学 | 用于智能驾驶的深度学习图像识别方法、系统及终端设备 |
US10176388B1 (en) * | 2016-11-14 | 2019-01-08 | Zoox, Inc. | Spatial and temporal information for semantic segmentation |
CN106845418A (zh) * | 2017-01-24 | 2017-06-13 | 北京航空航天大学 | 一种基于深度学习的高光谱图像分类方法 |
CN106656637B (zh) * | 2017-02-24 | 2019-11-26 | 国网河南省电力公司电力科学研究院 | 一种电网异常检测方法及装置 |
CN106873566B (zh) * | 2017-03-14 | 2019-01-22 | 东北大学 | 一种基于深度学习的无人驾驶物流车 |
US10520940B2 (en) * | 2017-08-14 | 2019-12-31 | GM Global Technology Operations LLC | Autonomous operation using deep spatio-temporal learning |
CN108133484B (zh) * | 2017-12-22 | 2022-01-28 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法及装置、计算设备 |
US11016495B2 (en) * | 2018-11-05 | 2021-05-25 | GM Global Technology Operations LLC | Method and system for end-to-end learning of control commands for autonomous vehicle |
-
2017
- 2017-08-14 US US15/676,125 patent/US10520940B2/en active Active
-
2018
- 2018-07-31 CN CN201810859895.2A patent/CN109388135A/zh active Pending
- 2018-08-09 DE DE102018119467.6A patent/DE102018119467B4/de active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19527323A1 (de) | 1995-07-26 | 1997-01-30 | Siemens Ag | Schaltungsanordnung zum Steuern einer Einrichtung in einem Kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
CN109388135A (zh) | 2019-02-26 |
US20190049963A1 (en) | 2019-02-14 |
DE102018119467A1 (de) | 2019-05-02 |
US10520940B2 (en) | 2019-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018119467B4 (de) | Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen | |
EP3140813B1 (de) | Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges | |
EP3785177B1 (de) | Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes | |
WO2019001649A1 (de) | Wissenstransfer zwischen verschiedenen deep-learning architekturen | |
DE112020000448T5 (de) | Kameraselbstkalibrierungsnetz | |
DE102019202090A1 (de) | Verfahren zum Erzeugen eines Trainingsdatensatzes zum Trainieren eines Künstlichen-Intelligenz-Moduls für eine Steuervorrichtung eines Roboters | |
DE102019214402A1 (de) | Verfahren und vorrichtung zum verarbeiten von daten mittels eines neuronalen konvolutionsnetzwerks | |
DE102021129544A1 (de) | Systeme und verfahren zur tiefenabschätzung in einem fahrzeug | |
DE102020200503A1 (de) | Verfahren zum Generieren von gelabelten Daten, insbesondere für das Training eines neuronalen Netzes, mittels Verbesserung initialer Label | |
DE102018214198A1 (de) | System zum Bewerten eines Bildes, Betriebsassistenzverfahren und Steuereinheit für eine Arbeitsvorrichtung sowie Arbeitsvorrichtung | |
DE102020209538A1 (de) | Vorrichtung und Verfahren zum Ermitteln einer physikalischen Eigenschaft eines physikalischen Objekts | |
DE102022130893A1 (de) | Systeme und Verfahren für tiefes Multitask-Lernen für eingebettete Machine-Vision-Anwendungen | |
DE102021102663A1 (de) | Systeme und Verfahren zum Trainieren eines Nichtblind-Unschärfeentfernungsmoduls | |
DE102017201796A1 (de) | Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung | |
DE102021133977A1 (de) | Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren | |
EP3811199B1 (de) | Recheneinheit, verfahren und computerprogramm zum multiplizieren zumindest zweier multiplikanden | |
DE102021103919A1 (de) | Rccc-rgb-domain-übersetzung mit tiefen neuronalen netzen | |
DE102019215912A1 (de) | Verfahren und vorrichtung zum computer-implementierten betreiben eines neuronalen netzwerks | |
DE102020208765A1 (de) | Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten | |
DE102020120840A1 (de) | Computerimplementiertes Verfahren zur latenzarmen Erzeugung und Einspeisung von Sensordaten in ein Steuergerät oder in Steuergeräteverbünde | |
DE102019130484A1 (de) | Verfahren und Vorrichtung zum Anlernen eines Ensembles von neuronalen Netzen | |
DE102020209979A1 (de) | Verfahren und Vorrichtung zum Erkennen eines Objekts aus Eingabedaten | |
EP3895415A1 (de) | Transfer von zusatzinformation zwischen kamerasystemen | |
DE102021110056A1 (de) | Automatische visuelle Wahrnehmung mit globaler Aufmerksamkeit | |
DE102022121109A1 (de) | Visuelle Wahrnehmung mit einem Fahrzeug basierend auf einem Kamerabild und einer Ultraschallkarte |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |