DE102018119467B4 - Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen - Google Patents

Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen Download PDF

Info

Publication number
DE102018119467B4
DE102018119467B4 DE102018119467.6A DE102018119467A DE102018119467B4 DE 102018119467 B4 DE102018119467 B4 DE 102018119467B4 DE 102018119467 A DE102018119467 A DE 102018119467A DE 102018119467 B4 DE102018119467 B4 DE 102018119467B4
Authority
DE
Germany
Prior art keywords
control signals
vehicle
output
processing
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018119467.6A
Other languages
English (en)
Other versions
DE102018119467A1 (de
Inventor
Praveen Palanisamy
Upali P. Mudalige
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018119467A1 publication Critical patent/DE102018119467A1/de
Application granted granted Critical
Publication of DE102018119467B4 publication Critical patent/DE102018119467B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2900/00Indexing codes relating to the purpose of, or problem solved of road vehicle drive control systems not otherwise provided for in groups B60W30/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Durchführen eines autonomen Betriebs eines Fahrzeugs, das Verfahren umfassend:Erhalten eines oder mehrerer Einzelbilder für eine Zeitinstanz t von einem oder mehreren Sensoren;Verarbeiten des einen oder mehrerer Einzelbilder, wobei das Verarbeiten die Durchführung einer Faltungsverarbeitung beinhaltet, um eine mehrdimensionale Matrix xtzu erhalten;Betreiben auf der mehrdimensionalen Matrix xt, um die Ausgabe ht zu erhalten, wobei das Betreiben die Verwendung einer Ausgabe ht-1des Betreibens für eine vorherige Zeitinstanz t-1 beinhaltet; undNachbearbeitung der Ausgabe ht, um ein oder mehrere Steuersignale zu erhalten, die den Betrieb des Fahrzeugs beeinträchtigen.

Description

  • EINLEITUNG
  • Die vorliegende Erfindung betrifft ein Verfahren zum Durchführen eines autonomen Betriebs eines Fahrzeugs durch tiefes räumlich-zeitliches Lernen.
  • Zur Hintergrundinformation sei an dieser Stelle vorab auf die DE 195 27 323 A1 verwiesen.
  • Autonome Fahrzeugsysteme können Fahraufgaben wie Bremsen, Lenken, Einparken oder sogar durchgängiges Fahren ergänzen oder automatisieren. Viele dieser autonomen Fahrzeugsysteme basieren auf einer geschichteten Architektur, die das Erhalten von Sensordaten, das Verschmelzen von Sensordaten von verschiedenen Sensoren, das Bestimmen von Umgebungsbedingungen, die Planung und schließlich die Ausgabe von Befehlen zum Ausführen der geplanten Aktionen beinhaltet. Neuronale Netze wurden verwendet, um Befehle direkt basierend auf dem Sensoreingang auszugeben. Diese neuronalen Netze sind typischerweise tiefe neuronale Netze mit verborgenen Schichten, um beispielsweise eine Reihe von Bildern zu verarbeiten. Diese neuronalen Netze arbeiten auf einer Frame-by-Frame-Basis, sodass Befehle unter Berücksichtigung der räumlichen, aber nicht der zeitlichen Verarbeitung ausgegeben werden. Dementsprechend ist es wünschenswert, einen autonomen Betrieb durch tiefes räumlich-zeitliches Lernen vorzusehen.
  • KURZDARSTELLUNG
  • In einer exemplarischen Ausführungsform beinhaltet ein Verfahren zum Ausführen eines autonomen Betriebs eines Fahrzeugs das Erhalten eines oder mehrerer Einzelbilder für eine Zeitinstanz t von einem oder mehreren Sensoren und das Verarbeiten des einen oder der mehreren Einzelbilder, wobei das Verarbeiten das Ausführen einer Faltungsverarbeitung beinhaltet, um eine mehrdimensionale Matrix xt zu erhalten. Das Verfahren beinhaltet auch das Betreiben der mehrdimensionalen Matrix xt, um die Ausgabe ht zu erhalten, wobei das Betreiben die Verwendung einer Ausgabe ht-1 des Betriebs für eine vorherige Zeitinstanz t-1 und die Nachbearbeitung der Ausgabe ht beinhaltet, um ein oder mehrere Steuersignale zum Beeinflussen des Betriebs des Fahrzeugs zu erhalten.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet die Verarbeitung des einen oder der mehreren Einzelbilder die Normalisierung jedes einzelnen Einzelbildes vor dem Ausführen der Faltungsverarbeitung.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet das Ausführen der Faltungsverarbeitung das Ausführen von N aufeinanderfolgenden Faltungen mit N Kernelmatrizen, wobei die Kernelmatrizen zunächst einen Zufallswert und eine vordefinierte Größe und Abmessung aufweisen.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet das Betreiben der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 des Betriebs für die vorherige Zeitinstanz t-1 das Ausführen von Berechnungen nichtlinearer Funktionen unter Verwendung von Gewichtungen.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen werden das eine oder die mehreren Steuersignale während eines Trainingsmodus mit einem oder mehreren tatsächlichen Steuersignalen verglichen.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen werden die Gewichtungen basierend auf dem Vergleich optimiert.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet die Nachbearbeitung der Ausgabe ht, um das eine oder die mehreren Steuersignale zu erhalten, das Umwandeln der Ausgabe ht in einen eindimensionalen Vektor und das Abbilden des eindimensionalen Vektors auf das eine oder die mehreren Steuersignale.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen werden das eine oder die mehreren Steuersignale einem Fahrzeugsteuerungssystem des Fahrzeugs zur Verfügung gestellt.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen werden das eine oder die mehreren Steuersignale einem autonomen Lenksystem des Fahrzeugs zur Verfügung gestellt.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet das Bereitstellen eines oder mehrerer Steuersignale das Bereitstellen eines oder mehrerer Lenkungs-, Gashebel- oder Bremssignale.
  • In einer weiteren exemplarischen Ausführungsform beinhaltet ein System zum autonomen Betrieb eines Fahrzeugs einen oder mehrere Sensoren, um einen oder mehrere Einzelbilder für eine Zeitinstanz t zu erhalten. Das System beinhaltet auch eine Steuerung zum Verarbeiten des einen oder der mehreren Einzelbilder, einschließlich dem Ausführen einer Faltungsbearbeitung, um eine mehrdimensionale Matrix xt zu erhalten, um auf der mehrdimensionalen Matrix xt zu arbeiten, um die Ausgabe ht zu erhalten. Eine Ausgabe ht-1 des Betriebs wird für eine vorherige Zeitinstanz t-1 verwendet, und die Ausgabe ht wird nachbearbeitet, um ein oder mehrere Steuersignale zu erhalten, die den Betrieb des Fahrzeugs beeinträchtigen.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen verarbeitet die Steuerung das eine oder die mehreren Einzelbilder, indem sie jedes der Einzelbilder vor dem Ausführen der Faltungsverarbeitung normalisiert.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen beinhaltet die Steuerung, welche die Faltungsverarbeitung ausführt, das Ausführen von N aufeinanderfolgenden Faltungen mit N Kernelmatrizen. Die Kernelmatrizen weisen zunächst einen Zufallswert und eine feste Größe und Abmessung auf.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen arbeitet die Steuerung auf der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 der Operation für die vorhergehende Zeitinstanz t-1, indem sie Berechnungen nichtlinearer Funktionen mit Gewichtungen durchführt.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen vergleicht die Steuerung ein oder mehrere Steuersignale jeweils mit einem oder mehreren tatsächlichen Steuersignalen während eines Trainingsmodus.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen optimiert die Steuerung die Gewichtungen basierend auf dem Vergleich.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen die Steuerung eine Nachbearbeitung der Ausgabe ht durch, um das eine oder die mehreren Steuersignale zu erhalten, indem sie die Ausgabe ht in einen eindimensionalen Vektor umwandelt und den eindimensionalen Vektor auf ein oder mehrere Steuersignale abbildet.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen liefert die Steuerung ein oder mehrere Steuersignale an ein Fahrzeugsteuerungssystem des Fahrzeugs.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen ist das Fahrzeugsteuerungssystem ein autonomes Lenksystem des Fahrzeugs.
  • Neben einer oder mehreren der hierin beschriebenen Funktionen ist das eine oder die mehreren Steuersignale eines oder mehrere von einem Lenkungs-, Gashebel- oder Bremssignal.
  • Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Erfindung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den zugehörigen Zeichnungen ohne weiteres hervor.
  • Figurenliste
  • Andere Merkmale, Vorteile und Details erscheinen nur exemplarisch in der folgenden ausführlichen Beschreibung der Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, wobei gilt:
    • 1 ist ein Blockdiagramm eines autonomen Fahrzeugsystems mit einer autonomen Fahrarchitektur unter Verwendung eines tiefen räumlich-zeitlichen Lernens gemäß einer oder mehrerer Ausführungsformen;
    • 2 ist ein Blockflussdiagramm der neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen;
    • 3 ist ein Blockdiagramm der Funktionalität der räumlich-zeitlichen Einheit, die Teil der neuronalen Netzwerkarchitektur gemäß einer oder mehreren Ausführungsformen ist; und
    • 4 ist ein Prozessablauf des Trainings und der Nutzung der neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich exemplarischer Natur.
  • Wie bereits erwähnt, können neuronale Netze Sensoreingänge empfangen und Befehle zum Steuern von Aspekten des autonomen Fahrens bereitstellen. In autonomen Antriebssystemen können beispielsweise Bremse, Gashebel, Lenkung oder Getriebe oder eine beliebige Kombination derselben basierend auf den vom neuronalen Netz erzeugten Steuersignalen gesteuert werden. Wenn die Verarbeitung des neuronalen Netzes auf Frame-by-Frame-Basis erfolgt, können die daraus resultierenden autonomen Fahrbefehle eher eine raue Fahrt als einen reibungslosen Betrieb erzeugen. Die hierin beschriebenen Systeme und Verfahren beziehen sich auf ein neuronales Netz zum Übersetzen von Bildpunkten in Steuersignale. Die Architektur des neuronalen Netzes implementiert tiefes räumlich-zeitliches Lernen basierend auf einem Speicherelement, das eine Rückkopplung von vorherigen Einzelbildern ermöglicht. Diese Berücksichtigung des zeitlichen und räumlichen Einsatzes beim Erzeugen des autonomen Fahrbefehls zu jeder Zeitinstanz führt zu einem Satz ausgegebener Befehle, die einen reibungsloseren Übergang des Systems ermöglichen. Während die Lenkungssteuerung speziell zu Erläuterungszwecken behandelt wird, kann die eine oder die Ausführungsformen der hierin aufgeführten Architektur auch auf andere autonome Antriebssysteme wie Gas-, Getriebe- und Bremssteuerung angewendet werden.
  • Gemäß einer exemplarischen Ausführungsform stellt 1 ein Blockdiagramm eines autonomen Fahrzeugsystems mit autonomer Fahrarchitektur unter Verwendung eines tiefen räumlich-zeitlichen Lernens dar. Das in 1 dargestellte Fahrzeug 100 ist ein Automobil 101. Eine Steuerung 110 stellt autonome Betriebsbefehle (basierend auf den Steuersignalen 290, 2) an ein Lenksystem 130 oder andere Fahrzeugsysteme 140 zur Verfügung. Die Steuerung 110 verwendet Bilder von einem oder mehreren Sensoren 150a, 150b, 150c (allgemein als 150 bezeichnet), um die Befehle zu bestimmen. Der Sensor 150 kann beispielsweise eine Stand- oder Videokamera, ein Bildgebungsradar oder ein Lichtdetektions- und Entfernungssystem (Lidar) sein, das eine Punktwolke als Bild erhält. Ein Bildrahmen wird von jedem Sensor 150 zu jedem Zeitpunkt für zwei oder mehr Zeitpunkte erhalten. Während 1 drei Sensoren 150 in der exemplarischen Ausführungsform darstellt, können beliebig viele Sensoren 150 an verschiedenen Stellen des Fahrzeugs 100 eingesetzt werden. Das Lenksystem 130 und andere Fahrzeugsysteme 140 stellen die verschiedenen Komponenten dar, die sich auf die Steuerung des vorgegebenen Systems beziehen. Wie bereits erwähnt, können die autonomen Betriebsbefehle der Steuerung 110 beispielsweise Steuersignale 290 (2) beinhalten, die neben der Steuerung der Lenkung selbst auch die Steuerung von Brems-, Getriebe- und Gaspedalniveau ermöglichen. Alle Komponenten, aus denen sich die Lenksteuerung zusammensetzt, werden durch das in 1 dargestellte Lenksystem 130 repräsentiert.
  • Die Steuerung 110 beinhaltet die neuronale Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. Die Steuerung 110 beinhaltet eine Verarbeitungsschaltung, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor 115 (gemeinsam genutzte oder dedizierte oder Gruppe) und einen Speicher 120 beinhalten kann, der ein oder mehrere Software- oder Firmwareprogramme, wie in 1 dargestellt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, welche die beschriebene Funktionalität bereitstellen. Die durch die Steuerung 110 implementierte neuronale Netzwerkarchitektur wird unter Bezugnahme auf 2 skizziert.
  • 2 ist ein Blockflussdiagramm der durch die Steuerung 110 implementierten neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. Wie mit Bezug auf 1 erwähnt, ist die in 2 dargestellte neuronale Netzwerkarchitektur Teil der Steuerung 110, die ein autonomes Fahrzeugsystem mit einer autonomen Lenkungsarchitektur ermöglicht, die gemäß dem zur Erläuterung behandelten exemplarischen Fall ein tiefes, wiederkehrendes Lernen ermöglicht. Die Verarbeitungsblöcke werden für drei Zeitinstanzen (t0, t0+1, t0+k) aus k+1 Zeitinstanzen dargestellt, für die die Verarbeitung durchgeführt wird. Zu jedem Zeitpunkt werden die Einzelbilder 205 (ein Einzelbild 205 von jedem Sensor 150) bei Block 210 erhalten. Bei Block 220 werden die bei Block 210 erhaltenen Einzelbilder 205 normalisiert. Bei diesem bekannten Verfahren wird die Intensität (z. B. 0-255 Graustufen-Intensitätsbereich) der mit jedem Einzelbild assoziierten Pixelmatrix auf einen normierten Wert (z. B. 0-1) normiert oder abgebildet, um eine normierte Pixelmatrix 215 für jedes Einzelbild zu erzeugen.
  • Bei Block 230 wird ein Faltungsprozess der normierten Pixelmatrix 215 mit einer Kernelmatrix (Kernel1) durchgeführt. Das Ergebnis der Faltung conv1 225 ist eine Eingabe in die Faltung bei Block 240. Eine Faltung der Matrix conv1 225, die sich aus der Faltung bei Block 230 mit einer anderen Kernelmatrix (Kernel2) ergibt, führt zu conv2 235. Dies wiederum ist der Eingang zu einer weiteren Faltung bei Block 250. Eine Faltung der Matrix conv2 235, die sich aus der Faltung bei Block 240 mit einer anderen Kernelmatrix (Kernel3) ergibt, führt zu conv3 245.
  • Auf diese Weise ist die Faltung bei Block 260 die Nth Faltung unter Verwendung der Kernelmatrix (Kernel) und ergibt convN 255 (bezeichnet als Eingang xt). Der Wert von N (d. h. die Anzahl der Faltungsprozesse) ist einer oder mehrere und ist, einmal bestimmt, bei der Verarbeitung von Einzelbildern 205 in jeder Zeitinstanz gleich. Die Größe, Dimension und Werte der einzelnen Kernelmatrizen (kernel1 bis kernelN) sind anpassbar. Zunächst sind die Werte der einzelnen Kernelmatrizen zufällig, während die Größe und Dimension festgelegt sind (vordefiniert). Die feste Größe und Dimension kann mit einem bekannten pyramidalen Ansatz, wie beispielsweise den Gaußschen Pyramiden, bestimmt werden. Das Ergebnis jedes Faltungsprozesses (conv1 225 bis convN 255) ist eine mehrdimensionale Matrix, die eine LxL-Matrix ist (z. B. 256 x 256). Somit ist xt eine LxL-Matrix.
  • Die N-Faltungsprozesse stellen die räumliche Dimension der Verarbeitung neuronaler Netze dar. Die mehrfachen Zeitinstanzen (t0, t0+1,..., t0+k) stellen die zeitliche Dimension der Verarbeitung des neuronalen Netzes dar. Eine Speichereinheit (MU) 270 verarbeitet die Ausgabe (xt) des letzten (N-ten) Faltungsprozesses und das Ergebnis (ht-1) aus der MU 270 in einem vorherigen Zeitschritt (außer t=t0) bei Block 260 wie in 3 ausgeführt. Die Verwendung des Ergebnisses aus dem vorherigen Zeitschritt stellt den wiederkehrenden (zeitlichen) Aspekt des Lernens dar. Zu einem gegebenen Zeitpunkt t werden die historischen Daten für jeden vorherigen Zeitschritt, der mit t=t0 beginnt, in ht-1 kodiert. Eine exemplarische MU 270 ist eine geschlossene wiederkehrende Einheit (GRU). Bei Block 280 durchläuft der Ausgabe ht der MU 270 bekannte Abflachungs- und Abbildungsprozesse zum Erzeugen des Steuersignals 290. Die Abflachung bezieht sich auf die Umwandlung der mehrdimensionalen Matrix ht, die von der MU 270 ausgegeben wird, in einen eindimensionalen Vektor. Die Abbildung beinhaltet eine nichtlineare Abbildungsfunktion zum Umwandeln des aus der Abflachung resultierenden eindimensionalen Vektors in das Steuersignal 290, das letztlich einem Fahrzeugsystem 140 zur Verfügung gestellt wird.
  • 3 ist ein Blockdiagramm der Funktionalität der MU 270, die Teil der neuronalen Netzwerkarchitektur gemäß einer oder mehreren Ausführungsformen ist. Jede MU 270 fungiert als Neuron des neuronalen Netzes. Zu einer gegebenen Zeitinstanz t erhält die MU 270 die Ausgabe (xt) des letzten (N-ten) Faltungsprozesses. Wenn der Zeitschritt t ein anderer Zeitschritt als der erste Zeitschritt ist (d. h. wenn t≠t0) ist, erhält die MU 270 auch die Ausgabe oder das MU 270-Ergebnis (ht-1) aus dem vorherigen Zeitschritt. Wenn mehrere Steuersignale 290 zur Verfügung stehen, kann in jedem Zeitschritt eine einzige MU 270 verwendet werden, wie für die exemplarische Ausführungsform von 2 dargestellt, wobei die Abbildung (bei Block 280) mehrere Steuersignale 290 (z. B. Lenkung, Gaspedalstellung, Bremsen, Getriebe) statt eines einzelnen Steuersignals 290 aus dem eindimensionalen Vektor ausgibt. Gemäß alternativen Ausführungsformen kann ein separates MU 270 jedes Steuersignal 290 erzeugen.
  • Die innerhalb der MU 270 durchgeführten Operationen beinhalten das Berechnen von rt, zt und ot, wie nachstehend aufgeführt. z t = ϕ 1 ( W z [ h t 1 ,   x t ] )
    Figure DE102018119467B4_0001
    r t = ϕ 2 ( W r [ h t 1 ,   x t ] )
    Figure DE102018119467B4_0002
    o t = ϕ 3 ( W o [ r r h t 1 ,   x t ] )
    Figure DE102018119467B4_0003
  • In GL. 1-3, sind Wz, Wr, und Wo Gewichtungen, die bei jedem Zeitschritt, wie unter Bezugnahme auf 4 ausgeführt, bestimmt werden. Das Symbol ϕ stellt eine nichtlineare Funktion dar, und ϕ1, ϕ2 und ϕ3 können eine der folgenden exemplarischen nichtlinearen Funktionen sein: ϕ ( v ) = tanh ( v )
    Figure DE102018119467B4_0004
  • In GL. 4 ist tanh der hyperbolische Tangens, und v bezieht sich auf den Wert, auf den die Funktion ϕ wirkt. ϕ ( v ) = 1 ( 1 + e v )
    Figure DE102018119467B4_0005
    ϕ ( v ) = e v c p 2 σ p
    Figure DE102018119467B4_0006
  • In GL. 6 ist c eine Konstante, σ eine Varianz und p eine Potenz (z. B. p=2). Die Konstante c, die Varianz σ und die Leistung p sind abstimmbare Parameter, die durch Experimente bestimmt werden können. Unter Verwendung der in den GL. 1-3 dargestellten Berechnungen, wird die Ausgabe der MU 270 (ht) errechnet als: h t = ( 1 z t ) h t 1 + z t o t
    Figure DE102018119467B4_0007
  • Bei der Angabe in 3 ist die Ausgabe ht der MU 270 für die Abflachung und Abbildung, bei Block 280, vorgesehen und wird auch der MU 270 für die nächste Zeitinstanz zur Verfügung gestellt. Diese Verwendung der MU 270-Ausgabe ht in der nachfolgenden Zeitinstanz stellt den zeitlichen Aspekt der autonomen Betriebsarchitektur gemäß der einen oder der mehreren Ausführungsformen dar.
  • 4 ist ein Prozessablauf des Trainings und der Nutzung der neuronalen Netzwerkarchitektur gemäß einer oder mehrerer Ausführungsformen. Wie mit Bezug auf 2 behandelt, beinhaltet das Erhalten von Einzelbildern 205, bei Block 210, das Erhalten von Einzelbildern 205 der M-Sensoren 150, die an verschiedenen Stellen des Fahrzeugs 100 zu einer Zeitinstanz t angeordnet sind. Die Anzahl der Sensoren 150, M, beträgt einer oder mehrere. Bei Block 410 beinhaltet das Verarbeiten der M-Einzelbilder 205 die Normalisierung, wie bei Block 220 dargestellt, und die N-Faltungsprozesse, wie sie bei den Blöcken 220 bis 260 in 2 dargestellt sind. Die Durchführung der MU 270-Funktionalität und der Nachbearbeitung bei Block 420, beinhaltet die Durchführung der unter Bezugnahme auf 3 (bei Block 270) behandelten Funktionalität, um die Ausgabe ht zu erhalten, sowie die Durchführung der Abflachung und Abbildung (bei Block 280), um ein oder mehrere Steuersignale 290 zu erhalten. Bei Block 430 wird geprüft, ob das eine oder die mehreren bei Block 420 erzeugten Steuersignale 290 in einem Trainingsmodus erzeugt werden. Wenn das eine oder die mehreren Steuersignale 290 nicht für Trainingszwecke erzeugt werden, bezieht sich das Bereitstellen des einen oder der mehreren Steuersignale 290 bei Block 440 auf das Bereitstellen an die Fahrzeugsysteme 140 zum Steuern des Betriebs des Fahrzeugs 100.
  • Bei Block 450 bezieht sich das Erhalten der tatsächlichen Steuersignale auf den Betrieb des Fahrzeugs 100 oder die Simulation des Betriebs des Fahrzeugs 100, um die gleiche Art von Steuersignalen (z. B. Lenkung, Gaspedalstellung, Bremsen, Getriebe) zu erhalten, die von der Steuerung 110 erzeugt werden, welche die neuronale Netzwerkarchitektur gemäß der einen oder mehreren hierin ausgeführten Ausführungsformen beinhaltet. Wenn das eine oder die mehreren Steuersignale 290 zu Trainingszwecken erzeugt werden (gemäß der Prüfung bei Block 430), dann bezieht sich das Berechnen eines Verlustes bei Block 460 auf den Vergleich des einen oder der mehreren Steuersignale 290, die von der Steuerung 110 erzeugt werden, mit den gleichen Steuersignalen, die bei Block 450 erhalten werden.
  • Die Optimierungsparameter bei Block 470 basieren auf der Berechnung bei Block 460. Diese Optimierung beinhaltet das Modifizieren der Werte von kernel1 bis kernelN, die in den N-Faltungsprozessen verwendet werden. Die Optimierung beinhaltet auch das Modifizieren der Gewichtungen Wz, Wr und Wo nach Bedarf. Die Optimierung wirkt sich auf die Faltungsprozesse oder MU 270 oder beides in der nächsten Zeitinstanz (t+1) aus. Die Anfangswerte der Gewichtungen Wz, Wr und Wo können auf verschiedene Weise bestimmt werden. So können die Werte beispielsweise als Konstanten initialisiert werden. Sie können stattdessen aus einer Gaußschen Verteilung, Gleichverteilung oder Normalverteilung entnommen oder als orthogonale oder spärliche Matrix initialisiert werden.

Claims (10)

  1. Verfahren zum Durchführen eines autonomen Betriebs eines Fahrzeugs, das Verfahren umfassend: Erhalten eines oder mehrerer Einzelbilder für eine Zeitinstanz t von einem oder mehreren Sensoren; Verarbeiten des einen oder mehrerer Einzelbilder, wobei das Verarbeiten die Durchführung einer Faltungsverarbeitung beinhaltet, um eine mehrdimensionale Matrix xt zu erhalten; Betreiben auf der mehrdimensionalen Matrix xt, um die Ausgabe ht zu erhalten, wobei das Betreiben die Verwendung einer Ausgabe ht-1 des Betreibens für eine vorherige Zeitinstanz t-1 beinhaltet; und Nachbearbeitung der Ausgabe ht, um ein oder mehrere Steuersignale zu erhalten, die den Betrieb des Fahrzeugs beeinträchtigen.
  2. Verfahren nach Anspruch 1, wobei das Verarbeiten des einen oder der mehreren Einzelbilder das Normalisieren jedes der einen oder der mehreren Einzelbilder vor dem Durchführen der Faltungsverarbeitung und das Durchführen der Faltungsverarbeitung das Durchführen von N aufeinanderfolgenden Faltungen mit N Kernelmatrizen beinhaltet, wobei die Kernelmatrizen zunächst einen Zufallswert und eine vordefinierte Größe und Dimension aufweisen.
  3. Verfahren nach Anspruch 1, wobei das Arbeiten auf der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 des Betriebs für die vorhergehende Zeitinstanz t-1 das Durchführen von Berechnungen nichtlinearer Funktionen unter Verwendung von Gewichtungen beinhaltet, wobei das eine oder die mehreren Steuersignale jeweils mit einem oder mehreren tatsächlichen Steuersignalen während eines Trainingsmodus verglichen werden und die Gewichtungen basierend auf dem Vergleich optimiert werden.
  4. Verfahren nach Anspruch 1, wobei die Nachbearbeitung der Ausgabe ht, um das eine oder die mehreren Steuersignale zu erhalten, das Umwandeln der Ausgabe ht in einen eindimensionalen Vektor und das Abbilden des eindimensionalen Vektors auf das eine oder die mehreren Steuersignale beinhaltet.
  5. Verfahren nach Anspruch 1, ferner umfassend das Bereitstellen des einen oder der mehreren Steuersignale an ein Fahrzeugsteuerungssystem des Fahrzeugs, wobei das eine oder die mehreren Steuersignale an ein autonomes Lenksystem des Fahrzeugs als Lenk-, Gaspedal-, Getriebe- oder Bremssignal geliefert werden.
  6. System zum Durchführen eines autonomen Betriebs eines Fahrzeugs, das System umfassend: einen oder mehrere Sensoren, die konfiguriert sind, um einen oder mehrere Einzelbilder für eine Zeitinstanz t zu erhalten; eine Steuerung, die konfiguriert ist, um das eine oder mehrere Einzelbilder zu verarbeiten, einschließlich der Durchführung einer Faltungsverarbeitung, um eine mehrdimensionale Matrix xt zu erhalten, um auf der mehrdimensionalen Matrix xt zu arbeiten, um eine Ausgabe ht zu erhalten, wobei das Arbeiten das Verwenden einer Ausgabe ht-1 des Betriebs für eine vorherige Zeitinstanz t-1 und das Nachverarbeiten der Ausgabe ht, um ein oder mehrere Steuersignale zu erhalten, um den Betrieb des Fahrzeugs zu beinträchtigen.
  7. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, um das eine oder die mehreren Einzelbilder durch Normalisieren jedes der einen oder der mehreren Einzelbilder vor dem Durchführen der Faltungsverarbeitung zu verarbeiten, und die Steuerung, welche die Faltungsverarbeitung durchführt, N aufeinanderfolgende Faltungen mit N Kernelmatrizen beinhaltet, wobei die Kernelmatrizen zunächst einen Zufallswert und eine feste Größe und Dimension aufweisen.
  8. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, um auf der mehrdimensionalen Matrix xt unter Verwendung der Ausgabe ht-1 des Betriebs für die vorhergehende Zeitinstanz t-1 durch Ausführen von Berechnungen nichtlinearer Funktionen unter Verwendung von Gewichtungen zu arbeiten, wobei die Steuerung ferner konfiguriert ist, um das eine oder die mehreren Steuersignale jeweils mit einem oder mehreren tatsächlichen Steuersignalen während eines Trainingsmodus zu vergleichen, und wobei die Steuerung ferner konfiguriert ist, um die Gewichtungen basierend auf dem Vergleich zu optimieren.
  9. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, die Ausgabe ht zum Erhalten des einen oder der mehreren Steuersignale nachzubearbeiten, indem die Ausgabe ht in einen eindimensionalen Vektor umgewandelt und der eindimensionale Vektor auf das eine oder die mehreren Steuersignale abgebildet wird.
  10. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, um das eine oder die mehreren Steuersignale an ein Fahrzeugsteuerungssystem des Fahrzeugs bereitzustellen, wobei das Fahrzeugsteuerungssystem ein autonomes Lenksystem des Fahrzeugs ist und das eine oder die mehreren Steuersignale ein oder mehrere von einem Lenk-, Gaspedal-, Brems- oder Getriebesteuersignal sind.
DE102018119467.6A 2017-08-14 2018-08-09 Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen Active DE102018119467B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/676,125 US10520940B2 (en) 2017-08-14 2017-08-14 Autonomous operation using deep spatio-temporal learning
US15/676,125 2017-08-14

Publications (2)

Publication Number Publication Date
DE102018119467A1 DE102018119467A1 (de) 2019-05-02
DE102018119467B4 true DE102018119467B4 (de) 2023-08-03

Family

ID=65274989

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018119467.6A Active DE102018119467B4 (de) 2017-08-14 2018-08-09 Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen

Country Status (3)

Country Link
US (1) US10520940B2 (de)
CN (1) CN109388135A (de)
DE (1) DE102018119467B4 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10520940B2 (en) * 2017-08-14 2019-12-31 GM Global Technology Operations LLC Autonomous operation using deep spatio-temporal learning
US11203361B2 (en) * 2020-05-05 2021-12-21 StradVision, Inc. Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same
EP4162337A4 (de) 2020-06-05 2024-07-03 Gatik Ai Inc Verfahren und system zur kontextbewussten entscheidungsfindung eines autonomen agenten
CA3180994A1 (en) 2020-06-05 2021-12-09 Gautam Narang Method and system for data-driven and modular decision making and trajectory generation of an autonomous agent
WO2023114396A1 (en) 2021-12-16 2023-06-22 Gatik Ai Inc. Method and system for addressing failure in an autonomous agent
US12037011B2 (en) 2021-12-16 2024-07-16 Gatik Ai Inc. Method and system for expanding the operational design domain of an autonomous agent

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19527323A1 (de) 1995-07-26 1997-01-30 Siemens Ag Schaltungsanordnung zum Steuern einer Einrichtung in einem Kraftfahrzeug

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286524B1 (en) * 2015-04-15 2016-03-15 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-task deep convolutional neural networks for efficient and robust traffic lane detection
US20170286826A1 (en) * 2016-03-30 2017-10-05 Nec Laboratories America, Inc. Real-time deep learning for danger prediction using heterogeneous time-series sensor data
US9760806B1 (en) * 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
CN106056628B (zh) * 2016-05-30 2019-06-18 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及系统
US10139823B2 (en) * 2016-09-13 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Method and device for producing vehicle operational data based on deep learning techniques
CN106407931B (zh) * 2016-09-19 2019-11-22 杭州电子科技大学 一种深度卷积神经网络运动车辆检测方法
CN106599773B (zh) * 2016-10-31 2019-12-24 清华大学 用于智能驾驶的深度学习图像识别方法、系统及终端设备
US10176388B1 (en) * 2016-11-14 2019-01-08 Zoox, Inc. Spatial and temporal information for semantic segmentation
CN106845418A (zh) * 2017-01-24 2017-06-13 北京航空航天大学 一种基于深度学习的高光谱图像分类方法
CN106656637B (zh) * 2017-02-24 2019-11-26 国网河南省电力公司电力科学研究院 一种电网异常检测方法及装置
CN106873566B (zh) * 2017-03-14 2019-01-22 东北大学 一种基于深度学习的无人驾驶物流车
US10520940B2 (en) * 2017-08-14 2019-12-31 GM Global Technology Operations LLC Autonomous operation using deep spatio-temporal learning
CN108133484B (zh) * 2017-12-22 2022-01-28 北京奇虎科技有限公司 基于场景分割的自动驾驶处理方法及装置、计算设备
US11016495B2 (en) * 2018-11-05 2021-05-25 GM Global Technology Operations LLC Method and system for end-to-end learning of control commands for autonomous vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19527323A1 (de) 1995-07-26 1997-01-30 Siemens Ag Schaltungsanordnung zum Steuern einer Einrichtung in einem Kraftfahrzeug

Also Published As

Publication number Publication date
CN109388135A (zh) 2019-02-26
US20190049963A1 (en) 2019-02-14
DE102018119467A1 (de) 2019-05-02
US10520940B2 (en) 2019-12-31

Similar Documents

Publication Publication Date Title
DE102018119467B4 (de) Verfahren zum durchführen eines autonomen betriebs eines fahrzeugs durch tiefes räumlich-zeitliches lernen
EP3140813B1 (de) Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
EP3785177B1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
WO2019001649A1 (de) Wissenstransfer zwischen verschiedenen deep-learning architekturen
DE112020000448T5 (de) Kameraselbstkalibrierungsnetz
DE102019202090A1 (de) Verfahren zum Erzeugen eines Trainingsdatensatzes zum Trainieren eines Künstlichen-Intelligenz-Moduls für eine Steuervorrichtung eines Roboters
DE102019214402A1 (de) Verfahren und vorrichtung zum verarbeiten von daten mittels eines neuronalen konvolutionsnetzwerks
DE102021129544A1 (de) Systeme und verfahren zur tiefenabschätzung in einem fahrzeug
DE102020200503A1 (de) Verfahren zum Generieren von gelabelten Daten, insbesondere für das Training eines neuronalen Netzes, mittels Verbesserung initialer Label
DE102018214198A1 (de) System zum Bewerten eines Bildes, Betriebsassistenzverfahren und Steuereinheit für eine Arbeitsvorrichtung sowie Arbeitsvorrichtung
DE102020209538A1 (de) Vorrichtung und Verfahren zum Ermitteln einer physikalischen Eigenschaft eines physikalischen Objekts
DE102022130893A1 (de) Systeme und Verfahren für tiefes Multitask-Lernen für eingebettete Machine-Vision-Anwendungen
DE102021102663A1 (de) Systeme und Verfahren zum Trainieren eines Nichtblind-Unschärfeentfernungsmoduls
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
EP3811199B1 (de) Recheneinheit, verfahren und computerprogramm zum multiplizieren zumindest zweier multiplikanden
DE102021103919A1 (de) Rccc-rgb-domain-übersetzung mit tiefen neuronalen netzen
DE102019215912A1 (de) Verfahren und vorrichtung zum computer-implementierten betreiben eines neuronalen netzwerks
DE102020208765A1 (de) Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten
DE102020120840A1 (de) Computerimplementiertes Verfahren zur latenzarmen Erzeugung und Einspeisung von Sensordaten in ein Steuergerät oder in Steuergeräteverbünde
DE102019130484A1 (de) Verfahren und Vorrichtung zum Anlernen eines Ensembles von neuronalen Netzen
DE102020209979A1 (de) Verfahren und Vorrichtung zum Erkennen eines Objekts aus Eingabedaten
EP3895415A1 (de) Transfer von zusatzinformation zwischen kamerasystemen
DE102021110056A1 (de) Automatische visuelle Wahrnehmung mit globaler Aufmerksamkeit
DE102022121109A1 (de) Visuelle Wahrnehmung mit einem Fahrzeug basierend auf einem Kamerabild und einer Ultraschallkarte

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final