DE102021114514A1 - Fahrzeug, modelltrainingssystem und server - Google Patents

Fahrzeug, modelltrainingssystem und server Download PDF

Info

Publication number
DE102021114514A1
DE102021114514A1 DE102021114514.7A DE102021114514A DE102021114514A1 DE 102021114514 A1 DE102021114514 A1 DE 102021114514A1 DE 102021114514 A DE102021114514 A DE 102021114514A DE 102021114514 A1 DE102021114514 A1 DE 102021114514A1
Authority
DE
Germany
Prior art keywords
vehicle
model
vehicles
training conditions
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021114514.7A
Other languages
English (en)
Inventor
Ryo Nakabayashi
Daiki Yokoyama
Hiroshi Oyagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102021114514A1 publication Critical patent/DE102021114514A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0031Mathematical model of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • B60W2050/046Monitoring control system parameters involving external transmission of data to or from the vehicle, e.g. via telemetry, satellite, Global Positioning System [GPS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

Ein Fahrzeug (2) weist eine erste Kommunikationseinheit (24), die so konfiguriert ist, dass sie mit einem Server (1) kommuniziert, der trainierte Modelle von anderen Fahrzeugen und eine Information in Bezug auf Trainingsbedingungen der Modelle der anderen Fahrzeuge korrelierend speichert, und eine erste Steuereinheit (20) auf. Die erste Steuereinheit (20) ist so konfiguriert, dass sie eine Information in Bezug auf Trainingsbedingungen eines Modells eines Eigenfahrzeugs an den Server (1) überträgt. Die erste Steuereinheit (20) ist so konfiguriert, dass sie einen Teil eines Modells eines bestimmten Fahrzeugs, dessen Trainingsbedingungen denen des Modells des Eigenfahrzeugs, das aus den Modellen der anderen Fahrzeuge ausgewählt wurde, die in dem Server (1) gespeichert sind, am ähnlichsten ist, als Transferlerndaten empfängt. Die erste Steuereinheit (20) ist so konfiguriert, dass sie einen Teil des empfangenen Modells des bestimmten Fahrzeugs wiederverwendet und ein Training des Modells des Eigenfahrzeugs durchführt.

Description

  • HINTERGRUND
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Fahrzeug, ein Modelltrainingssystem und einen Server.
  • 2. Stand der Technik
  • Die Veröffentlichung der japanischen Patentanmeldung Nr. 2019 - 183 698 ( JP 2019 - 183 698 A ) offenbart eine Technik, bei der ein trainiertes Modell, das auf einem Server trainiert wurde, an ein Fahrzeug übertragen wird, und bei der die Temperatur eines Abgassteuerungskatalysators eines Verbrennungsmotors unter Verwendung des trainierten Modells in dem Fahrzeug geschätzt wird.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Wie in JP 2019 - 183 698 A beschrieben, sind die Rechenressourcen nicht nur in einem Fall begrenzt, in dem das Training auf einem Server durchgeführt wird, sondern auch in einem Fall, in dem das Training in Fahrzeugen durchgeführt wird. Dementsprechend besteht ein Bedarf, die für das Training erforderliche Menge an Berechnungen zu reduzieren und die für das Training erforderliche Zeit zu verkürzen.
  • Die vorliegende Erfindung stellt ein Fahrzeug, ein Modelltrainingssystem und einen Server bereit, bei denen, in Bezug auf die Erstellung eines trainierten Modells, die für das Training erforderliche Menge an Berechnungen reduziert und die für das Training erforderliche Zeit verkürzt werden kann.
  • Ein Fahrzeug gemäß einem ersten Aspekt der vorliegenden Erfindung weist eine erste Kommunikationseinheit, die so konfiguriert ist, dass sie mit einem Server kommuniziert, der so konfiguriert ist, dass er trainierte Modelle von anderen Fahrzeugen, die an bzw. in den anderen Fahrzeugen trainiert wurden, und eine Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge korrelierend bzw. korrelativ speichert, und eine erste Steuereinheit, die so konfiguriert ist, dass sie ein Modell eines Eigenfahrzeugs trainiert, das in dem Fahrzeug verwendet werden soll, auf. Die erste Steuereinheit ist so konfiguriert, dass sie beim Trainieren des Modells des Eigenfahrzeugs eine Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs über die erste Kommunikationseinheit an den Server überträgt. Die erste Steuereinheit ist so konfiguriert, dass sie zumindest einen Teil eines Modells eines bestimmten Fahrzeugs als Transferlerndaten von dem Server über die erste Kommunikationseinheit empfängt. Die Trainingsbedingungen des bestimmten Fahrzeugs sind gleich oder ähnlich den Trainingsbedingungen des Modells des Eigenfahrzeugs. Das Modell des bestimmten Fahrzeugs wird aus den trainierten Modellen der anderen Fahrzeuge, wobei die trainierten Modelle im Server gespeichert sind, auf Grundlage der Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge und der Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs ausgewählt. Die erste Steuereinheit ist so konfiguriert, dass sie zumindest einen Teil des empfangenen Modells des bestimmten Fahrzeugs wiederverwendet und ein Training des Modells des Eigenfahrzeugs durchführt.
  • In dem Fahrzeug gemäß dem ersten Aspekt der vorliegenden Erfindung kann die erste Steuereinheit so konfiguriert sein, dass sie ein maschinelles Lernen in Bezug auf das Modell des Eigenfahrzeugs durchführt.
  • In dem Fahrzeug gemäß dem ersten Aspekt der vorliegenden Erfindung kann eine Information in Bezug auf die Trainingsbedingungen eine Information von versteckten Schichten von neuronalen Netzwerken aufweisen, die das Modell des Eigenfahrzeugs und die Modelle der anderen Fahrzeuge bilden.
  • In dem Fahrzeug gemäß dem ersten Aspekt der vorliegenden Erfindung können die Transferlerndaten alle oder ein Teil der Parameter der versteckten Schichten der neuronalen Netzwerke sein, die die Modelle der anderen Fahrzeuge bilden.
  • In dem Fahrzeug gemäß dem ersten Aspekt der vorliegenden Erfindung kann eine Information in Bezug auf die Trainingsbedingungen eine Information aufweisen, die einzigartig für Fahrzeuge ist, die das Modell des Eigenfahrzeugs oder die Modelle der anderen Fahrzeuge verwenden.
  • Es kann ein Modelltrainingssystem bereitgestellt sein, das das Fahrzeug gemäß dem ersten Aspekt der vorliegenden Erfindung und den Server aufweist. Der Server kann mit einer zweiten Kommunikationseinheit, die so konfiguriert ist, dass sie mit dem Eigenfahrzeug und den anderen Fahrzeugen kommuniziert, einer Speichereinheit, die so konfiguriert ist, dass sie die trainierten Modelle der anderen Fahrzeuge und die Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge korrelierend speichert, und einer zweiten Steuereinheit bereitgestellt sein. Die zweite Steuereinheit kann so konfiguriert sein, dass sie das Modell des bestimmten Fahrzeugs auf Grundlage der Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge und der Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs auswählt. Die Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge kann in der Speichereinheit gespeichert sein. Die Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs kann über die zweite Kommunikationseinheit empfangen werden. Die Trainingsbedingungen des bestimmten Fahrzeugs sind gleich oder ähnlich den Trainingsbedingungen des Modells des Eigenfahrzeugs. Das Modell des bestimmten Fahrzeugs kann eines der trainierten Modelle der anderen Fahrzeuge sein, wobei die trainierten Modelle in der Speichereinheit der anderen Fahrzeuge gespeichert sein können.
  • In dem Modelltrainingssystem gemäß dem zweiten Aspekt der vorliegenden Erfindung kann die Speichereinheit so konfiguriert sein, dass sie die trainierten Modelle der Fahrzeuge und eine Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge, die von den anderen Fahrzeugen empfangen werden, korrelierend speichert.
  • Ein Server gemäß einem dritten Aspekt der vorliegenden Erfindung weist eine Kommunikationseinheit, die so konfiguriert ist, dass sie mit jedem von einer Vielzahl von Fahrzeugen kommuniziert, eine Speichereinheit, die so konfiguriert ist, dass sie trainierte Modelle, die an bzw. in jedem der Fahrzeuge trainiert wurden, und eine Information in Bezug auf Trainingsbedingungen der trainierten Modelle der Fahrzeuge korrelierend speichert, und eine Steuereinheit auf. Die Steuereinheit ist so konfiguriert, dass sie von einem Fahrzeug aus den Fahrzeugen eine Information in Bezug auf Trainingsbedingungen eines Modells des einen Fahrzeugs über die Kommunikationseinheit empfängt. Die Steuereinheit ist so konfiguriert, dass sie ein Modell eines bestimmten Fahrzeugs auf Grundlage der empfangenen Information in Bezug auf die Trainingsbedingungen des Modells des einen Fahrzeugs und der Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge auswählt. Die Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge ist in der Speichereinheit gespeichert. Das Modell des bestimmten Fahrzeugs ist eines der trainierten Modelle der Fahrzeuge, wobei die trainierten Modelle in der Speichereinheit gespeichert sind. Die Trainingsbedingungen des bestimmten Fahrzeugs sind gleich oder ähnlich den Trainingsbedingungen des einen Fahrzeugs. Die Steuereinheit ist so konfiguriert, dass sie zumindest einen Teil des ausgewählten Modells des bestimmten Fahrzeugs wiederverwendet und ein Training des Modells durchführt, das bei dem einen Fahrzeug verwendet wird.
  • Ein Server gemäß einem vierten Aspekt der vorliegenden Erfindung weist eine Kommunikationseinheit, die so konfiguriert ist, dass sie mit jedem von einer Vielzahl von Fahrzeugen und einem ersten Fahrzeug, das von den Fahrzeugen unterschiedlich ist, kommuniziert, eine Speichereinheit, die so konfiguriert ist, dass sie trainierte Modelle, die in jedem der Fahrzeuge trainiert wurden, und eine Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge korrelierend speichert, und eine Steuereinheit auf. Die Steuereinheit ist so konfiguriert, dass sie von dem ersten Fahrzeug eine Information in Bezug auf die Trainingsbedingungen eines Modells des ersten Fahrzeugs über die Kommunikationseinheit empfängt. Die Steuereinheit ist so konfiguriert, dass sie ein Modell eines bestimmten Fahrzeugs auf Grundlage der empfangenen Information in Bezug auf die Trainingsbedingungen des Modells des ersten Fahrzeugs und der Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge auswählt. Die Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge ist in der Speichereinheit gespeichert. Das Modell des bestimmten Fahrzeugs ist eines der trainierten Modelle der Fahrzeuge, wobei die trainierten Modelle in der Speichereinheit der Fahrzeuge gespeichert sind. Die Trainingsbedingungen des bestimmten Fahrzeugs sind gleich oder ähnlich den Trainingsbedingungen des ersten Fahrzeugs. Die Steuereinheit ist so konfiguriert, dass sie zumindest einen Teil des Modells des bestimmten Fahrzeugs wiederverwendet und das Training des ausgewählten Modells, das in dem ersten Fahrzeug verwendet wird, durchführt.
  • Gemäß diesen Aspekten der vorliegenden Erfindung kann ein Teil eines trainierten Modells wiederverwendet werden, um ein trainiertes Modell zu erstellen, und dementsprechend kann die für das Training erforderliche Menge an Berechnungen reduziert und die für das Training erforderliche Zeit verkürzt werden.
  • Figurenliste
  • Merkmale, Vorteile sowie technische und industrielle Bedeutung von beispielhaften Ausführungsformen der Erfindung werden nachfolgend unter Bezugnahme auf die beigefügten Figuren, in denen gleiche Bezugszeichen gleiche Elemente bezeichnen, beschrieben. Es zeigen:
    • 1 ein schematisches Konfigurationsdiagramm eines Modelltrainingsystems gemäß einer Ausführungsform der Erfindung;
    • 2 eine schematische Ansicht, die eine Hardwarekonfiguration eines Fahrzeugs darstellt;
    • 3 ein Diagramm, das ein Beispiel eines Modells eines neuronalen Netzwerks darstellt;
    • 4 ein Ablaufdiagramm, das die Verarbeitung darstellt, die zwischen einem Server und den Fahrzeugen zur Aggregation der trainierten Modelle auf einem Server ausgeführt wird;
    • 5 ein Ablaufdiagramm, das eine Verarbeitung darstellt, die zwischen dem Server und den Fahrzeugen ausgeführt wird, um das Transferlernen in den Fahrzeugen durchzuführen;
    • 6 ein Diagramm, das ein Beispiel für Transferlernen darstellt;
    • 7 ein Diagramm, das ein Beispiel für Transferlernen darstellt; und
    • 8 ein Ablaufdiagramm, das eine Verarbeitung darstellt, die zwischen dem Server und den Fahrzeugen ausgeführt wird, um das Transferlernen am Server durchzuführen.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Eine Ausführungsform der Erfindung wird nachfolgend unter Bezugnahme auf die Figuren im Detail beschrieben. Es ist anzumerken, dass in der folgenden Beschreibung gleiche Komponenten mit den gleichen Bezugszeichen bezeichnet werden.
  • Erste Ausführungsform
  • 1 ist ein schematisches Konfigurationsdiagramm eines Modelltrainingsystems 100 gemäß einer ersten Ausführungsform der Erfindung.
  • Das Modelltrainingssystem 100 ist, wie in 1 dargestellt, mit einem Server 1 und einer Vielzahl von Fahrzeugen 2 bereitgestellt.
  • Der Server 1 ist mit einer Serverkommunikationseinheit 11, einer Serverspeichereinheit 12 und einer Serververarbeitungseinheit 13 bereitgestellt.
  • Die Serverkommunikationseinheit 11 weist einen Kommunikationsschnittstellenschaltkreis zum Verbinden des Servers 1 mit einem Netzwerk 3 über ein Gateway oder dergleichen auf und ist so konfiguriert, dass sie zur gegenseitigen Kommunikation mit den Fahrzeugen 2 imstande ist.
  • Die Serverspeichereinheit 12 weist ein Speichermedium, wie z.B. ein Festplattenlaufwerk (HDD), ein optisches Aufzeichnungsmedium, einen Halbleiterspeicher oder dergleichen, auf und speichert verschiedene Typen von Computerprogrammen, Daten und so weiter, die bei der Verarbeitung durch die Serververarbeitungseinheit 13 verwendet werden.
  • Die Serververarbeitungseinheit 13 weist einen oder eine Vielzahl von Prozessoren und deren periphere Schaltkreise auf. Die Serververarbeitungseinheit 13 führt verschiedene Typen von Computerprogrammen aus, die in der Serverspeichereinheit 12 gespeichert sind, und steuert zentral den Gesamtbetrieb des Servers 1. Die Serververarbeitungseinheit 13 ist zum Beispiel eine zentrale Verarbeitungseinheit (CPU).
  • 2 ist eine schematische Darstellung, die eine Hardwarekonfiguration des Fahrzeugs 2 darstellt.
  • Das Fahrzeug 2 ist beispielsweise mit einer elektronischen Steuereinheit 20, einer externen Kommunikationseinheit 24, verschiedenen Typen von Steuerteilen für den Verbrennungsmotor usw., und verschiedenen Typen von Sensoren, die zum Steuern der Steuerteile erforderlich sind, bereitgestellt. Die elektronische Steuereinheit 20, die externe Kommunikationseinheit 24 und die verschiedenen Typen von Steuerteilen und Sensoren sind miteinander über ein fahrzeuginternes Netzwerk 25 verbunden, das einem Standard, wie beispielsweise Controller Area Network (CAN) oder dergleichen, entspricht.
  • Die elektronische Steuereinheit 20 ist mit einer fahrzeugeigene Kommunikationsschnittstelle 21, einer Fahrzeugspeichereinheit 22 und einer Fahrzeugverarbeitungseinheit 23 bereitgestellt, die über eine Signalleitung miteinander verbunden sind. Die elektronische Steuereinheit 20 ist hier ein Beispiel für eine „erste Steuereinheit“.
  • Die fahrzeugeigene Kommunikationsschnittstelle 21 ist ein Kommunikationsschnittstellenschaltkreis zum Verbinden der elektronischen Steuereinheit 20 mit dem fahrzeuginternen Netzwerk 25, das einem Standard wie CAN oder dergleichen entspricht.
  • Die Fahrzeugspeichereinheit 22 weist ein Speichermedium, wie z.B. eine Festplatte (HDD), ein optisches Aufzeichnungsmedium, einen Halbleiterspeicher oder dergleichen, auf und speichert verschiedene Typen von Computerprogrammen, Daten und so weiter, die zur Verarbeitung in der Fahrzeugverarbeitungseinheit 23 verwendet werden.
  • Die Fahrzeugverarbeitungseinheit 23 weist einen oder eine Vielzahl von Prozessoren und deren periphere Schaltkreise auf. Die Fahrzeugverarbeitungseinheit 23 führt verschiedene Typen von Computerprogrammen aus, die in der Fahrzeugspeichereinheit 22 gespeichert sind, steuert zentral verschiedene Typen von Steuereinheiten, die in dem Fahrzeug 2 installiert sind, und ist z.B. eine CPU.
  • Die externe Kommunikationseinheit 24 ist ein bordseitiges Endgerät bzw. Terminal, das drahtlose Kommunikationsfunktionen aufweist. Die externe Kommunikationseinheit 24 ist mit dem Netzwerk 3 über eine drahtlose Basisstation 4 verbunden, die über ein Gateway oder dergleichen, das in der Darstellung weggelassen wird, mit dem Netzwerk 3 durch Zugriff auf die drahtlose Basisstation 4 verbunden. Demgemäß wird eine gegenseitige Kommunikation mit dem Server 1 durchgeführt. Die externe Kommunikationseinheit 24 ist hier ein Beispiel für eine „erste Kommunikationseinheit“.
  • In den Fahrzeugen 2 wird ein trainiertes Modell der künstlichen Intelligenz bzw. trainiertes KI-Modell (trainiertes Modell), in dem maschinelles Lernen durchgeführt wurde, nach Bedarf bei der Steuerung der verschiedenen Typen von Steuereinheiten, die in jedem der Fahrzeuge 2 installiert sind, verwendet. In der vorliegenden Ausführungsform wird ein neuronales Netzwerkmodell (nachfolgend als „NN-Modell“ bezeichnet) unter Verwendung eines Deep Neural Network (DNN), eines Convolutional Neural Network (CNN) oder dergleichen als ein Modell der künstlichen Intelligenz verwendet, um das tiefe Lernen bzw. Deep Learning des NN-Modells durchzuführen. Dementsprechend kann das trainierte Modell gemäß der vorliegenden Ausführungsform auch als ein trainiertes NN-Modell bezeichnet werden, das Deep Learning aufweist. Deep Learning ist eines der Verfahren zum maschinellen Lernen, die künstliche Intelligenz (KI) darstellen.
  • 3 ist ein Diagramm, das ein Beispiel für ein NN-Modell darstellt.
  • Die Kreise in 3 stellen künstliche Neuronen dar. Künstliche Neuronen werden normalerweise als „Knoten“ oder „Einheiten“ bezeichnet (in der vorliegenden Spezifikation als „Knoten“ bezeichnet). In 3 bezeichnet L = 1 eine Eingabeschicht, L = 2 und L = 3 stellen versteckte Schichten dar, und L = 4 stellt eine Ausgabeschicht dar. Die versteckten Schichten werden auch als Zwischenschichten bezeichnet. Obwohl 3 beispielhaft ein NN-Modell mit zwei versteckten Schichten darstellt, ist die Anzahl der versteckten Schichten nicht begrenzt. Auch die Anzahl der Knoten in der Eingabeschicht, den versteckten Schichten und den Ausgabeschichten ist nicht begrenzt.
  • In 3 repräsentieren x1 und x2 die Knoten in der Eingabeschicht (L = 1) und die Ausgabewerte dieser Knoten, und y stellt den Knoten in der Ausgabeschicht (L = 4) und den Ausgabewert davon dar. In gleicher Weise stellen z1 (L=2), z2 (L=2) und z3 (L=2) die Knoten in der versteckten Schicht (L = 2) und die Ausgabewerte dieser Knoten dar, und stellen z1(L=3) und z2 (L=3) die Knoten in der versteckten Schicht (L = 3) und die Ausgabewerte dieser Knoten dar.
  • Die Eingaben der einzelnen Knoten in der Eingabeschicht werden unverändert ausgegeben. Andererseits werden die Ausgabewerte x1 und x2 der Knoten in der Eingabeschicht in jeden der Knoten in der versteckten Schicht (L = 2) eingegeben, und ein Gesamteingabewert u wird unter Verwendung der entsprechenden Gewichtung w und des Bias b an jedem der Knoten in der versteckten Schicht (L = 2) berechnet. Zum Beispiel wird ein Gesamteingabewert uk (L=2), der an jedem durch zk (L=2) (k = 1, 2, 3) ausgedrückten Knoten in der versteckten Schicht (L = 2) in 3 berechnet wird, gemäß der folgenden Gleichung angegeben (wobei M die Anzahl der Knoten in der Eingabeschicht darstellt). u k ( L = 2 ) = m = 1 M ( x m w km ( L = 2 ) ) + b k
    Figure DE102021114514A1_0001
  • Als nächstes wird dieser Gesamteingabewert uk (L=2) durch eine Aktivierungsfunktion f konvertiert und von den durch zk(L=2) ausgedrückten Knoten in der versteckten Schicht (L = 2) als Ausgabewert zk (L=2) (= f(uk (L=2))) ausgegeben. Andererseits werden die Ausgabewerte z1 (L=2), z2 (L=2) und z3 (L=2) eines jeden der Knoten in der versteckten Schicht (L = 2) in jeden der Knoten in der verstecktem Schicht (L = 3) eingegeben, und der Gesamteingabewert u (= Σz • w + b) an jedem der Knoten in der versteckten Schicht (L = 3) wird unter Verwendung der entsprechenden Gewichtung w und des Bias b berechnet. Der Gesamteingabewert u wird in gleicher Weise durch eine Aktivierungsfunktion konvertiert und von den Knoten in der versteckten Schicht (L = 3) als Ausgabewerte z1(L=3) und z2 (L=3) ausgegeben. Die Aktivierungsfunktion ist z.B. eine Sigmoidfunktion.
  • Die Ausgabewerte z1(L=3) und z2 (L=3) der Knoten in der versteckten Schicht (L = 3) werden in den Knoten in der Ausgabeschicht (L = 4) eingegeben, und der Gesamteingabewert u (ΣZ • w + b) am Knoten in der Ausgabeschicht wird unter Verwendung der jeweils entsprechenden Gewichtung w und des Bias b berechnet, oder der Gesamteingabewert u (Σz • w) wird unter Verwendung der jeweils entsprechenden Gewichtung w allein berechnet. Eine Identifizierungsfunktion wird als z.B. als eine Aktivierungsfunktion am Knoten in der Ausgabeschicht verwendet. Dabei wird der am Knoten in der Ausgabeschicht berechnete Gesamteingabewert u vom Knoten in der Ausgabeschicht unverändert als Ausgabewert y ausgegeben.
  • Auf diese Weise weist ein NN-Modell eine Eingabeschicht, versteckte Schichten und eine Ausgabeschicht auf, und wenn ein oder eine Vielzahl von Eingabeparametern von der Eingabeschicht eingegeben wird, wird ein oder eine Vielzahl von Ausgabeparametern entsprechend den Eingabeparametern von der Ausgabeschicht ausgegeben.
  • Beispiele von Eingabeparametern in Bezug auf die Steuerung des Verbrennungsmotors, der in dem Fahrzeug 2 installiert ist, das ein NN-Modell verwendet, umfassen aktuelle Werte von verschiedenen Typen von Parametern, die den Betriebszustand des Verbrennungsmotors angeben, wie z.B. Motordrehzahl, Motorkühlmitteltemperatur, Kraftstoffeinspritzmenge, Kraftstoffeinspritzzeitpunkt, Kraftstoffdruck, Ansaugluftmenge, Ansaugtemperatur, Abgasrückführungsrate (EGR), Aufladedruck und so weiter. Beispiele für Ausgabeparameter, die Eingabeparametern entsprechen, weisen z.B. geschätzte Werte von verschiedenen Typen von Parametern auf, die die Leistung des Verbrennungsmotors darstellen, wie z.B. die Konzentration von Stickoxiden (NOx) und die Konzentration anderer Substanzen im Abgas, das Motordrehmoment und so weiter. Somit ermöglicht die Eingabe von aktuellen Werten von verschiedenen Typen von Parametern, die den Betriebszustand des Verbrennungsmotors angeben, in das NN-Modell als Eingabeparameter, dass Schätzwerte von verschiedenen Typen von Parametern, die die Leistung des Verbrennungsmotors angeben (aktuelle Schätzwerte oder zukünftige Schätzwerte), als Ausgabeparameter erhalten werden können. Dementsprechend kann der Verbrennungsmotor auf Grundlage der Ausgabeparameter gesteuert werden, zum Beispiel derart, dass sich die Leistung des Verbrennungsmotors der gewünschten Leistungsfähigkeit annähert. Wenn Sensoren oder dergleichen zur Messung der Ausgabeparameter bereitgestellt sind, kann außerdem eine Fehlfunktion der Sensoren und dergleichen gemäß der Differenz zwischen den gemessenen Werten und den geschätzten Werten ermittelt werden.
  • Es ist erforderlich, das NN-Modell zu trainieren, um die Präzision des NN-Modells zu verbessern. Eine große Anzahl von Trainingsdatensätzen, die gemessene Werte von Eingabeparametern und gemessene Werte von Ausgabeparametern (richtige Antwortdaten), die den gemessenen Werten der Eingabeparameter entsprechen, aufweisen, werden zum Trainieren des NN-Modells verwendet. Die Werte der Gewichte w und der Bias b innerhalb des neuronalen Netzwerks werden unter Verwendung der großen Anzahl von Trainingsdatensätzen wiederholt durch das Backpropagation-Verfahren bzw. Fehlerrückführungsverfahren aktualisiert. Die Werte der Gewichte w und der Bias b werden so erlernt, wodurch ein trainiertes Modell erzeugt wird.
  • Während das NN-Modell auf dem Server 1 oder in den Fahrzeugen 2 trainiert werden kann, sind die Rechenressourcen für das Training in beiden Situationen begrenzt, und dementsprechend besteht ein Bedarf, die für das Training erforderliche Menge an Berechnungen zu reduzieren und die für das Training erforderliche Zeit zu verkürzen.
  • Wenn zum Beispiel auf dem Server 1 ein untrainiertes NN-Modell von Anfang an trainiert wird oder wenn ein trainiertes NN-Modell erneut trainiert wird, ist eine denkbare Vorgehensweise, ein Training durchzuführen, bei dem für jedes Fahrzeug einzigartige Merkmale (z.B. Fahrzeugtyp und Fahrzeugspezifikationen, Benutzerpräferenzen, Fahrhistorie usw.) berücksichtigt werden, um die Schätzgenauigkeit des NN-Modells zu verbessern, um dadurch ein trainiertes Modell zu erstellen, das für jedes Fahrzeug optimiert ist. Bei dieser Vorgehensweise muss jedoch eine enorme Anzahl von Modellen trainiert werden, und dementsprechend besteht ein Bedarf, die Zeit zum Trainieren jedes NN-Modells zu verkürzen.
  • Zudem sind bei der Durchführung des Trainings und des erneuten Trainings des NN-Modells in jedem Fahrzeug 2 die Rechenressourcen in der elektronischen Steuereinheit 20, die in dem Fahrzeug 2 installiert ist, besonders begrenzt, und dementsprechend besteht ein Bedarf, die Menge der Berechnungen maximal zu reduzieren und die für das Training erforderliche Zeit zu verkürzen.
  • Dementsprechend wird in der vorliegenden Ausführungsform aus trainierten Modellen von anderen Fahrzeugen, die auf dem Server 1 aggregiert werden, ein trainiertes Modell ausgewählt, das Trainingsbedingungen aufweist, die denen des Eigenfahrzeugs am ähnlichsten sind. Dann kann das Transferlernen des NN-Modells des Eigenfahrzeugs auf Grundlage eines Teils des ausgewählten trainierten Modells des anderen Fahrzeugs durchgeführt werden. Das Durchführen des Transferlernens unter Wiederverwendung eines Teils des trainierten Modells eines anderen Fahrzeugs ermöglicht z.B. ein Training nur von Schichten, die z.B. einzigartige Merkmale des Fahrzeugs identifizieren, und dementsprechend kann das NN-Modell des Eigenfahrzeugs mit einer kleinen Menge an Berechnungen trainiert werden. Dementsprechend kann die Trainingszeit unabhängig davon verkürzt werden, ob auf dem Server 1 ein trainiertes Modell erstellt wird, das für jedes Fahrzeug optimiert ist, oder ob in jedem der Fahrzeuge 2 ein trainiertes Modell erstellt wird. Das heißt, dass ein hochpräzises trainiertes Modell, das für jedes Fahrzeug optimiert ist, in kurzer Zeit erstellt werden kann. Dementsprechend wird, wenn das NN-Modell ein Modell zur Schätzung der NOx-Konzentration im Abgas des Verbrennungsmotors ist, zum Beispiel das Fahren mit unterdrückter NOx-Konzentration im Abgas ermöglicht, und eine Verschlechterung der Abgasemissionen kann unterdrückt werden.
  • 4 ist ein Ablaufdiagramm, das die Verarbeitung darstellt, die zwischen dem Server 1 und den Fahrzeugen 2 ausgeführt wird, um die trainierten Modelle auf dem Server 1 zu aggregieren.
  • In Schritt S1 bestimmt die elektronische Steuereinheit 20 des Fahrzeugs 2, ob eine vorgegebene Menge an Zeit verstrichen ist, seit ein trainiertes Modell zum vorherigen Zeitpunkt an den Server 1 übertragen wurde, oder nicht. Wenn die vorgegebene Menge an Zeit verstrichen ist, seit ein trainiertes Modell das letzte Mal an den Server 1 übertragen wurde, geht die elektronische Steuereinheit 20 zur Verarbeitung in Schritt S2. Andererseits, wenn die vorgegebene Menge an Zeit nicht verstrichen ist, seit ein trainiertes Modell zum Server 1 zum vorherigen Zeitpunkt übertragen wurde, beendet die elektronische Steuereinheit 20 die Verarbeitung zu diesem Zeitpunkt.
  • Es ist anzumerken, dass in der vorliegenden Ausführungsform die elektronische Steuereinheit 20 Trainingsdaten (z.B. gemessene Werte der Motordrehzahl und so weiter als Eingabeparameter und gemessene Werte der NOx-Konzentration als Ausgabeparameter) nach Bedarf erlangt und ein Neutrainieren des trainierten NN-Modells nach Bedarf auf Grundlage der erlangten Trainingsdaten durchführt, während das Fahrzeug fährt. Daher wird in der vorliegenden Ausführungsform, sobald das NN-Modell durch Transferlernen trainiert wurde, das NN-Modell bei Bedarf durch eine kleine Anzahl von Trainingsdatensätzen neu trainiert, anstatt das NN-Modell unter Verwendung einer großen Anzahl von Trainingsdatensätzen zu einer Zeit neu zu trainieren. Dadurch wird der Rechenaufwand für das erneute Training unterdrückt und die Trainingszeit verkürzt.
  • In Schritt S2 überträgt die elektronische Steuereinheit 20 des Fahrzeugs 2 das aktuelle trainierte Modell, das mit einer vorgegebenen Modellinformation und einer Fahrzeuginformation korreliert ist, an den Server 1. Beispiele für die Modellinformation weisen eine modellspezifische Information, wie etwa die Anzahl der versteckten Schichten des trainierten Modells, die Anzahl der Knoten in jeder versteckten Schicht und so weiter, auf. Beispiele für die Fahrzeuginformation weisen eine Information, die für jedes Fahrzeug einzigartig ist, wie etwa Fahrzeugtyp und Fahrzeugspezifikationen, gegenwärtig zurückgelegte Strecke (zum Zeitpunkt des Neutrainings) und so weiter, auf.
  • In Schritt S3 stellt der Server 1 fest, ob ein trainiertes Modell, das mit der Modellinformation und der Fahrzeuginformation korreliert ist, empfangen wurde oder nicht. Wenn ein trainiertes Modell, das mit der Modellinformation und der Fahrzeuginformation korreliert ist, empfangen wurde, geht der Server 1 zur Verarbeitung von Schritt S4. Wenn andererseits ein trainiertes Modell, das mit der Modellinformation und der Fahrzeuginformation korreliert ist, nicht empfangen wurde, beendet der Server 1 die Verarbeitung zu dieser Zeit.
  • In Schritt S4 speichert der Server 1 das empfangene trainierte Modell in einer Modelldatenbank, die in der Serverspeichereinheit 12 gebildet ist, zusammen mit der Modellinformation und der Fahrzeuginformation.
  • 5 ist ein Ablaufdiagramm, das die Verarbeitung darstellt, die zwischen dem Server 1 und den Fahrzeugen 2 durchgeführt wird, um das Transferlernen in den Fahrzeugen 2 durchzuführen. 6 ist ein Diagramm, das ein Beispiel für das Transferlernen darstellt, das in der vorliegenden Ausführungsform durchgeführt wird. Der obere Teil von 6 stellt ein trainiertes Modell mit Trainingsbedingungen, die ähnlich denen des Modells des Eigenfahrzeugs, das aus der Modelldatenbank ausgewählt wurde, dar. Der untere Teil von 6 stellt ein trainiertes Modell dar, das durch Transferlernen erzeugt wurde.
  • In Schritt S11 bestimmt die elektronische Steuereinheit 20 des Fahrzeugs 2, ob ein Transferlernen notwendig ist, oder nicht. In der vorliegenden Ausführungsform bestimmt die elektronische Steuereinheit 20, dass ein Transferlernen notwendig ist, wenn diese Verarbeitung zum ersten Mal ausgeführt wird, wie zum Beispiel, wenn das Eigenfahrzeug ausgeliefert wird. Darüber hinaus bestimmt die elektronische Steuereinheit 20 jedoch, dass Transferlernen notwendig ist, wenn eine Anfrage zum Transferlernen vom Fahrer gestellt wird, und wenn der Bewertungsindex im Vergleich zu anderen Fahrzeugen schlecht ist, falls die Modellgenauigkeit des Eigenfahrzeugs durch eine Art von Bewertungsindex bewertet werden kann (z.B. Kraftstoffverbrauch, Abgasemissionen usw.). Wenn bestimmt wird, dass ein Transferlernen erforderlich ist, geht die elektronische Steuereinheit 20 zur Verarbeitung von Schritt S12. Wenn andererseits bestimmt wird, dass Transferlernen nicht notwendig ist, beendet die elektronische Steuereinheit 20 die Verarbeitung zu dieser Zeit.
  • In Schritt S12 überträgt die elektronische Steuereinheit 20 des Fahrzeugs 2 ein Transferlernanfragesignal, das eine Modellinformation des Eigenfahrzeugs (wie etwa eine Information über das Modell, wie z.B. die Anzahl der versteckten Schichten des zu trainierenden NN-Modells, die Anzahl der Knoten in jeder versteckten Schicht und so weiter) und eine Fahrzeuginformation (eine eindeutige Information über das Fahrzeug, wie z.B. den Fahrzeugtyp und die Fahrzeugspezifikationen, die gegenwärtig zurückgelegte Strecke und so weiter) aufweist, an den Server 1. Es ist anzumerken, dass nachfolgend ein Fahrzeug 2, das ein Transferlernanfragesignal an den Server 1 überträgt, der Einfachheit halber bei Bedarf als „Übertragungsquellenfahrzeug“ bezeichnet wird. Hier ist ein Übertragungsquellenfahrzeug ein Beispiel für ein „erstes Fahrzeug“.
  • In Schritt S13 bestimmt der Server 1, ob eine Transferlernanfrage empfangen wurde oder nicht. Wenn eine Transferlernanfrage empfangen wurde, fährt der Server 1 mit der Verarbeitung von Schritt S14 fort. Wenn hingegen keine Transferlernanfrage empfangen wurde, beendet der Server 1 die Verarbeitung zu dieser Zeit.
  • In Schritt S14 vergleicht der Server 1 eine Modellinformation und eine Fahrzeuginformation von trainierten Modellen von anderen Fahrzeugen, die in der Modelldatenbank gespeichert sind, mit der Modellinformation und der Fahrzeuginformation des Übertragungsquellenfahrzeugs, die in Schritt S12 empfangen wurden. Dann wählt der Server 1 aus den trainierten Modellen, die in der Modelldatenbank gespeichert sind, ein trainiertes Modell, dessen Trainingsbedingungen am ehesten (gleich oder am ähnlichsten sind) mit dem Übertragungsquellfahrzeug zusammenpassen, als das trainierte Modell für das Transferlernen aus. Das ausgewählte trainierte Modell für das Transferlernen ist hier ein Beispiel für ein „Modell eines bestimmten Fahrzeugs“.
  • In der vorliegenden Ausführungsform quantifiziert der Server 1 den Zusammenpassgrad bzw. Übereinstimmungsgrad der Trainingsbedingungen für jedes trainierte Modell, das in der Modelldatenbank gespeichert ist, auf Grundlage der Elemente zur Bestimmung des Zusammenpassgrads der Trainingsbedingungen, die in der Modellinformation und der Fahrzeuginformation enthalten sind, wie insbesondere die Anzahl der versteckten Schichten und die Anzahl der Knoten in jeder versteckten Schicht, des Fahrzeugtyps, der Fahrzeugspezifikationen, der zurückgelegten Strecke und so weiter. Daher wählt der Server 1 das trainierte Modell mit dem höchsten Zusammenpassgrad als trainiertes Modell für das Transferlernen aus.
  • Zum Beispiel quantifiziert der Server 1 den Zusammenpassgrad bezüglich quantitativer Daten, wie etwa der Anzahl der ausgeblendeten Schichten und der Anzahl der Knoten in jeder ausgeblendeten Schicht, der zurückgelegten Strecke und so weiter, aus den Elementen zur Bestimmung des Zusammenpassgrads der Trainingsbedingungen, auf Grundlage einer vorhergehend für jedes Element festgelegten Gewichtung und der Differenz jedes Elements (in Bezug auf die versteckten Schichten zum Beispiel die Differenz zwischen der Anzahl der versteckten Schichten des NN-Modells des Übertragungsquellenfahrzeugs und der Anzahl der versteckten Schichten jedes trainierten Modells). Berücksichtigt man beispielsweise nur die Anzahl der versteckten Schichten, so ist ein trainiertes Modell eines anderen Fahrzeugs, das die gleiche Anzahl von versteckten Schichten aufweist wie die Anzahl der versteckten Schichten des NN-Modells des Übertragungsquellenfahrzeugs, das trainierte Modell mit dem höchsten Zusammenpassgrad. Auch in Bezug auf qualitative Daten, wie etwa Fahrzeugtyp, Fahrzeugspezifikationen und so weiter, bestimmt der Server 1 den Zusammenpassgrad (Ähnlichkeit) z.B. durch Clusteranalyse und quantifiziert den Zusammenpassgrad.
  • In Schritt S15 überträgt der Server 1 einen Teil des in Schritt S14 ausgewählten trainierten Modells an das Übertragungsquellenfahrzeug als Transferlerndaten, die beim Transferlernen verwendet werden sollen. In der vorliegenden Ausführungsform überträgt der Server 1, wie in 6 dargestellt, Daten eines Teils der versteckten Schichten auf der Seite, die näher an der Eingabeschicht liegt (Daten der Gewichte w und der Bias b, die den Knoten in den versteckten Schichten entsprechen, usw.), aus den versteckten Schichten des trainierten Modells an das Übertragungsquellenfahrzeug als Transferlerndaten.
  • In Schritt S16 bestimmt die elektronische Steuereinheit 20 des Fahrzeugs 2 (Übertragungsquellenfahrzeug), ob Transferlerndaten empfangen wurden oder nicht. Wenn die Transferlerndaten empfangen wurden, geht die elektronische Steuereinheit 20 zur Verarbeitung von Schritt S17. Andererseits, wenn Transferlerndaten nicht empfangen wurden, bleibt die elektronische Steuereinheit 20 für eine vorgegebene Zeit stehen und bestimmt erneut, ob Transferlerndaten empfangen wurden oder nicht.
  • In Schritt S17 führt die elektronische Steuereinheit 20 des Fahrzeugs 2 (Übertragungsquellenfahrzeug) ein Transferlernen durch. In der vorliegenden Ausführungsform verwendet die elektronische Steuereinheit 20, wie in 6 dargestellt, einen Teil der versteckten Schichten des trainierten Modells des anderen Fahrzeugs, das als Transferlerndaten empfangen wurde, unverändert wieder und trainiert nur einen Teil der versteckten Schichten des NN-Modells des Eigenfahrzeugs unter Verwendung von Trainingsdaten. Dadurch kann die Anzahl der versteckten Schichten für das Training reduziert werden, und das Training kann unter Verwendung von Trainingsdaten durchgeführt werden, die im Vergleich zu einem Fall, in dem das NN-Modell des Eigenfahrzeugs von Anfang an trainiert wird, klein sind. Dementsprechend kann die für das Training erforderliche Menge an Berechnungen reduziert und die Zeit für das Training verkürzt werden.
  • Es ist anzumerken, dass, wenn es Trainingsdaten gibt, die zu dem Zeitpunkt, zu dem festgestellt wird, dass Transferlernen erforderlich ist, am Eigenfahrzeug erlangt und erstellt wurden, diese Trainingsdaten als Trainingsdaten verwendet werden können. Wenn hingegen keine Trainingsdaten vorhanden sind, die am Eigenfahrzeug erfasst und erstellt wurden, können vorhergehend standardisierte Trainingsdaten auf dem Server 1 vorbereitet werden und diese Trainingsdaten vom Server 1 erlangt werden.
  • Das Fahrzeug 2 gemäß der vorliegenden oben beschriebenen Ausführungsform ist mit der externen Kommunikationseinheit 24 (erste Kommunikationseinheit) und der elektronischen Steuereinheit 20 (erste Steuereinheit) bereitgestellt. Die externe Kommunikationseinheit 24 ist zu einer Kommunikation mit dem Server 1 imstande, in dem trainierte Modelle von anderen Fahrzeugen (Modelle der künstlichen Intelligenz, z.B. NN-Modelle), die an anderen Fahrzeugen trainiert wurden, und eine Information in Bezug auf Trainingsbedingungen von Modellen von anderen Fahrzeugen korrelierend gespeichert sind. Die elektronische Steuereinheit 20 trainiert ein Modell des Eigenfahrzeugs (Modelle der künstlichen Intelligenz, z.B. NN-Modelle), das in dem Eigenfahrzeug verwendet wird.
  • Die elektronische Steuereinheit 20 ist so konfiguriert, dass sie mit einer Transferlerndatenanfrageeinheit und einer Trainingseinheit bereitgestellt ist. Die Transferlerndatenanfrageeinheit überträgt beim Training des Modells des Eigenfahrzeugs eine Information in Bezug auf Trainingsbedingungen des Modells des Eigenfahrzeugs an den Server 1 und fragt Transferlerndaten an. Wenn die Trainingseinheit einen Teil eines Modells eines anderen Fahrzeugs empfängt, dessen Trainingsbedingungen gleich oder ähnlich den Trainingsbedingungen des Modells des Eigenfahrzeugs sind und das aus trainierten Modellen von anderen Fahrzeugen ausgewählt wird, die im Server 1 als Transferlerndaten gespeichert sind, verwendet die Trainingseinheit auf Grundlage der Information in Bezug auf die Trainingsbedingungen des Modells des anderen Fahrzeugs und der Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs den empfangenen Teil des Modells des anderen Fahrzeugs wieder und führt ein Training (z.B. maschinelles Lernen) des Modells des Eigenfahrzeugs durch.
  • Somit kann durch das Trainieren des Modells des Eigenfahrzeugs durch die unveränderte Wiederverwendung eines Teils eines trainierten Modells eines anderen Fahrzeugs die Anzahl der zu trainierenden versteckten Schichten reduziert werden, und das Training kann unter Verwendung von weniger Trainingsdaten durchgeführt werden, als beim Training des Modells des Eigenfahrzeugs von Anfang an. Dementsprechend kann die für das Training erforderliche Menge an Berechnungen reduziert und die Trainingszeit verkürzt werden. Als Ergebnis kann in kurzer Zeit ein hochpräzises, für jedes Fahrzeug optimiertes, trainiertes Modell erstellt werden.
  • Es ist anzumerken, dass in der vorliegenden Ausführungsform die Information in Bezug auf die Trainingsbedingungen eine Information der versteckten Schichten der neuronalen Netzwerke aufweisen, die das Modell des Eigenfahrzeugs und die Modelle von anderen Fahrzeugen bilden (z.B. die Anzahl der versteckten Schichten, die Anzahl der Knoten in jeder versteckten Schicht usw.). In der vorliegenden Ausführungsform sind die Transferlerndaten auch ein Teil der Parameter der versteckten Schicht des neuronalen Netzwerks, das die Modelle der anderen Fahrzeuge bildet.
  • In der vorliegenden Ausführungsform weisen die Information in Bezug auf die Trainingsbedingungen insbesondere eine Information auf, die nur für Fahrzeuge gelten, die das Modell des Eigenfahrzeugs und die Modelle der anderen Fahrzeuge verwenden (z.B. Fahrzeugtyp und Fahrzeugspezifikationen, zurückgelegte Strecke und so weiter).
  • Außerdem weist der Server 1 in dem Modelltrainingssystem 100, das mit derartigen Fahrzeugen 2 und dem oben beschriebenen Server 1 bereitgestellt ist, die Serverkommunikationseinheit 11 (zweite Kommunikationseinheit), die mit der Vielzahl von Fahrzeugen 2 kommunizieren kann, die Serverspeichereinheit 12 (Speichereinheit), die trainierte Modelle von anderen Fahrzeugen und die Information in Bezug auf die Trainingsbedingungen der Modelle von anderen Fahrzeugen korrelierend speichert, und die Serververarbeitungseinheit 13 (zweite Steuereinheit) auf.
  • In der vorliegenden Ausführungsform ist die Serververarbeitungseinheit 13 so konfiguriert, dass sie mit einer Auswahleinheit bereitgestellt ist, die ein Modell eines anderen Fahrzeugs, dessen Trainingsbedingungen gleich oder ähnlich den Trainingsbedingungen des Modells des Eigenfahrzeugs sind, aus Modellen von anderen Fahrzeugen, die in der Serverspeichereinheit 12 gespeichert sind, auf Grundlage der Information in Bezug auf die Trainingsbedingungen der Modelle von anderen Fahrzeugen, die in der Serverspeichereinheit 12 gespeichert sind, und der empfangenen Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs auswählt. Die Serververarbeitungseinheit 13 ist auch so konfiguriert, dass sie trainierte Modelle der Fahrzeuge 2, die von einer Vielzahl von Fahrzeugen 2 empfangen wurden, und die Information in Bezug auf die Trainingsbedingungen der trainierten Modelle in der Serverspeichereinheit 12 korrelierend speichert.
  • Obwohl in der obigen ersten Ausführungsform beschrieben wurde, dass das Training in der elektronischen Steuereinheit 20, die in dem Fahrzeug 2 installiert ist, durchgeführt wird, kann das Transferlernen in der Serververarbeitungseinheit 13 durchgeführt werden, und das erstellte trainierte Modell kann an das Fahrzeug 2 übertragen werden. In der obigen ersten Ausführungsform sendet das Übertragungsquellenfahrzeug 2 auch eine Anfrage zum Transferlernen, aber der Server 1 kann feststellen, dass das Transferlernen angefragt wird, wenn der Server 1 die Modellinformation und die Fahrzeuginformation des Fahrzeugs empfängt. Der Server 1 kann so programmiert sein, dass er Transferlerndaten oder ein erstelltes trainiertes Modell an die Übertragungsquellenfahrzeuge überträgt, wenn der Server 1 die Modellinformation und die Fahrzeuginformation des Fahrzeugs empfängt.
  • Zweite Ausführungsform
  • Als nächstes wird eine zweite Ausführungsform der Erfindung beschrieben. In der vorliegenden Ausführungsform wird beim Durchführen des erneuten Trainierens von Fahrzeugen 2, die im Server 1 gespeichert sind, ein Transferlernen auf dem Server 1 durchgeführt, und ein auf diese Weise erstelltes trainiertes Modell wird an die Fahrzeuge 2 übertragen.
  • 8 ist ein Ablaufdiagramm, das die Verarbeitung darstellt, die zwischen dem Server 1 und den Fahrzeugen 2 ausgeführt wird, um das Transferlernen auf dem Server 1 durchzuführen. Es ist anzumerken, dass in 8 der Inhalt der Verarbeitung der Schritte S11 bis S14 derselbe wie der oben in der ersten Ausführungsform beschriebene Inhalt ist, und dementsprechend wird die Beschreibung hier weggelassen.
  • In Schritt S21 verwendet der Server 1 einen Teil der versteckten Schichten des in Schritt S14 ausgewählten trainierten Modells ohne Änderung wieder und trainiert das NN-Modell des Übertragungsquellenfahrzeugs unter Verwendung von Trainingsdaten, um ein trainiertes Modell zu erstellen. Der Server 1 überträgt dann das erstellte trainierte Modell an das Übertragungsquellenfahrzeug.
  • In Schritt S22 bestimmt die elektronische Steuereinheit 20 des Fahrzeugs 2 (Übertragungsquellenfahrzeug), ob ein trainiertes Modell empfangen wurde oder nicht. Wenn ein trainiertes Modell empfangen wurde, geht die elektronische Steuereinheit 20 zur Verarbeitung von Schritt S23, und wenn kein trainiertes Modell empfangen wurde, bleibt die elektronische Steuereinheit 20 für eine vorgegebene Zeit stehen und bestimmt erneut, ob ein trainiertes Modell empfangen wurde oder nicht.
  • In Schritt S23 ersetzt die elektronische Steuereinheit 20 des Fahrzeugs 2 (Übertragungsquellenfahrzeug) das Modell des Eigenfahrzeugs durch das empfangene trainierte Modell.
  • Der Server 1 gemäß der vorliegenden Ausführungsform, die oben beschrieben wurde, ist mit der Serverkommunikationseinheit 11 (Kommunikationseinheit), die mit jedem der Vielzahl von Fahrzeugen 2 kommunizieren kann, der Serverspeichereinheit 12 (Speichereinheit), die trainierte Modelle, die an jedem der Vielzahl von Fahrzeugen 2 trainiert wurden, und eine Information in Bezug auf die Trainingsbedingungen der Modelle davon korrelierend speichert, und der Serververarbeitungseinheit 13 (Steuereinheit) bereitgestellt.
  • Die Serververarbeitungseinheit 13 ist so konfiguriert, dass sie mit einer Auswahleinheit und einer Trainingseinheit bereitgestellt ist. Wenn die Auswahleinheit von einem Fahrzeug aus der Vielzahl von Fahrzeugen 2 Anfragesignale für Transferlerndaten empfängt, die eine Information in Bezug auf Trainingsbedingungen des Modells aufweisen, das in dem einen Fahrzeug verwendet wird, wählt die Auswahleinheit auf Grundlage der Information in Bezug auf die Trainingsbedingungen des einen Fahrzeugs und der Information in Bezug auf die Trainingsbedingungen der Fahrzeuge, die in der Serverspeichereinheit 12 gespeichert sind, aus den trainierten Modellen der Fahrzeuge ein trainiertes Modell aus, dessen Trainingsbedingungen gleich oder ähnlich den Trainingsbedingungen des einen Fahrzeugs sind. Die Trainingseinheit verwendet einen Teil des ausgewählten trainierten Modells wieder und trainiert das Modell, das in dem einen Fahrzeug verwendet werden soll.
  • Ähnliche Effekte wie in der ersten Ausführungsform können auch erzielt werden, wenn das Transferlernen auf diese Weise auf dem Server 1 durchgeführt wird. Das heißt, bei der Erstellung des trainierten Modells kann die für das Training erforderliche Menge an Berechnungen reduziert und die für das Training erforderliche Zeit verkürzt werden.
  • Obwohl in der obigen zweiten Ausführungsform beschrieben wurde, dass das Training in der Serververarbeitungseinheit 13 des Servers 1 durchgeführt wird, kann ein Teil des ausgewählten trainierten Modells als Transferlerndaten an die Fahrzeuge 2 übertragen werden, und das Training kann in der elektronischen Steuereinheit 20 in dem Fahrzeug 2 durchgeführt werden. Außerdem empfängt der Server 1 in der zweiten Ausführungsform in Schritt S12 ein Übertragungslernanfragesignal, das die Modellinformation und die Fahrzeuginformation des Übertragungsquellenfahrzeugs aufweist, von der elektronischen Steuereinheit 20 des Fahrzeugs 2, und das Modell des Übertragungsquellenfahrzeugs kann ebenfalls in dem Übertragungslernanfragesignal enthalten sein.
  • Obwohl Ausführungsformen der Erfindung oben beschrieben wurden, zeigen die obigen Ausführungsformen nur einen Teil der Anwendungsbeispiele der Erfindung und sind nicht dazu gedacht, den technischen Umfang der Erfindung auf die spezifischen Konfigurationen der obigen Ausführungsformen zu begrenzen.
  • In den obigen Ausführungsformen wird, wie in 6 dargestellt, beschrieben, dass beispielsweise von den versteckten Schichten des Modells, das aus der Modelldatenbank ausgewählt wird, ein Teil der Daten der versteckten Schichten auf der Seite, die näher an der Eingabeschicht liegt, als Transferlerndaten an das Übertragungsquellenfahrzeug übertragen wird und ein Transferlernen durchgeführt wird. Es können aber auch, wie z.B. in 7 dargestellt, alle Daten der versteckten Schichten des trainierten Modells, das aus der Modelldatenbank ausgewählt wurde, als Transferlerndaten an das Übertragungsquellenfahrzeug übertragen werden. Weiterhin können versteckte Schichten separat zu allen versteckten Schichten des trainierten Modells des anderen Fahrzeugs hinzugefügt werden, die als Transferlerndaten am Übertragungsquellenfahrzeug empfangen werden, und das Training kann nur für die hinzugefügten versteckten Schichten unter Verwendung von Trainingsdaten durchgeführt werden. Es ist anzumerken, dass der obere Teil von 7 ein trainiertes Modell mit ähnlichen Trainingsbedingungen wie das Modell des Eigenfahrzeugs darstellt, das aus der Modelldatenbank ausgewählt wurde, und der untere Teil von 7 ein trainiertes Modell darstellt, das durch Transferlernen erzeugt wurde.
  • Zusätzlich kann das Transferlernen durchgeführt werden, indem nur die Gewichte w und die Bias b, die einen Teil der Knoten in den versteckten Schichten betreffen, wiederverwendet werden. Wenn beispielsweise fünf Knoten in einer bestimmten versteckten Schicht vorhanden sind, können die Gewichte w und die Bias b für drei Knoten wiederverwendet werden, und das Training wird nur für die Gewichte w und die Bias b für die restlichen zwei Knoten durchgeführt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2019183698 [0002]
    • JP 2019183698 A [0002, 0003]

Claims (9)

  1. Fahrzeug (2), das aufweist: eine erste Kommunikationseinheit (24), die so konfiguriert ist, dass sie mit einem Server (1) kommuniziert, der so konfiguriert ist, dass er trainierte Modelle von anderen Fahrzeugen, die an den anderen Fahrzeugen trainiert wurden, und eine Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge korrelierend speichert; und eine erste Steuereinheit (20), die so konfiguriert ist, dass sie: ein Modell eines Eigenfahrzeugs trainiert, das in dem Fahrzeug verwendet werden soll (2), eine Information in Bezug auf Trainingsbedingungen des Modells des Eigenfahrzeugs über die erste Kommunikationseinheit (24) an den Server (1) überträgt, wenn das Modell des Eigenfahrzeugs trainiert wird, zumindest einen Teil eines Modells eines bestimmten Fahrzeugs als Transferlerndaten von dem Server (1) über die erste Kommunikationseinheit (24) empfängt, wobei Trainingsbedingungen des Modells des bestimmten Fahrzeugs gleich oder ähnlich den Trainingsbedingungen des Modells des Eigenfahrzeugs sind, wobei das Modell des bestimmten Fahrzeugs aus den trainierten Modellen der anderen Fahrzeuge, wobei die trainierten Modelle in dem Server (1) gespeichert sind, auf Grundlage der Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge und der Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs ausgewählt wird, und zumindest einen Teil des empfangenen Modells des bestimmten Fahrzeugs wiederverwendet und ein Training des Modells des Eigenfahrzeugs durchführt.
  2. Fahrzeug (2) gemäß Anspruch 1, wobei die erste Steuereinheit (20) so konfiguriert ist, dass sie maschinelles Lernen in Bezug auf das Modell des Eigenfahrzeugs durchführt.
  3. Fahrzeug (2) gemäß Anspruch 1 oder 2, wobei die Information in Bezug auf die Trainingsbedingungen eine Information von versteckten Schichten von neuronalen Netzwerken aufweist, die das Modell des Eigenfahrzeugs und die Modelle der anderen Fahrzeuge bilden.
  4. Fahrzeug (2) gemäß Anspruch 3, wobei die Transferlerndaten alle oder ein Teil von Parametern der versteckten Schichten der neuronalen Netzwerke sind, die die Modelle der anderen Fahrzeuge bilden.
  5. Fahrzeug (2) gemäß einem der Ansprüche 1 bis 4, wobei die Information in Bezug auf die Trainingsbedingungen eine Information aufweist, die einzigartig für Fahrzeuge ist, die das Modell des Eigenfahrzeugs oder die Modelle der anderen Fahrzeuge verwenden.
  6. Modelltrainingssystem (100), das das Fahrzeug (2) gemäß einem der Ansprüche 1 bis 5 und den Server (1) aufweist, wobei der Server (1) bereitgestellt ist mit: einer zweiten Kommunikationseinheit (11), die so konfiguriert ist, dass sie mit dem Eigenfahrzeug und den anderen Fahrzeugen kommuniziert; einer Speichereinheit (12), die so konfiguriert ist, dass sie die trainierten Modelle der anderen Fahrzeuge und die Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge korrelierend speichert; und einer zweiten Steuereinheit (13), die so konfiguriert ist, dass sie das Modell des bestimmten Fahrzeugs auf Grundlage der Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge und der Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs auswählt, wobei die Information in Bezug auf die Trainingsbedingungen der Modelle der anderen Fahrzeuge in der Speichereinheit (12) gespeichert ist, wobei die Information in Bezug auf die Trainingsbedingungen des Modells des Eigenfahrzeugs über die zweite Kommunikationseinheit (11) empfangen wird, wobei die Trainingsbedingungen des Modells des bestimmten Fahrzeugs gleich oder ähnlich den Trainingsbedingungen des Modells des Eigenfahrzeugs sind, und das Modell des bestimmten Fahrzeugs eines der trainierten Modelle der anderen Fahrzeuge ist, wobei die trainierten Modelle in der Speichereinheit (12) gespeichert sind.
  7. Modelltrainingssystem (100) gemäß Anspruch 6, wobei die Speichereinheit (12) so konfiguriert ist, dass sie die trainierten Modelle der Fahrzeuge und eine Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge, die von den anderen Fahrzeugen empfangen werden, korrelierend speichert.
  8. Server (1), der aufweist: eine Kommunikationseinheit (11), die so konfiguriert ist, dass sie mit jedem von einer Vielzahl von Fahrzeugen (2) kommuniziert; eine Speichereinheit (12), die so konfiguriert ist, dass sie trainierte Modelle, die an jedem der Fahrzeuge (2) trainiert wurden, und eine Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge (2) korrelierend speichert; und eine Steuereinheit (13), die so konfiguriert ist, dass sie: von einem Fahrzeug aus den Fahrzeugen (2) eine Information in Bezug auf Trainingsbedingungen eines Modells des einen Fahrzeugs über die Kommunikationseinheit (11) empfängt, ein Modell eines bestimmten Fahrzeugs auf Grundlage der empfangenen Information in Bezug auf die Trainingsbedingungen des Modells des einen Fahrzeugs und der Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge auswählt, wobei die Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge in der Speichereinheit (12) gespeichert ist, wobei das Modell des bestimmten Fahrzeugs eines der trainierten Modelle der Fahrzeuge (2) ist, wobei die trainierten Modelle in der Speichereinheit (12) gespeichert sind, und wobei die Trainingsbedingungen des Modells des bestimmten Fahrzeugs gleich oder ähnlich den Trainingsbedingungen des Modells des einen Fahrzeugs sind, und zumindest einen Teil des ausgewählten Modells des bestimmten Fahrzeugs wiederverwendet und ein Training des Modells durchführt, das in dem einen Fahrzeug verwendet wird.
  9. Server (1), der aufweist: eine Kommunikationseinheit (11), die so konfiguriert ist, dass sie mit jedem von einer Vielzahl von Fahrzeugen (2) und einem ersten Fahrzeug, das unterschiedlich zu den Fahrzeugen (2) ist, kommuniziert; eine Speichereinheit (12), die so konfiguriert ist, dass sie trainierte Modelle, die an jedem der Fahrzeuge (2) trainiert wurden, und eine Information in Bezug auf die Trainingsbedingungen der trainierten Modelle der Fahrzeuge (2) korrelierend speichert; und eine Steuereinheit (13), die so konfiguriert ist, dass sie: von dem ersten Fahrzeug eine Information in Bezug auf Trainingsbedingungen eines Modells des ersten Fahrzeugs über die Kommunikationseinheit (11) empfängt; ein Modell eines bestimmten Fahrzeugs auf Grundlage der empfangenen Information in Bezug auf Trainingsbedingungen des Modells des ersten Fahrzeugs und der Information in Bezug auf Trainingsbedingungen der trainierten Modelle der Fahrzeuge auswählt, wobei die Information in Bezug auf Trainingsbedingungen der trainierten Modelle der Fahrzeuge in der Speichereinheit (12) gespeichert ist, wobei das Modell des bestimmten Fahrzeugs eines der trainierten Modelle der Fahrzeuge ist, wobei die trainierten Modelle in der Speichereinheit (12) gespeichert sind, und wobei Trainingsbedingungen des Modells des bestimmten Fahrzeugs gleich oder ähnlich den Trainingsbedingungen des Modells des ersten Fahrzeugs sind; und zumindest einen Teil des ausgewählten Modells des bestimmten Fahrzeugs wiederverwendet und ein Training des Modells durchführt, das in dem ersten Fahrzeug verwendet wird.
DE102021114514.7A 2020-06-08 2021-06-07 Fahrzeug, modelltrainingssystem und server Pending DE102021114514A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-099370 2020-06-08
JP2020099370A JP6795116B1 (ja) 2020-06-08 2020-06-08 車両、及びサーバ

Publications (1)

Publication Number Publication Date
DE102021114514A1 true DE102021114514A1 (de) 2021-12-09

Family

ID=73544686

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021114514.7A Pending DE102021114514A1 (de) 2020-06-08 2021-06-07 Fahrzeug, modelltrainingssystem und server

Country Status (4)

Country Link
US (1) US20210383215A1 (de)
JP (1) JP6795116B1 (de)
CN (1) CN113830097B (de)
DE (1) DE102021114514A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220374764A1 (en) * 2021-05-19 2022-11-24 Volvo Car Corporation Real-time in-vehicle modeling and simulation updates
EP4401015A1 (de) * 2021-09-09 2024-07-17 Horiba Advanced Techno, Co., Ltd. Messsystem, messsystemanomaliebestimmungsverfahren und messsystemanomaliebestimmungsprogramm
US20230244994A1 (en) * 2022-02-03 2023-08-03 Denso Corporation Machine learning generation for real-time location

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019183698A (ja) 2018-04-05 2019-10-24 トヨタ自動車株式会社 車載電子制御ユニット

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056147A (zh) * 2016-05-27 2016-10-26 大连楼兰科技股份有限公司 基于人工智能径向基函数神经网络方法建立不同分车型分目标远程定损系统及方法
JP6544594B2 (ja) * 2017-01-26 2019-07-17 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、プログラムおよび車両
JP6720402B2 (ja) * 2017-03-21 2020-07-08 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
US11941516B2 (en) * 2017-08-31 2024-03-26 Micron Technology, Inc. Cooperative learning neural networks and systems
US11176760B2 (en) * 2018-01-25 2021-11-16 Micron Technology, Inc. In-vehicle monitoring and reporting apparatus for vehicles
US10948915B2 (en) * 2018-08-30 2021-03-16 Intel Corporation Computer-assisted or autonomous driving vehicle incident management method and apparatus
JP6702390B2 (ja) * 2018-10-09 2020-06-03 トヨタ自動車株式会社 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置
JP6702389B2 (ja) * 2018-10-09 2020-06-03 トヨタ自動車株式会社 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置
KR102160140B1 (ko) * 2018-10-12 2020-09-25 가톨릭관동대학교산학협력단 딥러닝을 기반으로 한 자율차량을 위한 통합진단 시스템
JP2020062914A (ja) * 2018-10-15 2020-04-23 トヨタ自動車株式会社 情報提供装置
JP6848949B2 (ja) * 2018-10-25 2021-03-24 トヨタ自動車株式会社 制御支援装置、車両、および制御支援システム
JP6773099B2 (ja) * 2018-10-30 2020-10-21 トヨタ自動車株式会社 制御装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019183698A (ja) 2018-04-05 2019-10-24 トヨタ自動車株式会社 車載電子制御ユニット

Also Published As

Publication number Publication date
CN113830097B (zh) 2024-06-11
JP2021193280A (ja) 2021-12-23
JP6795116B1 (ja) 2020-12-02
CN113830097A (zh) 2021-12-24
US20210383215A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
DE102021114514A1 (de) Fahrzeug, modelltrainingssystem und server
DE102022121819A1 (de) Verfahren und systeme zum schätzen einer restnutzungsdauer eines gebrauchsguts
DE102019127482B4 (de) Steuereinrichtung
DE102019127016B4 (de) Steuerungssystem einer Verbrennungskraftmaschine, elektronische Steuerungseinheit, Server und Steuerungsverfahren einer Verbrennungskraftmaschine
DE102016210453A1 (de) Fahrzeug, System in Kommunikation mit einem Kommunikationsmodul des Fahrzeugs, und System in Kommunikation mit einer Gruppe von Fahrzeugen
DE112018006555T5 (de) Programmgesteuertes identifizieren einer persönlichkeit eines autonomen fahrzeugs
DE102021118615A1 (de) Lernvorrichtung und Modell-Lernsystem
EP3751466A1 (de) Verfahren zur vorhersage eines schadstoffwertes in der luft
DE102020106591A1 (de) Verfahren zum Erstellen eines trainierten künstlichen neuronalen Netzes, Verfahren zum Vorhersagen von Emissionsdaten eines Fahrzeugs sowie Verfahren zum Ermitteln von Kalibrierwerten
DE102016007563A1 (de) Verfahren zur Trajektorienplanung
DE102020103369A1 (de) Modellaggregationsvorrichtung und Modellaggregationssystem
DE102020104555A1 (de) Planung und ausführung einer bordeigenen diagnostischen überwachung
DE102020210561A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs mit einem Antriebsstrang mit zumindest einem traktionsbatteriegespeisten Traktionsmotor
DE102021118606A1 (de) Modelllernsystem, Modelllernverfahren und Server
DE112021004174T5 (de) Föderiertes lernen zur anomalieerkennung
EP4212980A1 (de) Fahrassistenzeinrichtung und verfahren zum durchführen einer wenigstens teilautomatischen fahrzeugfunktion in abhängigkeit von einer zu bewertenden fahrstrecke
DE102021129697A1 (de) Maschinenlernverfahren und Maschinenlernsystem
DE102021118579A1 (de) Maschinenlernvorrichtung
DE102021118572A1 (de) Maschinenlernvorrichtung und Maschinenlernsystem
DE102021108019A1 (de) System und Verfahren zum Bewerten der Fahrerleistung
WO2022069466A1 (de) Ermittlung einer prognose für einen zeithorizont in der zukunft auf basis eines zeithorizonts aus der vergangenheit, insbesondere vorhersage eines schadstoffwertes in der luft
DE102020133045A1 (de) Modelldiagnosevorrichtung und modelldiagnosesystem
DE102021102146A1 (de) Fahrzeugantriebsstranganalyse in vernetzten flotten
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE102021131856A1 (de) Planung der Ladung von Elektrofahrzeugen vor Abfahrt

Legal Events

Date Code Title Description
R012 Request for examination validly filed