DE102021129697A1 - Maschinenlernverfahren und Maschinenlernsystem - Google Patents

Maschinenlernverfahren und Maschinenlernsystem Download PDF

Info

Publication number
DE102021129697A1
DE102021129697A1 DE102021129697.8A DE102021129697A DE102021129697A1 DE 102021129697 A1 DE102021129697 A1 DE 102021129697A1 DE 102021129697 A DE102021129697 A DE 102021129697A DE 102021129697 A1 DE102021129697 A1 DE 102021129697A1
Authority
DE
Germany
Prior art keywords
training
server
vehicle
machine learning
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021129697.8A
Other languages
English (en)
Inventor
Hiroya Chiba
Yohei Hareyama
Daiki Yokoyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102021129697A1 publication Critical patent/DE102021129697A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Feedback Control In General (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Maschinenlernverfahren führt ein Training von Werten von Modellparametern, welche ein Maschinenlernmodell bilden, durch und wird in einem Maschinenlernsystem durchgeführt, das ein Fahrzeug 2 mit dem Maschinenlernmodell und einen zur Kommunikation mit dem Fahrzeug fähigen Server 3 umfasst. Das Maschinenlernverfahren umfasst: Erfassen einer aktuellen Verarbeitungslast des Servers durch den Server; Bestimmen von Verarbeitungsbeträgen von Training, welches entsprechend durch den Server und das Fahrzeug durchgeführt wird, durch den Server, basierend auf der Verarbeitungslast; Durchführen von Training der Werte der Modellparameter durch den Server gemäß dem bestimmten Verarbeitungsbetrag in dem Server; und Durchführen von Training der Werte der Modellparameter durch das Fahrzeug gemäß dem bestimmten Verarbeitungsbetrag in dem Fahrzeug. Der Server verringert einen Verarbeitungsbetrag bei dem Server, wenn die Verarbeitungslast relativ hoch ist, im Vergleich dazu, wenn diese relativ gering ist.

Description

  • Gebiet
  • Die vorliegende Offenbarung betrifft ein Maschinenlernverfahren und ein Maschinenlemsystem.
  • Hintergrund
  • Aus der Vergangenheit ist ein System mit Fahrzeugen, welche Maschinenlernmodelle besitzen, die zur Steuerung einer in den Fahrzeugen montierten Ausrüstung verwendet werden, und einem Server, welcher mit den Fahrzeugen kommunizieren kann, bekannt (beispielsweise die JP 2019 - 021 201 A ). Beispielsweise speichert der Server in dem in der JP 2019 - 021 201 A beschriebenen System von den Fahrzeugen erlangte Daten als Datensätze zum Training, führt ein Training von Werten von Parametern der Maschinenlernmodelle auf der Grundlage der gespeicherten Datensätze durch und meldet die Ergebnisse des Trainings an die Fahrzeuge. Ferner führen die Fahrzeuge eine Bilderkennungsverarbeitung durch Maschinenlernmodelle durch, in denen die vom Server mitgeteilten Trainingsergebnisse reflektiert sind.
  • Insbesondere werden in dem in der JP 2019 - 021 201 A beschriebenen System, falls Daten, die für ein Fahrzeug schwierig zu erkennen sind, von dem Fahrzeug an den Server gesendet werden, die Werte der Modellparameter des Maschinenlernmodells für dieses Fahrzeug am Server zusätzlich zu den vorstehenden Daten auf der Grundlage von Daten aktualisiert, welche von anderen Fahrzeugen in Situationen erlangt wurden, die der Situation ähnlich sind, in der diese Daten erlangt wurden.
  • Kurzfassung
  • In dieser Hinsicht führt der Server in dem in der JP 2019 - 021 201 A beschriebenen System ein Training der Maschinenlernmodelle der Mehrzahl von mit dem Server kommunizierenden Fahrzeugen durch. Aus diesem Grund muss der Server manchmal gleichzeitig ein Training der Maschinenlernmodelle einer großen Anzahl von Fahrzeugen durchführen. In einem solchen Fall ist die Last einer Computerverarbeitung bei der Trainingsverarbeitung auf dem Server (im Folgenden auch als die „Verarbeitungslast“ bezeichnet) höher, so dass die Möglichkeit besteht, dass die Verarbeitungsleistung beim Training auf dem Server deutlich abnimmt oder die Trainingsverarbeitung abgeschaltet wird.
  • Daher ist es unter Berücksichtigung des vorstehenden Problems eine Aufgabe der vorliegenden Offenbarung, zu verhindern, dass eine Verarbeitungslast eines Servers einhergehend mit einer Trainingsverarbeitung mit Bezug auf Maschinenlernmodelle von Fahrzeugen übermäßig hoch wird.
  • Der Grundgedanke der vorliegenden Erfindung liegt in dem Folgenden.
    • (1) Ein Maschinenlernverfahren zum Durchführen eines Trainings von Werten von Modellparametern, welche ein Maschinenlernmodell in einem Maschinenlernsystem bilden, welches ein Fahrzeug mit dem zur Steuerung einer montierten Ausrüstung verwendeten Maschinenlernmodell und einen zur Kommunikation mit dem Fahrzeug fähigen Server umfasst, wobei das Maschinenlernverfahren aufweist:
      • Übertragen eines Anforderungssignals durch das Fahrzeug, welches ein Training der Werte der Modellparameter anfordert, zu dem Server;
      • Erfassen einer aktuellen Verarbeitungslast des Servers durch den Server;
      • Bestimmen von Verarbeitungsbeträgen oder eines Verarbeitungsverhältnisses bzw. Verarbeitungsanteils von Training, welches entsprechend durch den
      • Server und das Fahrzeug durchgeführt wird, durch den Server, basierend auf der Verarbeitungslast, wenn das Anforderungssignal von dem Fahrzeug empfangen wird;
      • Durchführen von Training der Werte der Modellparameter durch den Server basierend auf einem Trainingsdatensatz zum Trainieren von Werten der Modellparameter gemäß dem bestimmten Verarbeitungsbetrag oder Verarbeitungsverhältnis bzw. -anteil von Training in dem Server; und
      • Durchführen von Training der Werte der Modellparameter durch das Fahrzeug basierend auf dem Trainingsdatensatz gemäß dem bestimmten Verarbeitungsbetrag oder Verarbeitungsverhältnis von Training in dem Fahrzeug, wobei
      der Server einen Verarbeitungsbetrag oder ein Verarbeitungsverhältnis von Training bei dem Server verringert, wenn die Verarbeitungslast relativ hoch ist, im Vergleich dazu, wenn diese relativ gering ist
    • (2) Das Maschinenlernverfahren gemäß dem Vorstehenden (1), wobei der Server bestimmt, zu veranlassen, die gesamte Verarbeitung des Trainings bei dem Fahrzeug durchzuführen, wenn die Verarbeitungslast höher als eine vorbestimmte Referenz-Verarbeitungslast ist, und zu veranlassen, die gesamte Verarbeitung des Trainings bei dem Server durchzuführen, wenn die Verarbeitungslast kleiner oder gleich der Referenz-Verarbeitungslast ist.
    • (3) Das Maschinenlernverfahren gemäß dem Vorstehenden (2), wobei die Referenz-Verarbeitungslast gemäß einem Typ des Maschinenlernmodells geändert wird.
    • (4) Das Maschinenlernverfahren gemäß dem Vorstehenden (3), wobei die Referenz-Verarbeitungslast höher ist, wenn das Maschinenlernmodell einem Modell mit Bezug auf eine Sicherheit des Fahrzeugs entspricht, im Vergleich dazu, wenn das Maschinenlernmodell keinem Modell mit Bezug auf die Sicherheit des Fahrzeugs entspricht.
    • (5) Das Maschinenlernverfahren gemäß einem aus dem Vorstehenden (2) bis (4), ferner aufweisend:
      • Berechnen einer erwarteten Trainingszeit im Falle des Durchführens von Training bei dem Fahrzeug basierend auf dem Trainingsdatensatz, und einer erwarteten Kommunikationszeit, welche für die Übertragung und den Empfang des Trainingsdatensatzes und der Modellparameter zwischen dem Fahrzeug und dem Server erforderlich ist, wobei
      • die Referenz-Verarbeitungslast einer Last entspricht, welche kleiner oder gleich einer Last ist, durch welche eine durch Subtrahieren der erwarteten Kommunikationszeit von der erwarteten Trainingszeit berechnete Zeitspanne zum Durchführen von Training der Werte der Modellparameter bei dem Server erforderlich ist.
    • (6) Ein Maschinenlernsystem, welches ein Fahrzeug mit einem zur Steuerung einer montierten Ausrüstung verwendeten Maschinenlernmodell und einen zur Kommunikation mit dem Fahrzeug fähigen Server umfasst und ein Training von Werten von Modellparametern durchführt, welche das Maschinenlernmodell bilden, wobei das Fahrzeug aufweist:
      • einen Trainingsanforderungs-Übertragungsteil, welcher ein Anforderungssignal an den Server überträgt, welches ein Training der Werte der Modellparameter anfordert; und
      • einen fahrzeugseitigen Trainingsteil, welcher ein Training der Werte der Modellparameter basierend auf einem Trainingsdatensatz zum Trainieren der Werte der Modellparameter durchführt,
      der Server aufweist:
      • einen Verarbeitungslast-Erfassungsteil, welcher eine aktuelle Verarbeitungslast des Servers erfasst;
      • einen Verarbeitungsbetrag-Bestimmungsteil, welcher Verarbeitungsbeträge oder ein Verarbeitungsverhältnis von Training, welches entsprechend durch den Server und das Fahrzeug durchgeführt wird, basierend auf der Verarbeitungslast bestimmt, wenn das Anforderungssignal von dem Fahrzeug empfangen wird; und
      • einen serverseitigen Trainingsteil, welcher ein Training der Werte der Modellparameter basierend auf dem Trainingsdatensatz durchführt,
      der serverseitige Trainingsteil und der fahrzeugseitige Trainingsteil entsprechend Trainingsteile aufweisen, welche ein Training der Werte der Modellparameter gemäß den bestimmten Verarbeitungsbeträgen oder dem Verarbeitungsverhältnis des Trainings durchführen, und der Verarbeitungsbetrag-Bestimmungsteil einen Verarbeitungsbetrag oder ein Verarbeitungsverhältnis bzw. einen Verarbeitungsanteil von Training bei dem serverseitigen Trainingsteil verringert, wenn die Verarbeitungslast relativ hoch ist, im Vergleich dazu, wenn diese relativ gering ist.
  • Gemäß der vorliegenden Offenbarung wird verhindert, dass die Verarbeitungslast eines Servers einhergehend mit einer Trainingsverarbeitung mit Bezug auf Maschinenlemmodelle von Fahrzeugen schließlich übermäßig hoch wird.
  • Figurenliste
    • 1 ist eine schematische Ansicht der Konfiguration eines Maschinenlernsystems gemäß einer ersten Ausführungsform.
    • 2 ist eine Ansicht, welche eine Hardwarekonfiguration eines Fahrzeugs schematisch zeigt.
    • 3 ist ein Funktionsblockdiagramm eines Prozessors eines Fahrzeugs.
    • 4 ist eine Ansicht, welche eine Hardwarekonfiguration eines Servers schematisch zeigt.
    • 5 ist ein Funktionsblockdiagramm eines Prozessors des Servers.
    • 6 zeigt ein Beispiel für ein NN-Modell, welches eine einfache Konfiguration besitzt.
    • 7 ist ein Betriebsablaufdiagramm einer Trainingsverarbeitung in einem Fall, in dem ein Training eines Maschinenlernmodells vom Server durchgeführt wird.
    • 8 ist ein Betriebsablaufdiagramm einer Trainingsverarbeitung in einem Fall, in dem ein Training eines Maschinenlernmodells von einem Fahrzeug durchgeführt wird.
    • 9 ist ein Funktionsblockdiagramm eines Prozessors eines Servers gemäß einer zweiten Ausführungsform.
    • 10 ist ein Betriebsablaufdiagramm, ähnlich wie 7, einer Trainingsverarbeitung in einem Fall, in dem ein Training eines Maschinenlernmodells gemäß der vorliegenden Ausführungsform durch den Server durchgeführt wird.
    • 11 ist ein Betriebsablaufdiagramm, ähnlich wie 7, einer Trainingsverarbeitung gemäß einer dritten Ausführungsform.
  • Beschreibung von Ausführungsformen
  • Nachfolgend werden Ausführungsformen unter Bezugnahme auf die Abbildungen im Detail erläutert. Zu beachten ist, dass in der folgenden Erläuterung ähnliche Komponentenelemente mit den gleichen Bezugszeichen versehen sind.
  • Erste Ausführungsform
  • Konfiguration eines Maschinenlernsystems
  • Zunächst werden unter Bezugnahme auf die 1 bis 5 ein Maschinenlernsystem 1 und ein von dem Maschinenlernsystem 1 durchgeführtes Maschinenlernverfahren gemäß einer ersten Ausführungsform erläutert. 1 ist eine schematische Ansicht der Konfiguration des Maschinenlernsystems 1 gemäß der ersten Ausführungsform. Das Maschinenlernsystem 1 führt ein Training bzw. Trainieren eines Maschinenlernmodells durch, das für jedes Fahrzeug besonders ist, indem ein Trainingsdatensatz verwendet wird, welcher Werte einer Mehrzahl von Zustandsparametern umfasst, die Zustände des Fahrzeugs zeigen.
  • Wie in 1 dargestellt, ist das Maschinenlernsystem 1 mit einer Mehrzahl von Fahrzeugen 2 und einem Server 3 versehen, welche miteinander kommunizieren können. Jedes aus der Mehrzahl von Fahrzeugen 2 und der Server 3 sind derart konfiguriert, dass diese in der Lage sind, über ein Kommunikationsnetzwerk 4, das durch optische Kommunikationsleitungen usw. konfiguriert ist, und eine Drahtlos-Basisstation 5, die mit dem Kommunikationsnetzwerk 4 über ein Gateway (nicht gezeigt) verbunden ist, miteinander zu kommunizieren. Die Kommunikation zwischen den Fahrzeugen 2 und der Drahtlos-Basisstation 5 entspricht einer Kommunikation, welche mit irgendeinem Kommunikationsprotokoll kompatibel ist.
  • 2 ist eine Ansicht, welche die Hardwarekonfiguration eines Fahrzeugs 2 schematisch zeigt. Wie in 2 dargestellt, ist das Fahrzeug 2 mit einer elektronischen Steuerungseinheit (ECU) 11 versehen. Die ECU 11 besitzt eine interne Fahrzeugkommunikationsschnittstelle 12, eine Speichervorrichtung 13 und einen Prozessor 14. Die interne Fahrzeugkommunikationsschnittstelle 12 und die Speichervorrichtung 13 sind über Signaldrähte mit dem Prozessor 14 verbunden. Zu beachten ist, dass in der vorliegenden Ausführungsform das Fahrzeug 2 mit einer einzigen ECU 11 versehen wird, dieses kann aber auch mit einer Mehrzahl von ECUs versehen sein, welche für unterschiedliche Funktionen aufgeteilt sind.
  • Die interne Fahrzeugkommunikationsschnittstelle 12 besitzt eine Schnittstellenschaltung zum Anschluss der ECU 11 an ein internes Fahrzeugnetzwerk 15, welche mit dem CAN (Controller-Area-Network) oder einem anderen Standard kompatibel ist. Die ECU 11 kommuniziert über die interne Fahrzeugkommunikationsschnittstelle 12 mit anderen Teilen einer im Fahrzeug montierten Ausrüstung.
  • Bei der Speichervorrichtung 13 handelt es sich um ein Beispiel eines Speicherteils zum Speichern von Daten. Die Speichervorrichtung 13 besitzt beispielsweise einen flüchtigen Halbleiterspeicher (beispielsweise RAM), einen nichtflüchtigen Halbleiterspeicher (beispielsweise ROM), ein Festplattenlaufwerk (HDD), ein Solid-State-Drive (SSD) oder ein optisches Aufzeichnungsmedium. Die Speichervorrichtung 13 speichert Computerprogramme zur Durchführung verschiedener Verarbeitungen im Prozessor 14 sowie verschiedene Daten usw., welche verwendet werden, wenn verschiedene Verarbeitungen durch den Prozessor 14 durchgeführt werden. Daher speichert die Speichervorrichtung 13 ein für jedes Fahrzeug besonderes Maschinenlernmodell.
  • Der Prozessor 14 besitzt eine oder mehrere CPUs (zentrale Verarbeitungseinheiten) und deren Peripherieschaltungen. Der Prozessor 14 kann ferner eine GPU (Grafikverarbeitungseinheit) oder eine Verarbeitungsschaltung, wie eine Logikeinheit oder eine Recheneinheit, besitzen. Der Prozessor 14 führt verschiedene Verarbeitungen auf der Grundlage von Computerprogrammen durch, welche in der Speichervorrichtung 13 gespeichert sind. Falls Werte von Eingabeparametern des Maschinenlernmodells eingegeben werden, führt der Prozessor 14 daher eine Verarbeitung gemäß dem Maschinenlernmodell durch und gibt einen Wert eines Ausgabeparameters aus.
  • 3 ist ein Funktionsblockdiagramm des Prozessors 14 des Fahrzeugs 2. Wie in 3 gezeigt, ist der Prozessor 14 versehen mit einem Steuerungsteil 141, welcher ein Maschinenlernmodell verwendet, um eine gesteuerte Ausrüstung 22 des Fahrzeugs 2 zu steuern, einem Trainingsbedingungs-Beurteilungsteil 142, welcher beurteilt, ob eine Bedingung für die Durchführung eines Trainings eines Maschinenlernmodells besteht, einem Datensatzerzeugungsteil 143, welcher einen Datensatz für das Training erzeugt, einem Trainingsanforderungs-Übertragungsteil 144, welcher eine Anforderung für ein Training an den Server 3 überträgt, einem fahrzeugseitigen Trainingsteil 145, welcher ein Training der Werte der Modellparameter, die das Maschinenlernmodell bilden, durchführt, einem Modellaktualisierungsteil 146, welcher das in dem Steuerungsteil 141 verwendete Maschinenlernmodell aktualisiert, einem fahrzeugseitigen Übertragungsteil 147, welcher verschiedene Daten an den Server 3 überträgt, und einem fahrzeugseitigen Empfangsteil 148, welcher verschiedene Daten von dem Server 3 empfängt. Diese Funktionsblöcke des Prozessors 14 sind beispielsweise Funktionsmodule, welche durch Computerprogramme realisiert sind, die auf dem Prozessor 14 arbeiten. Alternativ können diese Funktionsblöcke des Prozessors 14 auch dedizierte Verarbeitungsschaltungen sein, welche beim Prozessor 14 bereitgestellt sind. Einzelheiten zu den Funktionsblöcken des Prozessors 14 des Fahrzeugs 2 werden später erläutert.
  • Ferner ist das Fahrzeug 2, wie in 2 dargestellt, mit einem externen Fahrzeugkommunikationsmodul 21, einer Mehrzahl von Teilen einer gesteuerten Ausrüstung 22 und einer Mehrzahl von Sensoren 23 bereitgestellt. Das externe Fahrzeugkommunikationsmodul 21, die gesteuerte Ausrüstung 22 und die Sensoren 23 sind über das interne Fahrzeugnetzwerk 15 mit der ECU 11 verbunden.
  • Das externe Fahrzeugkommunikationsmodul 21 entspricht einem Beispiel für einen kommunizierenden Teil zur Kommunikation mit einer Ausrüstung außerhalb des Fahrzeugs. Das externe Fahrzeugkommunikationsmodul 21 ist beispielsweise eine Ausrüstung zur Kommunikation mit dem Server 3. Das externe Fahrzeugkommunikationsmodul 21 umfasst beispielsweise ein Datenkommunikationsmodul (DCM). Das Datenkommunikationsmodul kommuniziert mit dem Server 3 über eine Drahtlos-Basisstation 5 und ein Kommunikationsnetzwerk 4.
  • Bei der gesteuerten Ausrüstung 22 handelt es sich um eine Ausrüstung zur Durchführung verschiedener Steuerungsvorgänge eines Fahrzeugs 2. Insbesondere umfasst die gesteuerte Ausrüstung 22 beispielsweise ein Antriebsstellglied einer Drosselklappe zum Anpassen eines Öffnungsgrads einer in einem Einlassdurchlass einer Verbrennungskraftmaschine bereitgestellten Drosselklappe, einen Injektor, welcher Kraftstoff zu einer Verbrennungskammer einer Verbrennungskraftmaschine führt, eine Zündkerze zum Zünden von Kraftstoff in einer Verbrennungskammer, ein Antriebsstellglied eines AGR-Ventils, welches eine AGR-Rate der Verbrennungskraftmaschine steuert, ein Gebläse einer Klimaanlage, ein Antriebsstellglied einer Luftmischklappe, welche einen Luftstrom der Klimaanlage steuert, usw. Diese Teile einer gesteuerten Ausrüstung 22 sind über das interne Fahrzeugnetzwerk 15 mit der ECU 11 verbunden und werden gemäß Ansteuersignalen von der ECU 11 betrieben.
  • Die Sensoren 23 sind Beispiele für Detektoren zur Erfassung von Werten verschiedener Zustandsparameter (Zustandsgrößen) mit Bezug auf ein Fahrzeug 2. Die Sensoren 23 umfassen beispielsweise einen Luftströmungssensor zum Erfassen eines der Verbrennungskraftmaschine zugeführten Ansaugluftstroms, einen Einspritzdrucksensor zum Erfassen eines Kraftstoffeinspritzdrucks von einem Injektor der Verbrennungskraftmaschine, einen Abgastemperatursensor zum Erfassen einer Temperatur des Abgases, einen Eingabeerfassungssensor zum Erfassen einer Eingabe eines Fahrers an einem Touchpanel usw., einen Selbstpositionssensor zum Erfassen einer Selbst- bzw. Eigenposition des Fahrzeugs 2 (beispielsweise GPS), usw. Ferner umfassen die Sensoren 23 beispielsweise einen Außenlufttemperatursensor zur Erfassung einer Temperatur der Luft in der Umgebung des Fahrzeugs 2 (Außenlufttemperatur), einen Außenluftfeuchtigkeitssensor zur Erfassung einer Feuchtigkeit der Luft in der Umgebung des Fahrzeugs 2 (Außenluftfeuchtigkeit), einen Atmosphärendrucksensor zum Erfassen eines Atmosphärendrucks in der Umgebung des Fahrzeugs 2, einen Fahrzeuginnentemperatursensor zum Erfassen einer Temperatur in einer Kabine des Fahrzeugs 2 (Kabineninnentemperatur), einen Fahrzeuginnenfeuchtigkeitssensor zum Erfassen einer Feuchtigkeit in der Kabine des Fahrzeugs 2 (Kabineninnenfeuchtigkeit), einen Sonnenlichtsensor zum Erfassen einer Sonnenlichtmenge usw. Diese Sensoren 23 sind über das interne Fahrzeugnetzwerk 15 mit der ECU 11 verbunden und übertragen Ausgangssignale an die ECU 11.
  • Der Server 3 ist an der Außenseite des Fahrzeugs 2 bereitgestellt und kommuniziert mit dem Fahrzeug 2 während der Fahrt über das Kommunikationsnetzwerk 4 und die Drahtlos-Basisstation 5. Der Server 3 empfängt während der Fahrt verschiedene Arten von Informationen von dem Fahrzeug 2.
  • 4 ist eine Ansicht, welche eine Hardwarekonfiguration des Servers 3 schematisch zeigt. Der Server 3 ist, wie in 4 dargestellt, mit einem externen Kommunikationsmodul 31, einer Speichervorrichtung 32 und einem Prozessor 33 versehen. Ferner kann der Server 3 eine Eingabevorrichtung, wie beispielsweise eine Tastatur oder eine Maus, und eine Ausgabevorrichtung, wie beispielsweise ein Display, besitzen.
  • Das externe Kommunikationsmodul 31 entspricht einem Beispiel für einen kommunizierenden Teil zur Kommunikation mit einer anderen Ausrüstung als dem Server 3. Das externe Kommunikationsmodul 31 ist mit einer Schnittstellenschaltung zum Anschluss des Servers 3 an das Kommunikationsnetzwerk 4 bereitgestellt. Das externe Kommunikationsmodul 31 ist derart konfiguriert, dass dieses in der Lage ist, mit der Mehrzahl von Fahrzeugen 2 über das Kommunikationsnetzwerk 4 und die Drahtlos-Basisstation 5 entsprechend zu kommunizieren.
  • Bei der Speichervorrichtung 32 handelt es sich um ein Beispiel eines Speicherteils zum Speichern von Daten. Die Speichervorrichtung 32 des Servers 3 ist auch mit einem flüchtigen Halbleiterspeicher (beispielsweise RAM), einem nichtflüchtigen Halbleiterspeicher (beispielsweise ROM), einem Festplattenlaufwerk (HDD), einem Solid-State-Drive (SSD) oder einem optischen Speichermedium bereitgestellt. Die Speichervorrichtung 32 speichert Computerprogramme für den Prozessor 33, um verschiedene Verarbeitungen durchzuführen, und verschiedene Daten, welche verwendet werden, wenn verschiedene Verarbeitungen durch den Prozessor 33 durchgeführt werden.
  • Der Prozessor 33 besitzt eine oder mehrere CPUs und deren Peripherieschaltungen. Der Prozessor 33 kann ferner eine GPU oder Logikeinheit oder Recheneinheit oder eine andere derartige Verarbeitungsschaltung besitzen. Der Prozessor 33 führt verschiedene Verarbeitungsroutinen auf der Grundlage von Computerprogrammen durch, welche in der Speichervorrichtung 32 des Servers 3 gespeichert sind. In der vorliegenden Ausführungsform dient der Prozessor 33 des Servers 3 als eine Maschinenlernvorrichtung zur Durchführung von Training eines Maschinenlernmodells.
  • 5 ist ein Funktionsblockdiagramm des Prozessors 33 des Servers 3. Wie in 5 gezeigt, ist der Prozessor 33 bereitgestellt mit einem Verarbeitungslast-Erfassungsteil 331, welcher eine aktuelle Verarbeitungslast des Servers 3 erfasst, einem Verarbeitungsbetrag-Bestimmungsteil 332, welcher Verarbeitungsbeträge von maschinellem Lernen bestimmt, das entsprechend auf dem Server 3 und dem Fahrzeug 2 durchzuführen ist, einem serverseitigen Trainingsteil 333, welcher ein Training der Werte der Modellparameter durchführt, die ein Maschinenlernmodell bilden, einem serverseitigen Übertragungsteil 334, welcher verschiedene Daten an das Fahrzeug 2 überträgt, und einem serverseitigen Empfangsteil 335, welcher verschiedene Daten von dem Fahrzeug 2 empfängt. Diese Funktionsblöcke des Prozessors 33 sind beispielsweise Funktionsmodule, welche durch Computerprogramme realisiert sind, die auf dem Prozessor 33 betrieben werden. Alternativ können diese Funktionsblöcke des Prozessors 33 dedizierte Verarbeitungsschaltungen sein, welche beim Prozessor 33 bereitgestellt sind. Einzelheiten zu den verschiedenen Funktionsblöcken des Prozessors 33 des Servers 3 werden später erläutert.
  • Maschinenlernmodell
  • In der vorliegenden Ausführungsform wird in dem Steuerungsteil 141 des Fahrzeugs 2 bei der Steuerung der in dem Fahrzeug 2 montierten gesteuerten Ausrüstung 22 ein durch maschinelles Lernen trainiertes Maschinenlernmodell verwendet. In der vorliegenden Ausführungsform wird als das Maschinenlernmodell ein neuronales Netzmodell (im Folgenden als „NN-Modell“ bezeichnet) verwendet. Nachfolgend wird unter Bezugnahme auf 6 ein Überblick über ein NN-Modell gegeben. 6 zeigt ein Beispiel für ein NN-Modell, das eine einfache Konfiguration besitzt.
  • Die kreisförmigen Markierungen in 6 stellen künstliche Neuronen dar. Die künstlichen Neuronen werden gewöhnlich als „Knoten“ oder „Einheiten“ bezeichnet (in der Beschreibung als „Knoten“ angegeben). In 6 zeigt L=1 die Eingabeschicht, L=2 und L=3 zeigen versteckte bzw. verborgene Schichten (oder Zwischenschichten), und L=4 zeigt die Ausgabeschicht. In der vorliegenden Ausführungsform ist die Anzahl an Knoten der verborgenen Schichten (L=2 und L=3) kleiner als die Anzahl an Knoten der Eingabeschicht (L=1), und die Anzahl an Knoten einer niedrigeren verborgenen Schicht ist kleiner als die Anzahl an Knoten einer höheren verborgenen Schicht (beispielsweise ist die Anzahl an Knoten der verborgenen Schicht (L=3) kleiner als die Anzahl an Knoten der verborgenen Schicht (L=2)).
  • In 6 zeigt xm (m=1, 2, ... M. In dem in 6 gezeigten Beispiel gilt M=4) die Knoten der Eingabeschicht (L=1) und die Ausgabewerte dieser Knoten, während „y“ den Knoten der Ausgabeschicht (L=4) und den Ausgabewert derselben zeigt. Gleichermaßen zeigt zk (L=2) (k=1, 2... K(L=2). In dem in 6 dargestellten Beispiel gilt K(L=2)=3) die Knoten der verborgenen Schicht (L=2) und die Ausgabewerte dieser Knoten, während zk (L=3) (k=1, 2,... K(L=3)). In dem in 6 gezeigten Beispiel gilt K(L=3)=2) die Knoten der verborgenen Schicht (L=3) und die Ausgabewerte von diesen Knoten zeigt.
  • An den Knoten der Eingabeschicht werden die Eingaben so ausgegeben, wie diese sind. Andererseits werden an den Knoten der verborgenen Schicht (L=2) die Ausgabewerte xm (m=1, 2, 3, 4) der Knoten der Eingabeschicht eingegeben, während an den Knoten der verborgenen Schicht (L=2) die Summeneingabewerte „u“ unter Verwendung der jeweils entsprechenden Gewichte „w“ und Bias „b“ berechnet werden. Beispielsweise wird in 6 der Summeneingabewert uk (L=2), welcher an einem durch zk (L=2) (k=1, 2, 3) dargestellten Knoten in der verborgenen Schicht (L=2) berechnet wird, mit Hilfe der folgenden Gleichung (1) berechnet:
    [Gleichung 1] u k ( L = 2 ) = m = 1 M ( x m w km ( L = 2 ) ) + b k
    Figure DE102021129697A1_0001
  • Anschließend wird dieser Summeneingabewert uk (L=2) durch eine Aktivierungsfunktion „f“ umgewandelt, und der umgewandelte Wert wird von einem durch zk (L=2) dargestellten Knoten der verborgenen Schicht (L=2) als Ausgabewert zk (L=2) (=f(uk (L=2))) ausgegeben. Andererseits werden an den Knoten der verborgenen Schicht (L=3) die Ausgabewerte zk (L=2) (k=1, 2, 3) eingegeben. An den Knoten der verborgenen Schicht (L=3) werden die Summeneingabewerte „u“ (=Σz·w+b) unter Verwendung der jeweils entsprechenden Gewichte „w“ und Bias „b“ berechnet. Die Summeneingabewerte „u“ werden gleichermaßen durch eine Aktivierungsfunktion umgewandelt, und die umgewandelten Werte werden von den Knoten der verborgenen Schicht (L=3) als die Ausgabewerte zk (L=3) (k=1, 2) ausgegeben. Diese Aktivierungsfunktion ist beispielsweise eine ReLU-Funktion σ.
  • Ferner werden die Ausgabewerte zk (L=3) (k=1, 2) der Knoten der verborgenen Schicht (L=3) bei dem Knoten der Ausgabeschicht (L=4) eingegeben, an dem der Summeneingabewert „u“ (Σz·w+b) unter Verwendung des jeweils entsprechenden Gewichts „w“ und des Bias „b“ oder der Summeneingabewert „u“ (Σz·w) nur unter Verwendung des jeweils entsprechenden Gewichts „w“ berechnet wird. Beispielsweise wird an dem Knoten der Ausgabeschicht eine Identitätsfunktion als eine Aktivierungsfunktion verwendet. In diesem Fall wird der am Knoten der Ausgabeschicht berechnete Summeneingabewert „u“ so wie dieser ist als der Ausgabewert „y“ von dem Knoten der Ausgabeschicht ausgegeben.
  • Auf diese Art und Weise ist ein NN-Modell mit einer Eingabeschicht, verborgenen Schichten und einer Ausgabeschicht bereitgestellt. In dem NN-Modell werden, falls Werte einer Mehrzahl von Eingabeparametern von der Eingabeschicht eingegeben werden, ein oder mehrere Ausgabeparameter entsprechend den Eingabeparametern von der Ausgabeschicht ausgegeben.
  • In der vorliegenden Ausführungsform wird als ein solches Maschinenlernmodell beispielsweise ein Modell verwendet, das eine Temperatur des Abgases als einen Wert eines Ausgabeparameters ausgibt, falls eine Außenlufttemperatur, eine Ansaugluftmenge, eine Kraftstoffeinspritzmenge, ein Zeitpunkt der Kraftstoffeinspritzung, ein Kraftstoffeinspritzdruck oder eine AGR-Rate als Werte von Eingabeparametern eingegeben werden. In dem Steuerungsteil 141 des Host-Fahrzeugs 2 wird die Temperatur des Abgases als der Ausgabeparameter ausgegeben, indem diesem Maschinenlernmodell Werte von Zustandsparametern, welche von den Sensoren 23 erfasst werden, und Steuerbefehlswerte von der ECU 11 an die gesteuerte Ausrüstung 22 als Werte von Eingabeparametern eingegeben werden. Der Steuerungsteil 141 steuert die gesteuerte Ausrüstung 22, welche die Verbrennungskraftmaschine betrifft (beispielsweise Stellglieder zur Ansteuerung von Drosselklappen, Injektoren, Zündkerzen usw.), basierend auf der ausgegebenen Temperatur des Abgases. Hier gibt es eine Verzögerung im Ansprechen bei dem Abgastemperatursensor zur Erfassung der Temperatur des Abgases, so dass bei einer Steuerung der Verbrennungskraftmaschine auf der Grundlage der Ausgabe des Abgastemperatursensors nicht unbedingt eine geeignete Steuerung der Verbrennungskraftmaschine möglich war. Im Gegensatz dazu tritt bei der Berechnung der Temperatur des Abgases unter Verwendung des Maschinenlernmodells keine Verzögerung auf, so dass es möglich ist, die Verbrennungskraftmaschine geeigneter zu steuern, indem die gesteuerte Ausrüstung 22 mit Bezug auf die Verbrennungskraftmaschine unter Verwendung der vom Maschinenlernmodell berechneten Temperatur des Abgases gesteuert wird.
  • Alternativ kann als ein solches Maschinenlernmodell beispielsweise ein Modell verwendet werden, welches bei Eingabe einer Außenlufttemperatur, einer Außenluftfeuchtigkeit, einer Fahrzeuginnentemperatur, einer Fahrzeuginnenfeuchtigkeit und einer Sonnenlichtmenge als die Werte der Eingabeparameter eine Soll-Temperatur einer Klimaanlage als einen Wert des Ausgabeparameters ausgibt. In diesem Fall wird im Steuerungsteil 141 des Fahrzeugs 2 durch Eingabe von Werten der von den Sensoren 23 erfassten Zustandsparameter oder von Steuerbefehlswerten von der ECU 11 zu der gesteuerten Ausrüstung 22 als Eingabeparameter in ein solches Maschinenlernmodell eine Soll-Temperatur der Klimaanlage als ein Ausgabeparameter ausgegeben. Die ECU 11 steuert die gesteuerte Ausrüstung 22 mit Bezug auf die Klimaanlage (beispielsweise das Gebläse der Klimaanlagenausrüstung, das Stellglied für den Antrieb der Luftmischklappe usw.), so dass die Fahrzeuginnentemperatur zu der von dem Maschinenlernmodell ausgegebenen Soll-Temperatur wird.
  • Zu beachten ist, dass verschiedene Modelle als das Maschinenlernmodell verwendet werden können. Daher werden als die Eingabeparameter verschiedene Zustandsparameter, wie die Außenlufttemperatur, die Außenluftfeuchtigkeit, der atmosphärische Druck, die Kabineninnentemperatur, die Kabineninnenfeuchtigkeit, die Sonnenlichtmenge, die Ansaugluftmenge, die Ansaugtemperatur, der Kraftstoffeinspritzdruck, der Kraftstoffeinspritzzeitpunkt, die Kraftstoffeinspritzmenge, das Luft-Kraftstoff- Verhältnis, der Zündzeitpunkt, die Maschinenkühlwassertemperatur und der Ladedruck, verwendet. Ferner werden verschiedene Zustandsparameter, welche Zustände des Fahrzeugs ausdrücken, wie die Temperatur des Abgasreinigungskatalysators, die NOx-Konzentration im Abgas, das Ausgangsdrehmoment der Maschine und die Kabineninnenfeuchtigkeit, als die Ausgabeparameter verwendet.
  • Training des Maschinenlernmodells
  • Als nächstes wird das Training des vorstehenden Maschinenlernmodells (NN-Modell) erläutert. Um die Genauigkeit dieses Maschinenlernmodells zu verbessern, ist es notwendig, ein Training der Modellparameter durchzuführen, welche das Maschinenlernmodell bilden (im Folgenden auch als „Training des Maschinenlernmodells“ bezeichnet). In der vorliegenden Ausführungsform führt daher der fahrzeugseitige Trainingsteil 145 des Fahrzeugs 2 oder der serverseitige Trainingsteil 333 des Servers 3 ein Training des Maschinenlernmodells durch. Insbesondere werden bei dem Training des fahrzeugseitigen Trainingsteils 145 oder des serverseitigen Trainingsteils 333 die Werte aller Modellparameter des Maschinenlernmodells (im Falle des NN-Modells Gewichte „w“, Bias „b“ usw.) berechnet, so dass, falls die Werte der Eingabeparameter in das Maschinenlernmodell eingegeben werden, ein geeigneter Wert des Ausgabeparameters, der diesen Werten der Eingabeparameter entspricht, von dem Maschinenlernmodell ausgegeben wird. Nachfolgend wird das Trainingsverfahren des bei dem fahrzeugseitigen Trainingsteil 145 oder dem serverseitigen Trainingsteil 333 durchgeführten Trainierens des Maschinenlernmodells kurz erläutert.
  • Beim Training eines Maschinenlernmodells wird ein Trainingsdatensatz verwendet, welcher Messwerte von Zustandsparametern umfasst. Der Trainingsdatensatz weist Kombinationen aus der Mehrzahl von Messwerten der Mehrzahl von Eingabeparametern und der Mehrzahl von Messwerten zumindest eines Ausgabeparameters (Grand-Truth-Daten) entsprechend diesen Messwerten auf. In der vorliegenden Ausführungsform handelt es sich bei den Messwerten der Eingabeparameter und den Messwerten der Ausgabeparameter um Werte, welche von den Sensoren 23 des Fahrzeugs 2 erfasst werden, oder um Steuerbefehlswerte von der ECU 11 an die gesteuerte Ausrüstung 22. Ferner wird in der vorliegenden Ausführungsform bei der Durchführung eines Trainings des Maschinenlernmodells auf dem Server 3 der Trainingsdatensatz von dem Fahrzeug 2 an den Server 3 übertragen. Zu beachten ist, dass der Trainingsdatensatz auch Messwerte der Eingabeparameter und den Messwert des Ausgabeparameters aufweisen kann, die vorverarbeitet wurden (normalisiert, standardisiert, etc.).
  • Der fahrzeugseitige Trainingsteil 145 oder der serverseitige Trainingsteil 333 verwendet den Trainingsdatensatz zur Durchführung eines Trainings der Werte der Modellparameter des Maschinenlernmodells. Bei der Durchführung des Trainings des Maschinenlernmodells verwendet der fahrzeugseitige Trainingsteil 145 oder der serverseitige Trainingsteil 333 beispielsweise eine bekannte Fehler-Rückpropagierung, um die Werte der Modellparameter (Gewichte „w“ und Bias „b“) des Maschinenlernmodells wiederholend zu aktualisieren, so dass die Differenz zwischen dem Ausgabewert des Maschinenlernmodells und dem gemessenen Wert des im Trainingsdatensatz enthaltenen Ausgabeparameters kleiner wird. Folglich wird das Maschinenlernmodell trainiert und ein trainiertes Maschinenlernmodell wird erzeugt. Die Werte der Modellparameter (Gewichte „w“ und Bias „b“), welche das trainierte Maschinenlernmodell bilden, werden in der Speichervorrichtung 13 des Fahrzeugs 2 oder der Speichervorrichtung 32 des Servers 3 gespeichert.
  • Trainingsverarbeitung des Maschinenlernmodells
  • Nachfolgend wird unter Bezugnahme auf die 7 und 8 der Ablauf der Trainingsverarbeitung eines Maschinenlernmodells in dem Fahrzeug 2 oder dem Server 3 erläutert. In der vorliegenden Ausführungsform wird der ein Training des Maschinenlernmodells durchführende Teil gemäß der Verarbeitungslast bei dem Server 3 verändert. Insbesondere wird in der vorliegenden Ausführungsform bei hoher Verarbeitungslast bei dem Server 3 das Training durch das Fahrzeug 2 durchgeführt, während das Training bei einer niedrigen Verarbeitungslast bei dem Server 3 durch den Server 3 durchgeführt wird. Daher gibt es in der vorliegenden Ausführungsform Fälle, in denen ein Training des Maschinenlernmodells durch das Fahrzeug 2 durchgeführt wird, und Fälle, in denen das Training bei dem Server 3 durchgeführt wird. Somit wird nachstehend der Ablauf der Trainingsverarbeitung in dem Fall erläutert, in dem das Training entsprechend bei dem Fahrzeug 2 und dem Server 3 durchgeführt wird.
  • 7 ist ein Betriebsablaufdiagramm einer Trainingsverarbeitung in einem Fall, in dem ein Training des Maschinenlernmodells durch den Server 3 durchgeführt wird. Daher zeigt 7 den Ablauf der Trainingsverarbeitung in dem Fall, in welchem die Verarbeitungslast bei dem Server 3 gering ist.
  • Der Trainingsbedingungs-Beurteilungsteil 142 des Fahrzeugs 2 beurteilt periodisch, ob eine Bedingung für die Durchführung von Training des Maschinenlernmodells des Fahrzeugs 2 vorliegt (Schritt S11). Das Training des Maschinenlernmodells wird beispielsweise zu jeder bestimmten Zeitspanne, jeder bestimmten Fahrstrecke oder jeder bestimmten Fahrzeit durchgeführt. Daher beurteilt der Trainingsbedingungs-Beurteilungsteil 142, dass die Bedingung für die Durchführung von Training des Maschinenlernmodells des Fahrzeugs 2 vorliegt, falls beispielsweise eine bestimmte Zeitspanne seit der vorherigen Durchführung von Training verstrichen ist. Hier ändern sich die optimalen Werte der Modellparameter des Maschinenlernmodells aufgrund einer Verschlechterung der gesteuerten Ausrüstung 22 im Laufe der Zeit oder aufgrund von Änderungen der Interessen des Nutzers. Indem ein Training der Werte der Modellparameter des Maschinenlernmodells auf diese Art und Weise periodisch durchgeführt wird, ist es möglich, die Werte der Modellparameter auf geeigneten Werten zu halten.
  • Zu beachten ist, dass das Training des Maschinenlernmodells auch zu einem anderen Zeitpunkt als dem vorstehend genannten Zeitpunkt durchgeführt werden kann. Daher kann das Training des Maschinenlernmodells beispielsweise in dem Fall durchgeführt werden, in dem eine gewisse Anomalie in der gesteuerten Ausrüstung 22 aufgetreten ist, deren Befehlswerte als Eingabeparameter des Maschinenlernmodells verwendet werden, oder in dem Fall, in dem eine gewisse Anomalie in den Sensoren 23 aufgetreten ist, welche die Werte der Eingabeparameter des Maschinenlernmodells erfassen. Daher beurteilt in diesem Fall der Trainingsbedingungs-Beurteilungsteil 142, dass die Trainingsbedingung des maschinellen Lernens vorliegt, falls es eine Anomalie in der gesteuerten Ausrüstung 22 oder den Sensoren 23 gibt. Insbesondere liegt die Trainingsbedingung des Maschinenlernmodells beispielsweise dann vor, wenn durch eine On-Board-Diagnose beurteilt wird, dass eine Anomalie in einer solchen gesteuerten Ausrüstung 22 oder den Sensoren 23 aufgetreten ist, oder wenn der von dem Maschinenlernmodell ausgegebene prognostizierte Wert von dem später von den Sensoren 23 erfassten Messwert um einen Wert abweicht, der gleich oder größer als ein Referenzwert ist.
  • Falls die Trainingsbedingung vorliegt, bereitet der Datensatzerzeugungsteil 143 des Fahrzeugs 2 den Trainingsdatensatz vor (Schritt S12). Der Datensatzerzeugungsteil 143 erzeugt den Trainingsdatensatz basierend auf den erfassten Werten, welche von den Sensoren 23 des Fahrzeugs 2 während einer vorgegebenen Zeitspanne erfasst werden, und den Steuerbefehlswerten, welche von der ECU 11 während der vorgegebenen Zeitspanne an die gesteuerte Ausrüstung 22 übertragen werden. Der Datensatzerzeugungsteil 143 erzeugt den Trainingsdatensatz auf der Grundlage der erfassten Werte und der Steuerbefehlswerte, welche erlangt werden, nachdem die Trainingsbedingung des maschinellen Lernens vorliegt. Alternativ kann der Datensatzerzeugungsteil 143 die erfassten Werte und Steuerbefehlswerte auch im Voraus in der Speichervorrichtung 13 speichern, beginnend vor dem Vorliegen der Trainingsbedingung des maschinellen Lernens, und den Trainingsdatensatz basierend auf den erfassten Werten und Steuerbefehlswerten erzeugen, die gespeichert wurden, nachdem die Trainingsbedingung des maschinellen Lernens vorliegt. Ferner kann der Datensatzerzeugungsteil 143 die erfassten Werte und Steuerbefehlswerte auch vorverarbeiten (normalisieren, standardisieren usw.), um den Trainingsdatensatz zu erzeugen. Der erzeugte Trainingsdatensatz wird in der Speichervorrichtung 13 der ECU 11 gespeichert.
  • Falls der Trainingsdatensatz erzeugt ist, überträgt ein Trainingsanforderungs-Übertragungsteil 144 des Fahrzeugs 2 ein Anforderungssignal, welches ein Training der Werte der Modellparameter des Maschinenlernmodells anfordert, über das externe Kommunikationsmodul 21 an den Server 3 (Schritt S13). Zu dieser Zeit kann der Trainingsanforderungs-Übertragungsteil 144 zusammen mit dem Anforderungssignal auch Informationen übertragen, die zur Berechnung der mit dem Training einhergehenden Verarbeitungslast bei dem Server 3 erforderlich sind. Insbesondere überträgt der Trainingsanforderungs-Übertragungsteil 144 beispielsweise die Größe des durch den Datensatzerzeugungsteil 143 vorbereiteten Trainingsdatensatzes, die Konfiguration des Maschinenlernmodells (Anzahl an Schichten, Anzahl an Knoten der Schichten usw.) oder den Typ des Maschinenlernmodus (beispielsweise Modell, das zur Sicherheit des Fahrzeugs 2 beiträgt, Modell, das zur Umwelt beiträgt, und andere Klassifikationen). Unter der Voraussetzung jedoch, dass Informationen, wie die Konfiguration des Maschinenlernmodells entsprechend dem Fahrzeug 2, im Voraus in der Speichervorrichtung 32 des Servers 3 gespeichert werden, überträgt der Trainingsanforderungs-Übertragungsteil 144 solche Informationen nicht.
  • Andererseits erfasst der Verarbeitungslast-Erfassungsteil 331 des Servers 3 kontinuierlich oder periodisch die aktuelle Verarbeitungslast des Servers 3 (Schritt S14). Die Verarbeitungslast des Servers 3 entspricht einer Last, welche die Computerverarbeitung des Servers 3 betrifft. Beispielsweise ändert sich die Verarbeitungslast gemäß der Nutzungsrate des Prozessors 33 des Servers 3 (Nutzungsrate von CPU oder GPU), und ändert sich ferner gemäß der verfügbaren Kapazität im Halbleiterspeicher in der Speichervorrichtung 32 des Servers 3. Die Verarbeitungslast des Servers 3 wird als höher erfasst, wenn die Nutzungsrate des Prozessors 33 größer ist, und diese wird als höher erfasst, wenn die verfügbare Kapazität in dem Halbleiterspeicher kleiner ist.
  • Die Verarbeitungslast des Servers 3 ändert sich gemäß dem Betrag einer auf dem Server 3 durchgeführten Computerverarbeitung. Falls daher der Server 3 ein Training von Maschinenlernmodellen einer großen Anzahl anderer Fahrzeuge durchführt oder falls der Server 3 neben dem Training verschiedene Computerverarbeitungen durchführt, wird die Verarbeitungslast des Servers 3 als hoch erfasst. Falls der Server 3 andererseits kein Training von Maschinenlernmodellen anderer Fahrzeuge durchführt oder keine Computerverarbeitung neben dem Training durchführt, wird die Verarbeitungslast des Servers 3 als niedrig erfasst.
  • Zu beachten ist, dass der Verarbeitungslast-Erfassungsteil 331 ebenso nicht nur die aktuelle Verarbeitungslast des Servers 3, sondern auch die zukünftige Verarbeitungslast des Servers 3 erfassen kann. Die zukünftige Verarbeitungslast wird beispielsweise basierend auf der Aufgabe erfasst, welche der Prozessor 33 des Servers 3 geplant zu verarbeiten hat. Ferner muss der Verarbeitungslast-Erfassungsteil 331 die Verarbeitungslast nicht kontinuierlich oder periodisch erfassen, sondern kann derart konfiguriert sein, dass dieser die Lastverarbeitung erfasst, wenn der serverseitige Empfangsteil 335 ein Anforderungssignal über das externe Kommunikationsmodul 31 empfängt.
  • Falls der serverseitige Empfangsteil 335 ein Anforderungssignal über das externe Kommunikationsmodul 31 empfängt, bestimmt der Verarbeitungsbetrag-Bestimmungsteil 332 basierend auf der aktuellen Verarbeitungslast des Servers 3, welche durch den Verarbeitungslast-Erfassungsteil 331 erfasst wird, den Teil, welcher das Training der Werte der Modellparameter des Maschinenlernmodells durchführt, aus dem Server 3 und dem Fahrzeug 2 (Schritt S15). In der vorliegenden Ausführungsform bestimmt der Verarbeitungsbetrag-Bestimmungsteil 332 insbesondere, ob die aktuelle Verarbeitungslast des Servers 3 höher ist als eine vorbestimmte Referenz-Verarbeitungslast. Wenn beurteilt wird, dass die aktuelle Verarbeitungslast des Servers 3 höher ist als die vorbestimmte Referenz-Verarbeitungslast, bestimmt der Verarbeitungsbetrag-Bestimmungsteil 332, dass die gesamte Verarbeitung bei dem Trainieren des Maschinenlernmodells bei dem Prozessor 14 des Fahrzeugs 2 durchzuführen ist, das heißt, dieser bestimmt, dass der Verarbeitungsbetrag des bei dem Prozessor 33 des Servers 3 durchgeführten Trainings gleich null zu setzen ist. Wenn andererseits beurteilt wird, dass die aktuelle Verarbeitungslast des Servers 3 kleiner oder gleich der vorstehenden Referenz-Verarbeitungslast ist, bestimmt der Verarbeitungsbetrag-Bestimmungsteil 332, dass die gesamte Verarbeitung bei dem Trainieren des Maschinenlernmodells durch den Prozessor 33 des Servers 3 durchzuführen ist, das heißt, dieser bestimmt, dass der Verarbeitungsbetrag des bei dem Prozessor 14 des Fahrzeugs 2 durchgeführten Trainings gleich null zu setzen ist. In der vorliegenden Ausführungsform entspricht die Referenz-Verarbeitungslast einem vorbestimmten festgelegten Wert (welcher beispielsweise 80 % beträgt, falls der Maximalwert der Verarbeitungslast des Servers 3 100 % beträgt).
  • Zu beachten ist, dass die Referenz-Verarbeitungslast anstelle eines vorbestimmten festgelegten Werts einem variablen Wert entsprechen kann. Die Referenz-Verarbeitungslast kann beispielsweise basierend auf dem Typ des durch den Trainingsanforderungs-Übertragungsteil 144 zu dem Server 3 übertragenen Maschinenlernmodells verändert werden. Die Referenz-Verarbeitungslast wird insbesondere in der Reihenfolge des Falls, in dem das Maschinenlernmodell einem Modell mit Bezug auf die Sicherheit des Fahrzeugs 2 entspricht, des Falls, in dem das Maschinenlernmodell einem Modell mit Bezug auf die Umweltbelastung aufgrund des Fahrzeugs 2 entspricht, und des Falls, in dem das Maschinenlernmodell einem Modell mit Bezug auf den Komfort der Insassen im Inneren des Fahrzeugs 2 entspricht, geringer. Daher ist die Referenz-Verarbeitungslast höher eingestellt, falls das Maschinenlernmodell einem Modell mit Bezug auf die Sicherheit des Fahrzeugs 2 entspricht, im Vergleich dazu, falls das Maschinenlernmodell keinem Modell mit Bezug auf die Sicherheit des Fahrzeugs 2 entspricht.
  • Das Modell mit Bezug auf die Sicherheit des Fahrzeugs 2 kann beispielsweise ein Modell umfassen, welches zum Erfassen einer Anomalie in der im Fahrzeug 2 montierten gesteuerten Ausrüstung 22 mit Bezug auf den Betrieb des Fahrzeugs (beispielsweise die Verbrennungskraftmaschine oder ein Elektromotor, eine Bremsvorrichtung, eine Lenkvorrichtung usw.) oder von Sensoren 23, die sich auf die Sicherheit beziehen, (beispielsweise eine externe Kamera, eine Kamera zur Fahrerüberwachung, ein Radar usw.) verwendet wird. Ein solches Modell umfasst insbesondere beispielsweise ein Modell mit Werten von Zustandsparametern, die von verschiedenen Sensoren 23 erfasst werden, oder Steuerbefehlswerten von der ECU 11 an die gesteuerte Ausrüstung 22 als Eingabeparameter, und mit dem Vorhandensein eines Ausfalls der Ausrüstung als ein Ausgabeparameter. Ferner kann das Modell, welches sich auf die Umweltbelastung durch das Fahrzeug 2 bezieht, beispielsweise ein Modell zur Schätzung der Temperatur des Abgases umfassen, wie vorstehend erläutert. Darüber hinaus kann das Modell, welches sich auf den Komfort der Insassen im Inneren des Fahrzeugs 2 bezieht, beispielsweise ein Modell umfassen, das eine Soll-Temperatur der Klimatisierungsvorrichtung abschätzt, wie vorstehend erläutert.
  • Hierbei drückt die Referenz-Verarbeitungslast den Prioritätsgrad aus, mit dem das Training bei dem Server 3 durchgeführt wird. Falls die Referenz-Verarbeitungslast gering ist, ist es anschließend schwierig, ein Training bei dem Server 3 durchzuführen. Entsprechend ist es einfach, ein Training bei dem Fahrzeug 2 durchzuführen, wobei die erforderliche Zeit für das Training lang ist. Daher steht die geringe Referenz-Verarbeitungslast dafür, dass der Prioritätsgrad eines bei dem Server 3 durchgeführten Trainings niedrig ist. Umgekehrt steht die hohe Referenz-Verarbeitungslast dafür, dass der Prioritätsgrad eines bei dem Server 3 durchgeführten Trainings hoch ist. Somit ist es, wie vorstehend erläutert, durch Verändern der Referenz-Verarbeitungslast gemäß dem Typ des Maschinenlernmodells möglich, den Prioritätsgrad des bei dem Server 3 durchgeführten Trainings eines Modells mit Bezug auf die Sicherheit des Fahrzeugs 2 zu erhöhen. Ferner ist es möglich, den Prioritätsgrad eines bei dem Server 3 durchgeführten Trainings eines Modells mit Bezug auf den Komfort der Insassen zu verringern.
  • Falls durch den Verarbeitungsbetrag-Bestimmungsteil 332 bestimmt wird, dass das Training des Maschinenlernmodells bei dem Server 3 durchzuführen ist, überträgt der serverseitige Übertragungsteil 334 eine Mitteilung bzw. Benachrichtigung über das Durchführen des Trainings bei dem Server 3 über das externe Kommunikationsmodul 31 zu dem Fahrzeug 2 (Schritt S16).
  • Falls der fahrzeugseitige Empfangsteil 148 eine Benachrichtigung über die Durchführung des Trainings bei dem Server 3 erhält, überträgt der fahrzeugseitige Übertragungsteil 147 die für die Durchführung des Trainings des Maschinenlernmodells des Fahrzeugs 2 erforderlichen Informationen über das externe Kommunikationsmodul 21 (Schritt S17). Die für die Durchführung des Trainings erforderlichen Informationen umfassen beispielsweise den von dem Datensatzerzeugungsteil 143 erzeugten Trainingsdatensatz und die aktuellen Werte der Modellparameter des Maschinenlernmodells.
  • Falls der serverseitige Empfangsteil 335 die für die Durchführung des Trainings erforderlichen Informationen über das externe Kommunikationsmodul 31 empfängt, führt der serverseitige Trainingsteil 333 das Training der Werte der Modellparameter des Maschinenlernmodells durch (Schritt S18). Der serverseitige Trainingsteil 333 verwendet die aktuellen Werte der Modellparameter, welche von dem Fahrzeug 2 übertragen werden, als die Ausgangswerte und aktualisiert die Werte der Modellparameter durch die vorstehend erwähnte Fehler-Rückpropagierung oder eine andere bekannte Technologie unter Verwendung des Trainingsdatensatzes. Folglich wird das trainierte Maschinenlernmodell (insbesondere ein neu trainiertes Maschinenlernmodell auf der Grundlage des neuen Trainingsdatensatzes) durch den serverseitigen Trainingsteil 333 erzeugt. Die Werte der Modellparameter (Gewichte „w“ und Bias „b“), welche das trainierte Maschinenlernmodell bilden, werden in der Speichervorrichtung 32 des Servers 3 gespeichert.
  • Falls das Training des Maschinenlernmodells bei dem serverseitigen Trainingsteil 333 abgeschlossen ist, überträgt der serverseitige Übertragungsteil 334 die Werte der Modellparameter, welche durch die Durchführung des Trainings durch den serverseitigen Trainingsteil 333 erhalten werden, über das externe Kommunikationsmodul 31 an das Fahrzeug 2 (Schritt S19).
  • Falls der fahrzeugseitige Empfangsteil 148 des Fahrzeugs 2 die Werte der Modellparameter von dem Server 3 über das externe Kommunikationsmodul 21 empfängt, aktualisiert der Modellaktualisierungsteil 146 des Fahrzeugs 2 die Werte der Modellparameter, welche das in dem Steuerungsteil 141 verwendete Maschinenlernmodell bilden, auf die vom Server 3 empfangenen Werte (Schritt S20). Danach steuert der Steuerungsteil 141 die gesteuerte Ausrüstung 22 auf der Grundlage des Maschinenlernmodells unter Verwendung der aktualisierten Werte der Modellparameter.
  • Wie vorstehend erläutert, wird bei dem in 7 gezeigten Beispiel gemäß der vorliegenden Ausführungsform beurteilt, dass die aktuelle Verarbeitungslast des Servers 3 kleiner oder gleich der Referenz-Verarbeitungslast ist. In diesem Fall ist verständlich, dass der Verarbeitungsbetrag des Trainings bei dem Fahrzeug 2 als null bestimmt wird, und der Verarbeitungsbetrag des Trainings bei dem Server 3 als der gesamte Verarbeitungsbetrag des Trainings basierend auf dem Trainingsdatensatz bestimmt wird. Mit anderen Worten, in diesem Fall ist verständlich, dass das Verarbeitungsverhältnis des bei dem Fahrzeug 2 durchgeführten Trainings und des bei dem Server 3 durchgeführten Trainings als 0:1 bestimmt wird.
  • 8 ist ein Betriebsablaufdiagramm einer Trainingsverarbeitung in einem Fall, in dem ein Training des Maschinenlernmodells durch das Fahrzeug 2 durchgeführt wird. Daher zeigt 8 den Ablauf der Trainingsverarbeitung in dem Fall, in dem die Verarbeitungslast bei dem Server 3 hoch ist.
  • Wie aus 8 ersichtlich ist, wird auch bei der Durchführung des Trainings des Maschinenlernmodells durch das Fahrzeug 2 bis zur Bestimmung des Teils, welcher das Training des Maschinenlernmodells durchführt (Schritte S11 bis S14), eine ähnliche Verarbeitung wie im Falle der Durchführung des Trainings des Maschinenlernmodells durch das Fahrzeug 2 durchgeführt.
  • Auch bei dem in 8 gezeigten Beispiel bestimmt der Verarbeitungsbetrag-Bestimmungsteil 332 basierend auf der aktuellen Verarbeitungslast des Servers 3 den Teil, welcher das Training des Maschinenlernmodells durchführt, aus dem Server 3 und dem Fahrzeug 2 (Schritt S15). Falls bei Schritt S15 durch den Verarbeitungsbetrag-Bestimmungsteil 332 bestimmt wird, dass das Training des Maschinenlernmodells bei dem Fahrzeug 2 durchzuführen ist, überträgt der serverseitige Übertragungsteil 334 ferner eine Benachrichtigung zur Durchführung des Trainings bei dem Server 3 über das externe Kommunikationsmodul 31 zu dem Fahrzeug 2 (Schritt S21).
  • Falls der fahrzeugseitige Empfangsteil 148 eine Benachrichtigung über die Durchführung des Trainings bei dem Fahrzeug 2 erhält, führt der fahrzeugseitige Trainingsteil 145 das Training der Werte der Modellparameter des Maschinenlernmodells durch, ohne dass der Trainingsdatensatz und die aktuellen Werte der Modellparameter an den Server 3 übertragen werden (Schritt S22). Das Training bei dem fahrzeugseitigen Trainingsteil 145 wird auf die gleiche Art und Weise durchgeführt wie das Training bei dem serverseitigen Trainingsteil 333, wodurch der fahrzeugseitige Trainingsteil 145 ein trainiertes Maschinenlernmodell erzeugt. Die Werte der Modellparameter, welche das trainierte Maschinenlernmodell bilden, werden in der Speichervorrichtung 32 des Fahrzeugs 2 gespeichert.
  • Falls das Training des Maschinenlernmodells bei dem fahrzeugseitigen Trainingsteil 145 abgeschlossen ist, aktualisiert der Modellaktualisierungsteil 146 des Fahrzeugs 2 die Werte der Modellparameter, welche das in dem Steuerungsteil 141 verwendete Maschinenlernmodell bilden, auf die Werte, welche durch die Durchführung des Trainings bei dem fahrzeugseitigen Trainingsteil 145 erhalten werden (Schritt S23). Danach steuert der Steuerungsteil 141 die gesteuerte Ausrüstung 22 auf der Grundlage des Maschinenlernmodells unter Verwendung der aktualisierten Werte der Modellparameter.
  • Wie vorstehend erläutert, wird in dem in 8 gezeigten Beispiel gemäß der vorliegenden Ausführungsform beurteilt, dass die aktuelle Verarbeitungslast des Servers 3 höher ist als die Referenz-Verarbeitungslast. In diesem Fall ist verständlich, dass der Verarbeitungsbetrag des bei dem Server 3 durchgeführten Trainings als null bestimmt wird, und der Verarbeitungsbetrag des bei dem Fahrzeug 2 durchgeführten Trainings als der gesamte Verarbeitungsbetrag des Trainings basierend auf dem Trainingsdatensatz bestimmt wird. Mit anderen Worten, in diesem Fall ist verständlich, dass das Verarbeitungsverhältnis des bei dem Fahrzeug 2 durchgeführten Trainings und des bei dem Server 3 durchgeführten Trainings als 1:0 bestimmt wird.
  • Vorteilhafte Effekte
  • Gemäß dem Maschinenlernsystem 1 und dem in dem Maschinenlernsystem 1 durchgeführten Maschinenlernverfahren gemäß der vorstehenden Ausführungsform wird das Training des Maschinenlernmodells des Fahrzeugs 2 bei dem Server 3 durchgeführt, wenn die Verarbeitungslast bei dem Server 3 gering ist, wohingegen, wenn die Verarbeitungslast bei dem Server 3 hoch ist, das Training des Maschinenlernmodells des Fahrzeugs 2 bei dem Fahrzeug 2 durchgeführt wird. Folglich wird das Training des Maschinenlernmodells bei dem Server 3 mit einer möglichst hohen Verarbeitungsgeschwindigkeit durchgeführt, während verhindert wird, dass die Verarbeitungslast des Servers 3 übermäßig hoch wird, auch wenn Anforderungen zur Durchführung eines Trainings bei dem Fahrzeug 3 von einer großen Anzahl von Fahrzeugen vorliegen.
  • Zweite Ausführungsform
  • Nachfolgend werden unter Bezugnahme auf die 9 und 10 ein Maschinenlernsystem 1 gemäß einer zweiten Ausführungsform und ein bei dem Maschinenlernsystem 1 durchgeführtes Maschinenlernverfahren gemäß der zweiten Ausführungsform erläutert. Die Konfiguration und Verarbeitung des Maschinenlernsystems 1 gemäß der zweiten Ausführungsform sind grundsätzlich ähnlich zu der Konfiguration und Verarbeitung des Maschinenlernsystems 1 gemäß der ersten Ausführungsform. Nachstehend wird in der Erläuterung auf die unterschiedlichen Punkte zu dem Maschinenlernsystem 1 gemäß der ersten Ausführungsform eingegangen.
  • Bei dem Maschinenlernsystem 1 gemäß der ersten Ausführungsform entspricht die Referenz-Verarbeitungslast, welche bei der Bestimmung des das Training des Maschinenlernmodells durchführenden Teils aus dem Server 3 und dem Fahrzeug 2 verwendet wird, einem festgelegten Wert oder einem Wert, der sich gemäß dem Typ des Maschinenlernmodells ändert. Im Gegensatz dazu ist die Referenz-Verarbeitungslast in der vorliegenden Ausführungsform unter Berücksichtigung der erforderlichen Zeit, bis die trainierten Werte der Modellparameter bei dem Fahrzeug 2 erhalten werden, falls das Training bei dem Server 3 durchgeführt wird (nachstehend auch als die „erforderliche Zeit für die Serververarbeitung“ bezeichnet), und der erforderlichen Zeit, bis die trainierten Werte der Modellparameter bei dem Fahrzeug 2 erhalten werden, falls das Training bei dem Fahrzeug 2 durchgeführt wird (nachstehend auch als die „erforderliche Zeit für die Fahrzeugverarbeitung“ bezeichnet), eingestellt.
  • In der vorliegenden Ausführungsform ist die Referenz-Verarbeitungslast insbesondere derart eingestellt, dass, falls die erforderliche Zeit für die Serververarbeitung länger ist als die erforderliche Zeit für die Fahrzeugverarbeitung, das Training bei dem Fahrzeug 2 durchgeführt wird, da die Notwendigkeit für die Durchführung einer Verarbeitung bei dem Server 3 gering ist, wohingegen, falls die erforderliche Zeit für die Serververarbeitung kleiner bzw. kürzer oder gleich der erforderlichen Zeit für die Fahrzeugverarbeitung ist, das Training bei dem Server 3 oder dem Fahrzeug 2 durchgeführt wird. Nachstehend wird die spezifische Technologie für die Einstellung der Referenz-Verarbeitungslast erläutert.
  • 9 ist ein Funktionsblockdiagramm des Prozessors 33 des Servers 3 gemäß der vorliegenden Ausführungsform. Wie in 9 gezeigt, ist der Server 33 in der vorliegenden Ausführungsform zusätzlich zu den Funktionsblöcken des Prozessors 33 gemäß der ersten Ausführungsform mit einem Referenz-Verarbeitungsbetrag-Berechnungsteil 336 versehen, welcher einen Referenz-Verarbeitungsbetrag berechnet.
  • 10 ist ein Betriebsablaufdiagramm, ähnlich 7, einer Trainingsverarbeitung in einem Fall, in dem ein Training eines Maschinenlernmodells gemäß der vorliegenden Ausführungsform durch den Server 3 durchgeführt wird. Wie in 10 gezeigt, berechnet der Referenz-Verarbeitungsbetrag-Berechnungsteil 336 in der vorliegenden Ausführungsform den Referenz-Verarbeitungsbetrag, falls der serverseitige Empfangsteil 335 ein Anforderungssignal über das externe Kommunikationsmodul 31 empfängt.
  • Bei der Berechnung des Referenz-Verarbeitungsbetrags berechnet der Referenz-Verarbeitungsbetrag-Berechnungsteil 336 die erwartete erforderliche Fahrzeugtrainingszeit unter der Annahme der Durchführung des Trainings des Maschinenlernmodells bei dem fahrzeugseitigen Trainingsteil 145 basierend auf dem durch den Datensatzerzeugungsteil 143 erzeugten Trainingsdatensatz. Die erwartete Fahrzeugtrainingszeit wird beispielsweise basierend auf der Rechenfähigkeit basierend auf der Verarbeitungsfähigkeit des Prozessors 14 des Fahrzeugs 2 und der Kapazität des Halbleiterspeichers, der Größe des Trainingsdatensatzes und der Konfiguration des Maschinenlernmodells berechnet. Die erwartete Fahrzeugtrainingszeit wird so berechnet, dass diese kürzer wird, wenn die Verarbeitungsfähigkeit des Fahrzeugs 2 höher wird, und länger wird, wenn die Größe des Trainingsdatensatzes größer und die Konfiguration des Maschinenlernmodells komplizierter wird.
  • Bei der Berechnung des Referenz-Verarbeitungsbetrags berechnet der Referenz-Verarbeitungsbetrag-Berechnungsteil 336 zusätzlich die erwartete erforderliche Kommunikationszeit zum Senden und Empfangen des Trainingsdatensatzes und der Werte der Modellparameter zwischen dem Fahrzeug 2 und dem Server 3. Die erwartete Kommunikationszeit entspricht der erforderlichen Zeit, wenn ein Training durch den Server 3 durchgeführt wird. Die erwartete Kommunikationszeit wird beispielsweise basierend auf der Größe des Trainingsdatensatzes, der Anzahl an Modellparametern des Maschinenlernmodells und der Signalstärke einer Drahtloskommunikation zwischen dem Fahrzeug 2 und dem Server 3 berechnet. Die erwartete Kommunikationszeit wird so berechnet, dass diese länger wird, wenn die Größe des Trainingsdatensatzes größer und die Anzahl an Modellparametern größer wird, und dass diese kürzer wird, wenn die Signalstärke bei der Drahtloskommunikation höher wird. Die Signalstärke bei der Drahtloskommunikation kann nicht nur die aktuelle Signalstärke umfassen, sondern auch die erwartete zukünftige Signalstärke. Die erwartete zukünftige Signalstärke wird beispielsweise aus der zukünftigen geplanten Fahrtroute des Fahrzeugs 2 abgeschätzt. Daher ist die erwartete zukünftige Signalstärke beispielsweise auf einen niedrigen Wert eingestellt, falls das Fahrzeug 2 geplant auf einer Bergstraße mit einer geringen Signalstärke fahren soll.
  • Danach berechnet der Referenz-Verarbeitungsbetrag-Berechnungsteil 336 die Zeitdifferenz, welche durch Subtrahieren der erwarteten Kommunikationszeit von der erwarteten Fahrzeugtrainingszeit bei dem Fahrzeug 2 berechnet wird. Falls die erforderliche Zeit für das Training bei dem Server 3 länger ist als die auf diese Art und Weise berechnete Zeitdifferenz, bedeutet dies, dass die erforderliche Zeit für die Serververarbeitung länger sein wird als die erforderliche Zeit für die Fahrzeugverarbeitung. Falls die erforderliche Zeit für das Training bei dem Server 3 andererseits kleiner bzw. kürzer oder gleich der auf diese Art und Weise berechneten Zeitdifferenz ist, bedeutet dies, dass die erforderliche Zeit für die Serververarbeitung kürzer oder gleich der erforderlichen Zeit für die Fahrzeugverarbeitung sein wird.
  • Andererseits verändert sich die Geschwindigkeit der Computerverarbeitung bei dem Server 3 gemäß der Verarbeitungslast des Servers 3. Wenn die Verarbeitungslast des Servers 3 hoch ist, ist die Geschwindigkeit der Computerverarbeitung bei dem Server 3 niedrig, wodurch die erforderliche Zeit für die Durchführung eines Trainings länger ist. Wenn die Verarbeitungslast des Servers 3 umgekehrt gering ist, ist die Geschwindigkeit der Computerverarbeitung bei dem Server 3 schnell, wodurch die erforderliche Zeit für die Durchführung eines Trainings kürzer ist.
  • Daher stellt der Referenz-Verarbeitungsbetrag-Berechnungsteil 336 in der vorliegenden Ausführungsform eine Last als die Referenz-Verarbeitungslast ein, bei welcher die vorstehende Zeitdifferenz zur Durchführung des Trainings des Maschinenlernmodells bei dem Server 3 notwendig wäre (nachstehend als eine „Last entsprechend der Zeitdifferenz“ bezeichnet). Folglich wird das Training bei dem Server 3 durchgeführt, wenn die aktuelle Verarbeitungslast kleiner oder gleich der Referenz-Verarbeitungslast ist, wodurch das Training lediglich dann bei dem Server 3 durchgeführt wird, wenn die erforderliche Zeit für die Serververarbeitung kürzer oder gleich der erforderlichen Zeit für die Fahrzeugverarbeitung ist.
  • Zu beachten ist, dass die Referenz-Verarbeitungslast in der vorliegenden Ausführungsform auf eine Last entsprechend der Zeitdifferenz eingestellt ist. Die Referenz-Verarbeitungslast kann jedoch auch auf eine Last eingestellt sein, welche geringer ist als die Last entsprechend der Zeitdifferenz. Auch in diesem Fall ist es möglich, zu veranlassen, dass der Server 3 das Training lediglich dann durchführt, wenn die erforderliche Zeit für die Serververarbeitung kürzer oder gleich der erforderlichen Zeit für die Fahrzeugverarbeitung ist. Ferner kann die Referenz-Verarbeitungslast beispielsweise auch einer geringeren Last als die Last entsprechend der Zeitdifferenz und einer Last, welche sich gemäß dem Typ des Maschinenlernmodells ändert, entsprechen.
  • Dritte Ausführungsform
  • Nachfolgend werden unter Bezugnahme auf 11 ein Maschinenlernsystem 1 gemäß einer dritten Ausführungsform und ein bei dem Maschinenlernsystem 1 durchgeführtes Maschinenlernverfahren gemäß der dritten Ausführungsform erläutert. Die Konfiguration und Verarbeitung des Maschinenlernsystems 1 gemäß der dritten Ausführungsform sind im Wesentlichen ähnlich zu den Konfigurationen und der Verarbeitung der Maschinenlernsysteme 1 gemäß der ersten Ausführungsform und der zweiten Ausführungsform. Nachstehend wird in der Erläuterung auf unterschiedliche Punkte zu den Maschinenlernsystemen 1 gemäß der ersten Ausführungsform und der zweiten Ausführungsform eingegangen.
  • Bei den Maschinenlernsystemen 1 gemäß der ersten Ausführungsform und der zweiten Ausführungsform wird die gesamte Trainingsverarbeitung entweder bei dem Fahrzeug 2 oder dem Server 3 durchgeführt. In der vorliegenden Ausführungsform wird die Trainingsverarbeitung des Maschinenlernmodells im Gegensatz dazu zwischen dem Fahrzeug 2 und dem Server 3 gemäß der Verarbeitungslast des Servers 3 verteilt.
  • 11 ist ein Betriebsablaufdiagramm, ähnlich 7, einer Trainingsverarbeitung gemäß der vorliegenden Ausführungsform. Verarbeitungsschritten, welche der bei 7 durchgeführten Verarbeitung ähnlich sind, sind ähnliche Zahlen zugewiesen, und Erläuterungen der Verarbeitung werden weggelassen.
  • Wie in 11 gezeigt, bestimmt der Verarbeitungsbetrag-Bestimmungsteil 332 in der vorliegenden Ausführungsform die Verarbeitungsbeträge des Trainings, welches entsprechend durch den Server 3 und das Fahrzeug 2 durchgeführt wird, basierend auf der aktuellen Verarbeitungslast des Servers 3, welche durch den Verarbeitungslast-Erfassungsteil 331 erfasst wird, falls der serverseitige Empfangsteil 335 ein Anforderungssignal empfängt (Schritt S35). In der vorliegenden Ausführungsform nimmt der Verarbeitungsbetrag des Trainings bei dem Server 3 stärker ab und der Verarbeitungsbetrag des Trainings bei dem Fahrzeug 2 nimmt stärker zu, wenn die aktuelle Verarbeitungslast des Servers 3 höher wird. Zu beachten ist, dass die Verarbeitungsbeträge des Trainings bei dem Server 3 und dem Fahrzeug 2 schrittweise oder kontinuierlich gemäß den Verarbeitungslasten verändert werden können. Daher wird in sämtlichen Ausführungsformen einschließlich der ersten Ausführungsform und der zweiten Ausführungsform, falls das Vorstehende zusammenfassend ausgedrückt wird, der Verarbeitungsbetrag des bei dem Server 3 durchgeführten Trainings kleiner gestaltet, wenn die aktuelle Verarbeitungslast des Servers 3 relativ hoch ist, im Vergleich dazu, wenn diese relativ gering ist.
  • Falls die Verarbeitungsbeträge durch den Verarbeitungsbetrag-Bestimmungsteil 332 bestimmt werden, überträgt der serverseitige Übertragungsteil 334 eine Benachrichtigung der entsprechenden Verarbeitungsbeträge des Fahrzeugs 2 und des Servers 3 über das externe Kommunikationsmodul 31 zu dem Fahrzeug 2 (Schritt S36). Falls der fahrzeugseitige Empfangsteil 148 diese Benachrichtigung empfängt, überträgt der fahrzeugseitige Übertragungsteil 147 die erforderlichen Informationen zur Durchführung des Trainings des Maschinenlernmodells des Fahrzeugs 2 über das externe Kommunikationsmodul 21 (Schritt S 17).
  • Falls der serverseitige Empfangsteil 335 die erforderlichen Informationen für die Durchführung des Trainings über das externe Kommunikationsmodul 31 empfängt, führt der serverseitige Trainingsteil 333 das Training der Werte der Modellparameter des Maschinenlernmoduls gemäß dem bei Schritt S35 bestimmten Verarbeitungsbetrag bei dem Server 3 durch (Schritt S37). Der serverseitige Trainingsteil 333 verwendet die aktuellen Werte der Modellparameter, welche von dem Fahrzeug 2 übertragen werden, als die Ausgangswerte, und aktualisiert die Werte der Modellparameter durch die vorstehend erwähnte Fehler-Rückpropagierung oder eine andere bekannte Technologie unter Verwendung des Trainingsdatensatzes. Zu dieser Zeit beendet der serverseitige Trainingsteil 333 die Trainingsverarbeitung, bevor das Training des Maschinenlernmodells abgeschlossen ist, solange der bei Schritt S35 bestimmte Verarbeitungsbetrag bei dem Server 3 nicht dem gesamten Verarbeitungsbetrag des Trainings entspricht.
  • Falls das Training des Maschinenlernmodells bei dem serverseitigen Trainingsteil 333 endet, überträgt der serverseitige Übertragungsteil 334 die Werte der Modellparameter in der Mitte des Trainings, welche durch das durch den serverseitigen Übertragungsteil 333 durchgeführte Training erhalten werden, über das externe Kommunikationsmodul 31 zu dem Fahrzeug 2 (Schritt S38).
  • Falls der fahrzeugseitige Empfangsteil 148 die Werte der Modellparameter in der Mitte des Trainings empfängt, verwendet der fahrzeugseitige Trainingsteil 145 die von dem Server 3 übertragenen Werte der Modellparameter in der Mitte des Trainings als die Ausgangswerte, und aktualisiert die Werte der Modellparameter des Maschinenlernmodells unter Verwendung des Trainingsdatensatzes gemäß dem bei Schritt S35 bestimmten Verarbeitungsbetrag bei dem Fahrzeug 2 (Schritt S39). Das Training bei dem fahrzeugseitigen Trainingsteil 145 wird durchgeführt, bis das Training abgeschlossen ist, und anschließend erzeugt der fahrzeugseitige Trainingsteil 145 das trainierte Maschinenlernmodell.
  • Zu beachten ist, dass der Verarbeitungsbetrag-Bestimmungsteil 332 in den vorstehenden Ausführungsformen die Verarbeitungsbeträge des Trainings bestimmt, welches entsprechend bei dem Server 3 und dem Fahrzeug 2 durchgeführt wird. Der Verarbeitungsbetrag-Bestimmungsteil 332 kann jedoch auch das Verhältnis zwischen dem bei dem Server 3 durchgeführten Verarbeitungsbetrag und dem bei dem Fahrzeug 2 durchgeführten Verarbeitungsbetrag bestimmen (Verarbeitungsverhältnis). Ferner wird in den vorstehenden Ausführungsformen zunächst das Training des Maschinenlernmodells bis zur Mitte bei dem Server 3 durchgeführt, und anschließend wird das Training des Maschinenlernmodells bei dem Fahrzeug 2 bis zum Abschluss durchgeführt. Es ist jedoch ebenso möglich, dass zunächst das Training des Maschinenlernmodells bis zur Mitte bei dem Fahrzeug 2 durchgeführt wird, und das Training des Maschinenlernmodells anschließend bis zum Abschluss bei dem Server 3 durchgeführt wird.
  • Vorstehend wurden bevorzugte Ausführungsformen gemäß der vorliegenden Erfindung erläutert, die vorliegende Erfindung ist jedoch nicht auf diese Ausführungsformen beschränkt und kann innerhalb des Anspruchswortlauts verschiedenartig korrigiert und verändert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2019021201 A [0002, 0003, 0004]

Claims (6)

  1. Maschinenlernverfahren zum Durchführen eines Trainings von Werten von Modellparametern, welche ein Maschinenlernmodell in einem Maschinenlernsystem bilden, welches ein Fahrzeug mit dem zur Steuerung einer montierten Ausrüstung verwendeten Maschinenlernmodell und einen zur Kommunikation mit dem Fahrzeug fähigen Server umfasst, wobei das Maschinenlernverfahren aufweist: Übertragen eines Anforderungssignals durch das Fahrzeug, welches ein Training der Werte der Modellparameter anfordert, zu dem Server; Erfassen einer aktuellen Verarbeitungslast des Servers durch den Server; Bestimmen von Verarbeitungsbeträgen oder eines Verarbeitungsverhältnisses von Training, welches entsprechend durch den Server und das Fahrzeug durchgeführt wird, durch den Server, basierend auf der Verarbeitungslast, wenn das Anforderungssignal von dem Fahrzeug empfangen wird; Durchführen von Training der Werte der Modellparameter durch den Server basierend auf einem Trainingsdatensatz zum Trainieren von Werten der Modellparameter gemäß dem bestimmten Verarbeitungsbetrag oder Verarbeitungsverhältnis von Training in dem Server; und Durchführen von Training der Werte der Modellparameter durch das Fahrzeug basierend auf dem Trainingsdatensatz gemäß dem bestimmten Verarbeitungsbetrag oder Verarbeitungsverhältnis von Training in dem Fahrzeug, wobei der Server einen Verarbeitungsbetrag oder ein Verarbeitungsverhältnis von Training bei dem Server verringert, wenn die Verarbeitungslast relativ hoch ist, im Vergleich dazu, wenn diese relativ gering ist.
  2. Maschinenlernverfahren nach Anspruch 1, wobei der Server bestimmt, zu veranlassen, die gesamte Verarbeitung des Trainings bei dem Fahrzeug durchzuführen, wenn die Verarbeitungslast höher als eine vorbestimmte Referenz-Verarbeitungslast ist, und zu veranlassen, die gesamte Verarbeitung des Trainings bei dem Server durchzuführen, wenn die Verarbeitungslast kleiner oder gleich der Referenz-Verarbeitungslast ist.
  3. Maschinenlernverfahren nach Anspruch 2, wobei die Referenz-Verarbeitungslast gemäß einem Typ des Maschinenlernmodells geändert wird.
  4. Maschinenlernverfahren nach Anspruch 3, wobei die Referenz-Verarbeitungslast höher ist, wenn das Maschinenlernmodell einem Modell mit Bezug auf eine Sicherheit des Fahrzeugs entspricht, im Vergleich dazu, wenn das Maschinenlernmodell keinem Modell mit Bezug auf die Sicherheit des Fahrzeugs entspricht.
  5. Maschinenlernverfahren nach einem der Ansprüche 2 bis 4, ferner aufweisend: Berechnen einer erwarteten Trainingszeit im Falle des Durchführens von Training bei dem Fahrzeug basierend auf dem Trainingsdatensatz, und einer erwarteten Kommunikationszeit, welche für die Übertragung und den Empfang des Trainingsdatensatzes und der Modellparameter zwischen dem Fahrzeug und dem Server erforderlich ist, wobei die Referenz-Verarbeitungslast einer Last entspricht, welche kleiner oder gleich einer Last ist, durch welche eine durch Subtrahieren der erwarteten Kommunikationszeit von der erwarteten Trainingszeit berechnete Zeitspanne zum Durchführen von Training der Werte der Modellparameter bei dem Server erforderlich ist.
  6. Maschinenlernsystem, welches ein Fahrzeug mit einem zur Steuerung einer montierten Ausrüstung verwendeten Maschinenlernmodell und einen zur Kommunikation mit dem Fahrzeug fähigen Server umfasst und ein Training von Werten von Modellparametern durchführt, welche das Maschinenlernmodell bilden, wobei das Fahrzeug aufweist: einen Trainingsanforderungs-Übertragungsteil, welcher ein Anforderungssignal an den Server überträgt, das ein Training der Werte der Modellparameter anfordert; und einen fahrzeugseitigen Trainingsteil, welcher ein Training der Werte der Modellparameter basierend auf einem Trainingsdatensatz zum Trainieren der Werte der Modellparameter durchführt, der Server aufweist: einen Verarbeitungslast-Erfassungsteil, welcher eine aktuelle Verarbeitungslast des Servers erfasst; einen Verarbeitungsbetrag-Bestimmungsteil, welcher Verarbeitungsbeträge oder ein Verarbeitungsverhältnis von Training, welches entsprechend durch den Server und das Fahrzeug durchgeführt wird, basierend auf der Verarbeitungslast bestimmt, wenn das Anforderungssignal von dem Fahrzeug empfangen wird; und einen serverseitigen Trainingsteil, welcher ein Training der Werte der Modellparameter basierend auf dem Trainingsdatensatz durchführt, der serverseitige Trainingsteil und der fahrzeugseitige Trainingsteil entsprechend Trainingsteile aufweisen, welche ein Training der Werte der Modellparameter gemäß den bestimmten Verarbeitungsbeträgen oder dem Verarbeitungsverhältnis des Trainings durchführen, und der Verarbeitungsbetrag-Bestimmungsteil einen Verarbeitungsbetrag oder ein Verarbeitungsverhältnis von Training bei dem serverseitigen Trainingsteil verringert, wenn die Verarbeitungslast relativ hoch ist, im Vergleich dazu, wenn diese relativ gering ist.
DE102021129697.8A 2020-12-01 2021-11-15 Maschinenlernverfahren und Maschinenlernsystem Pending DE102021129697A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020199654A JP7040589B1 (ja) 2020-12-01 2020-12-01 機械学習方法及び機械学習システム
JP2020-199654 2020-12-01

Publications (1)

Publication Number Publication Date
DE102021129697A1 true DE102021129697A1 (de) 2022-06-02

Family

ID=81214316

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021129697.8A Pending DE102021129697A1 (de) 2020-12-01 2021-11-15 Maschinenlernverfahren und Maschinenlernsystem

Country Status (4)

Country Link
US (1) US11623652B2 (de)
JP (1) JP7040589B1 (de)
CN (1) CN114578687A (de)
DE (1) DE102021129697A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7040589B1 (ja) * 2020-12-01 2022-03-23 トヨタ自動車株式会社 機械学習方法及び機械学習システム
US11760376B2 (en) * 2020-12-29 2023-09-19 Ford Global Technologies, Llc Machine learning updating with sensor data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202016004627U1 (de) 2016-07-27 2016-09-23 Google Inc. Training eines neuronalen Wertnetzwerks
JP2019021201A (ja) 2017-07-20 2019-02-07 株式会社デンソー 学習サーバ及び支援システム
DE102018120635A1 (de) 2017-08-25 2019-02-28 Ford Global Technologies, Llc Geteilte verarbeitung mit tiefen neuronalen netzwerken
DE102018128003A1 (de) 2017-11-13 2019-05-16 GM Global Technology Operations LLC Neuronales netzwerk zum anwenden bei der spracherkennungsarbitrierung

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446764B2 (ja) * 1991-11-12 2003-09-16 富士通株式会社 音声合成システム及び音声合成サーバ
EP0542628B1 (de) 1991-11-12 2001-10-10 Fujitsu Limited Vorrichtung zur Sprachsynthese
JPH1153326A (ja) * 1997-07-30 1999-02-26 Internatl Business Mach Corp <Ibm> 分散処理システム、クライアントノード、サーバノードおよび分散処理方法
JP2006244146A (ja) 2005-03-03 2006-09-14 Canon Inc コンテンツ管理システム
WO2018057978A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Decision making for autonomous vehicle motion control
JP6575932B2 (ja) * 2017-03-29 2019-09-18 マツダ株式会社 車両運転支援システム
JP6760331B2 (ja) 2017-11-17 2020-09-23 株式会社デンソー 車両制御装置
US11429862B2 (en) * 2018-03-20 2022-08-30 Sri International Dynamic adaptation of deep neural networks
JP6986503B2 (ja) * 2018-09-10 2021-12-22 日立Astemo株式会社 電子制御装置、ニューラルネットワーク更新システム
US20210182739A1 (en) * 2019-12-17 2021-06-17 Toyota Motor Engineering & Manufacturing North America, Inc. Ensemble learning model to identify conditions of electronic devices
JP7040571B2 (ja) * 2020-09-03 2022-03-23 トヨタ自動車株式会社 学習装置及びモデル学習システム
JP7040589B1 (ja) * 2020-12-01 2022-03-23 トヨタ自動車株式会社 機械学習方法及び機械学習システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202016004627U1 (de) 2016-07-27 2016-09-23 Google Inc. Training eines neuronalen Wertnetzwerks
JP2019021201A (ja) 2017-07-20 2019-02-07 株式会社デンソー 学習サーバ及び支援システム
DE102018120635A1 (de) 2017-08-25 2019-02-28 Ford Global Technologies, Llc Geteilte verarbeitung mit tiefen neuronalen netzwerken
DE102018128003A1 (de) 2017-11-13 2019-05-16 GM Global Technology Operations LLC Neuronales netzwerk zum anwenden bei der spracherkennungsarbitrierung

Also Published As

Publication number Publication date
CN114578687A (zh) 2022-06-03
US11623652B2 (en) 2023-04-11
US20220169268A1 (en) 2022-06-02
JP2022087620A (ja) 2022-06-13
JP7040589B1 (ja) 2022-03-23

Similar Documents

Publication Publication Date Title
DE102021129697A1 (de) Maschinenlernverfahren und Maschinenlernsystem
DE102006058588A1 (de) Verfahren zum Bewerten von Modellen eines Fahrzeugfahrverhaltens oder Fahrzeugverwendungsmodelldetektor
DE102019127016B4 (de) Steuerungssystem einer Verbrennungskraftmaschine, elektronische Steuerungseinheit, Server und Steuerungsverfahren einer Verbrennungskraftmaschine
DE102021114514A1 (de) Fahrzeug, modelltrainingssystem und server
DE102020108127A1 (de) Interpretieren von daten einer reinforcement-learning-agent-steuerung
DE102015208294A1 (de) Datenaufzeichnungsgerät und Datenaufzeichnungsprogramm
DE102021118615A1 (de) Lernvorrichtung und Modell-Lernsystem
DE102018133670A1 (de) Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs
DE102021118579A1 (de) Maschinenlernvorrichtung
DE102021118572A1 (de) Maschinenlernvorrichtung und Maschinenlernsystem
DE112019003929T5 (de) Elektronische steuervorrichtung und aktualisierungssystem eines neuronalen netzes
DE102021118606A1 (de) Modelllernsystem, Modelllernverfahren und Server
DE102021108019A1 (de) System und Verfahren zum Bewerten der Fahrerleistung
DE102016109762A1 (de) Kompressionsalgorithmen für fahrzeugbus-messaging von vorschaudaten
DE102020133045A1 (de) Modelldiagnosevorrichtung und modelldiagnosesystem
DE102021110946A1 (de) Systeme und verfahren zur fahrzeugmodellierung
DE102021100155A1 (de) System und verfahren für dynamisches softwaremanagement
DE102022127647A1 (de) Kalibrieren von parametern innerhalb einer virtuellen umgebung unter verwendung verstärkenden lernens
DE102022125053A1 (de) System und verfahren für durch menschliche daten gelenkte erläuterbare künstliche intelligenz
DE102022125228A1 (de) Automatisiertes fahrsystem mit gewünschtem niveau der fahraggresivität
EP3674147B1 (de) Verfahren und vorrichtung zum erzeugen von steuersignalen zum unterstützen von insassen eines fahrzeugs
EP3871052B1 (de) Verfahren zur kalibirierung eines technischen systems
DE102021103919A1 (de) Rccc-rgb-domain-übersetzung mit tiefen neuronalen netzen
DE102018133675B4 (de) Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs
DE102022206603A1 (de) Verfahren zur Handdetektion, Computerprogramm, und Vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication