DE102020103369A1 - Modellaggregationsvorrichtung und Modellaggregationssystem - Google Patents

Modellaggregationsvorrichtung und Modellaggregationssystem Download PDF

Info

Publication number
DE102020103369A1
DE102020103369A1 DE102020103369.9A DE102020103369A DE102020103369A1 DE 102020103369 A1 DE102020103369 A1 DE 102020103369A1 DE 102020103369 A DE102020103369 A DE 102020103369A DE 102020103369 A1 DE102020103369 A1 DE 102020103369A1
Authority
DE
Germany
Prior art keywords
neural network
network model
model
input parameters
learn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020103369.9A
Other languages
English (en)
Inventor
Hiroki Morita
Daiki Yokoyama
Eiki KITAGAWA
Sui Kurihashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102020103369A1 publication Critical patent/DE102020103369A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/043Distributed expert systems; Blackboards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Feedback Control In General (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

Eine Modellaggregationsvorrichtung 2 weist eine Kommunikationsvorrichtung 21 auf, die fähig ist, mit einer Mehrzahl von Fahrzeugen zu kommunizieren, in denen neuronale Netzmodelle gelernt werden, eine Speichervorrichtung 22, die einen Teil der neuronalen Netzmodelle speichert, die von der Mehrzahl von Fahrzeugen gesendet wurden, und eine Steuervorrichtung 24. Das neuronale Netzmodell gibt mindestens einen Ausgabeparameter aus einer Mehrzahl von Eingabeparametern aus. Die Steuervorrichtung ist eingerichtet, falls es ein neues neuronales Netzmodell von einem Fahrzeug von der Mehrzahl von Fahrzeugen durch die Kommunikationsvorrichtung empfängt, Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, und Bereiche von der Mehrzahl von Eingabeparametern, die verwendet wurden, um ein aktuelles neuronales Netzmodell zu lernen, das in der Speichervorrichtung gespeichert ist, zu vergleichen, um so zu bestimmen, ob sie das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell ersetzen soll.

Description

  • Gebiet
  • Die vorliegende Erfindung betrifft eine Modellaggregationsvorrichtung und ein Modellaggregationssystem.
  • Hintergrund
  • Aus der Vergangenheit ist bekannt, ein neuronales Netzmodell zu verwenden, das aus vorgegebenen Eingabeparametern einen vorgegebenen Ausgabeparameter ausgibt, um ein Fahrzeug zu steuern. Zum Beispiel beschreibt die PTL 1 die Verwendung eines gelernten neuronalen Netzmodells, um eine Durchflussmenge von Ansauggas, das in eine Verbrennungskammer einer Verbrennungskraftmaschine, die in einem Fahrzeug angebracht ist, eingesaugt wird, zu ermitteln.
  • ENTGEGENHALTUNGEN
  • PATENTLITERATUR
  • PTL 1: Japanische Offenlegungsschrift Nr. 2012-112277
  • Kurzfassung
  • TECHNISCHES PROBLEM
  • In dieser Hinsicht ist es zur Verbesserung der Genauigkeit eines neuronalen Netzmodells erforderlich, ein Lernen des neuronalen Netzmodells im Voraus durchzuführen. Wenn ein neuronales Netzmodell gelernt wird, werden Trainingsdatensätze verwendet, die Kombinationen aus Messwerten von Eingabeparametern und Messwerte von Ausgabeparametern aufweisen.
  • Die Messwerte der Eingabeparameter und der Ausgabeparameter können unter Verwendung von Sensoren usw. während des tatsächlichen Fahrens eines Fahrzeugs bezogen werden. Aus diesem Grund kann man erwägen, Trainingsdatensätze in dem Fahrzeug vorzubereiten und ein Lernen des neuronalen Netzmodells in dem Fahrzeug durchzuführen. Ferner, um neuronale Netzmodelle bei anderen Fahrzeugen usw. einzusetzen, ist es wünschenswert, die in Fahrzeugen gelernten neuronalen Netzmodelle zu sammeln und sie in einer Speichervorrichtung außerhalb des Fahrzeugs zu speichern.
  • Falls man allerdings versucht, alle neuronalen Netzmodelle, die von einer Mehrzahl der Fahrzeuge gesendet werden, in einer Speichervorrichtung zu speichern, so wird man die Speicherkapazität der Speichervorrichtung bald erreichen und neue neuronale Netzmodelle können nicht mehr in der Speichervorrichtung gespeichert werden.
  • In Anbetracht des obigen Problems ist es daher eine Aufgabe der vorliegenden Erfindung, einen Mangel an Speicherkapazität einer Speichervorrichtung zu unterbinden, falls die neuronalen Netzmodelle, die in Fahrzeugen gelernt werden, gesammelt werden, und diese in einer Speichervorrichtung außerhalb der Fahrzeuge gespeichert werden.
  • LÖSUNG ZUM PROBLEM
  • Die Kurzfassung der vorliegenden Anmeldung ist wie folgt.
  • (1) Eine Modellaggregationsvorrichtung aufweisend eine Kommunikationsvorrichtung, die fähig ist, mit einer Mehrzahl von Fahrzeugen zu kommunizieren, in denen neuronale Netzmodelle gelernt werden, eine Speichervorrichtung, die einen Teil der neuronalen Netzmodelle speichert, die von der Mehrzahl von Fahrzeugen gesendet werden, und einen Steuervorrichtung, wobei das neuronale Netzmodell mindestens einen Ausgabeparameter aus einer Mehrzahl von Eingabeparametern ausgibt, und die Steuervorrichtung eingerichtet ist, falls sie ein neues neuronales Netzmodell von einem Fahrzeug von der Mehrzahl von Fahrzeugen durch die Kommunikationsvorrichtung empfängt, Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, und Bereiche von der Mehrzahl von Eingabeparametern, die verwendet wurden, um ein aktuelles neuronales Netzmodell zu lernen, das in der Speichervorrichtung gespeichert ist, zu vergleichen, um so zu bestimmen, ob sie das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell ersetzen soll.
  • (2) Die unter obiger (1) beschriebene Modellaggregationsvorrichtung, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer sind als Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, kleiner ist als eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, und Datum und Zeitpunkt, an dem das Lernen des neuen neuronalen Netzmodells beendet ist, nach dem Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen neuronalen Netzmodells beendet ist.
  • (3) Die unter obigem Punkt (1) oder (2) beschriebene Modellaggregationsvorrichtung, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, kleiner sind als Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer ist als eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuellen neuronale Netzmodell zu lernen, und Datum und Zeitpunkt, an dem das Lernen des neuen neuronalen Netzmodells beendet ist, nach Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen neuronalen Netzmodells beendet ist.
  • (4) Die unter obiger (1) beschriebene Modellaggregationsvorrichtung, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer sind als Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen.
  • (5) Die unter einem der obigen Punkte (1) bis (4) beschriebene Modellaggregationsvorrichtung, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, gleich Bereichen der Mehrzahl von Eingabeparametern sind, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, und eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer ist als eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen.
  • (6) Die unter einem der obigen Punkte (1) bis (5) beschriebene Modellaggregationsvorrichtung, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell nicht durch das neue neuronale Netzmodell zu ersetzen, falls ein Wert von mindestens einem der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, anormal ist.
  • (7) Ein Modellaggregationssystem aufweisend einen Server und eine Mehrzahl von Fahrzeugen, wobei jedes der Mehrzahl von Fahrzeugen eine erste Kommunikationsvorrichtung aufweist, die fähig ist, mit dem Server zu kommunizieren, und eine erste Steuervorrichtung, die eingerichtet ist, ein Lernen eines neuronalen Netzmodells durchzuführen, welches mindestens einen Ausgabeparameter aus einer Mehrzahl von Eingabeparametern ausgibt, wobei der Server eine zweite Kommunikationsvorrichtung aufweist, die fähig ist, mit der Mehrzahl von Fahrzeugen zu kommunizieren, eine Speichervorrichtung aufweist, die einen Teil des neuronalen Netzmodells speichert, welches von der Mehrzahl von Fahrzeugen gesendet wurde, und eine zweite Speichervorrichtung aufweist, und die zweite Steuervorrichtung eingerichtet ist, falls sie ein neues neuronales Netzmodell von einem Fahrzeug von der Mehrzahl von Fahrzeugen durch die erste Kommunikationsvorrichtung und die zweite Kommunikationsvorrichtung empfängt, Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, und Bereiche von der Mehrzahl von Eingabeparametern, die verwendet wurden, um ein aktuelles neuronales Netzmodell zu lernen, das in der Speichervorrichtung gespeichert ist, zu vergleichen, um so zu bestimmen, ob sie das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell ersetzen soll.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, einen Mangel an Speicherkapazität einer Speichervorrichtung zu unterbinden, falls die neuronalen Netzmodelle, die in Fahrzeugen gelernt werden, gesammelt werden und diese in einer Speichervorrichtung außerhalb der Fahrzeuge gespeichert werden.
  • Figurenliste
    • 1 ist eine schematische Ansicht einer Konfiguration eines Modellaggregationssystems gemäß einer ersten Ausführungsform der vorliegenden Erfindung.
    • 2 ist eine Ansicht, die schematisch einen Teil einer Konfiguration eines Fahrzeugs zeigt.
    • 3 zeigt ein Beispiel für ein neuronales Netzmodell mit einer einfachen Konfiguration.
    • 4 ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der ersten Ausführungsform zeigt.
    • 5 ist eine Ansicht, die Bereiche einer Mehrzahl von Eingabeparametern zeigt, die zum Lernen eines neuronalen Netzmodells verwendet werden.
    • 6 ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in einer zweiten Ausführungsform zeigt.
    • 7 ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in einer dritten Ausführungsform zeigt.
    • 8A ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in einer vierten Ausführungsform zeigt.
    • 8B ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der vierten Ausführungsform zeigt.
    • 8C ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der vierten Ausführungsform zeigt.
  • Beschreibung der Ausführungsformen
  • Nachfolgend werden unter Bezugnahme auf die Zeichnung Ausführungsformen der vorliegenden Erfindung detailliert erläutert. Es ist zu beachten, dass in der nachfolgenden Erläuterung ähnliche Komponentenbauteile mit den gleichen Bezugszeichen versehen sind.
  • <Erste Ausführungsform>
  • Zuerst wird unter Bezugnahme auf die 1 bis 5 eine erste Ausführungsform der vorliegenden Erfindung erläutert. 1 ist eine schematische Ansicht einer Konfiguration eines Modellaggregationssystems gemäß der ersten Ausführungsform der vorliegenden Erfindung. Das Modellaggregationssystem 1 ist mit einem Server 2 und einer Mehrzahl von Fahrzeugen 3 ausgebildet.
  • Wie in 1 gezeigt, ist der Server 2 außerhalb der Mehrzahl von Fahrzeugen 3 ausgebildet und mit einer Kommunikationsschnittstelle 21, Speichervorrichtung 22, Speicher 23 und Prozessor 24 ausgebildet. Es ist zu beachten, dass der Server 2 ferner mit einer Eingabevorrichtung wie einer Tastatur und einer Maus und einer Ausgabevorrichtung wie einer Anzeige usw. ausgebildet sein kann. Ferner kann der Server 2 durch eine Mehrzahl von Computern eingerichtet sein. Der Server 2 ist ein Beispiel für eine Modellaggregationsvorrichtung.
  • Die Kommunikationsschnittstelle 21 kann mit der Mehrzahl von Fahrzeugen 3 kommunizieren, sodass der Server 2 mit der Mehrzahl von Fahrzeugen 3 kommunizieren kann. Insbesondere weist die Kommunikationsschnittstelle 21 einen Schnittstellenschaltkreis auf, um den Server 2 mit dem Kommunikationsnetzwerk 5 zu verbinden. Der Server 2 kommuniziert mit der Mehrzahl von Fahrzeugen 3 durch die Kommunikationsschnittstelle 21, das Kommunikationsnetzwerk 5 und eine drahtlose Basisstation 6. Die Kommunikationsschnittstelle 21 ist ein Beispiel für eine Kommunikationsvorrichtung.
  • Die Speichervorrichtung 22 zum Beispiel hat ein Festplattenlaufwerk (HDD), eine Solid State Drive (SSD) oder ein optisches Speichermedium. Die Speichervorrichtung 22 speichert verschiedene Arten von Daten, zum Beispiel speichert sie Fahrzeuginformationen, Computerprogramme, damit der Prozessor 24 verschiedene Verarbeitungen durchführt, usw. Die Speichervorrichtung 22 ist ein Beispiel für eine Speichervorrichtung.
  • Der Speicher 23 zum Beispiel hat einen Halbleiterspeicher wie einen Direktzugriffsspeicher (RAM). Der Speicher 23 speichert zum Beispiel verschiedene Daten usw. die verwendet werden, wenn von dem Prozessor 24 verschiedene Verarbeitungen durchgeführt werden.
  • Die Kommunikationsschnittstelle 21, die Speichervorrichtung 22 und der Speicher 23 sind durch Signalleitungen mit dem Prozessor 24 verbunden. Der Prozessor 24 hat einen oder mehrere CPUs und periphere Schaltungen und führt verschiedene Prozesse durch. Es ist zu beachten, dass der Prozessor 24 ferner Verarbeitungsschaltungen wie beispielsweise arithmetisch-logische Einheiten oder numerische Recheneinheiten aufweisen kann. Der Prozessor 24 ist ein Beispiel für eine Steuervorrichtung.
  • 2 ist eine Ansicht, die schematisch einen Teil der Konfiguration eines Fahrzeugs 3 zeigt. Das Fahrzeug 3 ist mit einer elektronischen Steuereinheit (ECU) 30 ausgebildet. Die ECU 30 umfasst eine Kommunikationsschnittstelle 31, einen Speicher 32 und einen Prozessor 33 und führt verschiedene Steuervorgänge des Fahrzeugs 3 durch. Es ist zu beachten, dass in der vorliegenden Ausführungsform eine einzelne ECU 30 ausgebildet ist, aber es kann eine Mehrzahl von ECU für die verschiedenen Funktionen ausgebildet sein. Die ECU 30 ist ein Beispiel für eine Steuervorrichtung.
  • Die Kommunikationsschnittstelle 31 ist ein Schnittstellenschaltkreis, um die ECU 30 mit einem internen Fahrzeugnetzwerk basierend auf CAN (Controller Area Network) oder einem anderen Standard zu verbinden. Die ECU 30 kommuniziert mit anderen im Fahrzeug angebrachten Vorrichtungen durch die Kommunikationsschnittstelle 31.
  • Der Speicher 32 zum Beispiel hat einen flüchtigen Halbleiterspeicher (zum Beispiel einen RAM) und einen nichtflüchten Halbleiterspeicher (zum Beispiel einen ROM). Der Speicher 32 speichert Programme, die von dem Prozessor 33 ausgeführt werden, wenn die verschiedenen Verarbeitungen von dem Prozessor 33 usw. durchgeführt werden.
  • Die Kommunikationsschnittstelle 31 und der Speicher 32 sind mit dem Prozessor 33 durch Signalleitungen verbunden. Der Prozessor 33 hat einen oder mehrere CPUs (zentrale Verarbeitungseinheiten) und deren peripheren Schaltungen und führt verschiedene Verarbeitungen durch. Es ist zu beachten, dass der Prozessor 33 ferner Verarbeitungsschaltungen wie beispielsweise arithmetisch-logische Einheiten oder numerische Recheneinheiten aufweisen kann.
  • Ferner ist das Fahrzeug 3 mit einem Kommunikationsmodul 36 ausgebildet, das fähig ist, mit dem Server 2 zu kommunizieren. Das Kommunikationsmodul 36 ist mit der ECU 30 durch eine Signalleitung verbunden und ist zum Beispiel als Datenkommunikationsmodul (DCM) konfiguriert. Das Fahrzeug 3 kommuniziert mit dem Server 2 durch das Kommunikationsmodul 36, die drahtlose Basisstation 6 und das Kommunikationsnetzwerk 5. Das Kommunikationsmodul 36 ist ein Beispiel für eine Kommunikationsvorrichtung.
  • Das Modellaggregationssystem 1 hat eine Konfiguration wie oben erläutert und sammelt die neuronalen Netzmodelle von der Mehrzahl von Fahrzeugen 3. Zuerst wird unter Bezugnahme auf 3 ein neuronales Netzmodell umrissen. 3 zeigt ein Beispiel für ein neuronales Netzmodell mit einer einfachen Konfiguration.
  • Die Kreise in 3 zeigen künstliche Neuronen. Ein künstliches Neuron wird üblicherweise „Knoten“ oder „Einheit“ genannt (in dieser Beschreibung „Knoten“ genannt). In 3 bezeichnet L=1 eine Eingabeschicht, L=2 und L=3 bezeichnen verborgene Schichten, und L=4 bezeichnet eine Ausgabeschicht. Es ist zu beachten, dass die verborgenen Schichten auch „Zwischenschichten“ genannt werden.
  • In 3 bezeichnen x1 und x2 Knoten der Eingabeschicht (L=1) und Ausgabewerte von den Knoten, während „y“ einen Knoten der Ausgabeschicht (L=4) und seine Ausgabewerte bezeichnet. Genauso bezeichnen z1 (L=2), z2 (L=2) und z3 (L=2) Knoten der verborgenen Schicht (L=2) und die Ausgabewerte von den Knoten, während z1 (L=3) und z2 (L=3) Knoten der verborgenen Schichten (L=3) und die Ausgabewerte von den Knoten bezeichnen.
  • An den Knoten der Eingabeschicht werden Eingaben so ausgegeben, wie sie sind. An den Knoten der verborgenen Schicht (L=2) dagegen werden die Ausgabewerte x1 und x2 der Knoten der Eingabeschicht eingegeben. An den Knoten der verborgenen Schichten (L=2) werden entsprechende Gewichte „w“ und Verzerrungen „b“ verwendet, um Gesamteingabewerte „u“ zu berechnen. Zum Beispiel sind in 3 die Gesamteingabewerte uk (L=2), die an den durch zk (L=2) (k=1, 2, 3) gezeigten Knoten der verborgenen Schicht (L=2) berechnet werden, das Ergebnis der nachfolgenden Formel (M ist die Anzahl von Knoten der Eingabeschicht). u k ( L = 2 ) = m = 1 M ( x m w k m ( L = 2 ) ) + b k
    Figure DE102020103369A1_0001
  • Als nächstes werden diese Gesamteingabewerte uk (L=2) durch die Aktivierungsfunktion „f“ umgewandelt und als Ausgabewerte zk (L=2) (=f(uk (L=2))) von den durch zk (L=2) gezeigten Knoten der verborgenen Schichten (L=2) ausgegeben. Andererseits empfangen die Knoten der verborgene Schicht (L=3) als Eingabe die Ausgabewerte z1 (L=2), z2 (L=2) und z3 (L=2) der Knoten der verborgenen Schicht (L=2). An den Knoten der verborgenen Schicht (L=3) werden die entsprechenden Gewichte „w“ und Verzerrungen „b“ verwendet, um die Gesamteingabewerte „u“ (=∑z· w+b) zu berechnen. Die Gesamteingabewerte „u“ werden in ähnlicher Weise durch eine Aktivierungsfunktion umgewandelt und von den Knoten der verborgenen Schicht (L=3) als die Ausgabewerte z1 (L=3) und z2 (L=3) ausgegeben. Die Aktivierungsfunktion ist zum Beispiel eine Sigmoid-Funktion σ.
  • Ferner empfängt der Knoten der Ausgabeschicht (L=4) als Eingabe die Ausgabewerte z1 (L=3) und z2 (L=3) der Knoten der verborgenen Schicht (L=3). An dem Knoten der Ausgabeschicht werden die entsprechenden Gewichte „w“ und Verzerrungen „b“ verwendet, um den Gesamteingabewert „u“ (∑z·w+b) zu berechnen, oder es werden nur die entsprechenden Gewichte „w“ verwendet, um den Gesamteingabewert „u“ (Σz·w) zu berechnen. Zum Beispiel wird an dem Knoten der Ausgabeschicht eine Identitätsfunktion als Aktivierungsfunktion verwendet. In diesem Fall wird der Gesamteingabewert „u“, der an dem Knoten der Ausgabeschicht berechnet wird, unverändert als Ausgabewert „y“ von dem Knoten der Ausgabeschicht ausgegeben.
  • Bei der vorliegenden Ausführungsform wird ein neuronales Netzmodell, das mindestens einen Ausgabeparameter (Ausgabewert) aus einer Mehrzahl von Eingabeparametern (Eingabewerten) ausgibt, in einem Fahrzeug 3 verwendet, um das Fahrzeug 3 zu steuern. Als Eingabeparameter und Ausgabeparameter eines solchen neuronalen Netzmodells werden Parameter bezüglich einer Verbrennungskraftmaschine, die in dem Fahrzeug 3 angebracht ist, Parameter bezüglich der Fahrumgebung des Fahrzeugs 3 usw. verwendet. Zum Beispiel werden als Eingabeparameter die Motordrehzahl, der Öffnungsgrad des Drosselventils, die Menge an Ansaugluft (Gesamtmenge an Frischluft und Menge an AGR-Gas) oder ein Ansaugluftdruck, Temperatur des Kühlwassers der Verbrennungskraftmaschine, Winkel der Nockenwelle, Ansaugtemperatur, Fahrzeuggeschwindigkeit und Soll-Luft-Kraftstoff-Verhältnis eines Kraftstoff-Luft-Gemischs verwendet, während als Ausgabeparameter ein Korrekturbetrag des Soll-Luft-Kraftstoff-Verhältnisses verwendet wird.
  • Ferner, falls das Fahrzeug 3 ein Hybridfahrzeug (HV) oder ein Plug-in-Hybridfahrzeug (PHV) ist, das mit einer Verbrennungskraftmaschine und einem Elektromotor als Antriebsquellen ausgebildet ist, werden die folgenden Eingabeparameter und Ausgabeparameter verwendet. Zum Beispiel werden als Eingabeparameter der Ladezustand (SOC) der Batterie, die Fahrzeuggeschwindigkeit, Pedalöffnungsgrad, Temperatur des Kühlwassers der Verbrennungskraftmaschine, Temperatur der Batterie, elektrische Last aufgrund der Verwendung einer Klimaanlage usw., Luftdruck oder Höhenlage, Längengrad, Breitengrad, Wochentag und Uhrzeit verwendet, während aus Ausgabeparameter der Sollbetrag eines Aufladens und Entladens der Batterie in dem HV-Modus verwendet wird. Es ist zu beachten, dass in dem HV-Modus die Verbrennungskraftmaschine und der Elektromotor derart angetrieben werden, dass der SOC der Batterie der Sollwert wird. Falls der Wochentag als Eingabeparameter verwendet wird, wird ferner der Wochentag in einen numerischen Wert umgewandelt. Zum Beispiel sind Montag bis Sonntag 1 bis 7 zugeordnet.
  • Ferner werden als Eingabeparameter der SOC der Batterie, Fahrzeuggeschwindigkeit, Pedalöffnungsgrad, Temperatur des Elektromotors oder Temperatur des Wechselrichters, Längengrad und Breitengrad verwendet. Als Ausgabeparameter kann das Ergebnis der Entscheidung über das Starten der Verbrennungskraftmaschine in einem EV-Modus verwendet werden. Es ist zu beachten, dass in dem EV-Modus als Antriebsquelle nur ein Elektromotor angetrieben wird. In diesem Fall wird zum Beispiel die Verbrennungskraftmaschine angehalten, falls von dem neuronalen Netzmodell null ausgegeben wird. Die Verbrennungskraftmaschine wird gestartet, falls aus dem neuronalen Netzmodell „1“ ausgegeben wird.
  • Ferner, falls das Fahrzeug 3 ein Plug-in-Hybridfahrzeug (PHV) ist, das mit einer Verbrennungskraftmaschine und einem Elektromotor als Antriebsquelle ausgebildet ist, und das es ermöglicht, die Batterie von einer externen Leistungsquelle aufzuladen, werden die folgenden Eingabeparameter und Ausgabeparameter verwendet. Zum Beispiel werden als Eingabeparameter der SOC der Batterie, Fahrzeuggeschwindigkeit, Pedalöffnungsgrad, Außenlufttemperatur, Temperatur des Kühlwassers der Verbrennungskraftmaschine, Temperatur des Öls, das durch die Verbrennungskraftmaschine zirkuliert, Längengrad, Breitengrad, Wochentag und Uhrzeit verwendet. Als Ausgabeparameter wird der Antriebsmodus (EV-Modus oder HV-Modus) verwendet. In diesem Fall wird, zum Beispiel falls von dem neuronalen Netzmodell null ausgegeben wird, der Antriebsmodus auf den EV-Modus eingestellt, während, falls „1“ aus dem neuronalen Netzmodell ausgegeben wird, der Antriebsmodus auf den HV-Modus eingestellt wird.
  • Das neuronale Netzmodell, das in dem Fahrzeug 3 verwendet wird, ist in dem Speicher 32 der ECU 30 oder einer anderen in dem Fahrzeug 3 ausgebildeten Speichervorrichtung gespeichert. Die ECU 30 gibt die Eingabeparameter in das neuronale Netzmodell ein, um so das neuronale Netzmodell dazu zu bringen, den Ausgabeparameter auszugeben. Zu dieser Zeit werden Werte der Eingabeparameter verwendet, zum Beispiel die Werte, die von Sensoren usw., die an dem Fahrzeug 3 ausgebildet sind, erfasst werden, oder Werte, die in der ECU 30 berechnet werden. Durch Verwendung des neuronalen Netzmodells ist es möglich, einen geeigneten Wert des Ausgabeparameters zu erhalten, der vorgegebenen Werten der Eingabeparameter entspricht.
  • Um die Genauigkeit eines neuronalen Netzmodells zu verbessern, ist es erforderlich, ein Lernen des neuronalen Netzmodells im Voraus durchzuführen. In der vorliegenden Ausführungsform führt die ECU 30 des Fahrzeugs 3 das Lernen des neuronalen Netzmodells durch. Das heißt, das neuronale Netzmodell wird in dem Fahrzeug 3 gelernt anstelle in dem Server 2.
  • Wenn das neuronale Netzmodell gelernt wird, werden Trainingsdatensätze verwendet, die Kombinationen aus Messwerten der Mehrzahl von Eingabeparametern und den Messwerten von mindestens einem Ausgabeparameter, der diesen Messwerten entspricht (Truth Data), aufweisen. Aus diesem Grund bezieht die ECU 30 die Messwerte der Mehrzahl von Eingabeparametern und die Messwerte von mindestens einem Ausgabeparameter, der diesen Messwerten entspricht. Die Messwerte der Eingabeparameter und Ausgabeparameter werden zum Beispiel als Werte bezogen, die von Sensoren usw., die an dem Fahrzeug 3 ausgebildet sind, erfasst werden, oder als Werte, die in der ECU 30 berechnet oder bestimmt werden. Der Trainingsdatensatz, der vorbereitet wird, indem diese Messwerte kombiniert werden, ist in dem Speicher 32 der ECU 30 oder einer anderen in dem Fahrzeug 3 ausgebildeten Speichervorrichtung gespeichert.
  • Die ECU 30 führt das Lernen des neuronalen Netzes unter Verwendung einer großen Anzahl von Trainingsdatensätzen durch. Zum Beispiel aktualisiert die ECU 30 wiederholt die Gewichte „w“ und Verzerrungen „b“ in dem neuronalen Netzmodell durch den bekannten Fehlerrückausbreitungsalgorithmus, sodass die Differenz zwischen dem Ausgabewert des neuronalen Netzmodells und dem Messwert des Ausgabeparameters kleiner wird. Folglich wird das neuronale Netzmodell gelernt bzw. erlernt und ein gelerntes neuronales Netzmodell wird erzeugt. Die Information des gelernten neuronalen Netzmodells (Struktur des Modells, Gewichte „w“, Verzerrungen „b“ usw.) sind in dem Speicher 32 der ECU 30 oder einer anderen in dem Fahrzeug 3 ausgebildeten Speichervorrichtung gespeichert.
  • Um neuronale Netzmodelle bei anderen Fahrzeugen usw. einzusetzen, ist es wünschenswert, die in Fahrzeugen gelernten neuronalen Netzmodelle zu sammeln und sie in der Speichervorrichtung 22 des Servers 2 zu speichern. Aus diesem Grund werden die gelernten neuronalen Netzmodelle (insbesondere Informationen der gelernten neuronalen Netzmodelle) von den Fahrzeugen 3 an den Server 2 übertragen. Danach sendet der Server 2 die gelernten neuronalen Netzmodelle an andere Fahrzeuge. Dadurch ist es selbst in Fahrzeugen, in denen die neuronalen Netzmodelle nicht gelernt werden, möglich, die neuronalen Netzmodelle effizient zu nutzen. Ferner können die in den Fahrzeugen verwendeten neuronalen Netzmodelle zu hochpräzisen neuronalen Netzmodellen geändert werden, die von dem Server 2 aus gesendet werden.
  • Falls man allerdings versucht, alle neuronalen Netzmodelle, die von einer Mehrzahl der Fahrzeuge 3 gesendet wurden, in der Speichervorrichtung 22 des Servers 2 zu speichem, so wird die Speicherkapazität der Speichervorrichtung 22 bald erreicht und neue neuronale Netzmodelle können nicht mehr in der Speichervorrichtung 22 gespeichert werden. Aus diesem Grund wird in der vorliegenden Ausführungsform ein Teil der neuronalen Netzmodelle, bei denen ein Lernen in der Mehrzahl der Fahrzeuge 3 durchgeführt wurde, in der Speichervorrichtung 22 gespeichert.
  • Wenn ein neues neuronales Netzmodell von einem Fahrzeug von der Mehrzahl von Fahrzeugen 3 durch das Kommunikationsmodul des Fahrzeugs 3 und die Kommunikationsschnittstelle 21 des Servers 2 empfangen wird, vergleicht der Prozessor 24 des Servers 2 die Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, und Bereiche von der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, das in der Speichervorrichtung 22 gespeichert ist, um zu bestimmen, ob das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell ersetzt werden soll. Dadurch wird das in der Speichervorrichtung 22 gespeicherte neuronale Netzmodell ausgewählt, sodass es möglich ist, zu verhindern, dass die Speicherkapazität der Speichervorrichtung 22 erreicht wird.
  • Ferner wird es bevorzugt, als in der Speichervorrichtung 22 gespeichertes neuronales Netzmodell ein neuronales Netzmodell mit hoher Genauigkeit zu wählen. Um das neuronale Netzmodell zu verwenden, um einen geeigneten Wert eines Ausgabeparameters aus verschiedenen Werten von Eingabeparametern auszugeben, ist es normalerweise erforderlich, einen Trainingsdatensatz zu verwenden, der einen großen Bereich an Eingabeparametern umfasst, um das Lernen des neuronalen Netzmodells durchzuführen. Aus diesem Grund wird angenommen, dass, je größer die Bereiche der Eingabeparameter sind, die zum Lernen des neuronalen Netzmodells verwendet werden, desto höher die Genauigkeit des neuronalen Netzmodells ist.
  • Daher ersetzt in der vorliegenden Ausführungsform der Prozessor 24 des Servers 2 das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell, falls die für das Lernen des neuen neuronalen Netzmodells verwendeten Bereiche der Mehrzahl von Eingabeparametern größer sind als die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen neuronalen Netzmodells verwendet wurden. Aufgrund dessen ist es möglich, zu verhindern, dass die Speicherkapazität der Speichervorrichtung 22 erreicht wird, während die Genauigkeit des in der Speichervorrichtung 22 gespeicherten neuronalen Netzmodells verbessert wird.
  • <Verarbeitung zum Ersetzen von Modellen>
  • Nachfolgend wird unter Bezug auf das Flussdiagramm aus 4 die oben erwähnte Steuerung im Detail erläutert. 4 ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der ersten Ausführungsform zeigt. Der vorliegende Steuerablauf wird von dem Prozessor 24 des Servers 2 wiederholt durchgeführt. In dem vorliegenden Steuerablauf wird entschieden, ob das in der Speichervorrichtung 22 des Servers 2 gespeicherte aktuelle neuronale Netzmodell (nachfolgend als „aktuelles Modell“ bezeichnet) durch ein neues neuronales Netzmodell, das von dem Fahrzeug 3 empfangen wird (nachfolgend als „neues Modell“ bezeichnet), ersetzt wird.
  • Zuerst wird in Schritt S101 entschieden, ob ein neues Modell von einem Fahrzeug 3 empfangen wurde. Falls entschieden wird, dass kein neues Modell von einem Fahrzeug 3 empfangen wurde, endet der vorliegende Steuerablauf. Falls dagegen entschieden wird, dass ein neues Modell von einem Fahrzeug 3 empfangen wurde, schreitet der vorliegende Steuerablauf zu Schritt S102 fort.
  • In Schritt S102 wird der Eingabeparameter Nr. „k“ des neuen Modells auf „1“ eingestellt und der Eingabeparameter Nr. „m“ des aktuellen Modells wird auf „ 1" eingestellt.
  • Als nächstes wird in Schritt S103 entschieden, ob ein Bereich RNG(k) eines k-ten Eingabeparameters, der zum Lernen des neuen Modell verwendet wurde, größer ist als ein Bereich RNG(m) eines m-ten Eingabeparameters, der zum Lernen des aktuellen Modells verwendet wurde. Im vorliegenden Steuerablauf werden die Werte „k“ und „m“ gleich. Daher werden in Schritt S103 die Bereiche der Eingabeparameter, die zum Lernen verwendet werden, für jeden Eingabeparameter zwischen dem neuen Modell und dem aktuellen Modell verglichen.
  • 5 ist eine Ansicht, die Bereiche der Mehrzahl von Eingabeparametern zeigt, die zum Lernen des neuronalen Netzmodells verwendet werden. In dem Beispiel aus 5 werden in dem neuronalen Netzmodell die sechs Eingabeparameter von dem ersten Eingabeparameter bis zum sechsten Eingabeparameter verwendet. Das heißt, die Anzahl von Knoten der Eingabeschicht des neuronalen Netzmodells beträgt sechs. Es ist zu beachten, dass in dem neuen Modell und dem aktuellen Modell die gleichen Eingabeparameter und Ausgabeparameter verwendet werden.
  • Die Bereiche der Eingabeparameter werden als Differenz zwischen den Minimalwerten und den Maximalwerten der Messwerte der Eingabeparameter berechnet, die in den Trainingsdatensätzen umfasst sind, welche zum Lernen des neuronale Netzmodell verwendet werden. Zum Beispiel falls der erste Eingabeparameter die Fahrzeuggeschwindigkeit ist und die Messwerte 30 km/h bis 80 km/h zum Lernen verwendet werden, wird der Bereich des ersten Eingabeparameters 50 (=80-30) und wird als (30, 80) ausgedrückt.
  • Der Minimalwert und der Maximalwert und Bereiche der Eingabeparameter, die zum Lernen des neuen Modells verwendet werden, werden als Teil der Informationen des gelernten neuronalen Netzmodells in dem Speicher 32 der ECU 30 oder einer anderen in dem Fahrzeug 3 ausgebildeten Speichervorrichtung gespeichert. Aus diesem Grund kann der Prozessor 24 des Servers 2 die Bereiche der Eingabeparameter beziehen, die verwendet wurden, um das neue Modell zu lernen, wenn er das neue Modell von dem Fahrzeug 3 empfängt.
  • Ferner, wenn das neue Modell in der Speichervorrichtung 22 gespeichert wird, werden der Minimalwert und der Maximalwert und Bereiche der Eingabeparameter, die zum Lernen des neuen Modells verwendet wurden, in der Speichervorrichtung 22 gespeichert. Aus diesem Grund kann der Prozessor 24 des Servers 2 die Bereiche der Eingabeparameter beziehen, die zum Lernen des aktuellen Modells verwendet wurden.
  • Falls in Schritt S103 entschieden wird, dass der Bereich RNG(k) des k-ten Eingabeparameters, der zum Lernen des neuen Modells verwendet wurde, kleiner gleich dem Bereich RNG(m) des m-ten Eingabeparameters ist, der zum Lernen des aktuellen Modells verwendet wurde, schreitet der vorliegende Steuerablauf zu Schritt S107 fort. In Schritt S107 wird das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S107 endet der vorliegende Steuerablauf.
  • Falls dagegen entschieden wird, dass der Bereich RNG(k) des k-ten Eingabeparameters, der zum Lernen des neuen Modells verwendet wurde, größer ist als der Bereich RNG(m) des m-ten Eingabeparameters, der zum Lernen des aktuellen Modells verwendet wurde, schreitet der vorliegende Steuerablauf zu Schritt S104 fort. In Schritt S104 wird „1“ zu dem Eingabeparameter Nr. „k“ des neuen Modells hinzugefügt und „1“ wird zu dem Eingabeparameter Nr. „m“ des aktuellen Modells hinzugefügt.
  • Als nächstes, in Schritt S105, wird entschieden, ob der Eingabeparameter Nr. „k“ des neuen Modells N+1 ist. N ist die Anzahl der Eingabeparameter, die in das neuronale Netzmodell eingegeben wurden, und beträgt in dem Beispiel aus 5. Aus diesem Grund wird in Schritt S105 entschieden, ob die Bereiche aller Eingabeparameter zwischen dem neuen Modell und dem aktuellen Modell verglichen werden. Falls entschieden wird, dass der Eingabeparameter Nr. „k“ des neuen Modells kleiner gleich N ist, kehrt der aktuelle Steuerablauf zu Schritt S103 zurück, wo der Bereich des nächsten Eingabeparameters verglichen wird.
  • Falls dagegen in Schritt S105 entschieden wird, dass der Eingabeparameter Nr. „k“ des neuen Modells N+1 ist, schreitet der aktuelle Steuerablauf zu Schritt S106 fort. In diesem Fall sind die Bereiche aller Eingabeparameter, die zum Lernen des neuen Modells verwendet wurden, größer als die Bereiche aller Eingabeparameter, die zum Lernen des aktuellen Modells verwendet wurden. Aus diesem Grund wird in Schritt S106 das aktuelle Modell durch das neue Modell ersetzt. Das heißt, das aktuelle Modell wird von der Speichervorrichtung 22 gelöscht, während das neue Modell in der Speichervorrichtung 22 gespeichert wird. Nach Schritt S106 endet der vorliegende Steuerablauf.
  • Es ist zu beachten, dass, falls es kein aktuelles Modell gibt, das die gleichen Eingabeparameter und Ausgabeparameter hat wie das neue Modell, das neue Modell in der Speichervorrichtung 22 gespeichert wird.
  • <Zweite Ausführungsform>
  • Die Konfiguration und Steuerung des Modellaggregationssystems und der Modellaggregationsvorrichtung gemäß einer zweiten Ausführungsform sind im Grunde gleich der Konfiguration und Steuerung des Modellaggregationssystems und der Modellaggregationsvorrichtung gemäß der ersten Ausführungsform, mit Ausnahme der nachfolgend erläuterten Punkten. Aus diesem Grund wird nachfolgend die zweite Ausführungsform der vorliegenden Erfindung erläutert, wobei der Schwerpunkt auf den Teilen liegt, die sich von der ersten Ausführungsform unterscheiden.
  • In der ersten Ausführungsform wird das neue Modell von der Speichervorrichtung 22 gelöscht, falls die Bereiche der Mehrzahl von Eingabeparametern, die verwendet werden, um das neue Modell zu lernen, gleich den Bereichen der Mehrzahl von Eingabeparametern sind, die verwendet wurden, um das aktuelle Modell zu lernen. Allerdings ist in diesem Fall die Genauigkeit des neuen Modells nicht notwendigerweise kleiner gleich der Genauigkeit des aktuellen Modells.
  • Normalerweise, falls die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen verwendet werden, gleich sind, gilt, dass, je größer die Anzahl von Kombinationen der Mehrzahl von zum Lernen verwendeten Eingabeparametern ist, das heißt, je größer die Anzahl von Trainingsdatensätze, desto größer ist die Genauigkeit des gelernten neuronalen Netzmodells.
  • Falls die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, gleich den Bereichen der Mehrzahl von Eingabeparametern sind, die zum Lernen des aktuellen Modells verwendet wurden, ersetzt der Prozessor 24 des Servers 2 aus diesem Grund in der zweiten Ausführungsform das aktuelle Modell durch das neue Modell, falls die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer ist als die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen Modells verwendet wurden. Dadurch ist es möglich, zu verhindern, dass die Speicherkapazität der Speichervorrichtung 22 erreicht wird, während die Genauigkeit des in der Speichervorrichtung 22 gespeicherten neuronalen Netzmodells effizienter verbessert wird.
  • <Verarbeitung zum Ersetzen von Modellen>
  • 6 ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der zweiten Ausführungsform zeigt. Der vorliegende Steuerablauf wird von dem Prozessor 24 des Servers 2 wiederholt durchgeführt.
  • Schritt S201 bis Schritt S205 sind Schritt S101 bis Schritt S105 aus 4 ähnlich, sodass auf die Erläuterung verzichtet wird. Falls in Schritt S205 entschieden wird, dass der Eingabeparameter Nr. „k“ des neuen Modells N+ 1 beträgt, schreitet der aktuelle Steuerablauf zu Schritt S206 fort.
  • In Schritt S206 wird entschieden, ob die Bereiche aller Eingabeparameter zwischen dem neuen Modell und dem aktuellen Modell gleich sind. Falls die Bereiche aller Eingabeparameter, die zum Lernen des neuen Modells verwendet wurden, größer sind als die Bereiche aller Eingabeparameter, die zum Lernen des aktuellen Modells verwendet wurden, wird in Schritt S206 entschieden, dass die Bereiche aller Eingabeparameter nicht gleich sind und der vorliegende Steuerablauf schreitet zu Schritt S208 fort.
  • In Schritt S208 wird das aktuelle Modell durch das neue Modell ersetzt. Das heißt, das aktuelle Modell wird von der Speichervorrichtung 22 gelöscht, während das neue Modell in der Speichervorrichtung 22 gespeichert wird. Nach Schritt S208 endet der vorliegende Steuerablauf.
  • Falls dagegen in Schritt S206 entschieden wird, dass die Bereiche aller Eingabeparameter gleich sind, schreitet der aktuelle Steuerablauf zu Schritt S207 fort. In Schritt S207 wird entschieden, ob die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer ist als die Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle Modell zu lernen. Das heißt, es wird entschieden, ob die Anzahl von Trainingsdatenätzen, die zum Lernen des neuen Modells verwendet wurden, größer ist als die Anzahl von Trainingsdatensätzen, die zum Lernen des aktuellen Modells verwendet wurden.
  • In der zweiten Ausführungsform wird die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuronalen Netzmodells verwendet wurden, als Teil der Informationen des gelernten neuronalen Netzmodells in dem Speicher 32 der ECU 30 oder einer anderen in dem Fahrzeug 3 ausgebildeten Speichervorrichtung gespeichert. Aus diesem Grund kann der Prozessor 24 des Servers 2, wenn er ein neues Modell von dem Fahrzeug 3 empfängt, die Anzahl der Kombinationen der Mehrzahl von Eingabeparametern beziehen, die verwendet wurden, um das neue Modell zu lernen.
  • Ferner, wenn das neue Modell in der Speichervorrichtung 22 gespeichert wird, wird die Anzahl der Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, in der Speichervorrichtung 22 gespeichert. Aus diesem Grund kann der Prozessor 24 des Servers 2 die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern beziehen, die verwendet wurden, um das aktuelle Modell zu lernen.
  • Falls in Schritt S207 entschieden wird, dass die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern kleiner gleich der Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern ist, schreitet der aktuelle Steuerablauf zu Schritt S209 fort. In Schritt S209 wird das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S209 endet der vorliegende Steuerablauf.
  • Falls dagegen in Schritt S207 entschieden wird, dass die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern größer ist als die Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern, schreitet der aktuelle Steuerablauf zu Schritt S208 fort. In Schritt S208 wird das aktuelle Modell durch das neue Modell ersetzt. Nach Schritt S208 endet der vorliegende Steuerablauf.
  • <Dritte Ausführungsform>
  • Die Konfiguration und Steuerung des Modellaggregationssystems und der Modellaggregationsvorrichtung gemäß einer dritten Ausführungsform sind im Grunde gleich der Konfiguration und Steuerung des Modellaggregationssystems und der Modellaggregationsvorrichtung gemäß der ersten Ausführungsform, mit Ausnahme der nachfolgend erläuterten Punkten. Aus diesem Grund wird nachfolgend die dritte Ausführungsform der vorliegenden Erfindung erläutert, wobei der Schwerpunkt auf den Teilen liegt, die sich von der ersten Ausführungsform unterscheiden.
  • Wie oben erläutert, wird beim Lernen eines neuronalen Netzmodells eine große Anzahl von Trainingsdatensätzen verwendet. Falls allerdings anormale Werte als Messwerte der Eingabeparameter aufgrund einer Beeinträchtigung der Sensoren usw. bezogen werden, würde das neuronale Netzmodell unter Verwendung des Trainingsdatensatzes gelernt, das die anormalen Werte umfasst. In diesem Fall würde das neuronale Netzmodell an die anormalen Werte angepasst werden und die Genauigkeit des gelernten neuronalen Netzmodells würde sinken.
  • Ferner, falls die zum Lernen des neuronalen Netzmodells verwendeten Eingabeparameter anormale Werte umfassen, werden die Bereiche der Eingabeparameter, die zum Lernen des neuronalen Netzmodells verwendet wurden, tendenziell größer. Aus diesem Grund ist zu erwarten, dass die Genauigkeit des neuronalen Netzmodells fällt, wenn das neue Modell mit den großen Bereichen der Eingabeparameter durch das aktuelle Modell ersetzt wird.
  • Daher ersetzt der Prozessor 24 des Servers 2 in der dritten Ausführungsform nicht das aktuelle Modell durch das neue Modell, falls mindestens ein Wert der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, anormal ist. Insbesondere löscht der Prozessor 24 das neue Modell von der Speichervorrichtung 22, ohne die Bereiche der Eingabeparameter des neuen Modells und des aktuellen Modells zu vergleichen, falls mindestens ein Wert der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue Modell zu lernen, anormal ist. Dadurch ist es möglich, zu verhindern, dass die Speicherkapazität der Speichervorrichtung 22 erreicht wird, während die Genauigkeit des in der Speichervorrichtung 22 gespeicherten neuronalen Netzmodells effizient verbessert wird.
  • <Verarbeitung zum Ersetzen von Modellen>
  • 7 ist ein Flussdiagramm, das einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der dritten Ausführungsform zeigt. Der vorliegende Steuerablauf wird von dem Prozessor 24 des Servers 2 wiederholt durchgeführt.
  • Zuerst wird in Schritt S301 entschieden, ob ein neues Modell von dem Fahrzeug 3 empfangen wurde. Falls entschieden wird, dass kein neues Modell von dem Fahrzeug 3 empfangen wurde, endet der vorliegende Steuerablauf. Falls dagegen entschieden wird, dass ein neues Modell von dem Fahrzeug 3 empfangen wurde, schreitet der vorliegende Steuerablauf zu Schritt S302 fort.
  • In Schritt S302 wird entschieden, ob mindestens ein Wert der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, anormal ist. Zum Beispiel werden normale Bereiche im Voraus für die Mehrzahl von Eingabeparametern eingestellt, und es wird entschieden, ob die Maximalwerte und die Minimalwerte der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue Modell zu lernen, in den normalen Bereichen umfasst sind. In diesem Fall, falls die Maximalwerte und die Minimalwerte aller Eingabeparameter in den normalen Bereichen umfasst sind, wird entschieden, dass keiner der Werte der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet werden, anormal ist. Falls dagegen der Maximalwert oder der Minimalwert von mindestens einem Eingabeparameter, nicht in dem normalen Bereich umfasst ist, wird entschieden, dass mindestens ein Wert der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, anormal ist.
  • Falls in Schritt S302 entschieden wird, dass mindestens ein Wert der Mehrzahl von Eingabeparametern anormal ist, schreitet der aktuelle Steuerablauf zu Schritt S308 fort. In Schritt S308 wird das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S308 endet der vorliegende Steuerablauf.
  • Falls dagegen in Schritt S302 entschieden wird, dass keiner der Werte der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, anormal ist, schreitet der aktuelle Steuerablauf zu Schritt S303 fort. Schritt S303 bis Schritt S308 sind Schritt S102 bis Schritt S107 aus 4 ähnlich, sodass auf Erläuterungen verzichtet wird.
  • <Vierte Ausführungsform>
  • Die Konfiguration und Steuerung des Modellaggregationssystems und der Modellaggregationsvorrichtung gemäß einer vierten Ausführungsform sind im Grunde gleich der Konfiguration und Steuerung des Modellaggregationssystems und der Modellaggregationsvorrichtung gemäß der ersten Ausführungsform, mit Ausnahme der nachfolgend erläuterten Punkten. Aus diesem Grund wird nachfolgend die vierte Ausführungsform der vorliegenden Erfindung mit Schwerpunkt auf Teilen erläutert, die sich von der ersten Ausführungsform unterscheiden.
  • Wie oben erläutert, gilt, dass je größer die Bereiche der Eingabeparameter sind, die zum Lernen des neuronalen Netzmodells verwendet werden, desto größer wird tendenziell die Genauigkeit des neuronalen Netzmodells. Ferner gilt, dass je größer die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern ist, die zum Lernen eines neuronalen Netzmodells verwendet wurden, das heißt, je größer die Anzahl von Trainingsdatensätzen, die zum Lernen eines neuronalen Netzmodells verwendet wurden, desto größer wird tendenziell die Genauigkeit des gelernten neuronalen Netzmodells.
  • Wenn allerdings ein neues Modell und ein aktuelles Modell verglichen werden, werden manchmal die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen eines Modells verwendet werden, größer als die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des anderen Modells verwendet wurden, und die Anzahl von Trainingsdatensätzen, die zum Lernen des anderen Modells verwendet wurden, wird größer als die Anzahl an Trainingsdatensätzen, die zum Lernen des einen Modells verwendet wurden. In diesem Fall kann angenommen werden, dass ein Modell mit einem späteren Zeitpunkt, zu dem das Lernen beendet ist, einen neueren Zustand des Fahrzeugs wiederspiegelt. Das heißt, es kann angenommen werden, dass ein Modell, bei dem das Lernen zu einem späteren Zeitpunkt beendet ist, eine höhere Genauigkeit hat als ein Modell, bei dem das Lernen zu einen früheren Zeitpunkt beendet ist.
  • Aus diesem Grund ersetzt in der vierten Ausführungsform der Prozessor 24 des Servers 2 das aktuelle Modell durch das neue Modell, falls die Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue Modell zu lernen, größer sind als die Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle Modell zu lernen, und die Anzahl von Kombinationen der Mehrzahl von Eingabeparameter, die zum Lernen des neuen Modells verwendet wurden, kleiner ist als die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen Modells verwendet wurden, und der Zeitpunkt, an dem das Lernen des neuen Modells beendet ist, nach dem Zeitpunkt liegt, an dem das Lernen des aktuellen Modells beendet ist.
  • Ferner ersetzt der Prozessor 24 das aktuelle Modell durch das neue Modell, falls die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, kleiner sind als die Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle Modell zu lernen, die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer ist als die Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen Modells verwendet wurden, und der Zeitpunkt, an dem das Lernen des neuen Modells beendet ist, nach dem Zeitpunkt liegt, an dem das Lernen des aktuellen Modells beendet ist.
  • Indem das in der Speichervorrichtung 22 gespeicherte neuronale Netzmodell auf die obige Art und Weise ausgewählt wird, ist es möglich, zu verhindern, dass die Speicherkapazität der Speichervorrichtung 22 erreicht wird, während die Genauigkeit des in der Speichervorrichtung 22 gespeicherten neuronalen Netzmodells effizienter verbessert wird.
  • <Verarbeitung zum Ersetzen von Modellen>
  • 8A bis 8C sind Flussdiagramme, die einen Verarbeitungssteuerablauf zum Ersetzen von Modellen in der vierten Ausführungsform zeigen. Der vorliegende Steuerablauf wird von dem Prozessor 24 des Servers 2 wiederholt durchgeführt.
  • Zuerst wird in Schritt S401 entschieden, ob ein neues Modell von dem Fahrzeug 3 empfangen wurde. Falls entschieden wird, dass kein neues Modell von dem Fahrzeug 3 empfangen wurde, endet der vorliegende Steuerablauf. Falls dagegen entschieden wird, dass ein neues Modell von dem Fahrzeug 3 empfangen wurde, schreitet der vorliegende Steuerablauf zu Schritt S402 fort.
  • In Schritt S402 wird der Eingabeparameter Nr. „k“ des neuen Modells auf „1“ eingestellt, der Eingabeparameter Nr. „m“ des aktuellen Modells wird auf „1“ eingestellt, das K-Flag Fk wird auf null gesetzt und das M-Flag Fm wird auf null gesetzt.
  • Als nächstes, in Schritt S403, wird entschieden, ob der Bereich RNG(k) des k-ten Eingabeparameters, der zum Lernen des neuen Modells verwendet wurde, größer gleich dem Bereich RNG(m) des m-ten Eingabeparameters ist, der zum Lernen des aktuellen Modells verwendet wurde. Falls entschieden wird, dass der Bereich RNG(k) des k-ten Eingabeparameters größer gleich dem Bereich RNG(m) des m-ten Eingabeparameters ist, schreitet der vorliegende Steuerablauf zu Schritt S404 fort. In Schritt S404 wird das K-Flag Fk auf „1“ eingestellt.
  • Als nächstes, in Schritt S405, wird entschieden, ob das M-Flag Fm „1“ ist. Falls entschieden wird, dass das M-Flag Fm null ist, schreitet der vorliegende Steuerablauf zu Schritt S406 fort. In Schritt S406 wird„1“ zu dem Eingabeparameter Nr. „k“ des neuen Modells hinzugefügt und „1“ wird zu dem Eingabeparameter Nr. „m“ des aktuellen Modells hinzugefügt.
  • Als nächstes, in Schritt S407, wird entschieden, ob der Eingabeparameter Nr. „k“ des neuen Modells N+1 ist. N ist die Anzahl der Eingabeparameter, die in das neuronale Netzmodell eingegeben wurden, und beträgt in dem Beispiel aus 5. Falls entschieden wird, dass der Eingabeparameter Nr. „k“ des neuen Modells kleiner gleich N ist, kehrt der aktuelle Steuerablauf zu Schritt S403 zurück, wo der Bereich des nächsten Eingabeparameters verglichen wird.
  • Falls dagegen in Schritt S403 entschieden wird, dass der Bereich RNG(m) des m-ten Eingabeparameters größer ist als der Bereich RNG(k) des k-ten Eingabeparameters, schreitet der vorliegende Steuerablauf zu Schritt S409 fort. In Schritt S409 wird das M-Flag Fm auf „1“ eingestellt.
  • Als nächstes, in Schritt S410, wird entschieden, ob das K-Flag Fk „1“ ist. Falls entschieden wird, dass das K-Flag Fk null ist, schreitet der vorliegende Steuerablauf zu Schritt S406 fort. In Schritt S406 wird „1“ zu dem Eingabeparameter Nr. „k“ des neuen Modells hinzugefügt und „1“ wird zu dem Eingabeparameter Nr. „m“ des aktuellen Modells hinzugefügt.
  • Als nächstes, in Schritt S407, wird entschieden, ob der Eingabeparameter Nr. „k“ des neuen Modells N+1 ist. Falls entschieden wird, dass der Eingabeparameter Nr. „k“ des neuen Modells kleiner gleich N ist, kehrt der aktuelle Steuerablauf zu Schritt S403 zurück, und der Bereich des nächsten Eingabeparameters wird verglichen.
  • Falls dagegen in Schritt S405 entschieden wird, dass das M-Flag Fm „1“ ist oder falls in Schritt S410 entschieden wird, dass das K-Flag Fk „1“ ist, schreitet der vorliegende Steuerablauf zu Schritt S411 fort. In diesem Fall sind die Bereiche eines Teils der Eingabeparameter bei einem Modell größer, während die Bereiche eines Teils der Eingabeparameter bei dem anderen Modell größer sind. Aus diesem Grund wird in Schritt S411 das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S411 endet der vorliegende Steuerablauf.
  • Ferner, falls in Schritt S407 entschieden wird, dass der Eingabeparameter Nr. „k“ des neuen Modells N+1 beträgt, schreitet der aktuelle Steuerablauf zu Schritt S408 fort. Als nächstes, in Schritt S408, wird entschieden, ob das M-Flag Fm „1“ ist. Falls die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen Modells verwendet wurden, größer sind als die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, wird entschieden, dass das M-Flag Fm „1“ ist und der vorliegende Steuerablauf schreitet zu Schritt S412 fort.
  • In Schritt S412 wird auf gleiche Weise wie in Schritt S207 aus 6 entschieden, ob die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer ist als die Anzahl CNm an Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle Modell zu lernen. Falls entschieden wird, dass die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern größer ist als die Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern, schreitet der aktuelle Steuerablauf zu Schritt S413 fort.
  • In Schritt S413 wird entschieden, ob Datum und Zeitpunkt, an dem das Lernen des neuen Modells beendet ist, nach Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen Modells beendet ist. In der vierten Ausführungsform wird das Datum und der Zeitpunkt, an dem bzw. der das Lernen des neuronalen Netzmodells abgeschlossen ist, als Teil der Informationen des gelernten neuronalen Netzmodells in dem Speicher 32 der ECU 30 oder einer anderen in dem Fahrzeug 3 ausgebildeten Speichervorrichtung gespeichert. Aus diesem Grund ist es möglich, Datum und Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, zu beziehen, wenn der Prozessor 24 und der Server 2 ein neues Modell von dem Fahrzeug 3 empfangen.
  • Ferner, wenn das neue Modell in der Speichervorrichtung 22 gespeichert wird, werden das Datum und der Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, in der Speichervorrichtung 22 gespeichert. Aus diesem Grund kann der Prozessor 24 des Servers 2 das Datum und den Zeitpunkt beziehen, an dem das Lernen des aktuellen Modells abgeschlossen ist.
  • Falls in Schritt S413 entschieden wird, dass das Datum und der Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, nach dem Datum und dem Zeitpunkt liegen, an dem das Lernen des aktuellen Modells abgeschlossen ist, das heißt, falls entschieden wird, dass das neue Modell das neueste Modell ist, schreitet der vorliegende Steuerablauf zu Schritt S414 fort. In Schritt S414 wird das aktuelle Modell durch das neue Modell ersetzt. Das heißt, das aktuelle Modell wird von der Speichervorrichtung 22 gelöscht, während das neue Modell in der Speichervorrichtung 22 gespeichert wird. Nach Schritt S414 endet der vorliegende Steuerablauf.
  • Falls dagegen in Schritt S412 entschieden wird, dass die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern kleiner gleich der Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern ist, oder falls in Schritt S413 entschieden wird, dass das Datum und der Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, nicht nach dem Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen Modells abgeschlossen ist, schreitet der vorliegende Steuerablauf zu Schritt S415 fort.
  • In Schritt S415 wird das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S415 endet der vorliegende Steuerablauf.
  • Falls dagegen die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer sind als die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen Modells verwendet wurden, wird in Schritt S408 entschieden, dass das M-Flag Fm null ist und der vorliegende Steuerablauf schreitet zu Schritt S416 fort. Es ist zu beachten, dass in diesem Fall das K-Flag Fk auf „1“ eingestellt wurde.
  • In Schritt S416 wird entschieden, ob die Bereiche aller Eingabeparameter zwischen dem neuen Modell und dem aktuellen Modell gleich sind. Falls entschieden wird, dass die Bereiche aller Eingabeparameter gleich sind, schreitet der aktuelle Steuerablauf zu Schritt S420 fort.
  • In Schritt S420 wird das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S420 endet der vorliegende Steuerablauf.
  • Falls dagegen die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer sind als die Bereiche der Mehrzahl von Eingabeparametern, die zum Lernen des aktuellen Modells verwendet wurden, wird in Schritt S416 entschieden, dass die Bereiche aller Eingabeparameter nicht gleich sind, und der vorliegende Steuerablauf schreitet zu Schritt S417 fort.
  • In Schritt S417 wird entschieden, ob die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen Modells verwendet wurden, größer ist als die Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle Modell zu lernen. Falls entschieden wird, dass die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern kleiner ist als die Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern, schreitet der aktuelle Steuerablauf zu Schritt S419 fort.
  • In Schritt S419 wird auf die gleiche Art und Weise wie in Schritt S413 aus 8B entschieden, ob das Datum und der Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, nach dem Datum und dem Zeitpunkt liegen, an dem das Lernen des aktuellen Modells abgeschlossen ist. Falls entschieden wird, dass das Datum und der Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, nicht nach dem Datum und dem Zeitpunkt liegen, an dem das Lernen des aktuellen Modells abgeschlossen ist, schreitet der vorliegende Steuerablauf zu Schritt S420 fort.
  • In Schritt S420 wird das neue Modell von der Speichervorrichtung 22 gelöscht. Das heißt, das aktuelle Modell wird behalten und das neue Modell wird nicht in der Speichervorrichtung 22 gespeichert. Nach Schritt S420 endet der vorliegende Steuerablauf.
  • Falls dagegen in Schritt S417 entschieden wird, dass die Anzahl CNk von Kombinationen der Mehrzahl von Eingabeparametern größer gleich der Anzahl CNm von Kombinationen der Mehrzahl von Eingabeparametern ist, oder falls in Schritt S419 entschieden wird, dass das Datum und der Zeitpunkt, an dem das Lernen des neuen Modells abgeschlossen ist, nach dem Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen Modells abgeschlossen ist, schreitet der vorliegende Steuerablauf zu Schritt S418 fort.
  • In Schritt S418 wird das aktuelle Modell durch das neue Modell ersetzt. Das heißt, das aktuelle Modell wird von der Speichervorrichtung 22 gelöscht und das neue Modell wird in der Speichervorrichtung 22 gespeichert. Nach Schritt S418 endet der vorliegende Steuerablauf.
  • <Andere Ausführungsformen>
  • Oben wurden bevorzugte Ausführungsformen gemäß der vorliegenden Erfindung erläutert, aber die vorliegende Erfindung ist nicht auf diese Ausführungsformen beschränkt und kann auf verschiedene Art und Weise innerhalb der Auslegung der Ansprüche abgeändert und verändert werden. Zum Beispiel sind die Eingabeparameter und Ausgabeparameter des neuronalen Netzmodells nicht auf die obigen Beispiele beschränkt. Es können beliebige Parameter umfasst sein, deren Bezug in einem Fahrzeug möglich ist.
  • Ferner kann eine Mehrzahl von neuronalen Netzmodellen in der Speichervorrichtung 22 des Servers 2 gespeichert sein. Zum Beispiel kann eine Mehrzahl von neuronalen Netzmodellen mit unterschiedlichen Eingabeparametern und Ausgabeparametern in der Speichervorrichtung 22 des Servers 2 gespeichert sein. In diesem Fall wird das aktuelle Modell, welches die gleichen Eingabeparameter und Ausgabeparameter wie das neue Modell hat, mit dem neuen Modell verglichen, wenn ein neues Modell von einem Fahrzeug an den Server 2 gesendet wird.
  • Ferner kann eine Mehrzahl von neuronalen Netzmodellen mit den gleichen Eingabeparametern und Ausgabeparametern in der Speichervorrichtung 22 des Servers 2 gespeichert werden. Zum Beispiel werden eine Mehrzahl von neuronalen Netzmodellen, welche die gleichen Eingabeparameter und Ausgabeparameter haben, nach Fahrzeugmodellen, Regionen, in denen die Messwerte der Eingabeparameter und Ausgabeparameter bezogen werden, usw. klassifiziert. In diesem Fall wird, wenn ein neues Modell von einem Fahrzeug an den Server 2 gesendet wird, das aktuelle Modell, das dem neuen Modell entspricht, mit dem neuen Modell verglichen. Ferner, wenn es eine Mehrzahl von aktuellen Modellen gibt, die dem neuen Modell entsprechen, wird die Mehrzahl von aktuellen Modellen jeweils mit dem neuen Modell verglichen.
  • Ferner können die obigen Ausführungsformen auf beliebige Art und Weise kombiniert werden. Zum Beispiel kann die zweite Ausführungsform mit der dritten Ausführungsform kombiniert werden. In diesem Fall werden in dem Steuerablauf aus 7 anstatt des Schrittes S307 Schritt S206 bis Schritt S209 aus 6 durchgeführt.
  • Ferner kann die zweite Ausführungsform mit der vierten Ausführungsform kombiniert werden. In diesem Fall wird in dem Steuerablauf aus den 8A bis 8C, nachdem die Entscheidung in Schritt S416 aus 8C ja ist, anstatt des Schrittes S420 Schritt S207 bis Schritt S209 aus 6 durchgeführt.
  • Ferner kann die dritte Ausführungsform mit der vierten Ausführungsform kombiniert werden. In diesem Fall werden in dem Steuerablauf aus 7, nachdem die Entscheidung aus Schritt S302 nein ist, anstatt der Schritte S303 bis S308 Schritt S402 bis Schritt S420 aus 8A bis 8C durchgeführt. Auf ähnliche Art und Weise können auch die zweite Ausführungsform, die dritte Ausführungsform und die vierte Ausführungsform kombiniert werden.
  • Bezugszeichenliste
  • 1
    Modellaggregationssystem
    2
    Server
    21
    Kommunikationsschnittstelle
    22
    Speichervorrichtung
    24
    Prozessor
    3
    Fahrzeug
    30
    Elektronische Steuereinheit (ECU)
    36
    Kommunikationsmodul
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012112277 [0003]

Claims (7)

  1. Modellaggregationsvorrichtung aufweisend eine Kommunikationsvorrichtung, die fähig ist, mit einer Mehrzahl von Fahrzeugen zu kommunizieren, in denen neuronale Netzmodelle gelernt werden, eine Speichervorrichtung, die einen Teil der neuronalen Netzmodelle speichert, die von der Mehrzahl von Fahrzeugen gesendet werden, und eine Steuervorrichtung, wobei das neuronale Netzmodell mindestens einen Ausgabeparameter aus einer Mehrzahl von Eingabeparametern ausgibt, und die Steuervorrichtung eingerichtet ist, falls sie ein neues neuronales Netzmodell von einem Fahrzeug von der Mehrzahl von Fahrzeugen durch die Kommunikationsvorrichtung empfängt, Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, und Bereiche von der Mehrzahl von Eingabeparametern, die verwendet wurden, um ein aktuelles neuronales Netzmodell zu lernen, das in der Speichervorrichtung gespeichert ist, zu vergleichen, um so zu bestimmen, ob sie das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell ersetzen soll.
  2. Modellaggregationsvorrichtung nach Anspruch 1, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer sind als Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, kleiner ist als eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, und Datum und Zeitpunkt, an dem das Lernen des neuen neuronalen Netzmodells beendet ist, nach Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen neuronalen Netzmodells beendet ist.
  3. Modellaggregationsvorrichtung nach Anspruch 1 oder 2, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, kleiner sind als Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen, eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer ist als eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuellen neuronale Netzmodell zu lernen, und Datum und Zeitpunkt, an dem das Lernen des neuen neuronalen Netzmodells beendet ist, nach Datum und Zeitpunkt liegen, an dem das Lernen des aktuellen neuronalen Netzmodells beendet ist.
  4. Modellaggregationsvorrichtung nach Anspruch 1, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, größer sind als Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen.
  5. Modellaggregationsvorrichtung nach einem der Ansprüche 1 bis 4, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell zu ersetzen, falls Bereiche der Mehrzahl von Eingabeparametern, die für das Lernen des neuen neuronalen Netzmodells verwendet wurden, gleich Bereichen der Mehrzahl von Eingabeparametern sind, die zum Lernen des aktuellen neuronalen Netzmodells verwendet wurden, und eine Anzahl von Kombinationen der Mehrzahl von Eingabeparametern, die zum Lernen des neuen neuronalen Netzmodells verwendet wurden, größer ist als eine Anzahl von Kombinationen von Eingabeparametern, die verwendet wurden, um das aktuelle neuronale Netzmodell zu lernen.
  6. Modellaggregationsvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Steuervorrichtung eingerichtet ist, das aktuelle neuronale Netzmodell nicht durch das neue neuronale Netzmodell zu ersetzen, falls ein Wert von mindestens einem der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, anormal ist.
  7. Modellaggregationssystem aufweisend einen Server und eine Mehrzahl von Fahrzeugen, wobei jedes der Mehrzahl von Fahrzeugen Folgendes aufweist: eine erste Kommunikationsvorrichtung, die fähig ist, mit dem Server zu kommunizieren, und eine erste Steuervorrichtung, die eingerichtet ist, ein Lernen eines neuronalen Netzmodells durchzuführen, welches mindestens einen Ausgabeparameter aus einer Mehrzahl von Eingabeparametern ausgibt, der Server Folgendes aufweist: eine zweite Kommunikationsvorrichtung, die fähig ist, mit der Mehrzahl von Fahrzeugen zu kommunizieren, eine Speichervorrichtung, die einen Teil der neuronalen Netzmodelle speichert, die von der Mehrzahl der Fahrzeuge gesendet werden, und eine zweite Steuervorrichtung, und die zweite Steuervorrichtung eingerichtet ist, falls sie ein neues neuronales Netzmodell von einem Fahrzeug von der Mehrzahl von Fahrzeugen durch die erste Kommunikationsvorrichtung und die zweite Kommunikationsvorrichtung empfängt, Bereiche der Mehrzahl von Eingabeparametern, die verwendet wurden, um das neue neuronale Netzmodell zu lernen, und Bereiche von der Mehrzahl von Eingabeparametern, die verwendet wurden, um ein aktuelles neuronales Netzmodell zu lernen, das in der Speichervorrichtung gespeichert ist, zu vergleichen, um so zu bestimmen, ob sie das aktuelle neuronale Netzmodell durch das neue neuronale Netzmodell ersetzen soll.
DE102020103369.9A 2019-03-08 2020-02-11 Modellaggregationsvorrichtung und Modellaggregationssystem Pending DE102020103369A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019042641A JP6798571B2 (ja) 2019-03-08 2019-03-08 モデル集約装置及びモデル集約システム
JP2019-042641 2019-03-08

Publications (1)

Publication Number Publication Date
DE102020103369A1 true DE102020103369A1 (de) 2020-09-10

Family

ID=72146767

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020103369.9A Pending DE102020103369A1 (de) 2019-03-08 2020-02-11 Modellaggregationsvorrichtung und Modellaggregationssystem

Country Status (3)

Country Link
US (1) US11531350B2 (de)
JP (1) JP6798571B2 (de)
DE (1) DE102020103369A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019119739A1 (de) * 2019-07-22 2021-01-28 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und System zur Erzeugung von sicherheitskritischen Ausgabewerten einer Entität
US11900244B1 (en) * 2019-09-30 2024-02-13 Amazon Technologies, Inc. Attention-based deep reinforcement learning for autonomous agents
JP6962435B1 (ja) * 2020-10-12 2021-11-05 トヨタ自動車株式会社 機械学習装置
US11760376B2 (en) * 2020-12-29 2023-09-19 Ford Global Technologies, Llc Machine learning updating with sensor data
CN114483346B (zh) * 2022-02-10 2023-06-20 电子科技大学 一种基于小样本的发动机多流量管进气温度修正方法、装置和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004030782A1 (de) * 2004-06-25 2006-01-19 Fev Motorentechnik Gmbh Fahrzeug-Steuergerät mit einem neuronalen Netz
JP5426520B2 (ja) 2010-11-24 2014-02-26 本田技研工業株式会社 内燃機関の制御装置
JP6044556B2 (ja) * 2014-01-16 2016-12-14 株式会社デンソー 学習システム、車載装置、及び、サーバ
US10318887B2 (en) * 2016-03-24 2019-06-11 Cisco Technology, Inc. Dynamic application degrouping to optimize machine learning model accuracy
US10581901B2 (en) * 2016-03-25 2020-03-03 Cisco Technology, Inc. Increased granularity and anomaly correlation using multi-layer distributed analytics in the network
CN107545889B (zh) 2016-06-23 2020-10-23 华为终端有限公司 适用于模式识别的模型的优化方法、装置及终端设备
JP6660900B2 (ja) * 2017-03-06 2020-03-11 Kddi株式会社 モデル統合装置、モデル統合システム、方法およびプログラム

Also Published As

Publication number Publication date
US11531350B2 (en) 2022-12-20
JP6798571B2 (ja) 2020-12-09
US20200285243A1 (en) 2020-09-10
JP2020144775A (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
DE102020103369A1 (de) Modellaggregationsvorrichtung und Modellaggregationssystem
DE102011012813B4 (de) Batteriezustandsschätzeinrichtung unter Verwendung mehrerer Abtastraten
DE102012207815B4 (de) Systeme und verfahren zum bestimmen von zellenkapazitätswerten in einer batterie mit vielen zellen
DE112017005163T5 (de) Systeme und verfahren zur vorausschauenden ausfalldetektion in fahrzeugen
DE102016103807B4 (de) Controller für eine Sekundärbatterie, welcher einen Untergrenze-SOC-Einstellwert einstellt, der niedriger als der vorab eingestellte Untergrenze-SOC-Einstellwert ist und höher als der SOC 0% ist
DE102009042533B4 (de) Verfahren zur Bestimmung eines Ladezustands einer Batterie
DE112017004755T5 (de) Sekundärbatterie-Verwaltungssystem mit entfernter Parameterschätzung
DE102012216617A1 (de) Reichweitenschätzung für ein aufladbares energiespeichersystem eines fahrzeugs
DE102020133045A1 (de) Modelldiagnosevorrichtung und modelldiagnosesystem
DE102021118572A1 (de) Maschinenlernvorrichtung und Maschinenlernsystem
DE102021118579A1 (de) Maschinenlernvorrichtung
DE102021118615A1 (de) Lernvorrichtung und Modell-Lernsystem
DE102017213510A1 (de) Verfahren und Vorrichtung zum Erzeugen eines maschinellen Lernsystems, und virtuelle Sensorvorrichtung
DE102021129697A1 (de) Maschinenlernverfahren und Maschinenlernsystem
DE102021118606A1 (de) Modelllernsystem, Modelllernverfahren und Server
DE102021114514A1 (de) Fahrzeug, modelltrainingssystem und server
WO2022037968A1 (de) Steuervorrichtung und verfahren zum prädiktiven betreiben eines energiebordnetzes
DE102018005797A1 (de) Verfahren zum Abschätzen der für eine Vollladung einer wiederaufladbaren, elektrochemischen Energiespeichervorrichtung erforderlichen Zeitdauer
DE102022101239A1 (de) Detektion von fahrzeugbatterieleckage
DE102021111980A1 (de) Bewertung der zellgruppengesundheit in einem batteriepaket
DE102020126756A1 (de) Intelligentes energiemanagementsystem für ein fahrzeug und entsprechendes verfahren
DE102020121757A1 (de) Kommunikationsvorrichtung für ein Fahrzeug und Kommunikationsverfahren
DE102021108019A1 (de) System und Verfahren zum Bewerten der Fahrerleistung
DE102020203245A1 (de) Verfahren zur Bestimmung eines Modellfehlers eines mathematischen Modells einer elektrischen Energiespeichereinheit
DE102020201508A1 (de) Verfahren zur Ermittlung der Kapazität einer elektrischen Energiespeichereinheit

Legal Events

Date Code Title Description
R012 Request for examination validly filed