DE102019125775A1 - Steuerunterstützungseinrichtung, vorrichtungssteuereinrichtung, steuerunterstützungsverfahren, aufzeichnungsmedium, gelerntes modell zum bewirken des funktionierens eines computers und verfahren des generierens des gelernten modells - Google Patents

Steuerunterstützungseinrichtung, vorrichtungssteuereinrichtung, steuerunterstützungsverfahren, aufzeichnungsmedium, gelerntes modell zum bewirken des funktionierens eines computers und verfahren des generierens des gelernten modells Download PDF

Info

Publication number
DE102019125775A1
DE102019125775A1 DE102019125775.1A DE102019125775A DE102019125775A1 DE 102019125775 A1 DE102019125775 A1 DE 102019125775A1 DE 102019125775 A DE102019125775 A DE 102019125775A DE 102019125775 A1 DE102019125775 A1 DE 102019125775A1
Authority
DE
Germany
Prior art keywords
input
control
learned model
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019125775.1A
Other languages
English (en)
Inventor
Hiroshi Oyagi
Tomohiro Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102019125775A1 publication Critical patent/DE102019125775A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • G06F17/13Differential equations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Operations Research (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Feedback Control In General (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

Eine Steuerunterstützungseinrichtung umfasst Folgendes: eine Datenerfassungseinheit, die einen Eingabe-/Ausgabedatensatz erfasst, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; eine Lerneinheit, die ein gelerntes Modell generiert, indem sie das maschinelle Lernen unter Verwendung des Eingabe-/Ausgabedatensatzes durchführt, der von der Datenerfassungseinheit erfasst worden ist; und eine Bestimmungseinheit, die ein gelerntes Modell, das für das Steuern verwendet werden soll, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter bestimmt, die von der Datenerfassungseinheit erfasst worden sind, und einer Lernsituation des maschinellen Lernens in der Lerneinheit.

Description

  • HINTERGRUND DER ERFINDUNG
  • Erfindungsgebiet
  • Die vorliegende Erfindung bezieht sich auf eine Steuerunterstützungseinrichtung, eine Vorrichtungssteuereinrichtung, ein Steuerunterstützungsverfahren, ein Aufzeichnungsmedium, ein gelerntes Modell zum Bewirken des Funktionierens eines Computers und ein Verfahren des Generierens des gelernten Modells.
  • Beschreibung der verwandten Technik
  • Es ist eine Technik zum Steuern eines Verbrennungsmotors bekannt, in dem ein durch maschinelles Lernen gelerntes Modell auf Basis eines neuronalen Netzes verwendet wird (siehe zum Beispiel Patentschrift 1). In dieser Technik wird das gelernte Modell verwendet, um die Durchflussrate von Gas in einem vorbestimmten Kanal des Verbrennungsmotors zu schätzen und den Verbrennungsmotor auf Basis des Schätzergebnisses zu steuern.
  • Patentschrift 1: Japanische offengelegte Patentveröffentlichung 2012-112277
  • KURZE DARSTELLUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDES PROBLEM
  • Allerdings können, da das gelernte Modell, das zum Zeitpunkt der Fahrzeugherstellung oder der Fahrzeugentwicklung gelernt worden ist, montiert ist, in der Technik der Patentschrift 1 Variationen zwischen unterschiedlichen Maschinen unter den tatsächlichen Fahrzeugen das Steuern beeinflussen.
  • Daher wird in Betracht gezogen, dass maschinelles Lernen durch Erfassen von Lerndaten durchgeführt wird, während das Fahrzeug fährt. Durch Verwenden des gelernten Modells, das während des tatsächlichen Fahrens des Fahrzeugs generiert wird, wird erwartet, die Genauigkeit des Schätzens und Prognostizierens des Zustand des Fahrzeugs zu verbessern, jedoch braucht es Zeit, die für das Generieren des gelernten Modells nötigen Lerndaten zu erstellen.
  • Unter solchen Umständen besteht ein Bedarf an einer Technik, die eine genaue Unterstützung unter Verwendung eines durch maschinelles Lernen gelernten Modells für eine Vorrichtung, wie zum Beispiel ein Fahrzeug, bereitstellt.
  • Die vorliegende Erfindung erfolgte angesichts der obigen Ausführungen, und eines ihrer Ziele ist es, eine Steuerunterstützungseinrichtung, eine Vorrichtungssteuereinrichtung, ein Steuerunterstützungsverfahren, ein Aufzeichnungsmedium, ein gelerntes Modell zum Bewirken des Funktionierens eines Computers und ein Verfahren des Generierens des gelernten Modells bereitzustellen, die exakt das Steuern einer Vorrichtung unter Verwendung des durch maschinelles Lernen gelernten Modells unterstützen können.
  • MITTEL ZUM LÖSEN DES PROBLEMS
  • Um das oben genannte Problem zu lösen und das Ziel zu erreichen, umfasst eine Steuerunterstützungseinrichtung gemäß der vorliegenden Erfindung, die das Steuern einer Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells unterstützt, Folgendes: eine Datenerfassungseinheit, die einen Eingabe-/Ausgabedatensatz erfasst, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und die Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; eine Lerneinheit, die ein gelerntes Modell generiert, indem sie das maschinelle Lernen unter Verwendung des Eingabe-/Ausgabedatensatzes durchführt, der von der Datenerfassungseinheit erfasst worden ist; und eine Bestimmungseinheit, die ein gelerntes Modell, das für das Steuern verwendet werden soll, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter bestimmt, die von der Datenerfassungseinheit erfasst worden sind und einer Lernsituation des maschinellen Lernens in der Lerneinheit.
  • Des Weiteren kann die Bestimmungseinheit das gelernte Modell auswählen, wenn die Lernsituation eine Bedingung erfüllt, die einer Genauigkeit des gelernten Modells, das vollständig generiert worden ist, genügt.
  • Dementsprechend ist es möglich, ein hochgenaues Steuern zu unterstützen, auch wenn ein gelerntes Modell, das vollständig generiert worden ist, auf das Steuern angewendet wird.
  • Des Weiteren kann die Bedingung sein, dass wenigstens irgendeiner der Eingabeparameter, die für das Steuern eingegeben werden, Daten sind, die einen Wert innerhalb eines Bereichs aufweisen, der während des Lernens durch die Lerneinheit erfasst worden ist.
  • Dementsprechend ist es möglich, ein hochgenaues Steuern unter Verwendung eines gelernten Modells auf Basis von Eingabeparametern zu unterstützen, die Werte innerhalb eines Bereichs aufweisen, der durch eine Lerneinheit während des Lernens erfasst worden ist.
  • Des Weiteren kann die Steuerunterstützungseinrichtung des Weiteren eine Kennfelderstellungseinheit umfassen, die ein Kennfeld erstellt, das die Eingabeparameter mit dem Ausgabeparameter verknüpft, indem das gelernte Modell, das vollständig generiert worden ist, und ein gelerntes Modell, das im Voraus generiert worden ist, verwendet werden, wenn die Bestimmungseinheit eine Verwendung des gelernten Modells durch die Lerneinheit bestimmt, das vollständig generiert worden ist.
  • Dementsprechend ist es möglich, das Steuern unter Verwendung eines Kennfelds zu unterstützen, eine an eine Einrichtung, die eine Vorrichtung steuert, angelegte Last zu reduzieren und die Berechnung der Einrichtung schnell auszuführen.
  • Die Kennfelderstellungseinheit kann Eingabeparameter mit einem Ausgabeparameter unterschiedlicher gelernter Modelle entsprechend einem Bereich an Werten der Eingabeparameter verknüpfen.
  • Dementsprechend ist es möglich, ein Kennfeld bereitzustellen, das auf einem geeigneten gelernten Modell entsprechend einem Bereich an Werten der Eingabeparameter basiert.
  • Des Weiteren kann die Lerneinheit das maschinelle Lernen durch Verwenden eines neuronalen Netzes durchführen, das Folgendes umfasst: eine Eingabeschicht, in welche die Eingabeparameter eingegeben werden; eine Zwischenschicht, in die Signale, die von der Eingabeschicht ausgegeben werden, eingegeben werden und die eine Mehrschichtstruktur aufweist; und eine Ausgabeschicht, in die Signale, die von der Zwischenschicht ausgegeben werden, eingegeben werden und die einen Ausgabeparameter ausgibt, wobei jede der Schichten einen oder mehrere Knoten enthält und Netzparameter des neuronalen Netzes auf Basis des Ausgabeparameters, der von der Ausgabeschicht entsprechend der Eingabe der Eingabeparameter in die Eingabeschicht und des Ausgabeparameters, die im Eingabe-/Ausgabedatensatz enthalten sind, ausgegeben wird, aktualisiert und lernt.
  • Dementsprechend ist es möglich, ein hochgenaues gelerntes Modell auf Basis von Deep Learning zu generieren.
  • Des Weiteren kann die Lerneinheit durch Verringern einer Anzahl der Eingabeparameter lernen, die in einem Bereich enthalten sind, in dem eine Häufigkeit des Erfassens von Werten der Eingabeparameter größer als ein vorbestimmter Referenzwert ist.
  • Dementsprechend werden, sogar wenn Lerndaten eine Schwankung in der Dichte aufweisen, Knoten eines neuronalen Netzes auch in einem dünnbesetzten Abschnitt verwendet, und es ist möglich, eine Verringerung der Prognosegenauigkeit im dünnbesetzten Abschnitt abzuschwächen.
  • Des Weiteren kann die Verarbeitung des Steuerns der Vorrichtung durch Verwenden des gelernten Modells die Eingabeparameter, die von der Datenerfassungseinheit erfasst worden sind, in die Eingabeschicht eingeben, eine arithmetische Operation auf Basis der Netzparameter, die gelernt worden sind, durchführen und den Ausgabeparameter, der durch Quantifizieren eines vorbestimmten Zustands der Vorrichtung ermittelt wird, aus der Ausgabeschicht ausgeben.
  • Dementsprechend ist es möglich, eine Vorrichtung genau zu steuern, da das Steuern unter Verwendung eines Wertes durchgeführt wird, der durch Quantifizieren eines vorbestimmten Zustands einer Vorrichtung durch ein gelerntes Modell ermittelt worden ist.
  • Des Weiteren kann die Vorrichtung ein Fahrzeug sein, das einen Verbrennungsmotor aufweist, und die Steuerunterstützungsvorrichtung kann im Fahrzeug montiert sein.
  • Dementsprechend ist es möglich, das Steuern eines Fahrzeugs selbst im Fahrzeug genau zu unterstützen.
  • Des Weiteren kann die Steuerunterstützungseinrichtung des Weiteren Folgendes umfassen: eine Kommunikationseinheit, die über ein Kommunikationsnetz Informationen zu und von einer Vorrichtungssteuereinrichtung, welche die Vorrichtung steuert, überträgt und empfängt. Des Weiteren kann die Lerneinheit das maschinelle Lernen auf Basis des Eingabe-/Ausgabedatensatzes durchführen, der von der Kommunikationseinheit aus der Vorrichtungssteuereinrichtung empfangen worden ist, und die Kommunikationseinheit kann das gelernte Modell, das von der Lerneinheit generiert worden ist, und ein Bestimmungsergebnis der Bestimmungseinheit zur Vorrichtungssteuereinrichtung übertragen.
  • Dementsprechend ist es, da die Vorrichtungssteuereinrichtung kein gelerntes Modell generieren und kein zum Steuern verwendetes gelerntes Modell bestimmen muss, möglich, die Rechenlast zu reduzieren und die Batterieleistungsaufnahme abzuschwächen.
  • Des Weiteren kann die Steuerunterstützungseinrichtung des Weiteren Folgendes umfassen: eine Kommunikationseinheit, die über ein Kommunikationsnetz Informationen zu und von einer Vorrichtungssteuereinrichtung überträgt und empfängt, welche die Vorrichtung steuert. Des Weiteren kann die Lerneinheit auf Basis von Daten, die von der Kommunikationseinheit aus der Vorrichtungssteuereinrichtung empfangen worden sind, einen Eingabe-/Ausgabedatensatz generieren, um das maschinelle Lernen durchzuführen, und das maschinelle Lernen auf Basis des Eingabe-/Ausgabedatensatzes durchführen, und die Kommunikationseinheit kann das gelernte Modell, das von der Lerneinheit generiert worden ist, und ein Bestimmungsergebnis der Bestimmungseinheit zur Vorrichtungssteuereinrichtung übertragen.
  • Dementsprechend ist es, da die Vorrichtungssteuereinrichtung keine Eingabe-/Ausgabeparameter oder ein gelerntes Modell generieren oder ein für das Steuern verwendetes gelerntes Modell bestimmen muss, möglich, die Rechenlast zu reduzieren und die Batterieleistungsaufnahme abzuschwächen.
  • Des Weiteren können die Lerneinheit (43) und die Bestimmungseinheit (44) die Verarbeitung parallel durchführen.
  • Dementsprechend ist es, da das Lernen durchgeführt wird, während ein Eingabe-/Ausgabedatensatz erfasst wird, möglich, die Anwendung eines gelernten Modells, das von einer Lerneinheit generiert worden ist, zu beschleunigen und eine genaue Unterstützung früh bereitzustellen.
  • Eine Vorrichtungssteuereinrichtung gemäß der vorliegenden Erfindung dient dazu, mit einer Steuerunterstützungseinrichtung zu kommunizieren, die zum Steuern einer Vorrichtung dient, und die Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells zu steuern, wobei die Steuerunterstützungseinrichtung Folgendes umfasst: eine Lerneinheit, die ein gelerntes Modell generiert, indem sie das maschinelle Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes durchführt, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und die Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; und eine Bestimmungseinheit, die ein gelerntes Modell, das für das Steuern verwendet wird, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter und einer Lernsituation in der Lerneinheit bestimmt und wobei die Vorrichtungssteuereinrichtung Folgendes umfasst: eine Datenerfassungseinheit, die den Eingabe-/Ausgabedatensatz erfasst; und eine Kommunikationseinheit, die den Eingabe-/Ausgabedatensatz, der von der Datenerfassungseinheit erfasst worden ist, zur Steuerunterstützungseinrichtung überträgt und wenigstens ein Bestimmungsergebnis durch die Bestimmungseinheit aus der Steuerunterstützungseinrichtung empfängt.
  • Dementsprechend ist es, da es nicht nötig ist, ein gelerntes Modell zu generieren oder ein gelerntes Modell, das zum Steuern verwendet wird, zu bestimmen, möglich, die Rechenlast zu reduzieren, die Batterieleistungsaufnahme abzuschwächen und sogar Unterstützung für das genaue Steuern einer Vorrichtung aus der Steuerunterstützungseinrichtung zu empfangen.
  • Ein Steuerunterstützungsverfahren gemäß der vorliegenden Erfindung, das von einer Steuerunterstützungseinrichtung ausgeführt wird, um das Steuern einer Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells zu unterstützen, umfasst Folgendes: einen Datenerfassungsschritt, einen Eingabe-/Ausgabedatensatz zu erfassen, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und die Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; einen Lernschritt, aus einer Speichereinheit den Eingabe-/Ausgabedatensatz auszulesen, der im Datenerfassungsschritt erfasst worden ist, und ein gelerntes Modell durch Durchführen des maschinellen Lernens unter Verwendung des ausgelesenen Eingabe-/Ausgabedatensatzes zu generieren; und einen Bestimmungsschritt, ein gelerntes Modell, das für das Steuern verwendet wird, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter, die vom Datenerfassungsschritt erfasst worden sind, und einer Lernsituation des maschinellen Lernens zu bestimmen.
  • Ein computerlesbares Aufzeichnungsmedium gemäß der vorliegenden Erfindung speichert ein Steuerunterstützungsprogramm, das bewirkt, dass eine Steuerunterstützungsvorrichtung, die zum Unterstützen des Steuerns einer Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells dient, Folgendes ausführt: einen Datenerfassungsschritt, einen Eingabe-/Ausgabedatensatz zu erfassen, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und die Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; einen Lernschritt, aus einer Speichereinheit den Eingabe-/Ausgabedatensatz auszulesen, der im Datenerfassungsschritt erfasst worden ist, und ein gelerntes Modell durch Durchführen des maschinellen Lernens unter Verwendung des ausgelesenen Eingabe-/Ausgabedatensatzes zu generieren; und einen Bestimmungsschritt, ein gelerntes Modell, das für das Steuern verwendet wird, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuein verwendet werden kann, auf Basis der Eingabeparameter, die vom Datenerfassungsschritt erfasst worden sind, und einer Lernsituation des maschinellen Lernens zu bestimmen.
  • Ein gelerntes Modell, das von einem neuronalen Netz gemäß der vorliegenden Erfindung generiert wird, umfasst Folgendes: eine Eingabeschicht, in die Eingabeparameter eingegeben werden, die durch Quantifizieren eines internen oder externen Zustands einer Vorrichtung ermittelt werden; eine Zwischenschicht, in die Signale, die von der Eingabeschicht ausgegeben werden, eingegeben werden und die eine Mehrschichtstruktur aufweist; und eine Ausgabeschicht, in die Signale, die von der Zwischenschicht ausgegeben werden, eingegeben werden und die einen Ausgabeparameter ausgibt, der durch Quantifizieren eines vorbestimmten Zustands der Vorrichtung ermittelt wird, wobei jede der Schichten einen oder mehrere Knoten umfasst. Des Weiteren bewirkt das gelernte Modell, dass ein Computer funktioniert, um die Eingabeparameter in die Eingabeschicht einzugeben, eine arithmetische Operation auf Basis eines gelernten Netzparameters, der ein Netzparameter des neuronalen Netzes ist, durchzuführen und einen Wert auszugeben, der durch Quantifizieren eines vorbestimmten Zustands der Vorrichtung von der Ausgabeschicht ermittelt wird.
  • Dementsprechend ist es möglich, ein gelerntes Modell bereitzustellen, das auf Basis von Deep Learning unter Verwendung eines neuronalen Netzes generiert wird, und das Steuern einer Vorrichtung genau unter Verwendung des gelernten Modells zu unterstützen.
  • In einem Verfahren, ein gelerntes Modell gemäß der vorliegenden Erfindung zu generieren, um ein gelerntes Modell zu generieren, um zu bewirken, dass ein Computer funktioniert, um einen Wert auszugeben, der durch Quantifizieren eines vorbestimmten Zustands einer Vorrichtung ermittelt wird, verwendet der Computer ein neuronales Netz, das Folgendes umfasst: eine Eingabeschicht, in die Eingabeparameter eingegeben werden, die durch Quantifizieren eines internen oder externen Zustands der Vorrichtung ermittelt werden; eine Zwischenschicht, in die Signale, die von der Eingabeschicht ausgegeben werden, eingegeben werden und die eine Mehrschichtstruktur aufweist; und eine Ausgabeschicht, in die Signale, die von der Zwischenschicht ausgegeben werden, eingegeben werden und die einen Ausgabeparameter ausgibt, wobei jede der Schichten einen oder mehrere Knoten umfasst, um zu lernen, während ein Netzparameter des neuronalen Netzes auf Basis des Ausgabeparameters, der von der Ausgabeschicht entsprechend der Eingabe der Eingabeparameter und eines Ausgabeparameters, der zusammen mit den Eingabeparametern einen Eingabe-/Ausgabedatensatz bildet, ausgegeben wird, aktualisiert wird und der Netzparameter in einer Speichereinheit gespeichert wird.
  • Dementsprechend ist es möglich, ein gelerntes Modell bereitzustellen, welches das Steuern einer Vorrichtung genau unterstützt.
  • WIRKUNG DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung wird ein gelerntes Modell durch Durchführen von maschinellem Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes, der sich auf den internen oder externen Zustand einer Vorrichtung bezieht, generiert, und auf Basis der erfassten Eingabeparameter und der Lernsituation des maschinellen Lernens wird ein gelerntes Modell, das zum Steuern der Vorrichtung verwendet wird, aus mehreren gelernten Modellen bestimmt, zu denen das gelernte Modell zählt, das vollständig generiert worden ist und zum Steuern verwendet werden kann, so dass es möglich ist, ein geeignetes gelerntes Modell zum genauen Unterstützen des Steuerns der Vorrichtung unter Verwendung des durch maschinelles Lernen gelernten Modells auszuwählen.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine Funktionsausgestaltung einer Fahrzeugsteuereinrichtung, die eine Steuerunterstützungseinrichtung umfasst, gemäß einer ersten Ausführungsform veranschaulicht;
    • 2 ist ein Diagramm, das schematisch eine Ausgestaltung eines von einer Lerneinheit gelernten neuronalen Netzes veranschaulicht;
    • 3 ist ein Diagramm, das einen Überblick über die Eingabe/Ausgabe von Knoten veranschaulicht, über die das neuronale Netz verfügt;
    • 4 ist ein Flussdiagramm, das einen Überblick über die Verarbeitung veranschaulicht, die von der Fahrzeugsteuereinrichtung, welche die Steuerunterstützungseinrichtung umfasst, gemäß der ersten Ausführungsform durchgeführt wird;
    • 5 ist ein Diagramm, das schematisch eine Beziehung zwischen der Gesamtmotorbetriebszeit und der Motorreibung veranschaulicht;
    • 6 ist ein Flussdiagramm, das einen Überblick über die Verarbeitung veranschaulicht, die von einer Fahrzeugsteuereinrichtung, welche die Steuerunterstützungseinrichtung umfasst, gemäß einer zweiten Ausführungsform durchgeführt wird;
    • 7 ist ein Flussdiagramm, das einen Überblick über die Verarbeitung veranschaulicht, die von einer Fahrzeugsteuereinrichtung, die eine Steuerunterstützungseinrichtung umfasst, gemäß einem abgewandelten Beispiel der zweiten Ausführungsform durchgeführt wird;
    • 8 ist ein Blockdiagramm, das eine Funktionsausgestaltung einer Fahrzeugsteuereinrichtung, die eine Steuerunterstützungseinrichtung umfasst, gemäß einer dritten Ausführungsform veranschaulicht;
    • 9 ist ein Diagramm, das schematisch ein Kennfeld veranschaulicht, das von einer Kennfelderstellungseinheit erstellt worden ist;
    • 10 ist ein Flussdiagramm, das einen Überblick über die Verarbeitung veranschaulicht, die von der Fahrzeugsteuereinrichtung, welche die Steuerunterstützungseinrichtung umfasst, gemäß der dritten Ausführungsform durchgeführt wird; und
    • 11 ist ein Blockdiagramm, das eine Funktionsausgestaltung eines Kommunikationssystems, das mit einer Steuerunterstützungseinrichtung bereitgestellt wird, gemäß einer vierten Ausführungsform veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Unter Bezugnahme auf die beigefügten Zeichnungen werden hier nachstehend Modi zum Ausführen der vorliegenden Erfindung beschrieben (hier nachstehend als „Ausführungsformen“ bezeichnet).
  • Erste Ausführungsform
  • 1 ist ein Blockdiagramm, das eine Funktionsausgestaltung einer Fahrzeugsteuereinrichtung, die eine Steuerunterstützungseinrichtung umfasst, gemäß einer ersten Ausführungsform veranschaulicht. Eine in dieser Zeichnung veranschaulichte Fahrzeugsteuereinrichtung 1 ist eine Einrichtung, die in einem Fahrzeug mit einem Verbrennungsmotor montiert ist und den Betrieb des Fahrzeugs als eine Vorrichtung steuert. Die Fahrzeugsteuereinrichtung 1 weist eine Eingabeeinheit 2, eine Sensorgruppe 3, eine Steuereinheit 4 und eine Speichereinheit 5 auf. Die Fahrzeugsteuereinrichtung 1 führt ein maschinelles Lernen zum Generieren eines gelernten Modells durch, wobei vorbestimmte Daten aus Umgebungsbedingungen und ein Motorzustand des Fahrzeugs Eingabeparameter sind und die Leistungsaufnahme, die zum Neustarten nötig ist, wenn Leerlaufreduktion in einem Fahrzeug durchgeführt wird (hier nachstehend vereinfacht als „Leistungsaufnahme“ bezeichnet), ein Ausgabeparameter ist. Durch Verwenden des durch maschinelles Lernen gelernten Modells prognostiziert die Fahrzeugsteuereinrichtung 1 des Weiteren die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme.
  • Die Eingabeeinheit 2 wird durch Verwenden von Nutzerschnittstellen gebildet, wie zum Beispiel einer Tastatur, einer Taste zur Eingabe, einem Hebel und einem Touch-Panel, die bereitgestellt werden, indem sie auf einer Flüssigkristallanzeige oder Ähnlichem gestapelt sind, und nimmt die Eingabe verschiedener Informationen an.
  • Die Sensorgruppe 3 umfasst einen Wassertemperatursensor 31, der eine Wassertemperatur (Kühlwassertemperatur) des Motorkühlwassers detektiert, einen Ansauglufttemperatursensor 32, der eine Ansauglufttemperatur für den Motor detektiert, einen Atmosphärendrucksensor 33, der einen Atmosphärendruck detektiert, einen Öltemperatursensor 34, der eine Öltemperatur für den Motor detektiert, einen L/K-Sensor 35, der die Sauerstoffkonzentration im Abgas detektiert, und einen Stromsensor 36, der den Ladezustand einer Batterie detektiert.
  • Die Steuereinheit 4 weist eine Datenerfassungseinheit 41, eine Prognoseeinheit 42, eine Lerneinheit 43, eine Bestimmungseinheit 44 und einen Zeitgeber 45 auf. Die Steuereinheit 4 ist eine elektronische Steuereinheit (ECU), die das Fahrzeug elektronisch steuert.
  • Die Datenerfassungseinheit 41 erfasst die Kühlwassertemperatur, die Ansauglufttemperatur, den Atmosphärendruck, die Öltemperatur, die Sauerstoffkonzentration im Abgas und den verbleibenden Batteriepegel aus dem Wassertemperatursensor 31, dem Ansauglufttemperatursensor 32, dem Atmosphärendrucksensor 33, dem Öltemperatursensor 34, dem L/K-Sensor 35 bzw. dem Stromsensor 36. Die Datenerfassungseinheit 41 berechnet die Kraftstoffmenge in Öl, indem sie eine vorbestimmte arithmetische Operation durchführt, bei der die Kraftstoffeinspritzmenge, die von der Steuereinheit 4 gesteuert wird, und die Sauerstoffkonzentration im Abgas, die vom L/K-Sensor 35 erfasst wird, verwendet werden. Die Datenerfassungseinheit 41 berechnet die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme auf Basis der zeitlichen Änderung im Ladezustand der Batterie, der vom Stromsensor 36 erfasst wird.
  • Die Datenerfassungseinheit 41 schreibt zum Speichern einen Eingabe-/Ausgabedatensatz in eine Datensatzspeichereinheit 53 der Speichereinheit 5. Der Eingabe-/Ausgabedatensatz umfasst die Kühlwassertemperatur, die Ansauglufttemperatur, den Atmosphärendruck, die Öltemperatur, die Kraftstoffmenge in Öl, die abgelaufene Zeit nach dem Ölwechsel, die Gesamtmotorbetriebszeit und die Ölviskosität (oder den Viskositätsgrad) als Eingabeparameter und die für diese Eingabeparameter berechnete Leistungsaufnahme als einen Ausgabeparameter. Unter den Eingabeparametern werden die abgelaufene Zeit nach dem Ölwechsel und die Gesamtmotorbetriebszeit jeweils durch den Zeitgeber 45 gemessen und in einer Motorzustandsspeichereinheit 55 der Speichereinheit 5 gespeichert, und die Ölviskosität (oder der Viskositätsgrad) wird in der Motorzustandsspeichereinheit 55 der Speichereinheit 5 gespeichert. Des Weiteren schreibt die Datenerfassungseinheit 41 die Eingabeparameter des Eingabe-/Ausgabedatensatzes in eine Lerndatenspeichereinheit 54 der Speichereinheit 5 zum Speichern als die Eingabeparameter der Lerndaten. Es sei angemerkt, dass die Datenerfassungseinheit 41 Daten zu einer Cetanzahl erfassen kann und die Daten zu den Eingabeparametern addieren kann, wenn der Verbrennungsmotor ein Dieselmotor ist.
  • Die Prognoseeinheit 42 gibt die Eingabeparameter, die von der Datenerfassungseinheit 41 erfasst worden sind, in ein vorbestimmtes Lernmodell ein, um einen Ausgabeparameter zu berechnen, der durch Quantifizieren der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme ermittelt wird. Das gelernte Modell, das für die Prognoseeinheit 42 zum Quantifizieren der Leistungsaufnahme verwendet wird, wird später beschrieben.
  • Die Lerneinheit 43 führt ein maschinelles Lernen auf Basis des Eingabe-/Ausgabedatensatzes durch, der von der Datenerfassungseinheit 41 erfasst wird. Die Lerneinheit 43 schreibt zum Speichern die Lernergebnisse in eine Speichereinheit 51 für gelernte Modelle der Speichereinheit 5. Die Lerneinheit 43 bewirkt, dass die Speichereinheit 51 für gelernte Modelle der Speichereinheit 5 das neueste gelernte Modell einer vorbestimmten Zeit zu der Zeit separat vom neuronalen Netz, das gelernt wird, speichert. Um zu bewirken, dass die Speichereinheit 51 für gelernte Modelle speichert, können alte gelernte Modelle gelöscht werden, um das neueste gelernte Modell zu speichern, oder das neueste gelernte Modell kann gespeichert werden, während einige oder alle der alten gelernten Modelle gesichert werden.
  • Hier nachstehend wird Deep Learning unter Verwendung eines neuronalen Netzes als ein Beispiel für spezifisches maschinelles Lernen beschrieben. 2 ist ein Diagramm, das schematisch eine Ausgestaltung eines von der Lerneinheit 43 gelernten neuronalen Netzes veranschaulicht. Ein neuronales Netz 100, das in dieser Zeichnung veranschaulicht wird, ist ein vorwärtsgekoppeltes neuronales Netz und weist eine Eingabeschicht 101, eine Zwischenschicht 102 und eine Ausgabeschicht 103 auf. Die Eingabeschicht 101 umfasst mehrere Knoten, und Eingangsparameter, die sich voneinander unterscheiden, werden in jeden Knoten eingegeben. Die Zwischenschicht 102 gibt die Ausgabe aus der Eingabeschicht 101 ein. Die Zwischenschicht 102 weist eine Mehrschichtstruktur auf, die eine aus mehreren Knoten bestehende Schicht umfasst, welche die Eingabe aus der Eingabeschicht 101 empfängt. Die Ausgabeschicht 103 gibt die Ausgabe aus der Zwischenschicht 102 ein und gibt einen Ausgabeparameter aus. Maschinelles Lernen unter Verwendung des neuronalen Netzes, wobei die Zwischenschicht 102 eine Mehrschichtstruktur aufweist, wird „Deep Learning“ genannt. In der ersten Ausführungsformen sind die Eingabeparameter „die Kühlwassertemperatur, die Ansauglufttemperatur, der Atmosphärendruck, die Öltemperatur, die Kraftstoffmenge in Öl, die abgelaufene Zeit nach dem Ölwechsel, die Gesamtmotorbetriebszeit und die Ölviskosität (oder der Viskositätsgrad)“, und der Ausgabeparameter ist „die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme“.
  • 3 ist ein Diagramm, das einen Überblick über die Eingabe und die Ausgabe an den Knoten veranschaulicht, über die das neuronale Netz 100 verfügt. 3 veranschaulicht schematisch partielle Eingabe/Ausgabe der Daten an der Eingabeschicht 101, die I Knoten aufweist, einer ersten Zwischenschicht 121, die J Knoten aufweist, und einer zweiten Zwischenschicht 122, die K Knoten aufweist, im neuronalen Netz 100 (I, J und K sind positive ganze Zahlen). Ein Eingabeparameter xi (i = 1, 2, ..., I) wird in den i. Knoten von der Oberseite der Eingabeschicht 101 eingegeben. Hier nachstehend wird ein Satz aller Eingabeparameter als „Eingabeparameter {xi }“ bezeichnet.
  • Jeder Knoten der Eingabeschicht 101 gibt ein Signal, das einen Wert aufweist, der durch Multiplizieren eines Eingabeparameters mit einer vorbestimmten Gewichtung ermittelt wird, an jeden Knoten der benachbarten ersten Zwischenschicht 121 aus. Zum Beispiel gibt der i. Knoten von der Oberseite der Eingabeschicht 101 ein Signal, das einen Wert αijxi aufweist, der durch Multiplizieren des Eingabeparameters xi mit der Gewichtung αij ermittelt wird, an den j. (j = 1, 2, ..., J) Knoten von der Oberseite der ersten Zwischenschicht 121 aus. In den j. Knoten von der Oberseite der ersten Zwischenschicht 121 wird ein Wert ∑i=1-Iαijxi+b(1) j eingegeben, der durch Addieren eines vorbestimmten Bias b(1) j zur Ausgabe aus jedem Knoten der Eingabeschicht 101 insgesamt ermittelt wird. Hier bedeutet das erste Element ∑i=1-I die Summe von i = 1, 2, ..., I.
  • Ein Ausgabewert yj des j. Knotens von der Oberseite der ersten Zwischenschicht 121 wird als yj = S(∑i=1-Iαijxi+b(1) j) als eine Funktion des Eingabewerts ∑i=1-Iαijxi+b(1) j aus der Eingabeschicht 101 in diesen Knoten ausgedrückt. Diese Funktion S wird eine „Aktivierungsfunktion“ genannt. Zu spezifischen Beispielen für die Aktivierungsfunktion zählen eine Sigmoidfunktion S(u) = 1/{1+exp(-u)} und eine normalisierte lineare Funktion (ReLU)S(u) = max(0, u). Eine nichtlineare Funktion wird häufig als die Aktivierungsfunktion verwendet.
  • Jeder Knoten der ersten Zwischenschicht 121 gibt ein Signal, das einen Wert aufweist, der durch Multiplizieren eines Eingabeparameters mit einer vorbestimmten Gewichtung ermittelt wird, an jeden Knoten der benachbarten zweiten Zwischenschicht 122 aus. Zum Beispiel gibt der j. Knoten von der Oberseite der Zwischenschicht 121 ein Signal, das einen Wert βjkyj aufweist, der durch Multiplizieren eines Eingabewerts yi mit einer Gewichtung βjk ermittelt wird, an den k. (k = 1, 2, ..., K) Knoten von der Oberseite der ersten Zwischenschicht 122 aus. In den k. Knoten von der Oberseite der zweiten Zwischenschicht 122 wird ein Wert ∑j=1-Jβjkyj+b(2) k eingegeben, der durch Addieren eines vorbestimmten Bias b(2) k zur Ausgabe aus jedem Knoten der ersten Zwischenschicht 121 insgesamt ermittelt wird. Hier bedeutet das erste Element ∑j=1-J die Summe von j = 1, 2, ..., J.
  • Ein Ausgabewert zk des k. Knotens von der Oberseite der zweiten Zwischenschicht 122 wird als zk = S(∑j=i-Jβjkyj+b(2) k) durch Verwenden einer Aktivierungsfunktion ausgedrückt, wobei der Eingabewert Zj=1-Jβjkyj+b(2)k aus der ersten Zwischenschicht 121 in diesen Knoten eine Variable ist.
  • Somit wird schließlich ein Ausgabeparameter Y aus der Ausgabeschicht 103 durch sequentielles Wiederholen in der Vorwärtsrichtung von der Seite der Eingabeschicht 101 zur Seite der Ausgabeschicht 103 ausgegeben. Hier nachstehend werden die Gewichtungen und Biase, die im neuronalen Netz 100 enthalten sind, zusammengenommen ein „Netzparameter w“ genannt. Dieser Netzparameter w ist ein Vektor, der alle die Gewichtungen und Biase des neuronalen Netzes 100 als Komponenten aufweist.
  • Die Lerneinheit 43 führt eine arithmetische Operation durch, um den Netzparameter auf Basis des Ausgabeparameters Y, der durch Eingabe des Eingabeparameters {xi } in das neuronale Netz 100 berechnet worden ist, und einen Ausgabeparameter (Zielausgabe) Y0 , der den Eingabe-/Ausgabedatensatz zusammen mit dem Eingabeparameter {xi } bildet, zu aktualisieren. Insbesondere wird der Netzparameter w aktualisiert, indem eine arithmetische Operation zum Minimieren eines Fehlers zwischen den beiden Ausgabeparametern Y und Y0 durchgeführt wird. Zu diesem Zeitpunkt wird häufig der stochastische Gradientenabstieg verwendet. Hier nachstehend wird ein Satz ({xi}, Y) des Eingabeparameters {xi } und des Ausgabeparameters Y allgemein als „Lerndaten“ bezeichnet.
  • Hier nachstehend wird der Überblick über den stochastischen Gradientenabstieg beschrieben. Der stochastische Gradientenabstieg ist ein Verfahren zum Aktualisieren des Netzparameters w, um einen Gradienten ∇wE(w) zu minimieren, der aus der Ableitung für jede Komponente des Netzparameters w einer Fehlerfunktion E(w) ermittelt wird, die durch Verwenden der beiden Ausgabeparameter Y und Y0 definiert wird. Die Fehlerfunktion wird zum Beispiel durch den quadratischen Fehler |Y-Y0|2 des Ausgabeparameters Y der Lerndaten und des Ausgabeparameters Yo des Eingabe-/Ausgabedatensatzes definiert. Außerdem ist der Gradient ∇wE(w) ein Vektor, der als die Komponenten die Ableitungen ∂E(w)/∂αij, ∂E(w)/∂βjk, ∂E(w)/∂b(1) j und ∂E(w)/∂b(2)k (hier ist i = 1 bis I, j = 1 bis J und k = 1 bis k) aufweist, die sich auf die Komponenten des Netzparameters w der Fehlerfunktion E(w) beziehen.
  • Im stochastischen Gradientenabstieg wird der Netzparameter w sequentiell auf w' = w - η∇wE(w), w" = w' - η∇w'E(w') und so weiter aktualisiert, indem eine vorbestimmte Lernrate η verwendet wird, die automatisch oder manuell bestimmt wird. Es sei angemerkt, dass die Lernrate η während des Lernens verändert werden kann. Die Lerneinheit 43 wiederholt die oben beschriebene Aktualisierungsverarbeitung jedes Mal, wenn die Datenerfassungseinheit 41 die Lerndaten erfasst. Dementsprechend nähert sich die Fehlerfunktion E(w) allmählich dem Minimum. Es sei angemerkt, dass in einem Fall von allgemeinerem Gradientenabstieg die Fehlerfunktion E(w) für jede Aktualisierungsverarbeitung definiert wird, indem sie zufällig aus Abtastwerten entnommen wird, die alle Lerndaten enthalten, und auch auf diese erste Ausführungsform angewendet werden kann. Die Anzahl an Lerndaten, die zu diesem Zeitpunkt entnommen werden, ist nicht auf eins begrenzt und kann ein Teil der Lerndaten sein, die in der Lemdatenspeichereinheit 54 gespeichert sind.
  • Ein Fehler-Backpropagation-Verfahren ist als ein Verfahren zum effizienten Durchführen der Berechnung des Gradienten ∇wE(w) bekannt. Das Fehler-Backpropagation-Verfahren ist ein Verfahren zum Berechnen der Lerndaten ({xi }, Y) und dann Berechnen der Komponenten des Gradienten ∇wE(w) in umgekehrter Reihenfolge der Ausgabeschicht, der Zwischenschicht und der Eingabeschicht auf Basis des Fehlers zwischen der Zielausgabe Y0 und dem Ausgabeparameter Y in der Ausgabeschicht. Die Lerneinheit 43 berechnet alle der Komponenten des Gradienten ∇wE(w) durch Verwenden des Fehler-Backpropagation-Verfahrens und wendet dann den oben beschriebenen stochastischen Gradientenabstieg unter Verwendung des berechneten Gradienten ∇wE(w) an, wodurch der Netzparameter w aktualisiert wird.
  • Die Bestimmungseinheit 44 bezieht sich auf eine Speichereinheit 5, um ein gelerntes Modell zu bestimmen, das für die Prognoseeinheit 42 zum Prognostizieren der Leistungsaufnahme verwendet wird. Die Bestimmungseinheit 44 bezieht sich auf die Auswahlbedingung des gelernten Modells, das in der Speichereinheit 5 gespeichert ist, den Eingabe-/Ausgabedatensatz, die Lerndaten und dergleichen, um zu bestimmen, ob die Lernsituation in der Lerneinheit 43 eine spezifizierte Umschaltbedingung erfüllt. Die Bestimmungseinheit 44 wählt das Verwenden eines ersten gelernten Modells aus, wenn die Umschaltbedingung nicht erfüllt ist, und wählt das Verwenden eines zweiten gelernten Modells aus, wenn die Umschaltbedingung erfüllt ist. Zu spezifischen Beispielen für die Umschaltbedingung zählt die Bedingung, dass „die Lerndaten mit einem vorbestimmten Score (z. B. 100 Punkte) erfasst werden, wenn die Kühlwassertemperatur unter den Eingabeparametern in einem vorbestimmten Temperaturbereich (z. B. -10 bis 90 °C) liegt“.
  • Der Zeitgeber 45 misst die Zeit, die für die Verarbeitung der Steuereinheit 4 nötig ist. Der Zeitgeber 45 misst zum Beispiel die abgelaufene Zeit nach dem Ölwechsel, die zum Durchführen des maschinellen Lernens nötig ist, und die Gesamtmotorbetriebszeit. Wenn die Steuereinheit 4 Informationen zum Ölwechsel erfasst, setzt der Zeitgeber 45 die abgelaufene Zeit zurück, nachdem der Ölwechsel gemessen worden ist. Das Messergebnis des Zeitgebers 45 wird in der Motorzustandsspeichereinheit 55 der Speichereinheit 5 gespeichert.
  • Die Steuereinheit 4 ist ein Prozessor, der zum Beispiel allein oder in Kombination von einem Universalprozessor, wie zum Beispiel einer zentralen Recheneinheit (CPU), und/oder von Hardware, wie zum Beispiel einer dedizierten integrierten Schaltung, die ein Field Programmable Gate Array (FPGA) oder dergleichen umfasst, das eine spezifische Funktion ausführt, gebildet wird. Durch Lesen verschiedener Programme, die in der Speichereinheit 5 gespeichert sind, führt die Steuereinheit 4 verschiedene Teile der Verarbeitung arithmetischer Operationen aus, um zu bewirken, dass die Fahrzeugsteuereinrichtung 1 arbeitet.
  • Die Speichereinheit 5 weist die Speichereinheit 51 für gelernte Modelle, eine Auswahlbedingungsspeichereinheit 52, die Datensatzspeichereinheit 53, die Lerndatenspeichereinheit 54 und die Motorzustandsspeichereinheit 55 auf.
  • Die Speichereinheit 51 für gelernte Modelle speichert ein gelerntes Modell, das durch maschinelles Lernen vorab in einem Labor in einer Stufe der Herstellung des Fahrzeugs, der Entwicklung des Fahrzeugs oder Ähnlichem ermittelt worden ist (hier nachstehend als das „erste gelernte Modell“ bezeichnet), und ein gelerntes Modell, das durch Lernen der Lerneinheit 43 der Steuereinheit 4 generiert worden ist (hier nachstehend als das „zweite gelernte Modell“ bezeichnet). Das erste und das zweite gelernte Modell sind gelernte Modelle, die auf Basis von Deep Learning unter Verwendung des gleichen neuronalen Netzes generiert werden. Das Speichern des gelernten Modells bedeutet, Informationen zu den Netzparametern, den Algorithmus der arithmetischen Operation und dergleichen in den gelernten Modellen zu speichern. Die Speichereinheit 51 für gelernte Modelle speichert den Netzparameter im Prozess des Generierens des zweiten gelernten Modells durch die Lerneinheit 43, während sie den Netzparameter sequentiell aktualisiert. Außerdem speichert die Speichereinheit 51 für gelernte Modelle das zweite gelernte Modell, das durch Verwenden des neuesten Netzparameters zu einer vorbestimmten Zeit in dem Prozess, in dem die Lerneinheit 43 lernt, gebildet worden ist, als das zweite gelernte Modell, das zu dieser Zeit vollständig generiert worden ist. Die Speichereinheit 51 für gelernte Modelle kann nur das neueste zweite gelernte Modell speichern, das vollständig generiert worden ist, oder sie kann einige oder alle der mehreren zweiten gelernten Modell speichern, die vollständig zu den jeweiligen Zeiten generiert worden sind. Es sei angemerkt, dass für die zweiten gelernten Modelle diejenigen angewendet werden können, die durch Erhöhen der Anzahl an Knoten in einer bestimmten Schicht der Zwischenschicht im Laufe des Generierens des ersten gelernten Modells ermittelt worden sind, oder diejenigen, die durch Transferlernen durch Erhöhen der Anzahl an Schichten ermittelt worden sind. Des Weiteren kann die Speichereinheit 51 für gelernte Modelle andere gelernte Modelle speichern, die zum Steuern des Fahrzeugs verwendet werden können.
  • Die Auswahlbedingungsspeichereinheit 52 speichert die Bedingungen für das Auswählen eines gelernten Modells, das für die Prognoseeinheit 42 der Steuereinheit 4 verwendet wird, um die Leistungsaufnahme zu prognostizieren. Die Auswahlbedingungsspeichereinheit 52 speichert als eine spezifische Auswahlbedingung eine Umschaltbedingung zum Umschalten vom ersten gelernten Modell zum zweiten gelernten Modell. Die Umschaltbedingung kann als die Genauigkeit angesehen werden, mit der das neueste zweite gelernte Modell, das von der Lerneinheit 43 vollständig generiert worden ist, zuverlässig sein kann und entspricht einer Bedingung, die das gelernte Modell, das von der Prognoseeinheit 42 verwendet wird, auf das zweite gelernte Modell umschalten kann.
  • Die Datensatzspeichereinheit 53 speichert den Eingabe-/Ausgabedatensatz, der aus dem oben beschriebenen Satz der Eingabeparameter und dem Ausgabeparameter besteht. Wie oben beschrieben wird, sind in der ersten Ausführungsformen die Eingabeparameter „die Kühlwassertemperatur, die Ansauglufttemperatur, der Atmosphärendruck, die Öltemperatur, die Kraftstoffmenge in Öl, die abgelaufene Zeit nach dem Ölwechsel, die Gesamtmotorbetriebszeit und die Ölviskosität (oder der Viskositätsgrad)“, und der Ausgabeparameter ist „die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme“.
  • Die Lerndatenspeichereinheit 54 speichert als die Lerndaten den Ausgabeparameter Y, der durch Eingabe des Eingabeparameters {xi } in das neuronale Netz 100 durch die Lerneinheit 43 berechnet wird, zusammen mit dem Eingabeparameter {xi }.
  • Die Motorzustandsspeichereinheit 55 speichert die abgelaufene Zeit nach dem Ölwechsel und die Gesamtmotorbetriebszeit, die vom Zeitgeber 45 gemessen werden. Des Weiteren speichert die Motorzustandsspeichereinheit 55 Informationen zur Ölviskosität oder Viskositätsgrad, welche die Eingabeeinheit 2 als die Eingabe angenommen hat.
  • Die Speichereinheit 5 wird durch Verwenden eines flüchtigen Speichers, wie zum Beispiel eines Direktzugriffsspeichers (RAM), und eines nichtflüchtigen Speichers, wie zum Beispiel eines Nur-Lese-Speichers (ROM), gebildet. Es sei angemerkt, dass die Speichereinheit 5 durch Verwenden eines computerlesbaren Aufzeichnungsmediums gebildet werden kann, wie zum Beispiel einer Speicherkarte, die von außen angeschlossen werden kann. die Speichereinheit 5 speichert verschiedene Programme zum Ausführen des Betriebs der Fahrzeugsteuereinrichtung 1. Die verschiedenen Programme umfassen auch ein Steuerunterstützungsprogramm gemäß der ersten Ausführungsform. Diese verschiedenen Programme können auch weit verteilt sein, indem sie auf einem computerlesbaren Aufzeichnungsmedium aufgezeichnet werden, wie zum Beispiel einer Festplatte, einem Flash-Speicher, einer CD-ROM, einer DVD-ROM oder einer flexiblen Disk.
  • 4 ist ein Flussdiagramm, das einen Überblick der Verarbeitung veranschaulicht, die von der Fahrzeugsteuereinrichtung 1 durchgeführt wird. Wenn die Datenerfassungseinheit 41 die Eingabeparameter erfasst hat (Schritt S1: Ja), bestimmt die Bestimmungseinheit 44, ob die Lernsituation der Lerneinheit 43 die vorbestimmte Umschaltbedingung erfüllt (Schritt S2). Wenn die Bestimmungseinheit 44 bestimmt, dass die Umschaltbedingung nicht erfüllt ist (Schritt S2: Nein), verwendet die Prognoseeinheit 42 das erste gelernte Modell, um eine arithmetische Operation des Prognostizierens der für den Neustart nach der Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen (Schritt S3).
  • Wenn die Bestimmungseinheit 44 im Schritt S2 bestimmt, dass die Umschaltbedingung erfüllt ist (Schritt S2: Ja), verwendet die Prognoseeinheit 42 das zweite gelernte Modell, um eine arithmetische Operation zum Prognostizieren der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen (Schritt S4).
  • Wenn die Datenerfassungseinheit 41 im Schritt S1 die Eingabeparameter nicht erfasst (Schritt S1: Nein), wiederholt die Fahrzeugsteuereinrichtung 1 den Schritt S1.
  • In der Fahrzeugsteuereinrichtung 1 führt die Lerneinheit 43 maschinelles Lernen unter Verwendung des neuronalen Netzes 100 parallel mit der Verarbeitung der Schritte S2 bis S4 durch. Für den Fall, dass die Datenerfassungseinheit 41 im Schritt S1 die Eingabeparameter erfasst hat (Schritt S1: Ja), verwendet die Lerneinheit 43, wenn die Datenerfassungseinheit 41 den Ausgabeparameter erfasst hat (Schritt S5: Ja) den erfassten Eingabe-/Ausgabedatensatz, um die Netzparameter, die gelernt werden, zu aktualisieren (Schritt S6). Insbesondere gibt die Lerneinheit 43 durch Anwenden des oben beschriebenen stochastischen Gradientenabstiegs und des Fehler-Backpropagation-Verfahrens die Eingabeparameter unter dem erfassten Eingabe-/Ausgabedatensatz in das neuronale Netz, das gelernt wird, ein, um den Ausgabeparameter zu berechnen, und aktualisiert den Netzparameter durch Verwenden dieses Ausgabeparameters und der Zielausgabe des Eingabe-/Ausgabedatensatzes. Der durch die Lerneinheit 43 berechnete Ausgabeparameter wird in der Lerndatenspeichereinheit 54 zusammen mit den entsprechenden Eingabeparametern gespeichert. Außerdem wird der von der Lerneinheit 43 aktualisierte Netzparameter in der Speichereinheit 51 für gelernte Modelle gespeichert.
  • Nach dem Ende der Verarbeitung des Schritts S3 oder S4 und des Schritts S6 beendet die Fahrzeugsteuereinrichtung 1 die Verarbeitungsabfolge.
  • Die Fahrzeugsteuereinrichtung 1 führt die oben genannte Verarbeitung zu vorbestimmten Zeitintervallen aus. Es sei angemerkt, dass das zweite gelernte Modell in der oben genannten Beschreibung konstant aktualisiert wird, jedoch kann die Lernverarbeitung durch die Lerneinheit 43 gestoppt werden, wenn die Bestimmungseinheit 44 im Schritt S2 bestimmt, dass die Umschaltbedingung erfüllt ist (Schritt S2: Ja). Außerdem wird die Lernverarbeitung durch die Lerneinheit 43 möglicherweise nicht parallel mit der Prognoseverarbeitung der Prognoseeinheit 42 durchgeführt. Zum Beispiel kann die Lerneinheit 43 die Lernverarbeitung intermittierend jedes Mal durchführen, wenn ein Eingabe-/Ausgabedatensatz mit einem vorbestimmten Score akkumuliert worden ist.
  • Für den Fall, dass eine Leerlaufreduktionsbedingung eingerichtet ist, führt die Fahrzeugsteuereinrichtung 1 die Leerlaufreduktion aus, wenn die von der Prognoseeinheit 42 prognostizierte Leistungsaufnahme gleich oder niedriger als der verbleibende Batteriepegel im Fahrzeug ist. Auch falls die Leerlaufreduktionsbedingung eingerichtet ist, führt die Fahrzeugsteuereinrichtung 1 andererseits nicht die Leerlaufreduktion aus, wenn die durch die Prognoseeinheit 42 prognostizierte Leistungsaufnahme größer als der verbleibende Batteriepegel im Fahrzeug ist. Zu Beispielen für die Leerlaufreduktionsbedingung zählen „das Fahrzeug ist gestoppt“ und „die Bremse ist getreten“. Es sei angemerkt, dass der Wert des verbleibenden Batteriepegels im Vergleich zur Leistungsaufnahme aus Sicherheitserwägungen ein Wert sein kann, der um eine vorbestimmte Menge kleiner als der tatsächlich verbleibende Batteriepegel ist.
  • Gemäß der oben beschriebenen ersten Ausführungsform wird das gelernte Modell durch Durchführen von maschinellem Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes, der sich auf den internen oder externen Zustand des Fahrzeugs mit dem Verbrennungsmotor bezieht, generiert, und auf Basis der erfassten Eingabeparameter und der Lernsituation des maschinellen Lernens wird ein gelerntes Modell, das zum Steuern des Fahrzeugs verwendet wird, aus mehreren gelernten Modellen bestimmt, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das zum Steuern verwendet werden kann, so dass es möglich ist, das Steuern des Fahrzeugs mit dem Verbrennungsmotor, wobei das Steuern das durch das maschinelle Lernen gelernte Modell verwendet, genau zu unterstützen.
  • Wenn das zweite gelernte Modell, das von der Lerneinheit gelernt worden ist, während das Fahrzeug fährt, die vorbestimmte Umschaltbedingung erfüllt, wird außerdem das Modell in der ersten Ausführungsform auf das zweite gelernte Modell umgeschaltet, um die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme zu prognostizieren, so dass es möglich ist, die Prognosegenauigkeit der Leistungsaufnahme durch Verwenden eines geeigneteren Lernmodells zu verbessern.
  • Da es möglich ist, die Prognosegenauigkeit der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme zu verbessern, kann des Weiteren gemäß dieser ersten Ausführungsform ein vorbestimmter Pegel verringert werden, wenn der verbleibende Batteriepegel im Vergleich zur Leistungsaufnahme während des Steuerns um den vorbestimmten Pegel gesenkt wird. Als ein Ergebnis kann die Anzahl der Leerlaufreduktionen erhöht werden.
  • Erstes abgewandeltes Beispiel der ersten Ausführungsform
  • Falls es eine Schwankung in der Erfassungshäufigkeit für die Lerndaten gibt, können aufgrund der Charakteristika des neuronalen Netzes für das Lernen eines Bereichs Knoten verwendet werden, bei denen die Erfassungshäufigkeit relativ groß ist, und die Prognosegenauigkeit kann in einem Bereich verringert werden, in dem die Erfassungshäufigkeit relativ niedrig ist. In einem ersten abgewandelten Beispiel der ersten Ausführungsform wird der Score der Lerndaten in dem Bereich reduziert, in dem die Erfassungshäufigkeit für die Lerndaten größer als ein vorbestimmter Referenzwert ist.
  • 5 ist ein Diagramm, das schematisch die Beziehung zwischen der Gesamtmotorbetriebszeit, die ein Beispiel für die Eingabeparameter ist, auf die das erste abgewandelte Beispiele angewendet wird, und der Motorreibung veranschaulicht. Wie in 5 veranschaulicht wird, läuft die Motorreibung in Bezug auf die Gesamtmotorbetriebszeit durch einen Verringerungszeitraum A, wobei sich die Motorreibung mit dem zeitlichen Ablauf verringert, und dann einen stabilen Zeitraum B, in dem sie für eine relativ lange Zeit einen im Wesentlichen konstanten Wert annimmt, und erreicht einen Erhöhungszeitraum C, wobei sich der Wert erhöht. Die Erfassungshäufigkeit für die Lerndaten im stabilen Zeitraum B ist größer als die Erfassungshäufigkeit im Verringerungszeitraum A oder dem Erhöhungszeitraum C.
  • In einem derartigen Fall führt die Lerneinheit 43 Deep Learning durch Reduzieren des Scores der Lerndaten im stabilen Zeitraum B durch. Wenn zum Beispiel die Eingabeparameter außer der Gesamtmotorbetriebszeit innerhalb eines für die gelernten Eingabeparameter vorbestimmten Bereichs im stabilen Zeitraum B liegen, führt die Lerneinheit 43 kein weiteres Lernen durch, um den Score der Lerndaten im stabilen Zeitraum B zu verringern. Es sei angemerkt, dass, ähnlich wie die Gesamtmotorbetriebszeit, der Score der Lerndaten im stabilen Zeitraum B auch für die Kühlwassertemperatur verringert werden kann.
  • Gemäß diesem ersten abgewandelten Beispiel werden, sogar wenn eine Schwankung in der Erfassungshäufigkeit für die Lerndaten vorhanden ist, durch Verringern des Scores der Lerndaten in dem Bereich, in dem die Erfassungshäufigkeit größer als der Referenzwert ist, die Knoten des neuronalen Netzes auch zum Lernen des Bereichs verwendet, in dem die Erfassungshäufigkeit gleich oder niedriger als der Referenzwert ist, und es ist möglich, die Verringerung in der Prognosegenauigkeit in dem Bereich abzuschwächen, in dem die Erfassungshäufigkeit gleich oder niedriger als der Referenzwert ist. Es sei angemerkt, dass dieses erste abgewandelte Beispiel auch auf die hier nachstehend gezeigten Ausführungsformen angewendet werden kann.
  • Zweites abgewandeltes Beispiel der ersten Ausführungsform
  • Die Lerneinheit 43 kann ein drittes gelerntes Modell generieren, indem sie den Netzparameter des ersten gelernten Modells parallel zum Generieren des zweiten gelernten Modells aktualisiert. In diesem Fall kann die Auswahlbedingungsspeichereinheit 52 des Weiteren eine andere Umschaltbedingung speichern, und die Bestimmungseinheit 44 kann das dritte gelernte Modell auswählen. Gemäß diesem zweiten abgewandelten Beispiel ist es möglich, das Steuern des Fahrzeugs durch Auswählen eines geeigneten gelernten Modells aus mehreren verschiedenen Lernmodellen zu unterstützen. Es sei angemerkt, dass dieses zweite abgewandelte Beispiel auch auf die hier nachstehend gezeigten Ausführungsformen angewendet werden kann.
  • Zweite Ausführungsform
  • Die Ausgestaltung einer Fahrzeugsteuereinrichtung gemäß einer zweiten Ausführungsform ist ähnlich der Ausgestaltung der in der ersten Ausführungsform beschriebenen Fahrzeugsteuereinrichtung 1. Allerdings unterscheidet sich in der zweiten Ausführungsform die in einer Auswahlbedingungsspeichereinheit 52 gespeicherte Auswahlbedingung. Hier nachstehend werden Komponenten, die ähnliche Funktionen wie die Komponenten der in der ersten Ausführungsform beschriebenen Fahrzeugsteuereinrichtung 1 aufweisen, durch die gleichen Bezugszeichen wie die der Komponenten der zu beschreibenden Fahrzeugsteuereinrichtung 1 bezeichnet.
  • Die Auswahlbedingung in dieser zweiten Ausführungsform ist, dass ein zweites gelerntes Modell, das von der Lerneinheit 43 vollständig generiert worden ist, für den Fall verwendet wird, dass die Bedingung erfüllt ist, dass wenigstens irgendeiner der Eingabeparameter, die von einer Datenerfassungseinheit 41 erfasst worden sind, garantiert, dass die Prognosegenauigkeit größer als ein Referenzwert ist, das heißt, dass eine Interpolationsbedingung erfüllt ist, und ein erstes gelerntes Modell wird in anderen Fällen verwendet. Genauer gesagt: die Interpolationsbedingung ist, dass wenigstens irgendeiner der Eingabeparameter, die von der Datenerfassungseinheit 41 erfasst worden sind, Daten sind, die einen Wert innerhalb eines Bereichs aufweisen, der während des Lernens durch die Lerneinheit 43 erfasst worden ist. Wenn eine Speichereinheit 51 für das gelernte Modell mehrere zweite gelernte Modelle speichert, die von der Lerneinheit 43 vollständig generiert worden sind, kann das optimale Modell unter den zweiten gelernten Modellen entsprechend der Interpolationsbedingung ausgewählt werden, oder das neueste Modell unter den zweiten gelernten Modellen kann ausgewählt werden. Es sei angemerkt, dass unter den Eingabeparametern die abgelaufene Zeit seit dem Ölwechsel und die Gesamtmotorbetriebszeit von der Interpolationsbedingung ausgeschlossen sind, da dort wenig schnelle Änderungen vorkommen.
  • 6 ist ein Flussdiagramm, das einen Überblick der Verarbeitung veranschaulicht, die von der Fahrzeugsteuereinrichtung gemäß der zweiten Ausführungsform ausgeführt wird. In 6 entspricht die Verarbeitung der Schritte S11 und S13 bis S16 ohne den Schritt S12 jeweils der Verarbeitung der Schritte S1 und S3 bis S6, die in der 4 veranschaulicht werden. Im Schritt S12 bestimmt eine Bestimmungseinheit 44, ob die Eingabeparameter die oben beschriebene Interpolationsbedingung als die Auswahlbedingung des gelernten Modells erfüllen. Wenn die Bestimmungseinheit 44 bestimmt, dass die Interpolationsbedingung nicht erfüllt ist (Schritt S12: Nein), verwendet eine Prognoseeinheit 42 das erste gelernte Modell, um die Leistungsaufnahme zu prognostizieren (Schritt S13). Wenn andererseits die Bestimmungseinheit 44 bestimmt, dass die Interpolationsbedingung erfüllt ist (Schritt S12: Ja), verwendet die Prognoseeinheit 42 das zweite gelernte Modell, um die Leistungsaufnahme zu prognostizieren (Schritt S14).
  • Ob die Interpolationsbedingung erfüllt ist, ändert sich im Fall der oben beschriebenen Verarbeitung jedes Mal, wenn die Datenerfassungseinheit 41 die Eingabeparameter erfasst. Somit kann zum Beispiel die Bestimmungseinheit 44 möglicherweise das Verwenden des ersten gelernten Modells nach dem Verwenden des zweiten gelernten Modells erneut bestimmen. Dies unterscheidet sich von der ersten Ausführungsform, wobei, sobald die Bestimmungseinheit 44 das zweite gelernte Modell verwendet, die Prognose danach immer unter Verwendung des zweiten gelernten Modells durchgeführt wird.
  • Gemäß der oben beschriebenen zweiten Ausführungsform ist es, ähnlich der ersten Ausführungsform, möglich, das Steuern eines Fahrzeugs mit einem Verbrennungsmotor genau zu unterstützen, wobei das Steuern das durch maschinelles Lernen gelernte Modell verwendet.
  • Gemäß dieser zweiten Ausführungsform kann außerdem aufgrund der Charakteristika des neuronalen Netzes, wenn die Eingabeparameter innerhalb eines vorbestimmten Bereichs in Bezug auf den Satz der Lerndaten die Interpolationsbedingung erfüllen, das für die Prognose verwendete gelernte Modell auf das zweite gelernte Modell umgeschaltet werden, sogar wenn der Score der Lerndaten niedrig ist.
  • Gemäß dieser zweiten Ausführungsform kann des Weiteren durch Verwenden der Interpolationsbedingung als der Auswahlbedingung für das Bestimmen der Bestimmungseinheit 44 das zweite gelernte Modell, das von der Lerneinheit 43 generiert worden ist, schneller als die erste Ausführungsform verwendet werden.
  • Abgewandeltes Beispiel der zweiten Ausführungsform
  • 7 ist ein Flussdiagramm, das einen Überblick der Verarbeitung veranschaulicht, die von einer Fahrzeugsteuereinrichtung gemäß einem abgewandelten Beispiel der zweiten Ausführungsform ausgeführt wird. Nachdem die Datenerfassungseinheit 41 die Eingabeparameter erfasst hat (Schritt S31: Ja), bestimmt die Bestimmungseinheit 44 in diesem abgewandelten Beispiel, ob die in der ersten Ausführungsform beschriebene Umschaltbedingung erfüllt ist (Schritt S32). Wenn die Umschaltbedingung nicht erfüllt ist (Schritt S32: Nein), bestimmt die Bestimmungseinheit 44, ob die Interpolationsbedingung erfüllt ist (Schritt S33). Wenn die Interpolationsbedingung nicht erfüllt ist (Schritt S33: Nein), verwendet die Prognoseeinheit 42 das erste gelernte Modell, um eine arithmetische Operation zum Prognostizieren der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen (Schritt S34).
  • Wenn die Umschaltbedingung im Schritt S32 erfüllt ist (Schritt S32: Ja) oder wenn die Interpolationsbedingung im Schritt S33 erfüllt ist (Schritt S33: Ja), verwendet die Prognoseeinheit 42 das zweite gelernte Modell, um eine arithmetische Operation zum Prognostizieren der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen (Schritt S35).
  • Die Verarbeitung der Schritte S36 und S37, die parallel mit den Schritten S32 bis S35 ausgeführt wird, entspricht der Verarbeitung der Schritte S5 bzw. S6, die in der ersten Ausführungsform beschrieben werden.
  • Gemäß diesem abgewandelten Beispiel wird ein gelerntes Modell auf Basis der Interpolationsbedingung ausgewählt, bis die Umschaltbedingung erfüllt ist, und das zweite Lernmodell, das von der Lerneinheit 43 generiert worden ist, wird ausgewählt, wenn die Umschaltbedingung erfüllt ist. Somit kann die Prognosegenauigkeit der Leistungsaufnahme verbessert werden.
  • Dritte Ausführungsform
  • 8 ist ein Blockdiagramm, das die Funktionsausgestaltung einer Fahrzeugsteuereinrichtung, die eine Steuerunterstützungseinrichtung umfasst, gemäß einer dritten Ausführungsform veranschaulicht. Eine in dieser Zeichnung veranschaulichte Fahrzeugsteuereinrichtung 1A ist eine Vorrichtung, die in einem Fahrzeug montiert ist und den Betrieb des Fahrzeugs steuert. Die Fahrzeugsteuereinrichtung 1A weist eine Eingabeeinheit 2, eine Sensorgruppe 3, eine Steuereinheit 4A und eine Speichereinheit 5A auf. Hier nachstehend werden Komponenten, die ähnliche Funktionen wie die Komponenten der in der ersten Ausführungsform beschriebenen Fahrzeugsteuereinrichtung 1 aufweisen, durch die gleichen Bezugszeichen wie die der Komponenten der zu beschreibenden Fahrzeugsteuereinrichtung 1 bezeichnet.
  • Die Steuereinheit 4A weist eine Datenerfassungseinheit 41, eine Prognoseeinheit 42, eine Lerneinheit 43, eine Bestimmungseinheit 44, einen Zeitgeber 45 und eine Kennfelderstellungseinheit 46 auf. Die Steuereinheit 4A ist ein Prozessor, der allein oder in Kombination aus einer CPU und/oder Hardware, wie zum Beispiel einem FPGA, gebildet wird.
  • Die Speichereinheit 5A weist eine Speichereinheit 51 für gelernte Modelle, eine Auswahlbedingungsspeichereinheit 52, eine Datensatzspeichereinheit 53, eine Lerndatenspeichereinheit 54, eine Motorzustandsspeichereinheit 55 und eine Kennfeldspeichereinheit 56 auf. Die Speichereinheit 5A wird durch Verwenden von Hardware, wie zum Beispiel einem ROM und einem RAM, gebildet.
  • In dieser dritten Ausführungsform bezieht sich die Prognoseeinheit 42 auf ein Kennfeld, über das die Kennfeldspeichereinheit 56 verfügt, um eine arithmetische Operation zum Prognostizieren der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen. Das Kennfeld gibt hier die Beziehung zwischen den Eingabeparametern und dem Ausgabeparameter an, der auf Basis des gelernten Modells erstellt wird. Zum Beispiel wird der Ausgabeparameter durch eine vorbestimmte Funktion f(x1, x2, ..., xI) definiert, wobei die Eingabeparameter (x1, x2, ..., xI) (I ist eine positive ganze Zahl) Variablen sind. Das auf Basis eines ersten gelernten Modells erstellte Kennfeld wird hier nachstehend ein „erstes Kennfeld“ genannt.
  • Wenn die Bestimmungseinheit 44 bestimmt, dass eine Umschaltbedingung erfüllt ist, erstellt die Kennfelderstellungseinheit 46 auf Basis eines zweiten gelernten Modells, das von der Lerneinheit 43 gelernt worden ist, ein Kennfeld (hier nachstehend als ein „zweites Kennfeld“ bezeichnet). Die 9 ist ein Diagramm, das schematisch das zweite Kennfeld veranschaulicht, das von der Kennfelderstellungseinheit 46 erstellt worden ist. Das in dieser Zeichnung veranschaulichte zweite Kennfeld stellt schematisch einen I-dimensionalen Raum dar, der aus einem Satz von Eingabeparametern (x1, x2, ..., xI) auf der horizontalen Achse in einer Dimension besteht, und stellt auf der vertikalen Achse Ausgabeparameter f (x1, x2, ..., xI) dar, die durch eine Funktion f mit diesen Eingabeparametern als Variablen definiert werden. Eine schraffierte Fläche R im Kennfeld gibt einen Bereich an, in dem die Funktion f auf Basis des zweiten gelernten Modells definiert ist. Das heißt: de Kurven L11 und L12 im Kennfeld sind Kurven, die ein Kennfeld angeben, das auf Basis des ersten gelernten Modells erstellt worden ist, während eine Kurve L2 eine Kurvenangabe eines Kennfelds ist, das auf Basis des zweiten gelernten Modells erstellt worden ist. Es sei angemerkt, dass die Kennfelder der Zweckmäßigkeit der Erklärung halber unter Verwendung der kontinuierlichen Kurve in der 9 beschrieben werden, jedoch müssen die Kennfelder nicht kontinuierlich sein.
  • 10 ist ein Flussdiagramm, das einen Überblick der Verarbeitung veranschaulicht, die von der Fahrzeugsteuereinrichtung 1A ausgeführt wird. Wenn die Datenerfassungseinheit 41 die Eingabeparameter erfasst hat (Schritt S41: Ja), bestimmt die Bestimmungseinheit 44, ob die Lernsituation der Lerneinheit 43 eine vorbestimmte Umschaltbedingung erfüllt (Schritt S42). Wenn die Bestimmungseinheit 44 bestimmt, dass die Umschaltbedingung nicht erfüllt ist (Schritt S42: Nein), verwendet die Prognoseeinheit 42 das erste Kennfeld, um eine arithmetische Operation zum Prognostizieren der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen (Schritt S43).
  • Wenn die Bestimmungseinheit 44 im Schritt S42 bestimmt, dass die Umschaltbedingung erfüllt ist (Schritt S42: Ja), verwendet die Kennfelderstellungseinheit 46 das erste Kennfeld und das zweite gelernte Modell, um das zweite Kennfeld zu erstellen (Schritt S44). Danach verwendet die Prognoseeinheit 42 das zweite Kennfeld, um eine arithmetische Operation des Prognostizierens der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme durchzuführen (Schritt S45).
  • Die Verarbeitung der Schritte S46 und S47, die parallel mit den Schritten S42 bis S45 ausgeführt wird, entspricht der Verarbeitung der Schritte S5 bzw. S6, die in der ersten Ausführungsform beschrieben werden.
  • Gemäß der oben beschriebenen dritten Ausführungsform ist es, ähnlich der ersten Ausführungsform, möglich, das Steuern eines Fahrzeugs mit einem Verbrennungsmotor genau zu unterstützen, wobei das Steuern das durch maschinelles Lernen gelernte Modell verwendet.
  • Da die Prognoseeinheit 42 die Ausgabeparameter durch Verwenden des Kennfelds berechnet, ist es gemäß dieser dritten Ausführungsform außerdem möglich, die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme schneller als in einem Fall des Verwendens des neuronalen Netzes zu prognostizieren.
  • Es sei angemerkt, dass der Bereich im Kennfeld unterteilt werden kann, um die Kennfelder für jeden Bereich, der die Umschaltbedingung erfüllt, sequentiell zu aktualisieren. Dementsprechend ist es möglich, früher die Lernergebnisse der Lerneinheit 43 weiter einzubeziehen und die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme zu prognostizieren.
  • Des Weiteren kann die Auswahlbedingung, die zum Bestimmen durch die Bestimmungseinheit 44 bezeichnet wird, die Interpolationsbedingung sein, die in der zweiten Ausführungsform beschrieben wird, oder sie kann eine Kombination der Umschaltbedingung und der Interpolationsbedingung sein, die im abgewandelten Beispiel der zweiten Ausführungsform beschrieben wird.
  • Vierte Ausführungsform
  • 11 ist ein Blockdiagramm, das eine Funktionsausgestaltung eines Kommunikationssystems, das mit einer Steuerunterstützungseinrichtung bereitgestellt wird, gemäß einer vierten Ausführungsform veranschaulicht. Ein in dieser Zeichnung veranschaulichtes Kommunikationssystem 200 enthält eine Fahrzeugsteuereinrichtung 1B als eine Vorrichtungssteuereinrichtung und eine Steuerunterstützungseinrichtung 11. Die Fahrzeugsteuereinrichtung 1B und die Steuerunterstützungseinrichtung 11 sind über ein Kommunikationsnetz 201 kommunizierend verbunden. Die Fahrzeugsteuereinrichtung 1B kann mit dem Kommunikationsnetz 201 über drahtlose Kommunikation verbunden sein. Das Kommunikationsnetz 201 wird zum Beispiel durch ein oder eine Kombination eines Local Area Network (LAN), eines Weitverkehrsnetzes (WAN), einer öffentlichen Leitung, eines virtuellen privaten Netzes (VPN), einer dedizierten Leitung und dergleichen gebildet. Für das Kommunikationsnetz 201 werden drahtgebundene Kommunikation und drahtlose Kommunikation wie jeweils geeignet kombiniert.
  • Die Fahrzeugsteuereinrichtung 1B weist eine Eingabeeinheit 2, eine Sensorgruppe 3, eine Steuereinheit 4B, eine Speichereinheit 5B und eine Kommunikationseinheit 6 auf. Hier nachstehend werden Komponenten, die ähnliche Funktionen wie die Komponenten der in der ersten Ausführungsform beschriebenen Fahrzeugsteuereinrichtung 1 aufweisen, durch die gleichen Bezugszeichen wie die der Komponenten der zu beschreibenden Fahrzeugsteuereinrichtung 1 bezeichnet.
  • Die Steuereinheit 4B weist eine Datenerfassungseinheit 41, eine Prognoseeinheit 42 und einen Zeitgeber 45 auf. Die Steuereinheit 4B ist ein Prozessor, der allein oder in Kombination aus einer CPU oder Hardware, wie zum Beispiel einem FPGA, gebildet wird.
  • Die Speichereinheit 5B weist eine Speichereinheit 51 für gelernte Modelle und eine Motorzustandsspeichereinheit 55 auf. Die Speichereinheit 5B wird durch Verwenden von Hardware, wie zum Beispiel einem ROM und einem RAM, gebildet.
  • Die Kommunikationseinheit 6 ist eine Schnittstelle, die mit der Steuerunterstützungseinrichtung 11 über das Kommunikationsnetz 201 unter der Steuerung durch die Steuereinheit 4B kommuniziert.
  • Die Steuerunterstützungseinrichtung 11 umfasst eine Kommunikationseinheit 7, eine Steuereinheit 8 und eine Speichereinheit 9. Die Steuerunterstützungseinrichtung 11 führt maschinelles Lernen unter Verwendung eines neuronalen Netzes auf Basis von Eingabeparametern, die von der Fahrzeugsteuereinrichtung 1B gesendet werden, durch, um ein zweites gelerntes Modell zu generieren, bestimmt auch ein gelerntes Modell, das von der Prognoseeinheit 42 der Fahrzeugsteuereinrichtung 1B verwendet wird, und überträgt wenigstens das Bestimmungsergebnis zur Fahrzeugsteuereinrichtung 1B.
  • Die Kommunikationseinheit 7 ist eine Schnittstelle, die mit der Fahrzeugsteuereinrichtung 1B über das Kommunikationsnetz 201 unter der Steuerung der Steuereinheit 8 kommuniziert.
  • Die Steuereinheit 8 weist eine Datenerfassungseinheit 81, eine Lerneinheit 82 und eine Bestimmungseinheit 83 auf. Die Datenerfassungseinheit 81 erfasst einen Eingabe-/Ausgabedatensatz, der aus der Kommunikationseinheit 7 von der Fahrzeugsteuereinrichtung 1B empfangen wird. Die Lerneinheit 82 und die Bestimmungseinheit 83 weisen ähnliche Funktionen wie die Lerneinheit 43 bzw. die Bestimmungseinheit 44 auf, die in der ersten Ausführungsform beschrieben werden. Wenn das Verwenden des zweiten gelernten Modells bestimmt worden ist, führt die Bestimmungseinheit 83 das Steuern zum Übertragen des zweiten gelernten Modells zur Fahrzeugsteuereinrichtung 1B durch, das in einer Speichereinheit 91 für gelernte Modelle der Speichereinheit 9 gespeichert ist. Die Steuereinheit 8 ist ein Prozessor, der allein oder in Kombination aus einer CPU und/oder Hardware, wie zum Beispiel einem FPGA, gebildet wird.
  • Die Speichereinheit 9 weist die Speichereinheit 91 für gelernte Modelle, eine Auswahlbedingungsspeichereinheit 92, eine Datensatzspeichereinheit 93 und eine Lerndatenspeichereinheit 94 auf. Diese speichern die ähnlichen Daten mit denen in der Speichereinheit 51 für gelernte Modelle, der Auswahlbedingungsspeichereinheit 52, der Datensatzspeichereinheit 53 bzw. der Lerndatenspeichereinheit 54, die in der ersten Ausführungsform beschrieben werden. Die Speichereinheit 9 wird durch Verwenden von Hardware, wie zum Beispiel einem ROM und einem RAM, gebildet.
  • Gemäß der oben beschriebenen vierten Ausführungsform ist es, ähnlich der ersten Ausführungsform, möglich, das Steuern eines Fahrzeugs mit einem Verbrennungsmotor genau zu unterstützen, wobei das Steuern das durch maschinelles Lernen gelernte Modell verwendet.
  • Da die Steuerunterstützungseinrichtung das Lernen des zweiten gelernten Modells und die Bestimmung des gelernten Modells, das für die Fahrzeugsteuereinrichtung zum Prognostizieren verwendet wird, durchführt, ist es außerdem gemäß dieser vierten Ausführungsform möglich, arithmetische Operationen schneller als für den Fall durchzuführen, dass diese arithmetischen Operationen auf der Fahrzeugseite durchgeführt werden.
  • Da die Fahrzeugsteuereinrichtung kein gelerntes Modell generieren und kein für die Prognose verwendetes gelerntes Modell bestimmen muss, ist es des Weiteren gemäß dieser vierten Ausführungsform möglich, die Rechenlast zu reduzieren und die Batterieleistungsaufnahme abzuschwächen.
  • Es sei angemerkt, dass die Datenerfassungseinheit 81 eine arithmetische Operation durchführen kann, um einen Eingabe-/Ausgabedatensatz zu erfassen, der durch eine vorbestimmte arithmetische Operation berechnet werden muss, wie zum Beispiel eine Kraftstoffmenge in Öl und die für den Neustart nach Leerlaufreduktion nötige Leistungsaufnahme.
  • Des Weiteren kann die Steuerunterstützungseinrichtung 11 nur Daten, wie zum Beispiel Detektionswerte aus der Fahrzeugsteuereinrichtung 1B, empfangen, und die Datenerfassungseinheit 81 der Steuerunterstützungseinrichtung 11 kann den Eingabe-/Ausgabedatensatz auf Basis der empfangenen Daten generieren. Wie oben beschrieben wird, führt die Steuerunterstützungseinrichtung 11 eine arithmetische Operation in Bezug auf den Eingabe-/Ausgabedatensatz durch, so dass es möglich ist, die Rechenlast in der Fahrzeugsteuereinrichtung 1B zu reduzieren und die Batterieleistungsaufnahme abzuschwächen, während es möglich ist, den Eingabe-/Ausgabedatensatz durch die Seite der Steuerunterstützungseinrichtung 11, die eine hohe Rechenkapazität aufweist, schnell zu generieren.
  • Außerdem kann die Steuerunterstützungseinrichtung 11 mit der Funktion der Prognoseeinheit 42 versehen sein, und das von der Steuerunterstützungseinrichtung 11 prognostizierte Ergebnis kann zur Fahrzeugsteuereinrichtung 1B übertragen werden. In diesem Fall kann die Steuerunterstützungseinrichtung 11 des Weiteren eine Kennfeldgenerierungseinheit umfassen, die Bestimmungseinheit 83 kann ein Kennfeld bestimmen, das für die Prognose verwendet wird, und die Prognoseeinheit kann unter Verwendung des von der Bestimmungseinheit 83 bestimmten Kennfelds prognostizieren.
  • Des Weiteren kann die Auswahlbedingung, die zum Bestimmen durch die Bestimmungseinheit 83 bezeichnet wird, die Interpolationsbedingung sein, die in der zweiten Ausführungsform beschrieben wird, oder sie kann eine Kombination der Umschaltbedingung und der Interpolationsbedingung sein, die im Modifikationsbeispiel der zweiten Ausführungsform beschrieben wird.
  • Weitere Ausführungsformen
  • Hier vorstehend ist die Verarbeitung zur Prognose der für den Neustart nach Leerlaufreduktion nötigen Leistungsaufnahme als ein Beispiel beschrieben worden, jedoch können die oben beschriebenen Ausführungsformen auch auf andere Fahrzeugsteuerungen angewendet werden. In einem Fahrzeug, das mit einem Dieselmotor versehen ist, können die Ausführungsformen zum Beispiel auf die Verarbeitung der Prognose einer Katalysatortemperatur zum Zeitpunkt der Partikelmaterial- (PM) Reduktion angewendet werden, die durchgeführt wird, um das Zusetzen eines Dieselpartikelfilters (DPF) zu verhindern. In diesem Fall verwendet die Prognoseeinheit ein gelerntes Modell, das durch maschinelles Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes generiert worden ist, wobei Zustandsgrößen, wie zum Beispiel eine Luftmenge, eine Abgastemperatur und eine Kraftstoffzugabemenge, Eingabeparameter sind und eine Katalysatortemperatur ein Ausgabeparameter ist, um die stabile Katalysatortemperatur zu prognostizieren. Wenn der prognostizierte Wert größer als die spezifizierte Temperatur ist, reduziert die Steuereinheit die Kraftstoffzugabemenge. Dies ermöglicht es, die Katalysatortemperatur zu erhöhen, während Überhitzen des Katalysators vermieden wird.
  • In einem Fall eines Dieselmotors können die Ausführungsformen außerdem auch auf eine Technik zum Steuern der Wärmeerzeugungsratenmitte angewendet werden, bei der es um die Verbesserung des Kraftstoffverbrauchs geht (siehe zum Beispiel die japanische offengelegte Patentveröffentlichung 2016-11600). In diesem Fall verwendet die Prognoseeinheit ein gelerntes Modell, das durch maschinelles Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes generiert worden ist, wobei Zustandsgrößen, wie zum Beispiel eine Luftmenge, ein Ladedruck und eine Temperatur und passende Werte eines Raildrucks, ein Haupteinspritzzeitraum und dergleichen, Eingabeparameter sind und die Wärmeerzeugungsratenmitte ein Ausgabeparameter ist, um die Wärmeerzeugungsratenmitte zu prognostizieren. Wenn der prognostizierte Wert vom spezifizierten Wert der Wärmeerzeugungsratenmitte abweicht, korrigiert die Steuereinheit den Prognosewert durch Vorwärtsregelung der Kraftstoffeinspritzzeit. Dementsprechend wird die Verzögerung in der Rückwärtsregelung des Verbrennungsparameters abgeschwächt, der den Verbrennungszustand jedes Zylinders ändert, um die Wärmeerzeugungsratenmitte mit dem spezifizierten Wert in Übereinstimmung zu bringen, und der Kraftstoffverbrauch kann verbessert werden. Da sich die Wärmeerzeugungsratenmitte abhängig von der Motor-Maschine-Differenz, wie zum Beispiel einem Verdichtungsverhältnis, ändert, kann des Weiteren die Prognosegenauigkeit durch Verwenden des zweiten gelernten Modells, das durch das Lernen der Lerneinheit generiert wird, verbessert werden.
  • Zusätzlich können die oben genannten Ausführungsformen auf das Steuern anderer Vorrichtungen als einem Fahrzeug angewendet werden. Ein Beispiel für die Vorrichtungen ist eine Klimaanlage. In diesem Fall wird durch Verwenden eines gelernten Modells, das durch maschinelles Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes generiert wird, wobei eine Raumtemperatur, Feuchtigkeit, Jahreszeit, Datum und Uhrzeit und dergleichen Eingabeparameter sind und ein Luftvolumen und eine Luftabgaberichtung Ausgabeparameter sind, das Steuern bei einem Normalklima unterstützt. In einem von anormaler Witterung, wie zum Beispiel einem Föhn-Phänomen oder einem Wärmeinsel-Phänomen oder einem Taifun außerhalb der Saison, kann außerdem ein gelerntes Modell, das durch eine Klimaanlage neu generiert worden ist, keine Genauigkeit sicherstellen, so dass ein gelerntes Modell, das im Voraus zum Zeitpunkt der Auslieferung gesetzt worden ist, verwendet wird, um das Steuern zu unterstützen.
  • Ein anderes Beispiel für die Vorrichtung ist ein Smartphone. In diesem Fall wird durch Verwenden eines gelernten Modells, das durch maschinelles Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes generiert worden ist, wobei Datum und Uhrzeit, Klassifizierung oder Adresse eines Artikels, der an diesem Datum und zu dieser Uhrzeit angesehen worden ist, und dergleichen Eingabeparameter sind und eine Werbung ein Ausgabeparameter ist, das Steuern während des Tags unterstützt. Des Weiteren kann in einem Fall der Stunden um Mitternacht oder dergleichen, zu denen ein Smartphone normalerweise nicht verwendet wird, ein gelerntes Modell, das durch das Smartphone neu generiert worden ist, keine Genauigkeit sicherstellen, so dass ein gelerntes Modell, das im Voraus zum Zeitpunkt der Auslieferung gesetzt worden ist, verwendet wird, um das Steuern zu unterstützen.
  • In der oben genannten Beschreibung ist Deep Learning unter Verwendung eines neuronalen Netzes als ein Beispiel für maschinelles Lernen beschrieben worden, jedoch kann maschinelles Lernen auf Basis anderer Verfahren angewendet werden. Zum Beispiel kann anderes überwachtes Lernen verwendet werden, wie zum Beispiel Support Vector Machines, Entscheidungsbäume, einfache Bayes- oder k-nächste-Nachbarn-Algorithmus. Des Weiteren kann anstelle des überwachten Lernens halb-überwachtes Lernen verwendet werden.
  • Als die Eingabeparameter, die den Eingabe-/Ausgabedatensatz oder einen Teil der Lerndaten bilden, können zusätzlich zu den Daten, die von der Sensorgruppe erfasst werden, über die das Fahrzeug verfügt, Daten verwendet werden, die zum Beispiel durch Fahrzeug-zu-Fahrzeug-Kommunikation, Straße-zu-Fahrzeug-Kommunikation oder dergleichen ermittelt werden. Ebenfalls in einem Fall einer allgemeinen Vorrichtung können Eingabeparameter außerdem durch Verwenden von Datenkommunikation über ein Kommunikationsnetzwerk erfasst werden.

Claims (17)

  1. Steuerunterstützungseinrichtung (11), die das Steuern einer Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells unterstützt, wobei die Steuerunterstützungseinrichtung (11) Folgendes umfasst: eine Datenerfassungseinheit (41), die dazu ausgebildet ist, einen Eingabe-/Ausgabedatensatz zu erfassen, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; eine Lerneinheit (43), die dazu ausgebildet ist, ein gelerntes Modell zu generieren, indem sie das maschinelle Lernen unter Verwendung des Eingabe-/Ausgabedatensatzes durchführt, der von der Datenerfassungseinheit (41) erfasst worden ist; und eine Bestimmungseinheit (44), die dazu ausgebildet ist, ein gelerntes Modell, das für das Steuern verwendet werden soll, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter, die von der Datenerfassungseinheit erfasst worden sind, und einer Lernsituation des maschinellen Lernens in der Lerneinheit (43) zu bestimmen.
  2. Steuerunterstützungseinrichtung (11) nach Anspruch 1, wobei die Bestimmungseinheit (44) dazu ausgebildet ist, das gelernte Modell auszuwählen, wenn die Lernsituation eine Bedingung erfüllt, die einer Genauigkeit des gelernten Modells, das vollständig generiert worden ist, genügt.
  3. Steuerunterstützungseinrichtung (11) nach Anspruch 2, wobei die Bedingung ist, dass wenigstens irgendeiner der Eingabeparameter für das Steuern Daten sind, die einen Wert innerhalb eines Bereichs aufweisen, der während des Lernens durch die Lerneinheit (43) erfasst worden ist.
  4. Steuerunterstützungseinrichtung (11) nach einem der Ansprüche 1 bis 3, des Weiteren umfassend eine Kennfelderstellungseinheit (46), die dazu ausgebildet ist, ein Kennfeld zu erstellen, das die Eingabeparameter mit dem Ausgabeparameter verknüpft, indem das gelernte Modell, das vollständig generiert worden ist, und ein gelerntes Modell, das im Voraus generiert worden ist, verwendet werden, wenn die Bestimmungseinheit (44) eine Verwendung des gelernten Modells bestimmt, das vollständig von der Lerneinheit (43) generiert worden ist.
  5. Steuerunterstützungseinrichtung (11) nach Anspruch 4, wobei die Kennfelderstellungseinheit (46) dazu ausgebildet ist, Eingabeparameter mit einem Ausgabeparameter unterschiedlicher gelernter Modelle entsprechend einem Bereich an Werten der Eingabeparameter zu verknüpfen.
  6. Steuerunterstützungseinrichtung (11) nach einem der Ansprüche 1 bis 5, wobei die Lerneinheit (43) dazu ausgebildet ist, das maschinelle Lernen durch Verwenden eines neuronalen Netzes (100) durchzuführen, das Folgendes umfasst: eine Eingabeschicht (101), in welche die Eingabeparameter eingegeben werden; eine Zwischenschicht (102), in die Signale, die von der Eingabeschicht (101) ausgegeben werden, eingegeben werden, und die eine Mehrschichtstruktur aufweist; und eine Ausgabeschicht (103), in die Signale, die von der Zwischenschicht (102) ausgegeben werden, eingegeben werden und die einen Ausgabeparameter ausgibt, wobei jede der Schichten (101, 102, 103) einen oder mehrere Knoten umfasst, und Netzparameter des neuronalen Netzes (100) auf Basis des Ausgabeparameters, der von der Ausgabeschicht (103) entsprechend der Eingabe der Eingabeparameter in die Eingabeschicht (101) und des Ausgabeparameters, die im Eingabe-/Ausgabedatensatz enthalten sind, ausgegeben wird, zu aktualisieren und zu lernen.
  7. Steuerunterstützungseinrichtung (11) nach Anspruch 6, wobei die Lerneinheit (43) dazu ausgebildet ist, durch Verringern einer Anzahl der Eingabeparameter zu lernen, die in einem Bereich enthalten sind, in dem eine Häufigkeit des Erfassens von Werten der Eingabeparameter größer als ein vorbestimmter Referenzwert ist.
  8. Steuerunterstützungseinrichtung (11) nach Anspruch 6 oder 7, wobei die Verarbeitung der Steuerung der Vorrichtung durch Verwenden des gelernten Modells die von der Datenerfassungseinheit (41) erfassten Eingabeparameter in die Eingabeschicht (101) eingibt, eine arithmetische Operation auf Basis der Netzparameter durchführt, die gelernt worden sind, und den Ausgabeparameter, der durch Quantifizieren eines vorbestimmten Zustands der Vorrichtung ermittelt wird, aus der Ausgabeschicht ausgibt.
  9. Steuerunterstützungseinrichtung (11) nach einem der Ansprüche 1 bis 8, wobei die Vorrichtung ein Fahrzeug ist, das einen Verbrennungsmotor aufweist und die Steuerunterstützungseinrichtung im Fahrzeug montiert ist.
  10. Steuerunterstützungseinrichtung (11) nach einem der Ansprüche 1 bis 8, des Weiteren umfassend: eine Kommunikationseinheit (7), die dazu ausgebildet ist, über ein Kommunikationsnetz (201) Informationen zu und von einer Vorrichtungssteuereinrichtung (1B), die zum Steuern der Vorrichtung ausgebildet ist, zu übertragen und zu empfangen, wobei die Lerneinheit (82) das maschinelle Lernen auf Basis des Eingabe-/Ausgabedatensatzes durchführt, der von der Kommunikationseinheit (7) aus der Vorrichtungssteuereinrichtung (1B) empfangen worden ist, und die Kommunikationseinheit (7) das gelernte Modell, das von der Lerneinheit (82) generiert worden ist, und ein Bestimmungsergebnis der Bestimmungseinheit (83) zur Vorrichtungssteuereinrichtung (1B) überträgt.
  11. Steuerunterstützungseinrichtung (11) nach einem der Ansprüche 1 bis 8, des Weiteren umfassend: eine Kommunikationseinheit (7), die über ein Kommunikationsnetz (201) Informationen zu und von einer Vorrichtungssteuereinrichtung (1B), die zum Steuern der Vorrichtung ausgebildet ist, überträgt und empfängt, wobei die Lerneinheit (82) auf Basis von Daten, die von der Kommunikationseinheit (7) aus der Vorrichtungssteuereinrichtung (1B) empfangen worden sind, einen Eingabe-/Ausgabedatensatz generiert, um das maschinelle Lernen durchzuführen, und das maschinelle Lernen auf Basis des Eingabe-/Ausgabedatensatzes durchführt und die Kommunikationseinheit (7) das gelernte Modell, das von der Lerneinheit (82) generiert worden ist, und ein Bestimmungsergebnis der Bestimmungseinheit (83) zur Vorrichtungssteuereinrichtung (1B) überträgt.
  12. Steuerunterstützungseinrichtung (11) nach einem der Ansprüche 1 bis 11, wobei die Lerneinheit (43) und die Bestimmungseinheit (44) Verarbeitung parallel durchführen.
  13. Vorrichtungssteuereinrichtung (1B), die dazu ausgebildet ist, mit einer Steuerunterstützungseinrichtung (11) zu kommunizieren, die dazu ausgebildet ist, das Steuern einer Vorrichtung zu unterstützen und die Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells zu steuern, wobei die Steuerunterstützungseinrichtung (11) Folgendes umfasst: eine Lerneinheit (82), die dazu ausgebildet ist, ein gelerntes Modell zu generieren, indem sie das maschinelle Lernen unter Verwendung eines Eingabe-/Ausgabedatensatzes durchführt, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; und eine Bestimmungseinheit (83), die dazu ausgebildet ist, ein gelerntes Modell, das für das Steuern verwendet wird, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter und einer Lernsituation in der Lerneinheit (82) zu bestimmen, und die Vorrichtungssteuereinrichtung (1B) Folgendes umfasst: eine Datenerfassungseinheit (41), die dazu ausgebildet ist, den Eingabe-/Ausgabedatensatz zu erfassen; und eine Kommunikationseinheit (6), die dazu ausgebildet ist, den Eingabe-/Ausgabedatensatz, der von der Datenerfassungseinheit (41) erfasst worden ist, zur Steuerunterstützungseinrichtung (11) zu übertragen und wenigstens ein Bestimmungsergebnis durch die Bestimmungseinheit (83) aus der Steuerunterstützungseinrichtung (11) zu empfangen.
  14. Steuerunterstützungsverfahren, das von einer Steuerunterstützungseinrichtung (11) ausgeführt wird, die dazu ausgebildet ist, das Steuern einer Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells zu unterstützen, wobei das Verfahren Folgendes umfasst: einen Datenerfassungsschritt, einen Eingabe-/Ausgabedatensatz zu erfassen, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; einen Lernschritt, aus einer Speichereinheit den Eingabe-/Ausgabedatensatz auszulesen, der im Datenerfassungsschritt erfasst worden ist, und ein gelerntes Modell durch Durchführen des maschinellen Lernens unter Verwendung des ausgelesenen Eingabe-/Ausgabedatensatzes zu generieren; und einen Bestimmungsschritt, ein gelerntes Modell, das für das Steuern verwendet wird, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter, die im Datenerfassungsschritt erfasst worden sind, und einer Lernsituation des maschinellen Lernens zu bestimmen.
  15. Computerlesbares Aufzeichnungsmedium, das ein Steuerunterstützungsprogramm speichert, das bewirkt, dass eine Steuerunterstützungsvorrichtung (11), die dazu ausgebildet ist, das Steuern einer Vorrichtung durch Verwenden eines durch maschinelles Lernen gelernten Modells zu unterstützen, Folgendes ausführt: einen Datenerfassungsschritt, einen Eingabe-/Ausgabedatensatz zu erfassen, was Daten sind, die sich auf einen internen oder externen Zustand der Vorrichtung beziehen und Eingabeparameter und einen Ausgabeparameter des gelernten Modells enthalten; einen Lernschritt, aus einer Speichereinheit den Eingabe-/Ausgabedatensatz auszulesen, der im Datenerfassungsschritt erfasst worden ist, und ein gelerntes Modell durch Durchführen des maschinellen Lernens unter Verwendung des ausgelesenen Eingabe-/Ausgabedatensatzes zu generieren; und einen Bestimmungsschritt, ein gelerntes Modell, das für das Steuern verwendet wird, unter mehreren gelernten Modellen, zu denen ein gelerntes Modell zählt, das vollständig generiert worden ist und das für das Steuern verwendet werden kann, auf Basis der Eingabeparameter, die im Datenerfassungsschritt erfasst worden sind, und einer Lernsituation des maschinellen Lernens zu bestimmen.
  16. Gelerntes Modell, das von einem neuronalen Netz (100) generiert wird, umfassend: eine Eingabeschicht (101), in die Eingabeparameter eingegeben werden, die durch Quantifizieren eines internen oder externen Zustands einer Vorrichtung ermittelt werden; eine Zwischenschicht (102), in die Signale, die von der Eingabeschicht (101) ausgegeben werden, eingegeben werden und die eine Mehrschichtstruktur aufweist; und eine Ausgabeschicht (103), in die Signale, die von der Zwischenschicht ausgegeben werden, eingegeben werden und die einen Ausgabeparameter ausgibt, der durch Quantifizieren eines vorbestimmten Zustands der Vorrichtung ermittelt wird, wobei jede der Schichten (101, 102, 103) einen oder mehrere Knoten umfasst und wobei das gelernte Modell bewirkt, dass ein Computer funktioniert, um die Eingabeparameter in die Eingabeschicht (101) einzugeben, eine arithmetische Operation auf Basis eines gelernten Netzparameters, der ein Netzparameter des neuronalen Netzes (100) ist, durchzuführen und einen Wert auszugeben, der durch Quantifizieren eines vorbestimmten Zustands der Vorrichtung aus der Ausgabeschicht (103) ermittelt wird.
  17. Verfahren, ein gelerntes Modell zu generieren, um ein gelerntes Modell zu generieren, um zu bewirken, dass ein Computer funktioniert, um einen Wert auszugeben, der durch Quantifizieren eines vorbestimmten Zustands einer Vorrichtung ermittelt wird, wobei der Computer ein neuronales Netz (100) verwendet, umfassend: eine Eingabeschicht (101), in die Eingabeparameter eingegeben werden, die durch Quantifizieren eines internen oder externen Zustands der Vorrichtung ermittelt werden; eine Zwischenschicht (102), in die Signale, die von der Eingabeschicht ausgegeben werden, eingegeben werden und die eine Mehrschichtstruktur aufweist; und eine Ausgabeschicht (103), in die Signale, die von der Zwischenschicht (102) ausgegeben werden, eingegeben werden und die einen Ausgabeparameter ausgibt, wobei jede der Schichten (101, 102, 103) einen oder mehrere Knoten umfasst, um zu lernen, während ein Netzparameter des neuronalen Netzes (100) auf Basis des Ausgabeparameters aktualisiert wird, der von der Ausgabeschicht (103) entsprechend der Eingabe der Eingabeparameter und eines Ausgabeparameters ausgegeben wird, die zusammen mit den Eingabeparametern einen Eingabe-/Ausgabedatensatz bilden, und den Netzparameter in einer Speichereinheit zu speichern.
DE102019125775.1A 2018-10-23 2019-09-25 Steuerunterstützungseinrichtung, vorrichtungssteuereinrichtung, steuerunterstützungsverfahren, aufzeichnungsmedium, gelerntes modell zum bewirken des funktionierens eines computers und verfahren des generierens des gelernten modells Withdrawn DE102019125775A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018199266A JP2020067762A (ja) 2018-10-23 2018-10-23 制御支援装置、機器制御装置、制御支援方法、制御支援プログラム、コンピュータを機能させるための学習済みモデル、および学習済みモデルの生成方法
JP2018-199266 2018-10-23

Publications (1)

Publication Number Publication Date
DE102019125775A1 true DE102019125775A1 (de) 2020-04-23

Family

ID=70279501

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019125775.1A Withdrawn DE102019125775A1 (de) 2018-10-23 2019-09-25 Steuerunterstützungseinrichtung, vorrichtungssteuereinrichtung, steuerunterstützungsverfahren, aufzeichnungsmedium, gelerntes modell zum bewirken des funktionierens eines computers und verfahren des generierens des gelernten modells

Country Status (3)

Country Link
US (1) US20200125042A1 (de)
JP (1) JP2020067762A (de)
DE (1) DE102019125775A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019127016B4 (de) 2018-11-01 2024-07-25 Toyota Jidosha Kabushiki Kaisha Steuerungssystem einer Verbrennungskraftmaschine, elektronische Steuerungseinheit, Server und Steuerungsverfahren einer Verbrennungskraftmaschine

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690757B1 (ja) * 2019-04-16 2020-04-28 トヨタ自動車株式会社 燃料蒸気排出防止システムの異常検出装置
JP6896037B2 (ja) * 2019-10-02 2021-06-30 三菱電機株式会社 内燃機関の制御装置及び制御プログラム
CN113821101B (zh) * 2020-06-18 2024-05-14 丰田自动车株式会社 机器学习装置
JP7298633B2 (ja) * 2020-06-18 2023-06-27 トヨタ自動車株式会社 機械学習装置
JP7093031B2 (ja) * 2020-09-23 2022-06-29 ダイキン工業株式会社 情報処理装置、情報処理方法、及びプログラム
CN112702106B (zh) * 2020-12-14 2022-02-08 西安电子科技大学 一种自主定时方法、系统、介质、设备、终端及应用
JPWO2023008547A1 (de) * 2021-07-30 2023-02-02
CN115099029B (zh) * 2022-06-21 2024-03-12 上海电气集团股份有限公司 一种超临界火电机组缸效率变化对热耗率影响的计算方法
WO2024065621A1 (en) * 2022-09-30 2024-04-04 Qualcomm Incorporated Model monitoring using a reference model

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04328669A (ja) * 1991-04-26 1992-11-17 Toyo Electric Mfg Co Ltd 統合ニューラルネットワーク及びその学習方式
JP2000213395A (ja) * 1999-01-25 2000-08-02 Matsushita Electric Ind Co Ltd 空燃比制御装置
EP2185981A4 (de) * 2007-08-17 2012-03-21 Ife Venture As System und verfahren zur virtuellen gasemissionserfassung auf der basis eines empirischen ensembles
JP5426520B2 (ja) * 2010-11-24 2014-02-26 本田技研工業株式会社 内燃機関の制御装置
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019127016B4 (de) 2018-11-01 2024-07-25 Toyota Jidosha Kabushiki Kaisha Steuerungssystem einer Verbrennungskraftmaschine, elektronische Steuerungseinheit, Server und Steuerungsverfahren einer Verbrennungskraftmaschine

Also Published As

Publication number Publication date
US20200125042A1 (en) 2020-04-23
JP2020067762A (ja) 2020-04-30

Similar Documents

Publication Publication Date Title
DE102019125775A1 (de) Steuerunterstützungseinrichtung, vorrichtungssteuereinrichtung, steuerunterstützungsverfahren, aufzeichnungsmedium, gelerntes modell zum bewirken des funktionierens eines computers und verfahren des generierens des gelernten modells
DE102019126147A1 (de) Steuerungsunterstützungsvorrichtung, Fahrzeug, Steuerungsunterstützungsverfahren, Aufzeichnungsmedium, erlerntes Modell zum Veranlassen einer Computerfunktion und Verfahren zum Erzeugen eines erlernten Modells
DE102014113476B4 (de) Abgassystem und verfahren zum schätzen einer russbeladung eines dieselpartikelfilters unter verwendung eines zweilagigen neuronalen netzes
DE112019003887T5 (de) Steuerung mehrerer antriebe unter verwendung eines oder mehrerer mit den mehreren antrieben assoziierter parameter
Lettau et al. Rules of thumb versus dynamic programming
DE102016011520B4 (de) Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit
DE102021105419A1 (de) Fahrzeuggesundheitskalibrierung
DE102016111371A1 (de) Parameterschätzung für schnellen Verkehr
DE102020215297A1 (de) Verfahren und Vorrichtung zum Betreiben eines Systems zum Bereitstellen von prädizierten Alterungszuständen von elektrischen Energiespeichern für ein Gerät mithilfe von maschinellen Lernverfahren
DE102020117609A1 (de) Verarbeitung von Zustandsdaten einer Batterie zur Alterungsschätzung
WO2004034166A1 (de) Vorrichtung und verfahren zur überwachung einer mehrere systeme umfassenden technischen anlage, insbesondere einer kraftwerksanlage
DE102016011523A1 (de) Motorantriebsvorrichtung mit vorbeugender Wartungsfunktion eines Gebläsemotors
DE102019101688A1 (de) Kraftfahrzeug-Kühlungssteuerungssystem und -verfahren
DE102018002781B4 (de) Schaltungskonfigurations-Optimierungsvorrichtung und maschinelle Lernvorrichtung
DE102017209171A1 (de) Voraussagen des Batteriefunktionszustands mit einer Selbstlernfunktion
CN114021784A (zh) 设备的剩余使用寿命的确定方法、装置和电子设备
DE102019125974A1 (de) System und Verfahren zur Kalibrierung einer Steuervorrichtung zur Steuerung einer Leerlaufdrehzahl
DE102019128655B4 (de) Verfahren zur Bereitstellung einer rechnergestützten Steuerung für ein technisches System
WO2022037968A1 (de) Steuervorrichtung und verfahren zum prädiktiven betreiben eines energiebordnetzes
DE102021114514A1 (de) Fahrzeug, modelltrainingssystem und server
CN115391048A (zh) 基于趋势预测的微服务实例动态水平扩展收缩方法及系统
DE112019003929T5 (de) Elektronische steuervorrichtung und aktualisierungssystem eines neuronalen netzes
DE102019133006A1 (de) Modell-vorrausschauende steuerung eines antriebsstrangsystems unter verwendung von vorschauinformationen
DE102022200008A1 (de) Verfahren und System zum effizienten Überwachen von Batteriezellen einer Gerätebatterie in einer geräteexternen Zentraleinheit mithilfe eines digitalen Zwillings
DE102019210507A1 (de) Vorrichtung und computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten und Trainingsverfahren dafür

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee