DE102018133516B4 - Steuervorrichtung eines Verbrennungsmotors - Google Patents

Steuervorrichtung eines Verbrennungsmotors Download PDF

Info

Publication number
DE102018133516B4
DE102018133516B4 DE102018133516.4A DE102018133516A DE102018133516B4 DE 102018133516 B4 DE102018133516 B4 DE 102018133516B4 DE 102018133516 A DE102018133516 A DE 102018133516A DE 102018133516 B4 DE102018133516 B4 DE 102018133516B4
Authority
DE
Germany
Prior art keywords
value
internal combustion
combustion engine
output
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018133516.4A
Other languages
English (en)
Other versions
DE102018133516A1 (de
Inventor
Eiki KITAGAWA
Masato Ehara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102018133516A1 publication Critical patent/DE102018133516A1/de
Application granted granted Critical
Publication of DE102018133516B4 publication Critical patent/DE102018133516B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02MSUPPLYING COMBUSTION ENGINES IN GENERAL WITH COMBUSTIBLE MIXTURES OR CONSTITUENTS THEREOF
    • F02M26/00Engine-pertinent apparatus for adding exhaust gases to combustion-air, main fuel or fuel-air mixture, e.g. by exhaust gas recirculation [EGR] systems
    • F02M26/02EGR systems specially adapted for supercharged engines
    • F02M26/09Constructional details, e.g. structural combinations of EGR systems and supercharger systems; Arrangement of the EGR and supercharger systems with respect to the engine
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/02Circuit arrangements for generating control signals
    • F02D41/14Introducing closed-loop corrections
    • F02D41/1401Introducing closed-loop corrections characterised by the control or regulation method
    • F02D41/1405Neural network control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/24Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means
    • F02D41/2406Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means using essentially read only memories
    • F02D41/2425Particular ways of programming the data
    • F02D41/2429Methods of calibrating or learning
    • F02D41/2477Methods of calibrating or learning characterised by the method used for learning
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02BINTERNAL-COMBUSTION PISTON ENGINES; COMBUSTION ENGINES IN GENERAL
    • F02B3/00Engines characterised by air compression and subsequent fuel addition
    • F02B3/06Engines characterised by air compression and subsequent fuel addition with compression ignition
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/02Circuit arrangements for generating control signals
    • F02D41/14Introducing closed-loop corrections
    • F02D41/1401Introducing closed-loop corrections characterised by the control or regulation method
    • F02D2041/1433Introducing closed-loop corrections characterised by the control or regulation method using a model or simulation of the system
    • F02D2041/1437Simulation
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D2200/00Input parameters for engine control
    • F02D2200/02Input parameters for engine control the parameters being related to the engine
    • F02D2200/04Engine intake system parameters
    • F02D2200/0402Engine intake system parameters the parameter being determined by using a model of the engine intake or its components
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/0002Controlling intake air
    • F02D41/0007Controlling intake air for control of turbo-charged or super-charged engines
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/0025Controlling engines characterised by use of non-liquid fuels, pluralities of fuels, or non-fuel substances added to the combustible mixtures
    • F02D41/0047Controlling exhaust gas recirculation [EGR]
    • F02D41/0065Specific aspects of external EGR control
    • F02D41/0072Estimating, calculating or determining the EGR rate, amount or flow
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02MSUPPLYING COMBUSTION ENGINES IN GENERAL WITH COMBUSTIBLE MIXTURES OR CONSTITUENTS THEREOF
    • F02M26/00Engine-pertinent apparatus for adding exhaust gases to combustion-air, main fuel or fuel-air mixture, e.g. by exhaust gas recirculation [EGR] systems
    • F02M26/02EGR systems specially adapted for supercharged engines
    • F02M26/08EGR systems specially adapted for supercharged engines for engines having two or more intake charge compressors or exhaust gas turbines, e.g. a turbocharger combined with an additional compressor

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

Steuervorrichtung eines Verbrennungsmotors mit einer elektronischen Steuereinheit, wobei die elektronische Steuereinheit (30) aufweist:eine Parameterwerterwerbseinheit für den Erwerb eines Werts eines Betriebsparameters des Verbrennungsmotors;eine Verarbeitungseinheit (34) zur Durchführung eines Verfahrens unter Verwendung eines neuronalen Netzes mit einer Eingabeschicht, zumindest einer verdeckten Schicht und einer Ausgabeschicht; undeine Speichereinheit (32, 33), wobei der Wert des Betriebsparameters des Verbrennungsmotors an die Eingabeschicht eingegeben wird und ein sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändernder Ausgabewert von der Ausgabeschicht ausgegeben wird; wobeies einen vermuteten verwendbaren Bereich (R) für den Wert des Betriebsparameters des Verbrennungsmotors gibt,ein durch Experimente erhaltener Ausgabewert als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors innerhalb des vermuteten verwendbaren Bereichs in der Speichereinheit (32) gespeichert wird,ein durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltener Ausgabewert als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors außerhalb des vermuteten verwendbaren Bereichs in der Speichereinheit (33) gespeichert wird,die durch Experimente erhaltenen Trainingsdaten und die durch Vorhersage erhaltenen Trainingsdaten in der Verarbeitungseinheit (34) verwendet werden, um zumindest eine Gewichtung und zumindest einen Schwellwert des neuronalen Netzes so zu lernen, dass ein Ausgabewert, welcher sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändert, den dem Wert des Betriebsparameters des Verbrennungsmotors entsprechenden Trainingsdaten entspricht, unddas neuronale Netz, für welches die Gewichtung und der Schwellwert gelernt werden, verwendet wird, um den Ausgabewert für den Wert des Betriebsparameters des Verbrennungsmotors abzuschätzen.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Steuervorrichtung eines Verbrennungsmotors.
  • Stand der Technik
  • Bei Steuervorrichtungen von Verbrennungsmotoren, welche neuronale Netze verwenden, ist eine Steuervorrichtung eines Verbrennungsmotors bekannt, welche konzipiert ist, im Voraus basierend auf Werten einer Motordrehzahl, einer Ansaugluftmenge und anderen Betriebsparametern des Verbrennungsmotors Gewichtungen und Schwellwerte (Bias) eines neuronalen Netzes zu lernen, so dass eine Menge eines in eine Brennkammer gesaugten Gases einer Menge eines tatsächlich in die Brennkammer gesaugten Gases entspricht, und das neuronale Netz mit den gelernten Gewichtungen zu dem Zeitpunkt eines Motorbetriebs zu verwenden, um die Menge des in die Brennkammer gesaugten Gases aus den Werten der Betriebsparameters des Verbrennungsmotors abzuschätzen (siehe z.B. JP 2012 - 112 277 A ). Weitere Beispiele für Steuervorrichtungen von Verbrennungsmotoren mit neuronalen Netzen sind in US 6 092 017 A und DE 697 29 981 T2 offenbart.
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • In diesem Zusammenhang können die verwendbaren Bereiche der Werte der Betriebsparameter eines Verbrennungsmotors, wie z.B. die Motordrehzahl, im Voraus gemäß dem Typ des Verbrennungsmotors vermutet werden, weshalb die Gewichtungen und Schwellwerte des neuronalen Netzes im Voraus gelernt werden, so dass innerhalb der im Voraus vermuteten verwendbaren Bereiche der Werte der Betriebsparameter des Verbrennungsmotors ein Ausgabewert des neuronalen Netzes für gewöhnlich einem tatsächlichen Wert, wie z.B. der tatsächlichen Menge des in eine Brennkammer gesaugten Gases, entspricht.
  • Faktisch weichen die Werte der Betriebsparameter eines Verbrennungsmotors jedoch von den vermuteten verwendbaren Bereichen ab. Wenn in einem solchen Fall das auf tatsächlichen Werten basierende Lernen für Werte außerhalb der vermuteten verwendbaren Bereiche nicht durchgeführt wird, gibt es das Problem, dass ein unter Verwendung des neuronalen Netzes berechneter Ausgabewert ein Wert, welcher stark von dem tatsächlichen Wert abweicht, sein wird.
  • Um dieses Problem zu lösen, ist gemäß der vorliegenden Erfindung eine Steuervorrichtung eines Verbrennungsmotors vorgesehen, welche eine elektronische Steuereinheit hat, wobei die elektronische Steuereinheit aufweist:
    • eine Parameterwerterwerbseinheit zum Erwerb eines Wertes eines Betriebsparameters des Verbrennungsmotors,
    • eine Verarbeitungseinheit zur Durchführung einer Verarbeitung unter Verwendung eines neuronalen Netzes, welches eine Eingabeschicht, zumindest eine verdeckte Schicht und eine Ausgabeschicht aufweist, und
    • eine Speichereinheit, wobei der Wert des Betriebsparameters des Verbrennungsmotors an die Eingabeschicht eingegeben wird und ein Ausgabewert, welcher sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändert, von der Ausgabeschicht ausgegeben wird, und wobei
    • es einen vermuteten verwendbaren Bereich für den Wert des Betriebsparameters des Verbrennungsmotors gibt,
    • ein durch Experimente erhaltener Ausgabewert als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors innerhalb des vermuteten verwendbaren Bereichs in der Speichereinheit gespeichert wird,
    • ein durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltener Ausgabewert als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors außerhalb des vermuteten verwendbaren Bereichs in der Speichereinheit gespeichert wird,
    • die durch Experimente erhaltenen Trainingsdaten und die durch Vorhersage erhaltenen Trainingsdaten in der Verarbeitungseinheit verwendet werden, um zumindest eine Gewichtung und zumindest einen Schwellwert (Bias) des neuronalen Netzes zu lernen, so dass ein Ausgabewert, welcher sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändert, den dem Wert des Betriebsparameters des Verbrennungsmotors entsprechenden Trainingsdaten entspricht, und
    • das neuronale Netz, für welches die Gewichtung und der Schwellwert gelernt werden, verwendet wird, um den Ausgabewert für den Wert des Betriebsparameters des Verbrennungsmotors abzuschätzen.
  • Vorteilhafte Effekte der Erfindung
  • Durch Lernen von Gewichtungen und Schwellwerten des neuronalen Netzes unter Verwendung des durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltenen Ausgabewerts für Werte des Betriebsparameters des Verbrennungsmotors außerhalb des vermuteten verwendbaren Bereichs als Trainingsdaten ist es möglich, den unter Verwendung des neuronalen Netzes abgeschätzten Ausgabewert davon abzuhalten, ein Wert, welcher stark von dem tatsächlichen Wert abweicht, zu werden, wenn ein Wert eines Betriebsparameters des Verbrennungsmotors ein Wert außerhalb des vermuteten Bereichs wird.
  • Kurzbeschreibung der Figuren
    • 1 ist eine Gesamtansicht eines Verbrennungsmotors.
    • 2 ist eine Ansicht, welche ein Beispiel eines neuronalen Netzes zeigt.
    • 3A und 3B sind Ansichten, welche Änderungen von Werten einer Sigmoid-Funktion σ zeigen.
    • 4A und 4B sind Ansichten, welche jeweils ein neuronales Netz und Ausgabewerte von Knoten einer verdeckten Schicht zeigen.
    • 5A und 5B sind Ansichten, welche jeweils Ausgabewerte von Knoten einer verdeckten Schicht und Ausgabewerte von Knoten einer Ausgabeschicht zeigen.
    • 6A und 6B sind Ansichten, welche jeweils ein neuronales Netz und Ausgabewerte von Knoten einer Ausgabeschicht zeigen.
    • 7A und 7B sind Ansichten, welche das durch die vorliegende Erfindung zu lösende Problem zeigen.
    • 8A und 8B sind Ansichten, welche jeweils ein neuronales Netz und das Verhältnis zwischen Eingabewerten und Ausgabewerten des neuronalen Netzes zeigen.
    • 9A und 9B sind Ansichten, welche jeweils die Verteilung von Trainingsdaten bezüglich der Motordrehzahl und dem Zündzeitpunkt und die Verteilung von Trainingsdaten bezüglich dem Zündzeitpunkt und dem Drosselklappenöffnungswinkel zeigen.
    • 10A und 10B sind Ansichten, welche jeweils die Verteilung von Trainingsdaten bezüglich der Motordrehzahl und dem Zündzeitpunkt und die Verteilung von Trainingsdaten bezüglich dem Zündzeitpunkt und dem Drosselklappenöffnungswinkel zeigen.
    • 11A und 11B sind Ansichten, welche die Verhältnisse zwischen den Trainingsdaten und den Ausgabewerten nach dem Lernen zeigen.
    • 12A und 12B sind Flussdiagramme zur Durchführung des Lernverfahrens.
  • Beschreibung der Ausführungsformen
  • Allgemeine Konfiguration eines Verbrennungsmotors
  • 1 zeigt die allgemeine Konfiguration eines Verbrennungsmotors. Mit Bezug auf 1, zeigt 1 einen Motorkörper, 2 Brennkammern der Zylinder, 3 in den Brennkammern 2 der Zylinder angeordnete Zündkerzen, 4 Einspritzdüsen zur Einspritzung von Kraftstoff, z.B. Benzin, 5 einen Ausgleichsbehälter, 6 Ansaugstutzen und 7 einen Abgaskrümmer. Der Ausgleichsbehälter 5 ist durch einen Einlasskanal 8 mit dem Auslass eines Verdichters 9a eines Abgasturboladers 9 verbunden, während der Einlass des Abgasturboladers 9a durch einen Ansaugluftmengendetektor 10 mit einem Luftfilter 11 verbunden ist. Innerhalb des Einlasskanals 8 ist eine durch einen Aktuator 13 angetriebene Drosselklappe 12 angeordnet. An der Drosselklappe 12 ist ein Drosselklappenöffnungswinkelsensor 14 zur Erfassung des Drosselklappenöffnungswinkels angebracht. Um den Einlasskanal 8 ist weiterhin ein Zwischenkühler 15 zur Kühlung der durch das Innere des Einlasskanals 8 strömenden Ansaugluft angeordnet.
  • Der Abgaskrümmer 7 ist andererseits mit dem Einlass der Abgasturbine 9b des Abgasturboladers 9 verbunden, während der Auslass der Abgasturbine 9b durch eine Abgasleitung 16 mit einem Abgasreinigungskatalysator 17 verbunden ist. Der Abgaskrümmer 7 und der Ausgleichsbehälter 5 sind miteinander durch einen Abgasrückführkanal (nachstehend als EGR-Kanal bezeichnet) 18 verbunden. Innerhalb des EGR-Kanals 18 ist ein EGR-Steuerventil 19 angeordnet. Jede Einspritzdüse 4 ist mit einer Kraftstoffverteilerleitung 20 verbunden. Diese Kraftstoffverteilerleitung 20 ist durch eine Kraftstoffpumpe 21 mit einem Kraftstofftank 22 verbunden. Innerhalb der Abgasleitung 16 ist ein NOx-Sensor 23 zur Erfassung der NOx-Konzentration in dem Abgas angeordnet. Des Weiteren ist innerhalb des Luftfilters 11 ein Umgebungstemperatursensor 24 zur Erfassung der Umgebungstemperatur angeordnet.
  • Eine elektronische Steuereinheit 30 weist einen digitalen Rechner mit einem ROM (Festwertspeicher) 32, RAM (Direktzugriffsspeicher) 33, CPU (Mikroprozessor) 34, Eingabekanal 35 und Ausgabekanal 36, welche miteinander über einen bidirektionalen Bus 31 verbunden sind, auf. An dem Eingabekanal 35 werden Ausgabesignale des Ansaugluftmengendetektors 10, des Drosselklappenöffnungswinkelsensors 14, des NOx-Sensors 23 und des Umgebungstemperatursensors 24 über entsprechende AD-Wandler 37 eingegeben. An einem Beschleunigungspedal 40 ist ein Lastsensor 41, welcher eine zu der Niederdrückmenge des Beschleunigungspedals 40 proportionale Ausgabespannung erzeugt, verbunden. Die Ausgabespannung des Lastsensors 41 wird über den entsprechenden AD-Wandler 37 an den Eingabekanal 35 eingegeben. Darüber hinaus ist der Eingabekanal 35 mit einem Kurbelwinkelsensor 42, welcher zu jedem Zeitpunkt, bei dem eine Kurbelwelle um beispielsweise 30° rotiert, einen Ausgabeimpuls erzeugt, verbunden. Innerhalb der CPU 34 wird die Motordrehzahl basierend auf den Ausgabesignalen des Kurbelwinkelsensors 42 berechnet. Der Ausgabekanal 36 ist andererseits durch entsprechende Schaltkreise 38 mit den Zündkerzen, den Einspritzdüsen 4, dem Drosselklappenantriebsaktuator 13, dem EGR-Steuerventil 19 und der Kraftstoffpumpe 21 verbunden.
  • Zusammenfassung eines neuronalen Netzes
  • In Ausführungsformen der vorliegenden Erfindung werden neuronale Netze verwendet, um verschiedene Werte, welche die Performance des Verbrennungsmotors darstellen, abzuschätzen. 2 zeigt ein Beispiel eines neuronalen Netzes. Die Kreiskennzeichen in 2 zeigen künstliche Neuronen. In dem neuronalen Netz werden diese künstliche Neuronen „Knoten“ oder „Einheit“ genannt (in der vorliegenden Anwendung werden sie „Knoten“ genannt). In 1 zeigt L=1 eine Eingabeschicht, L=2 und L=3 zeigen verdeckte Schichten und L=4 zeigt eine Ausgabeschicht. Weiterhin zeigen in 2 x1 und x2 Ausgabewerte von den Knoten der Eingabeschicht (L=1), „y“ zeigt den Ausgabewert von dem Knoten der Ausgabeschicht (L=4), z1, z2 und z3 zeigen Ausgabewerte von den Knoten einer verdeckten Schicht (L=2) und z1 und z2 zeigen Ausgabewerte von den Knoten einer anderen verdeckten Schicht (L=3). Zu beachten ist, dass die Anzahl verdeckter Schichten zu eins oder einer anderen Anzahl gemacht werden kann, während die Knotenanzahl der Eingabeschicht und die Knotenanzahl der verdeckten Schichten auch zu einer beliebigen Anzahl gemacht werden kann. Zu beachten ist, dass in den Ausführungsformen gemäß der vorliegenden Erfindung die Knotenanzahl der Ausgabeschicht zu einem Knoten gemacht wird.
  • An den Knoten der Eingabeschicht werden Eingaben ohne Änderung ausgegeben. An den Knoten einer verdeckten Schicht (L=2) werden andererseits die Ausgabewerte x1 und x2 der Knoten der Eingabeschicht eingegeben, während an den Knoten der einen verdeckten Schicht (L=2) die jeweils entsprechenden Gewichtungen „w“ und Schwellwerte (Bias) „b“ verwendet werden, um den Summeneingabewert „u“ zu berechnen. Ein Summeneingabewert uk, welcher an einem durch zk (k=1, 2, 3) der einen verdeckten Schicht (L=2) in 2 dargestellten Knoten berechnet wird, wird zu der nachfolgenden Formel: U k = m = 1 n ( x m W km ) + b k
    Figure DE102018133516B4_0001
  • Als nächstes wird dieser Summeneingabewert uk durch eine Aktivierungsfunktion „f“ umgerechnet und von einem durch zk der einen verdeckten Schicht (L=2) dargestellten Knoten als ein Ausgabewert zk(=f(uk)) ausgegeben. Dasselbe gilt für den anderen Knoten der einen verdeckten Schicht (L=2). Die Knoten der anderen verdeckten Schicht (L=3) andererseits empfangen als Eingabe die Ausgabewerte z1, z2 und z3 der Knoten der einen verdeckten Schicht (L=2). An den Knoten der anderen verdeckten Schicht (L=3) werden die jeweils entsprechenden Gewichtungen „w“ und Schwellwerte „b“ verwendet, um den Summeneingabewert u(∑z·w+b) zu berechnen. Der Summeneingabewert „u“ wird ähnlich durch eine Aktivierungsfunktion umgerechnet und von den Knoten der anderen verdeckten Schicht (L=3) als die Ausgabewerte z1 und z2 ausgegeben. Zu beachten ist, dass in Ausführungsformen gemäß der vorliegenden Erfindung eine Sigmoid-Funktion σ als diese Aktivierungsfunktion verwendet wird.
  • An dem Knoten der Ausgabeschicht (L=4) andererseits werden die Ausgabewerte z1 und z2 der Knoten der anderen verdeckten Schicht (L=3) eingegeben. An dem Knoten der Ausgabeschicht werden die jeweils entsprechenden Gewichtungen „w“ und Schwellwerte „b“ verwendet, um den Summeneingabewert u(∑z·w+b) zu berechnen, oder es werden nur die jeweils entsprechenden Gewichtungen „w“ verwendet, um den Summeneingabewert u(∑z·w) zu berechnen. In dieser Ausführungsform gemäß der vorliegenden Erfindung wird an dem Knoten der Ausgabeschicht eine Identitätsfunktion verwendet, weshalb von dem Knoten der Ausgabeschicht der an dem Knoten der Ausgabeschicht berechnete Summeneingabewert „u“ ohne Änderung als der Ausgabewert „y“ ausgegeben wird.
  • Funktionsausdruck durch ein neuronales Netz
  • Nun also ist es möglich, eine beliebige Funktion unter Verwendung eines neuronalen Netzes auszudrücken. Als Nächstes wird dieses einfach erklärt werden. Zuerst wird bei Erklärung der Sigmoid-Funktion σ als die verwendete Aktivierungsfunktion die Sigmoid-Funktion σ als σ(x)=1/(1+exp(-x)) ausgedrückt und nimmt entsprechend dem Wert von „x“ einen Wert zwischen 0 und 1 an, wie in 3A gezeigt. Bei Ersetzen von „x“ mit „wx+b“ wird die Sigmoid-Funktion σ hier als σ(wx+b)=1/(1+exp(-wx-b)) ausgedrückt. Bei Erhöhung des Werts von „w“, wie durch die Kurven σ1, σ2 und σ3 in 3B gezeigt, wird die Neigung des gekrümmten Teils der Sigmoid-Funktion Q(wx+b) schrittweise steiler. Durch Erhöhung des Werts von „w“ bis unendlich, wie durch die Kurve σ4 in 3B gezeigt, ändert sich die Sigmoid-Funktion Q(wx+b) an dem „x“, bei welchem x=-b/w(wx+b=0), d.h. bei dem „x“, bei welchem σ(wx+b)=0,5, wie in 3B gezeigt, schrittweise. Bei Nutzung dieser Eigenschaft der Sigmoid-Funktion σ kann ein neuronales Netz verwendet werden, um eine beliebige Funktion auszudrücken.
  • Unter Verwendung eines neuronalen Netzes, wie in 4A gezeigt, welches eine Eingabeschicht (L=1) mit einem einzelnen Knoten, eine verdeckte Schicht (L=2) mit zwei Knoten und eine Ausgabeschicht (L=3) mit einem einzelnen Knoten umfasst, ist es beispielsweise möglich, eine eine quadratische Funktion annähernde Funktion auszudrücken. Zu beachten ist, dass in diesem neuronalen Netz, wie in 4A gezeigt, der Knoten der Eingabeschicht (L=1) als Eingabe den Eingabewert „x“ empfängt, während der durch z1 gezeigte Knoten an der verdeckten Schicht (L=2) als Eingabe den unter Verwendung einer Gewichtung w1(L2) und eines Schwellwerts b1 berechneten Eingabewert u=x·w1 (L2)+b1 empfängt. Dieser Eingabewert „u“ wird durch die Sigmoid-Funktion σ(x·w1 (L2)+b1) umgerechnet und als der Ausgabewert z1 ausgegeben. Der durch z2 gezeigte Knoten an der verdeckten Schicht (L=2) empfängt ähnlich dazu als Eingabe den unter Verwendung der Gewichtung w2 (L2) und des Schwellwerts b2 berechneten Eingabewert u=x-w2 (L2)+b2. Dieser Eingabewert „u“ wird durch die Sigmoid-Funktion σ(x·w2 (L2)+b2) umgerechnet und als Ausgabewert z2 ausgegeben.
  • Andererseits empfängt der Knoten der Ausgabeschicht (L=3) als Eingabe die Ausgabewerte z1 und z2 der Knoten der verdeckten Schicht (L=2). An dem Knoten der Ausgabeschicht werden die jeweils entsprechenden Gewichtungen w1 (y) und w2 (y) verwendet, um den Summeneingabewert u(∑z·w=zw1 (y)+zw2 (y)) zu berechnen. Wie vorstehend beschrieben, wird in den Ausführungsformen gemäß der vorliegenden Erfindung an dem Knoten der Ausgabeschicht eine Identitätsfunktion verwendet. Deshalb wird von dem Knoten der Ausgabeschicht der an dem Knoten der Ausgabeschicht berechnete Summeneingabewert „u“ ohne Änderung als der Ausgabewert „y“ ausgegeben.
  • 4B(I) zeigt den Ausgabewert z1 von einem Knoten einer verdeckten Schicht (L=2), wenn die Gewichtung w1 (L2) und der Schwellwert b1 so gesetzt werden, dass der Wert der Sigmoid-Funktion σ(x·w1 (L2)+b1) bei x=0 im Wesentlichen zu null wird. Andererseits wird beispielsweise bei der Sigmoid-Funktion σ(x·w2 (L2)+b2), wenn die Gewichtung w2 (L2) einen negativen Wert annimmt, die Form der Kurve der Sigmoid-Funktion σ(x·w2 (L2)+b2) eine Form, welche für steigende Werte von „x“ abnimmt, wie durch 4B(II) gezeigt. Bei 4B(II) wird die Änderung des Ausgabewerts z2 von dem Knoten der verdeckten Schicht (L=2) gezeigt, wenn die Gewichtung w2 (L2) und der Schwellwert b2 so gesetzt werden, dass der Wert der Sigmoid-Funktion σ(x·w2 (L2)+b2) bei x=0 im Wesentlichen zu null wird.
  • In 4B(III) ist andererseits die Summe (z1+z2) der Ausgabewerte z1 und z2 von den Knoten der verdeckten Schicht (L=2) durch die Volllinie gezeigt. Zu beachten ist, dass, wie in 4A gezeigt, die Ausgabewerte z1 und z2 mit den jeweils entsprechenden Gewichtungen w1 (y) und w2 (y) multipliziert werden. In 4B(III) ist die Änderung des Ausgabewerts „y“ durch die gestrichelte Linie A gezeigt, wenn w1 (y) und w2 (y)>1 und w1 (y)≈w2 (y). Des Weiteren ist in 4B(III) die Änderung des Ausgabewerts „y“ durch die Strich-Punkt-Linie B gezeigt, wenn w1 (y) und w2 (y)>1 und w1 (y)>w2 (y), während in 4B(III) die Änderung des Ausgabewerts „y“ durch die Strich-Punkt-Linie C gezeigt ist, wenn w1 (y) und w2 (y)>1 und w1 (y)<w2 (y). In 4B(III) zeigt die Form der gestrichelten Linie A in dem durch W gezeigten Bereich eine Kurve, welche eine quadratische Funktion, wie z. B. y=ax2 („a“ ist ein Koeffizient) annähert, weshalb verständlich wird, dass durch Verwendung eines neuronalen Netzes, wie in 4A gezeigt, eine eine quadratische Funktion annähernde Funktion ausgedrückt werden kann.
  • 5A zeigt andererseits den Fall, bei welchem die Werte der Gewichtungen w1 (L2) und w2 (L2) in 4A erhöht werden, um den Wert der Sigmoid-Funktion σ, wie in 3B gezeigt, sich schrittweise ändern zu lassen. In 5A(I) ist der Ausgabewert z1 von einem Knoten der verdeckten Schicht (L=2) gezeigt, wenn die Gewichtung w1 (L2) und der Schwellwert b1 so gesetzt werden, dass sich der Wert der Sigmoid-Funktion σ(x·w1 (L2)+b1) bei x=-b1/w1 (L2) schrittweise erhöht. Des Weiteren ist in 5A(II) der Ausgabewert z2 von einem Knoten der verdeckten Schicht (L=2) gezeigt, wenn die Gewichtung w2 (L2) und der Schwellwert b2 so gesetzt werden, dass der Wert der Sigmoid-Funktion σ(x·w2 (L2)+b2) bei x=-b2/w2 (L2), was leicht größer als x=-b1/w1 (L2) ist, schrittweise abnimmt. Des Weiteren ist in 5A(III) die Summe der Ausgabewerte z1 und z2 von den Knoten der verdeckten Schicht (L=2) durch die Volllinie gezeigt. Wie in 4A gezeigt, werden die Ausgabewerte z1 und z2 mit den jeweils entsprechenden Gewichtungen w1 (y) und w2 (y) multipliziert. In 5A(III) ist der Ausgabewert „y“ durch die gestrichelten Linien gezeigt, wenn w1 (y) und w2 (y)>1.
  • Auf diese Weise wird in dem in 4A gezeigten neuronalen Netz von dem Knotenpaar der verdeckten Schicht (L=2) ein balkenförmiger Ausgabewert „y“, wie in 5A(III) gezeigt, erhalten. Deshalb wird es bei Erhöhung der Anzahl der Knotenpaare in der verdeckten Schicht (L=2) und passendem Setzen der Gewichtungen „w“ und der Schwellwerte „b“ an den Knoten der verdeckten Schicht (L=2) möglich, eine die Funktion y=f(x) annähernde Funktion auszudrücken, wie durch die gekrümmten Teile der gestrichelten Linie in 5B gezeigt. Zu beachten ist, dass in 5B die Balken aneinandergrenzend gezeichnet sind, aber sich die Balken tatsächlich manchmal teilweise überlappen. Des Weiteren ist der Wert von „w“ tatsächlich nicht unendlich groß, weshalb die Balken nicht exakt balkenförmig werden, sondern gekrümmte Formen, wie die obere Hälfte des in 3B durch σ3 gezeigten, gekrümmten Teils, werden. Während eine detaillierte Beschreibung weggelassen wird, ist, wie in 6A gezeigt, zu beachten, dass bei Vorsehen von Knotenpaaren an der verdeckten Schicht (L=2), welche jeweils den zwei verschiedenen Eingabewerten x1 und x2 entsprechen, wie in 6B gezeigt, säulenförmige Werte „y“, welche den Eingabewerten x1 und x2 entsprechen, erhalten werden. In diesem Fall werden bei Vorsehen einer großen Anzahl an Knotenpaaren an der verdeckten Schicht (L=2) für die Eingabewerte x1, x2 eine Vielzahl an säulenförmigen Ausgabewerten „y“, welche jeweils den unterschiedlichen Eingabewerten x1 und x2 entsprechen, erhalten. Deshalb wird verständlich, dass es möglich ist, eine das Verhältnis zwischen den Eingabewerten x1 und x2 und den Ausgabewerten „y“ anzeigende Funktion auszudrücken. In dem Fall von drei oder mehr unterschiedlichen Eingabewerten „x“ ist zu beachten, dass es ebenso möglich ist, eine das Verhältnis zwischen den Eingabewerten „x“ und den Ausgabewerten „y“ anzeigende Funktion auszudrücken.
  • Lernen in einem neuronalen Netz
  • In den Ausführungsformen gemäß der vorliegenden Erfindung wird andererseits ein Fehlerrückführungsalgorithmus (Backpropagation) verwendet, um die Werte der Gewichtungen „w“ und der Schwellwerte „b“ in einem neuronalen Netz zu lernen. Dieser Fehlerrückführungsalgorithmus ist bekannt. Deshalb wird der Fehlerrückführungsalgorithmus nachstehend einfach in seinen Grundzügen erklärt. Zu beachten ist, dass ein Schwellwert „b“ eine Sorte Gewichtung „w“ ist, und so in der folgenden Erklärung ein Schwellwert „b“ als eine Art der Gewichtung „w“ gilt. Wenn nun in dem neuronalen Netz, wie in 2 gezeigt, die Gewichtung an dem Eingabewert u(L) zu den Knoten jeder Schicht von L=2, L=3 oder L=4 durch w(L) ausgedrückt wird, kann das Differential aufgrund der Gewichtung w(L) der Fehlerfunktion E, d.h. der Gradient ∂E/∂w(L), wie in der folgenden Formel gezeigt, umgeschrieben werden: E/ w ( L ) = ( E/ u ( L ) ) ( u ( L ) / w ( L ) )
    Figure DE102018133516B4_0002
    wobei Z(L-1)·∂w(L)=∂u(L), so dass für (∂E/∂u(L))=δ(L) die vorstehende Formel (1) durch die folgende Formel gezeigt werden kann: E/ w ( L ) = δ ( L ) z ( L 1 )
    Figure DE102018133516B4_0003
  • Wenn hier u(L) schwankt, wird eine Schwankung der Fehlerfunktion E durch die Änderung des Summeneingabewerts u(L+1) der folgenden Schicht verursacht, so dass δ(L) durch die folgende Formel ausgedrückt werden kann. δ ( L ) = ( E/ u ( L ) ) = k = 1 k ( E/ u k ( L + 1 ) ) ( u k ( L + 1 ) / u ( L ) ) ( k = 1,2 )
    Figure DE102018133516B4_0004
    wobei für z(L)=f(u(L)) der Eingabewert uk (L+1), welcher auf der rechten Seite der vorstehenden Formel (3) auftritt, durch die folgende Formel ausgedrückt werden kann: Eingabewert u k ( L + 1 ) = k = 1 k w k ( L + 1 ) z ( L ) = k = 1 k w k ( L + 1 ) f ( u ( L ) )
    Figure DE102018133516B4_0005
    wobei der erste Term (∂E/∂u(L+1)) auf der rechten Seite der vorstehenden Formel (3) gleich δ(L+1) ist und der zweite Term (∂uk (L+1) /∂u(L) auf der rechten Seite der vorstehenden Formel (3) durch die folgende Formel ausgedrückt werden kann: ( w k ( L + 1 ) z ( L ) ) / u ( L ) = w k ( L + 1 ) f ( u ( L ) ) / u ( L ) = w k ( L + 1 ) f ' ( u ( L ) )
    Figure DE102018133516B4_0006
  • Deshalb wird δ(L) durch die folgende Formel ausgedrückt: δ ( L ) = k = 1 k w k ( L + 1 ) δ ( L + 1 ) f ' ( u ( L ) )
    Figure DE102018133516B4_0007
  • Das heißt, δ ( L 1 ) = k = 1 k w k ( L ) δ ( L ) f ' ( u ( L 1 ) )
    Figure DE102018133516B4_0008
  • Das heißt, wenn δ(L+1) gefunden wird, ist es möglich, δ(L) zu finden.
  • Wenn nun Trainingsdaten yt für einen gewissen Eingabewert gefunden werden und der diesem Eingabewert entsprechende Ausgabewert von der Ausgabeschicht gleich „y“ ist, wird der quadratische Fehler E durch E=1/2(y-yt)2 gefunden, wenn der quadratische Fehler als die Fehlerfunktion verwendet wird. In diesem Fall wird bei dem Knoten der Ausgabeschicht (L=4) von 2 der Ausgabewert „y“ zu f(u(L)), weshalb der Wert von δ(L) an dem Knoten der Ausgabeschicht in diesem Fall zu dem in der folgenden Formel wird: δ ( L ) = E/ u ( L ) = ( E/ y ) ( y/ u ( L ) ) = ( y y t ) f ' ( u ( L ) )
    Figure DE102018133516B4_0009
  • In diesem Zusammenhang ist in den Ausführungsformen gemäß der vorliegenden Erfindung, wie vorstehend beschrieben, f(u(L)) einen Identitätsfunktion und f'(u(L))=1. Deshalb werden δ(L)=y-yt und δ(L) gefunden.
  • Wenn δ(L) gefunden wird, wird das δ(L-1) der vorhergehenden Schicht durch Verwendung der vorstehenden Formel (6) gefunden. Das δ der vorhergehenden Schicht wird erfolgreich auf diese Weise gefunden. Durch Verwendung dieser Werte von δ von der vorstehenden Formel (2) wird das Differential der Fehlerfunktion E, d.h. der Gradient ∂E/∂w(L) für jede Gewichtung „w“ gefunden. Wenn der Gradient ∂E/∂w(L) gefunden wird, wird dieser Gradient ∂E/∂w(L) verwendet, um den Wert der Gewichtung „w“ so zu aktualisieren, dass der Wert der Fehlerfunktion E abnimmt. Das heißt, der Wert der Gewichtung „w“ wird gelernt. Zu beachten ist, dass, wenn eine Serie oder Kleinstserie als die Trainingsdaten verwendet wird, den folgenden mittleren quadratischen Fehler E als die Fehlerfunktion E verwendet wird: mittlerer quadratischer Fehler E = 1 n k = 1 k 1 2 ( y k y t ) 2 ( k = 1,2, , n ist die Gesamtanzahl der Trainingsdaten )
    Figure DE102018133516B4_0010
  • Wenn andererseits Online-Lernen, welches konzipiert ist, um sequentiell den quadratischen Fehler zu berechnen, durchgeführt wird, wird der vorstehende quadratische Fehler E als die Fehlerfunktion E verwendet.
  • Ausführungsformen gemäß der vorliegenden Erfindung
  • Als Nächstes wird mit Bezug auf 7A bis 8B eine erste Ausführungsform gemäß der vorliegenden Erfindung erklärt. In dieser ersten Ausführungsform gemäß der vorliegenden Erfindung wird, wie in 4A gezeigt, ein neuronales Netz mit einer Eingabeschicht (L=1), einer verdeckten Schicht (L=2) und einer Ausgabeschicht (L=3) verwendet. In der ersten Ausführungsform gemäß der vorliegenden Erfindung unterscheidet sich jedoch die Knotenanzahl in der verdeckten Schicht (L=2) von 4A und wird zu drei oder vier gemacht. Zu beachten ist, dass in 7A bis 8B die gestrichelte Linie die Wellenformen echter quadratischer Funktionen zeigt. Die schwarzen Kreise zeigen die Trainingsdaten, während die weißen Kreise den Ausgabewert „y“ nach dem Lernen der Gewichtung des neuronalen Netzes zeigt, so dass der dem Eingabewert „x“ entsprechende Ausgabewert „y“ den Trainingsdaten entspricht, die Volllinienkurve das Verhältnis zwischen dem Eingabewert „x“ und dem Ausgabewert „y“ nach dem Lernen zeigt und R den vermuteten verwendbaren Bereich der Eingabewerte „x“ zeigt.
  • 7A und 7B sind nun Ansichten zur Erklärung des durch die vorliegende Erfindung zu lösenden technischen Problems. Deshalb wird zuerst mit Bezug auf 7A und 7B das durch die vorliegende Erfindung zu lösende technische Problem erklärt. 7A zeigt den Fall des Lernens der Gewichtungen eines neuronalen Netzes, so dass für den Eingabewert „x“ in dem vermuteten verwendbaren Bereich R durch Verwendung des in der ersten Ausführungsform verwendeten neuronalen Netzes die Ausgabemenge „y“ eine quadratische Funktion y=ax2 („a ist eine Konstante) des Eingabewerts „x“ wird. Sogar wenn, wie vorstehend beschrieben und in 4A gezeigt, die verdeckte Schicht (L=2) des neuronalen Netzes nur zwei Knoten hat, wie durch den Bereich W von (III) von 4B gezeigt, ist es möglich eine einer quadratischen Funktion ähnliche Funktion auszudrücken, aber wenn wie in der ersten Ausführungsform gemäß der vorliegenden Erfindung die Knotenanzahl der verdeckten Schicht (L=2) des neuronalen Netzes in dem vermuteten verwendbaren Bereich R zu drei oder mehr gemacht wird, wie in 7A gezeigt, wird es möglich, den Ausgabewert „y“ als eine Funktion, welche im Wesentlichen vollständig einer quadratischen Funktion entspricht, auszudrücken.
  • Das heißt, wenn Lernen für den vermuteten verwendbaren Bereich R des Eingabewerts „x“ durchgeführt wird, wird, wie man es sich von der Erklärung mit Bezug auf 4B vorstellen kann, für den vermuteten verwendbaren Bereich R der Ausgabewert „y“ als eine Funktion, welche im Wesentlichen vollständig einer quadratischen Funktion entspricht, durch eine passende Kombination der gekrümmten Teile einer Vielzahl von Sigmoid-Funktionen σ ausgedrückt. Außerhalb des vermuteten verwendbaren Bereichs R des Eingabewerts „x“ wird das Lernen jedoch nicht durchgeführt und, wie durch die Volllinie gezeigt, erscheinen die geraden Teile der zwei Enden eines gekrümmten Teils, welcher sich in einer Sigmoid-Funktion σ stark ändert, ohne Änderung als Ausgabewert „y“. Deshalb erscheint der Ausgabewert „y“ nach dem Lernen, wie durch die Volllinie in 7A gezeigt, in dem vermuteten verwendbaren Bereich R des Eingabewerts „x“ in der Form einer Funktion, welche im Wesentlichen vollständig einer quadratischen Funktion entspricht, und erscheint außerhalb des vermuteten verwendbaren Bereichs R des Eingabewerts „x“ in einer Form nahe geraden Linien, welche sich mit Bezug auf den Eingabewert „x“ kaum ändern.
  • Wenn in dem in 7A gezeigten Fall der Eingabewert „x“ in dem vermuteten verwendbaren Bereich R des Eingabewerts „x“ ein Mittelwert von zwei angrenzenden Trainingsdaten ist, wird der Ausgabewert „x“ ein Wert auf der durch die Volllinie gezeigten Kurve, d.h. ein Mittelwert dieser zwei Trainingsdaten. Wenn deshalb auf diese Weise eine Region ohne Trainingsdaten eine Interpolationsregion ist, kann ein passender Ausgabewert „y“ erhalten werden. Wenn im Gegensatz dazu der Eingabewert „x“ beispielsweise, wie durch x0 in 7B gezeigt, außerhalb des vermuteten verwendbaren Bereichs R des Eingabewerts „x“ endet, wird der Ausgabewert „y“ in 7B kein Ausgabewert „y“ in der Nähe der durch die gestrichelte Linie gezeigten quadratischen Kurve werden, aber wird ein durch „x“ auf der Volllinie gezeigter Ausgabewert „y“ werden. Das heißt, der Ausgabewert „y“ wird letztendlich ein von dem wahren Ausgabewert „y“ stark abweichender Wert werden. Wenn auf diese Weise eine Region ohne Trainingsdaten eine Extrapolationsregion ist, kann kein passender Ausgabewert „y“ erhalten werden. Deshalb ist in der vorliegenden Erfindung die elektronische Steuereinheit 30 so aufgebaut, dass ein passender Ausgabewert „y“ erhalten werden kann, sogar wenn auf diese Weise der Eingabewert „x“ außerhalb des vermuteten verwendbaren Bereichs R liegt.
  • Als Nächstes wird das für ein spezielles Beispiel mit Bezug auf 8A und 8B, welche eine erste Ausführungsform gemäß der vorliegenden Erfindung zeigen, erklärt. In dem Gebiet von Verbrennungsmotoren wird, wenn der Wert eines Betriebsparameters des Verbrennungsmotors als ein Eingabewert „x“ definiert wird, die Zielausgabemenge „y“ manchmal zu der Form einer quadratischen Funktion des Eingabewerts „x“. 8A zeigt, als ein Beispiel eines solchen Falls, einen Fall, bei welchem der Wert des Betriebsparameters des Verbrennungsmotors, d.h. der Eingabewert „x“, die Motordrehzahl N (rpm) umfasst, während die Zielausgabemenge „y“ die Abgasverlustmenge umfasst. Zu beachten ist, dass der verwendbare Bereich der Motordrehzahl N in Übereinstimmung mit dem Verbrennungsmotor bestimmt wird, wenn der Verbrennungsmotor bekannt ist. 8A zeigt den Fall, bei welchem die obere Grenze des verwendbaren Bereichs der Motordrehzahl N gleich 7000 (rpm) ist. In diesem Fall wird in der ersten Ausführungsform gemäß der vorliegenden Erfindung der zu lernende verwendbare Bereich R der Motordrehzahl N, wie in 8A gezeigt, zu 600 (rpm) (Leerlaufdrehzahl) bis 7000 (rpm) gemacht.
  • In 8A sind andererseits die durch die schwarzen Kreise gezeigten Trainingsdaten die durch Experimente erhaltene Werte. Das heißt, die Abgasverlustmenge zeigt die Wärmeenergiemenge, welche von einer Verbrennungsmotorbrennkammer ausgestoßen wird, und ist proportional zu der Abgasmenge, welche von einer Verbrennungsmotorbrennkammer ausgestoßen wird und proportional zu der Temperaturdifferenz zwischen der Temperatur des von der Verbrennungsmotorbrennkammer ausgestoßenen Abgas und der Umgebungslufttemperatur ist. Diese Abgasverlustmenge wird bei tatsächlichem Betrieb des Verbrennungsmotors basierend auf erfassten Werten der Gastemperatur usw. berechnet. Deshalb zeigt diese berechnete Abgasverlustmenge durch Experimente erhaltene Werte. Die in 8A gezeigten Trainingsdaten zeigen die durch Experimente erhaltene Abgasverlustmenge für jede Motordrehzahl N. In der in 8A gezeigten ersten Ausführungsform wird die Gewichtung des neuronalen Netzes so gelernt, dass der Ausgabewert „y“ für eine Motordrehzahl N in dem vermuteten verwendbaren Bereich R den Trainingsdaten entspricht. Die Volllinie in 8A zeigt das Verhältnis zwischen der Motordrehzahl N und der Ausgabemenge „y“ nach Ende des Lernens.
  • Wie aus 8A verständlich wird, wird die Abgasverlustmenge eine quadratische Funktion mit einem kleinsten Wert (>0) bei der Motordrehzahl N in der Mitte des vermuteten verwendbaren Bereichs. Wenn in diesem Fall die Motordrehzahl N innerhalb des vermuteten verwendbaren Bereichs R ist, kann ein passender Ausgabewert „y“, d.h. eine genaue Abgasverlustmenge erhalten werden. Wenn im Gegensatz dazu der Eingabewert „x“ beispielsweise, wie durch Nx in 8A gezeigt, letztendlich außerhalb des vermuteten verwendbaren Bereichs R der Motordrehzahl N liegt, wird der Ausgabewert in 8A nicht ein Ausgabewert „y“ nahe der durch die gestrichelten Linien gezeigten quadratischen Funktion werden, sondern wird ein durch „x“ auf der Volllinie gezeigter Ausgabewert „y“ werden. Das heißt, der Ausgabewert „y“ wird letztendlich ein von dem wahren Ausgabewert „y“ stark abweichender Wert werden. Wenn auf diese Weise der Wert letztendlich außerhalb des vermuteten verwendbaren Bereichs R der Motordrehzahl N liegt, kann kein passender Ausgabewert „y“ erhalten werden.
  • Deshalb werden in der ersten Ausführungsform gemäß der vorliegenden Erfindung, wie in 8B gezeigt, die Trainingsdaten y0 für eine Motordrehzahl N0 außerhalb des vermuteten verwendbaren Bereichs R der Motordrehzahl N gesetzt.
  • Diese Trainingsdaten y0 sind, im Gegensatz zu den Trainingsdaten in dem vermuteten verwendbaren Bereich R der Motordrehzahl N, ein bisheriger empirischer Wert oder ein von einem physikalischen Gesetz vorhergesagter Wert. Das heißt, in dem vermuteten verwendbaren Bereich R der Motordrehzahl N wird die durch Experimente erhaltene Abgasverlustmenge, d.h. der durch Experimente erhalten Ausgabewert „y“, als die Trainingsdaten verwendet, während außerhalb des vermuteten verwendbaren Bereichs R der Motordrehzahl N die durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Abgasverlustmenge als die Trainingsdaten verwendet wird. In der ersten Ausführungsform gemäß der vorliegenden Erfindung werden deshalb diese durch Experimente erhaltenen Trainingsdaten und durch Vorhersage erhaltenen Trainingsdaten verwendet, um die Gewichtungen des neuronalen Netzes so zu lernen, dass die sich gemäß der Motordrehzahl N ändernde Abgasverlustmenge, d.h. der Ausgabewert „y“, den der Motordrehzahl N entsprechenden Trainingsdaten entspricht.
  • Wenn die Gewichtungen und die Schwellwerte des neuronalen Netzes auf diese Weise durch Verwendung der durch Experimente erhaltenen Trainingsdaten und der durch Vorhersage erhaltenen Trainingsdaten gelernt werden, wird die Kurve, welche das Verhältnis zwischen der Motordrehzahl N und dem Ausgabewert „y“ nach dem Ende des Lernens auf eine höhere Position in dem Drehzahlbereich der Motordrehzahl N höher als 7000 (rpm) bewegt, d.h. außerhalb des vermuteten verwendbaren Bereichs R der Motordrehzahl N, so dass sie, wie durch die Volllinie in 8B gezeigt, durch die Trainingsdaten y0 geht. Als ein Ergebnis wird, wie von 8B verständlich wird, zumindest in dem Bereich der Motordrehzahl N von 7000 (rpm) bis Nx die Differenz zwischen dem durch die Volllinie gezeigten Ausgabewert „y“ nach dem Lernen und der durch die gestrichelte quadratische Kurve gezeigten tatsächlichen Abgasverlustmenge viel kleiner im Vergleich mit dem in 8A gezeigten Fall. Sogar wenn die Motordrehzahl N höher als der vermutete verwendbare Bereich R wird, kann deshalb die Abgasverlustmenge relativ genau abgeschätzt werden.
  • Zu beachten ist, dass bezüglich der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltenen Trainingsdaten eine Vielzahl von Trainingsdaten außerhalb des vermuteten verwendbaren Bereichs R der Motordrehzahl N gesetzt werden kann. In 8B ist es beispielsweise möglich, durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Trainingsdaten nicht nur auf der höheren Motordrehzahl-Seite des vermuteten verwendbaren Bereichs R zu setzen, sondern auch auf der niedrigen Motordrehzahl-Seite des vermuteten verwendbaren Bereichs R.
  • Der in dieser Ausführungsform der vorliegenden Erfindung verwendete Verbrennungsmotor ist nun also, wie in 1 gezeigt, mit der elektronischen Steuereinheit 30 versehen. Diese elektronische Steuereinheit 30 umfasst eine Parameterwerterwerbseinheit zum Erwerb des Werts eines Betriebsparameters des Verbrennungsmotors, eine Verarbeitungseinheit zur Durchführung eines Verfahrens durch Verwendung eines neuronalen Netzes mit einer Eingabeschicht, zumindest einer verdeckten Schicht und einer Ausgabeschicht und eine Speichereinheit. Hier bildet der in 1 gezeigte Eingabekanal die vorstehend genannte Parameterwerterwerbseinheit, die CPU 34 bildet die vorstehend genannte Verarbeitungseinheit und der ROM 32 und RAM 33 bilden die vorstehend genannte Speichereinheit. Zu beachten ist, dass in der CPU 34, d.h. der vorstehend genannten Verarbeitungseinheit, der Wert des Betriebsparameters des Verbrennungsmotors an die Eingabeschicht eingegeben wird, während ein sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändernder Ausgabewert von der Ausgabeschicht ausgegeben wird. Der vermutete verwendbare Bereich R ist weiterhin im Voraus in dem ROM 32, d.h. in der vorstehend genannten Speichereinheit, für einen Wert eines Betriebsparameters des Verbrennungsmotors gespeichert. Darüber hinaus ist der durch Experimente erhaltene Ausgabewert als Trainingsdaten in dem RAM 33, d.h. in der vorstehend genannten Speichereinheit, für einen Wert des Betriebsparameters des Verbrennungsmotors in dem vermuteten verwendbaren Bereich R gespeichert, während der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert als Trainingsdaten in dem RAM 33, d.h. in der vorstehend genannten Speichereinheit, für einen Wert des Betriebsparameters des Verbrennungsmotors außerhalb des vermuteten verwendbaren Bereichs R gespeichert ist.
  • Das heißt in dieser Ausführungsform gemäß der vorliegenden Erfindung gibt es einen vermuteten verwendbaren Bereich R für den Wert eines Betriebsparameters des Verbrennungsmotors und dieser vermutete verwendbare Bereich R wird im Voraus in der Speichereinheit gespeichert. Des Weiteren wird der durch Experimente erhaltene Ausgabewert „y“ als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors in dem vermuteten verwendbaren Bereich R in der Speichereinheit gespeichert, während der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert y0 als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors außerhalb des vermuteten verwendbaren Bereichs R in der Speichereinheit gespeichert wird. Des Weiteren werden die durch Experimente erhaltenen Trainingsdaten und die durch Vorhersage erhaltenen Trainingsdaten verwendet, um zumindest eine Gewichtung und zumindest einen Schwellwert des neuronalen Netzes an der Verarbeitungseinheit zu lernen, so dass der sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändernde Ausgabewert den dem Wert des Betriebsparameters des Verbrennungsmotors entsprechenden Trainingsdaten entspricht. Das neuronale Netz, für welches die Gewichtung und den Schwellwert gelernt werden, wird verwendet, um den Ausgabewert für die Werte des Betriebsparameters des Verbrennungsmotors abzuschätzen.
  • Als Nächstes wird mit Bezug auf 9A bis 11B eine zweite Ausführungsform gemäß der vorliegenden Erfindung erklärt. Diese zweite Ausführungsform zeigt den Fall der Anwendung der vorliegenden Erfindung auf einen speziellen Verbrennungsmotor für niedrigen Lastbetrieb, z.B. einen Verbrennungsmotor für Hybridverwendung. In dieser zweiten Ausführungsform wird das neuronale Netz verwendet, um ein Modell zu erzeugen, welches einen Ausgabewert „y“, welcher die NOx-Abgasmenge von einem Öffnungswinkel einer Drosselklappe 12, einer Motordrehzahl und einem Zündzeitpunkt zeigt, ausgibt. In dem in der zweiten Ausführungsform verwendeten Verbrennungsmotor ist zu beachten, dass der verwendbare Bereich des Öffnungswinkels der Drosselklappe 12 von 5,5° bis 11,5° (Öffnungswinkel der Drosselklappe 12 bei maximaler Schließposition ist 0°) gesetzt wird, der verwendbare Bereich der Motordrehzahl N zu 1600 (rpm) bis 3000 (rpm) gesetzt wird und der verwendbare Bereich des Zündzeitpunkts zu 0° (oberer Verdichtungstotpunkt) bis ATDC (oberer Nachverdichtungstotpunkt) 40° gesetzt wird.
  • In dieser zweiten Ausführungsform wird ein neuronales Netz, wie in 2 gezeigt, verwendet. In dieser zweiten Ausführungsform gibt es jedoch drei Betriebsparameter des Verbrennungsmotors, welche die Betriebsparameter des Öffnungswinkels der Drosselklappe 12, der Motordrehzahl N und des Zündzeitpunkts aufweisen, also gibt es drei Eingabewerte des neuronalen Netzes. Deshalb gibt es in dieser zweiten Ausführungsform drei Knoten in der Eingabeschicht (L=1) des in 2 gezeigten neuronalen Netzes. Den Öffnungswinkel der Drosselklappe 12, die Motordrehzahl N und den Zündzeitpunkt zeigende Eingabewerte werden an die Knoten der Eingabeschicht (L=1) eingegeben. Andererseits gibt es einen einzelnen Knoten in der Ausgabeschicht (L=4) auf die gleiche Weise wie in 2. Des Weiteren sind die Knotenanzahl der verdeckten Schicht (L=2) und die Knotenanzahl der verdeckten Schicht (L=3) gleich der in 2 oder werden größer gemacht als die in 2 gezeigten.
  • Als Nächstes wird mit Bezug auf 9A bis 10B, welche die Verteilungen der Trainingsdaten zeigen, und 11A und 11B, welche die Lernergebnisse zeigen, das durch die zweite Ausführungsform zu lösende technische Problem und das Verfahren zur Lösung des technischen Problems erklärt. Zuerst zeigen 9A und 10A mit Bezug auf 9A bis 11B die Verteilungen der Trainingsdaten bezüglich des Zündzeitpunkts und der Motordrehzahl N, während 9B und 10B Verteilungen der Trainingsdaten bezüglich des Drosselklappenöffnungswinkels und des Zündzeitpunkts zeigen. In 9A bis 11B ist zu beachten, dass die schwarzen Kreise die Punkte zeigen, bei welchen die Trainingsdaten gesetzt werden, während die Dreiecksmarken die Orte zeigen, wo die Trainingsdaten nicht gesetzt werden. In dieser zweiten Ausführungsform werden andererseits der Drosselklappenöffnungswinkel, die Motordrehzahl N und der Zündzeitpunkt an die Knoten der Eingabeschicht (L=1) des neuronalen Netzes eingegeben und die Gewichtungen und die Schwellwerte des neuronalen Netzes werden so gelernt, dass der die NOx-Abgasmenge zeigende Ausgabewert „y“ den durch Experimente erhaltenen Trainingsdaten entspricht. In 11A und 11B sind die Verhältnisse zwischen dem Ausgabewert „y“ nach dem Lernen und den durch Experimente erhaltenen Trainingsdaten durch Kreismarken und Dreiecksmarken gezeigt. In 11A und 11B ist zu beachten, dass die Werte des Ausgabewerts „y“ nach dem Lernen und die Trainingsdaten normalisiert gezeigt sind, so dass der Maximalwert zu 1 wird.
  • 9A und 9B sind nun Ansichten zur Erklärung des durch die zweite Ausführungsform zu lösenden technischen Problems. Deshalb wird zuerst mit Bezug auf 9A und 9B das durch die zweite Ausführungsform zu lösende technische Problem erklärt. Wie vorstehend beschrieben, zeigen die schwarzen Kreise in 9A und 9B Punkte, bei welchen die Trainingsdaten gesetzt werden. In diesem Fall zeigen alle in 9A und 9B gezeigten schwarzen Kreise die durch Experimente erhaltenen Trainingsdaten. Deshalb wird von 9A und 9B gelernt, für welche Art des Drosselklappenöffnungswinkels, der Motordrehzahl N und des Zündzeitpunkts die durch Experimente erhaltenen Trainingsdaten gesetzt werden. In 9A werden beispielsweise die durch Experimente erhaltenen Trainingsdaten gesetzt, wenn die Motordrehzahl N 2000 (rpm) ist und der Zündzeitpunkt ATDC20° ist, während, wie in 9B gezeigt, die durch Experimente erhaltenen Trainingsdaten für verschiedene Drosselklappenöffnungswinkel gesetzt werden, wenn der Zündzeitpunkt ATDC20° ist.
  • Nun wird, wie vorstehend erklärt, in dem in der zweiten Ausführungsform verwendeten Verbrennungsmotor der verwendbare Bereich des Öffnungswinkels der Drosselklappe 12 zu 5,5° bis 11,5° gesetzt, der verwendbare Bereich der Motordrehzahl N wird zu 1600 (rpm) bis 3000 (rpm) gesetzt und der verwendbare Bereich des Zündzeitpunkts wird zu 0° (oberer Verdichtungstotpunkt) bis ATDC40° gesetzt. 9A und 9B zeigen den Fall, bei welchem durch Experimente erhaltene Trainingsdaten für deren verwendbare Bereiche gesetzt werden, d.h. für den verwendbaren Bereich des Drosselklappenöffnungswinkels, den verwendbaren Bereich der Motordrehzahl N und den verwendbaren Bereich des Zündzeitpunkts. In dieser zweiten Ausführungsform werden die Gewichtungen und die Schwellwerte des neuronalen Netzes so gelernt, dass, wenn der Drosselklappenöffnungswinkel, die Motordrehzahl N und der Zündzeitpunkt innerhalb dieser verwendbaren Bereiche verwendet werden, der die NOx-Abgasmenge zeigende Ausgabewert „y“ den durch Experimente erhaltenen Trainingsdaten entspricht. 11 A zeigt durch Kreismarken das Verhältnis zwischen dem Ausgabewert „y“ nach dem Lernen zu diesem Zeitpunkt und den durch Experimente erhaltenen Trainingsdaten. Zu beachten ist, dass die durch Experimente erhaltenen Trainingsdaten die tatsächlich erfasste NOx-Abgasmenge zeigen. In der zweiten Ausführungsform wird die tatsächliche NOx-Abgasmenge aus der durch den NOx-Sensor 23 erfassten NOx-Konzentration und der durch den Ansaugluftmengenerfasser 10 erfassten Ansaugluftmenge berechnet.
  • Wie in 11A gezeigt, sammeln sich die das Verhältnis zwischen dem Ausgabewert „y“ nach dem Lernen und den durch Experimente erhaltenen Trainingsdaten zeigenden Kreismarken um eine einzelne gerade Linie. Deshalb wird gelernt, dass der Ausgabewert „y“ nach dem Lernen den durch Experimenten erhaltenen Trainingsdaten entsprechend gemacht wird. In diesem Zusammenhang weicht beispielsweise für den Öffnungswinkel der Drosselklappe 12 als Beispiel der Öffnungswinkel der Drosselklappe 12 letztendlich von dem korrekten Öffnungswinkel aufgrund individueller Unterschiede der Verbrennungsmotoren oder Alterung ab, und sogar wenn der verwendbare Bereich des Öffnungswinkels der Drosselklappe 12 zu 5,5° bis 11,5° gesetzt wurde, übersteigt der Öffnungswinkel der Drosselklappe 12 faktisch manchmal letztendlich den vorausgesetzten verwendbaren Bereich. Die in 11 A gezeigten Dreiecksmarken zeigen die Lernergebnisse in dem Fall, bei welchem der Öffnungswinkel der Drosselklappe 12 letztendlich den vorausgesetzten verwendbaren Bereich übersteigt, wenn die Trainingsdaten nicht an den in 9B durch die Dreiecksmarken (Drosselklappenöffnungswinkel=13,5°) gezeigten Positionen gesetzt sind und die Trainingsdaten weiterhin nicht an den Dreiecksmarken in 9A gesetzt sind.
  • Aus den Dreiecksmarken von 11A wird gelernt, dass, wenn Trainingsdaten nicht außerhalb des verwendbaren Bereichs des Öffnungswinkels der Drosselklappe 12 gesetzt sind, der Ausgabewert „y“ nach dem Lernen letztendlich stark von den Trainingsdaten abweicht. Die Kreismarken von 11B zeigen andererseits die Lernergebnisse in dem Fall des Setzens der Trainingsdaten y0, welches von vorherigen empirischen Werten oder einem physikalischen Gesetz vorhergesagt wurde, an den in 9B durch die Dreiecksmarken gezeigten Positionen, wie durch die schwarzen Kreise y0 in 10B gezeigt. Aus den Kreismarken von 11B wird gelernt, dass, wenn Trainingsdaten außerhalb des verwendbaren Bereichs des Öffnungswinkels der Drosselklappe 12 gesetzt werden, der Ausgabewert „y“ nach dem Lernen den Trainingsdaten entsprechend gemacht wird. Zu beachten ist, dass die Dreiecksmarken von 11B die Lernergebnisse in dem Fall zeigen, bei welchem Trainingsdaten nicht für die in 10A und 10B durch die Dreiecksmarken gezeigten Punkte gesetzt werden, d.h. die Punkte in den Interpolationsregionen, welche aus anderen Trainingsdaten interpoliert werden können. Wie in 11B durch die Dreiecksmarken gezeigt, wird in diesem Fall gelernt, dass der Ausgabewert „y“ nach dem Lernen nicht viel von den Trainingsdaten abweicht.
  • Deshalb werden in dieser zweiten Ausführungsform, wie in 10B gezeigt, Trainingsdaten y0, welche aus vorherigen empirischen Werten oder einem physikalischen Gesetz vorhergesagt werden, außerhalb des verwendbaren Bereichs des Öffnungswinkels der Drosselklappe 12 gesetzt. Das heißt, in dieser zweiten Ausführungsform wird in dem vermuteten verwendbaren Bereich des Drosselklappenöffnungswinkels die durch Experimente erhaltene NOx-Abgasmenge, d.h. der durch Experimente erhalten Ausgabewert „y“, als die Trainingsdaten verwendet, während außerhalb des vermuteten verwendbaren Bereichs des Drosselklappenöffnungswinkels die durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene NOx-Abgasmenge, d.h. der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert „y“, als die Trainingsdaten verwendet. In der zweiten Ausführungsform gemäß der vorliegenden Erfindung werden deshalb diese durch Experimente erhaltenen Trainingsdaten und durch Vorhersage erhaltenen Trainingsdaten verwendet, um die Gewichtungen des neuronalen Netzes so zu lernen, dass die sich in Übereinstimmung mit dem Drosselklappenöffnungswinkel ändernde NOx-Abgasmenge, d.h. der Ausgabewert „y“, den diesem Drosselklappenöffnungswinkel entsprechenden Trainingsdaten entspricht.
  • Zu beachten ist, dass bis hierher der Fall, bei welchem der Drosselklappenöffnungswinkel den vermuteten verwendbaren Bereich übersteigt, erklärt wurde, aber die Motordrehzahl N auch manchmal den vermuteten verwendbaren Bereich übersteigt und der Zündzeitpunkt auch manchmal den vermuteten verwendbaren Bereich übersteigt. Deshalb kann auch außerhalb des vermuteten verwendbaren Bereichs der Motordrehzahl N der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert „y“ als die Trainingsdaten gesetzt werden und außerhalb des vermuteten verwendbaren Bereichs des Zündzeitpunkts auch der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert „y“ als die Trainingsdaten gesetzt werden. In dieser zweiten Ausführungsform sind die Betriebsparameter des Verbrennungsmotors der Drosselklappenöffnungswinkel, die Motordrehzahl N und der Zündzeitpunkt und dementsprechend kann in dieser zweiten Ausführungsform bei umfassendem Ausdrücken gesagt werden, dass der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert für Werte der Betriebsparameter des Verbrennungsmotors außerhalb der vermuteten verwendbaren Bereiche als die Trainingsdaten gesetzt wird.
  • In dem in dieser zweiten Ausführungsform verwendeten Verbrennungsmotor ist, wie in 1 gezeigt, die elektronische Steuereinheit 30 ebenso vorgesehen. Diese elektronische Steuereinheit 30 weist eine Parameterwerterwerbseinheit zum Erwerb der Werte der Betriebsparameter des Verbrennungsmotors, eine Verarbeitungseinheit zur Durchführung eines Verfahrens unter Verwendung eines neuronalen Netzes mit einer Eingabeschicht, zumindest einer verdeckten Schicht und einer Ausgabeschicht und eine Speichereinheit auf. Des Weiteren bildet der in 1 gezeigte Eingabekanal 35 in dieser zweiten Ausführungsform ebenso die vorstehend genannte Parameterwerterwerbseinheit, die CPU 34 bildet die vorstehend genannte Verarbeitungseinheit und der ROM 32 und RAM 33 bilden die vorstehend genannte Speichereinheit. In dieser zweiten Ausführungsform werden weiterhin in der CPU 34, d.h. der vorstehen genannten Verarbeitungseinheit, ebenso die Werte der Betriebsparameter des Verbrennungsmotors an die Eingabeschicht eingegeben und ein sich in Übereinstimmung mit den Werten der Betriebsparameter des Verbrennungsmotors ändernder Ausgabewert wird von der Ausgabeschicht ausgegeben. Des Weiteren werden die vermuteten verwendbaren Bereiche der Werte der Betriebsparameter des Verbrennungsmotors im Voraus in dem ROM 32, d.h. in der vorstehend genannten Speichereinheit, gespeichert. Darüber hinaus wird der durch Experimente erhaltene Ausgabewert als die Trainingsdaten in dem RAM 33, d.h. in der vorstehend genannten Speichereinheit, für Werte der Betriebsparameter des Verbrennungsmotors in den vermuteten verwendbaren Bereichen gespeichert, während der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert als das die Trainingsdaten in dem RAM 33, d.h. in der vorstehend genannten Speichereinheit, für Werte der Betriebsparameter des Verbrennungsmotors außerhalb der vermuteten verwendbaren Bereich gespeichert wird.
  • Das heißt, in dieser zweiten Ausführungsform gibt es ebenso vermutete verwendbare Bereiche für Werte der Betriebsparameter des Verbrennungsmotors. Die vermuteten verwendbaren Bereiche werden im Voraus in der Speichereinheit gespeichert. Des Weiteren wird der durch Experimente erhaltene Ausgabewert „y“ als die Trainingsdaten für Werte der Betriebsparameter des Verbrennungsmotors in den vermuteten verwendbaren Bereichen in der Speichereinheit gespeichert, während der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert y0 für Werte der Betriebsparameter des Verbrennungsmotors außerhalb der vermuteten verwendbaren Bereiche als die Trainingsdaten in der Speichereinheit gespeichert wird. Darüber hinaus werden die durch Experimente erhaltenen Trainingsdaten und die durch Vorhersage erhaltenen Trainingsdaten in der Verarbeitungseinheit verwendet, um die Gewichtungen des neuronalen Netzes so zu lernen, dass der sich in Übereinstimmung mit den Werten der Betriebsparameter des Verbrennungsmotors ändernde Ausgabewert den den Werten der Betriebsparameter des Verbrennungsmotors entsprechenden Trainingsdaten entspricht. Das neuronale Netz, für welches die Gewichtung und der Schwellwert gelernt werden, wird verwendet, um den Ausgabewert für die Werte der Betriebsparameter des Verbrennungsmotors abzuschätzen.
  • Das in 8A gezeigte Lernverfahren der ersten Ausführungsform und das in 10A und 10B gezeigte Lernverfahren der zweiten Ausführungsform werden durchgeführt, bevor das Fahrzeug kommerziell verkauft wird, werden während des Fahrzeugbetriebs on-board durchgeführt, nachdem das Fahrzeug kommerziell verkauft wird, oder werden durchgeführt, bevor das Fahrzeug kommerziell verkauft wird und on-board während des Fahrzeugbetriebs, nachdem das Fahrzeug kommerziell verkauft wird. 12A zeigt die Lernverfahrensroutine der ersten Ausführungsform, welche on-board während des Fahrzeugbetriebs durchgeführt wird, während 12B die Lernverfahrensroutine der zweiten Ausführungsform, welche on-board während des Fahrzeugbetriebs durchgeführt wird, zeigt. Zu beachten ist, dass die in 12A und 12B gezeigten Lernverfahrensroutinen durch Unterbrechung zu jeder fixen Zeitspanne, z.B. durch Unterbrechung jede Sekunde, durchgeführt werden.
  • Mit Bezug auf 12A wird bei Schritt 50 zuerst die Motordrehzahl an den Knoten der Eingabeschicht des neuronalen Netzes eingegeben. Bei Schritt 51 wird als Nächstes basierend auf dem von dem Knoten der Ausgabeschicht des neuronalen Netzes ausgegebenen Ausgabewert „y“ und den Trainingsdaten der Fehlerrückführungsalgorithmus verwendet, um die Gewichtungen und Schwellwerte des neuronalen Netzes so zu lernen, dass der Ausgabewert „y“ den Trainingsdaten entspricht. Bei Bezug auf 12B werden andererseits bei Schritt 60 zuerst der Drosselklappenöffnungswinkel, die Motordrehzahl und der Zündzeitpunkt an die Knoten der Eingabeschicht des neuronalen Netzes eingegeben. Bei Schritt 61 wird als Nächstes basierend auf dem von dem Knoten der Ausgabeschicht des neuronalen Netzes ausgegebenen Ausgabewert „y“ und den Trainingsdaten der Fehlerrückführungsalgorithmus verwendet, um die Gewichtungen und Schwellwerte des neuronalen Netzes so zu lernen, dass der Ausgabewert „y“ den Trainingsdaten entspricht.

Claims (4)

  1. Steuervorrichtung eines Verbrennungsmotors mit einer elektronischen Steuereinheit, wobei die elektronische Steuereinheit (30) aufweist: eine Parameterwerterwerbseinheit für den Erwerb eines Werts eines Betriebsparameters des Verbrennungsmotors; eine Verarbeitungseinheit (34) zur Durchführung eines Verfahrens unter Verwendung eines neuronalen Netzes mit einer Eingabeschicht, zumindest einer verdeckten Schicht und einer Ausgabeschicht; und eine Speichereinheit (32, 33), wobei der Wert des Betriebsparameters des Verbrennungsmotors an die Eingabeschicht eingegeben wird und ein sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändernder Ausgabewert von der Ausgabeschicht ausgegeben wird; wobei es einen vermuteten verwendbaren Bereich (R) für den Wert des Betriebsparameters des Verbrennungsmotors gibt, ein durch Experimente erhaltener Ausgabewert als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors innerhalb des vermuteten verwendbaren Bereichs in der Speichereinheit (32) gespeichert wird, ein durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltener Ausgabewert als Trainingsdaten für einen Wert des Betriebsparameters des Verbrennungsmotors außerhalb des vermuteten verwendbaren Bereichs in der Speichereinheit (33) gespeichert wird, die durch Experimente erhaltenen Trainingsdaten und die durch Vorhersage erhaltenen Trainingsdaten in der Verarbeitungseinheit (34) verwendet werden, um zumindest eine Gewichtung und zumindest einen Schwellwert des neuronalen Netzes so zu lernen, dass ein Ausgabewert, welcher sich in Übereinstimmung mit dem Wert des Betriebsparameters des Verbrennungsmotors ändert, den dem Wert des Betriebsparameters des Verbrennungsmotors entsprechenden Trainingsdaten entspricht, und das neuronale Netz, für welches die Gewichtung und der Schwellwert gelernt werden, verwendet wird, um den Ausgabewert für den Wert des Betriebsparameters des Verbrennungsmotors abzuschätzen.
  2. Steuervorrichtung eines Verbrennungsmotors gemäß Anspruch 1, wobei der durch Vorhersage, ohne sich auf Experimente zu stützen, erhaltene Ausgabewert ein früherer empirischer Wert oder ein Wert, welcher durch ein physikalisches Gesetz vorhergesagt wird, ist.
  3. Steuervorrichtung eines Verbrennungsmotors gemäß Anspruch 1, wobei der Betriebsparameter des Verbrennungsmotors eine Motordrehzahl ist, während der Ausgabewert eine Abgasverlustmenge ist.
  4. Steuervorrichtung eines Verbrennungsmotors gemäß Anspruch 1, wobei der Betriebsparameter des Verbrennungsmotors eine Kombination eines Drosselklappenöffnungswinkels, einer Motordrehzahl und eines Zündzeitpunkts ist, während der Ausgabewert eine NOx-Abgasmenge ist.
DE102018133516.4A 2017-12-27 2018-12-21 Steuervorrichtung eines Verbrennungsmotors Active DE102018133516B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017251775A JP2019116881A (ja) 2017-12-27 2017-12-27 内燃機関の制御装置
JP2017-251775 2017-12-27

Publications (2)

Publication Number Publication Date
DE102018133516A1 DE102018133516A1 (de) 2019-06-27
DE102018133516B4 true DE102018133516B4 (de) 2023-09-07

Family

ID=66768110

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018133516.4A Active DE102018133516B4 (de) 2017-12-27 2018-12-21 Steuervorrichtung eines Verbrennungsmotors

Country Status (4)

Country Link
US (1) US10876500B2 (de)
JP (1) JP2019116881A (de)
CN (1) CN110005537B (de)
DE (1) DE102018133516B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6593560B1 (ja) * 2019-02-15 2019-10-23 トヨタ自動車株式会社 内燃機関の失火検出装置、内燃機関の失火検出システム、データ解析装置、および内燃機関の制御装置
JP6705539B1 (ja) * 2019-08-22 2020-06-03 トヨタ自動車株式会社 失火検出装置、失火検出システムおよびデータ解析装置
US11459962B2 (en) * 2020-03-02 2022-10-04 Sparkcognitton, Inc. Electronic valve control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6092017A (en) 1997-09-03 2000-07-18 Matsushita Electric Industrial Co., Ltd. Parameter estimation apparatus
DE69729981T2 (de) 1996-05-28 2004-12-16 Honda Giken Kogyo K.K. Gerät zur Steuerung des Luft/Kraftstoffverhältnisses, das ein neuronales Netzwerk benutzt
JP2012112277A (ja) 2010-11-24 2012-06-14 Honda Motor Co Ltd 内燃機関の制御装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08240587A (ja) * 1995-03-03 1996-09-17 Nippon Steel Corp ニュ−ラルネットワ−クを用いた厚鋼板の材質予測方法
JPH10176578A (ja) * 1996-05-28 1998-06-30 Matsushita Electric Ind Co Ltd 空燃比制御装置
US7020595B1 (en) * 1999-11-26 2006-03-28 General Electric Company Methods and apparatus for model based diagnostics
US6909960B2 (en) * 2002-10-31 2005-06-21 United Technologies Corporation Method for performing gas turbine performance diagnostics
JP4682906B2 (ja) * 2006-04-18 2011-05-11 日産自動車株式会社 内燃機関の制御装置
US7917333B2 (en) * 2008-08-20 2011-03-29 Caterpillar Inc. Virtual sensor network (VSN) based control system and method
JP5511698B2 (ja) * 2011-01-20 2014-06-04 日本電信電話株式会社 空調機連係制御システム、空調機連係制御方法および空調機連係制御プログラム
JP5609707B2 (ja) * 2011-02-22 2014-10-22 トヨタ自動車株式会社 ランキンサイクルシステムの制御装置
JP5686036B2 (ja) * 2011-05-13 2015-03-18 トヨタ自動車株式会社 内燃機関の制御装置
US10332320B2 (en) * 2017-04-17 2019-06-25 Intel Corporation Autonomous vehicle advanced sensing and response
US10634081B2 (en) * 2018-02-05 2020-04-28 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
JP6477951B1 (ja) * 2018-04-05 2019-03-06 トヨタ自動車株式会社 車載電子制御ユニット
JP6501018B1 (ja) * 2018-04-20 2019-04-17 トヨタ自動車株式会社 未燃燃料量の機械学習装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69729981T2 (de) 1996-05-28 2004-12-16 Honda Giken Kogyo K.K. Gerät zur Steuerung des Luft/Kraftstoffverhältnisses, das ein neuronales Netzwerk benutzt
US6092017A (en) 1997-09-03 2000-07-18 Matsushita Electric Industrial Co., Ltd. Parameter estimation apparatus
JP2012112277A (ja) 2010-11-24 2012-06-14 Honda Motor Co Ltd 内燃機関の制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP 2012- 112 277 A (Maschinenübersetzung), JPO, AIPN [online] [abgerufen am 27.03.2019]

Also Published As

Publication number Publication date
CN110005537A (zh) 2019-07-12
JP2019116881A (ja) 2019-07-18
US10876500B2 (en) 2020-12-29
US20190195173A1 (en) 2019-06-27
CN110005537B (zh) 2022-07-05
DE102018133516A1 (de) 2019-06-27

Similar Documents

Publication Publication Date Title
DE102019102835B4 (de) Steuervorrichtung eines Verbrennungsmotors
DE112008000618B4 (de) Verfahren und Vorrichtung zum Schätzen einer Abgastemperatur eines Verbrennungsmotors
DE102018133516B4 (de) Steuervorrichtung eines Verbrennungsmotors
DE112005003527B4 (de) Verfahren für die Schätzung von Verbrennungsparametern
DE112019000020B4 (de) Maschinenlernsystem
DE102007021592B4 (de) Verfahren für die erstellung eines maschinenkennfelds und -modells während eines entwicklungsprozesses einer brennkraftmaschine
DE112005003378B4 (de) Einzelzylinder-Controller für Vierzylindermotor
DE102016215896B4 (de) Steuerung und Steuerverfahren für Verbrennungsmotor
DE112007001865T5 (de) Verfahren und Vorrichtung zum Schätzen des Abgasdrucks einer Brennkraftmaschine
DE102013200323A1 (de) Überwachungsvorrichtung für Luft-Kraftstoff-Ungleichgewicht
DE102019127482B4 (de) Steuereinrichtung
DE102013200310A1 (de) Kraftstoffidentifikation auf der Basis der Kurbelwellenbeschleunigung
DE112010001481T5 (de) Steuervorrichtung und Steuerverfahren für einen Verbrennungsmotor
DE102013201293B4 (de) Verfahren zum Abschliessen eines Lernzyklus einer rekursiven Approximation mit kleinsten Quadraten
EP0966600B1 (de) Verfahren zur gemischsteuerung bei einem verbrennungsmotor und vorrichtung zu dessen durchführung
DE102019201016A1 (de) Steuerung und steuerverfahren für verbrennungsmotor
DE202016009192U1 (de) Kraftmaschinensystem
DE112019000195T5 (de) Verbrennungsmotor-steuervorrichtung und verbrennungsmotor-steuerverfahren
DE102014211162B4 (de) Verfahren und Vorrichtung zur Füllungserfassung in einem Zylinder einer Verbrennungskraftmaschine
DE112020002177T5 (de) Brennkraftmaschinen-Steuervorrichtung
DE102019210027A1 (de) Verfahren zur Bestimmung zumindest eines Adaptionswertes einer Abgasrückführungsrate
DE102018132188A1 (de) Motorbetriebssystem und -verfahren
DE112008000187B4 (de) Verfahren zur Diagnose und Klassifikation von Fehlern einer Brennkraftmaschine
DE102009045374B4 (de) Verfahren und Steuergerät zur Angleichung von Einzelzylinderluftzahlen eines Verbrennungsmotors
DE112018004225T5 (de) Brennkraftmaschinen-Steuervorrichtung und Brennkraftmaschinen-Steuerverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence