DE102006046204B3 - Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung - Google Patents

Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung Download PDF

Info

Publication number
DE102006046204B3
DE102006046204B3 DE200610046204 DE102006046204A DE102006046204B3 DE 102006046204 B3 DE102006046204 B3 DE 102006046204B3 DE 200610046204 DE200610046204 DE 200610046204 DE 102006046204 A DE102006046204 A DE 102006046204A DE 102006046204 B3 DE102006046204 B3 DE 102006046204B3
Authority
DE
Germany
Prior art keywords
function
layer
neurons
activation
regulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE200610046204
Other languages
English (en)
Inventor
Johannes Beer
Oliver Bänfer
Josef Dr. Kainz
Oliver Prof. Dr. Nelles
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Siegen De
Vitesco Technologies GmbH
Original Assignee
Siemens AG
Universitaet Siegen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Universitaet Siegen filed Critical Siemens AG
Priority to DE200610046204 priority Critical patent/DE102006046204B3/de
Application granted granted Critical
Publication of DE102006046204B3 publication Critical patent/DE102006046204B3/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)
  • Feedback Control In General (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur neuronalen Steuerung und/oder Regelung. Um ein Verfahren und eine Vorrichtung der genannten Art zu schaffen, die unter Verwendung vergleichsweise kostengünstiger Rechnerarchitekturen effizient einsetzbar ist, wird vorgeschlagen, dass die Neuronen 6 in der verdeckten Schicht 5 jeweils eine Aktivierungsfunktion 9 aufweisen, die als Polynom-Approximation einer ursprünglich vorgesehenen Aktivierungsfunktion in einem Speicher abgelegt ist.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur neuronalen Steuerung und/oder Regelung.
  • Ohne Beschränkung ihres Einsatzfeldes wird die vorliegende Erfindung nachfolgend unter Bezugnahme auf den Automobilsektor dargestellt. Der Automobil- und Kraftfahrzeugbereich ist aufgrund der hohen Systemanforderungen bei gleichzeitig hohem Kostendruck durch die hohen Absatzzahlen ein wirtschaftlich sehr bedeutender Anwendungsbereich. Alternative Einsatzfelder in der Flugzeug- oder Kraftwerkstechnik sowie auf sonstigen Feldern mit komplexen und mehrdimensionalen Regelaufgaben werden grundsätzlich nicht ausgeschlossen.
  • Bedingt durch die zunehmende Anzahl von Freiheitsgraden moderner Verbrennungsmotoren steigen Umfang und Komplexität der von der Motorsteuerung durchzuführenden Modellierungsaufgaben erheblich an. Zur Parametrierung dieser Modelle ist eine Vielzahl von Konstanten, Kennlinien und Kennfeldern erforderlich, was einen erheblichen Bedarf an Steuergeräteressourcen nach sich zieht. Manche dieser Modelle erfordern die Abbildung mehr- oder sogar hochdimensionaler Abhängigkeiten, also Zusammenhänge zwischen einer Ausgangsgröße und mehr als zwei Eingangsgrößen. Die Repräsentation einer solchen Funktion durch Kennfelder mit Stützstellen auf einem Gitter ist die übliche Vorgehensweise. Da hierbei die Anzahl der erforderlichen Stützstellen exponentiell mit der Anzahl der Eingangsgrößen anwächst, ist dieses Vorgehen ab einer gewissen Anzahl von Eingangsgrößen nicht mehr praktikabel.
  • Einen Ausweg aus diesem Dilemma bieten Verfahren und Vorrichtung unter Verwendung neuronaler Netze. Auf Basis derartiger Modellierungen einer Vorrichtung können nachfolgend Adaptionen, Steuerungen, Regelungen, Diagnosen und/oder Prädiktionen durchgeführt bzw. Vorhersagen getroffen werden. Neuronale Netze bieten den Vorteil, dass bei diesen die Anzahl der Kalibrationsgrößen nicht im selben Maße mit der Anzahl der Eingangsgrößen ansteigt. Aus diesem Grund gibt es aus dem Stand der Technik zahlreiche Beispiele für die Verwendung neuronaler Netze, so z. B.
    • • zur Abbildung des Schluckverhaltens, siehe B. Wu et al., SAE 2004-01-3054, H. Nareid, M. Grimes, J. Verdejo, SAE 2005-01-0045,
    • • zur Regelung von Bi-Fuel-Motoren, siehe G. Gnonam et al., SAE 2004-01-1360, zur Analyse des Spannungsverlaufs an der Zündkerze, siehe M. de Zoysa et al., Fourth Internationcal Conference an knowlege-based Intelligent Engineering Systems & Allied Technologies, Brighton, UK, 2000, oder
    • • zur Regelung des Zündwinkels, siehe M. Beham, D. L. Yu, Proc. IMechE. Part D: J. Automobile Engineering, 219, 227 (2005),
    um nur einige Beispiele zu nennen. Hierbei werden verschiedene Arten neuronaler Netze eingesetzt, wie z. B. Multi Layer Perzeptron MLP, RBF oder lokal linear neuro-fuzzy Netz, die z. B. von O. Nelles in O. Nelles, Nonlinear System Identification, Springer, Berlin, 2001 näher beschrieben werden.
  • Allen neuronalen Netzen ist gemeinsam, dass in deren konstituierenden Komponenten – den Knoten oder Neuronen – eine nichtlineare Funktion berechnet wird, die sog. Aktivierungs- bzw. Gültigkeitsfunktion. Typische Aktivierungsfunktionen sind die logistische Funktion
    Figure 00020001
    für MLP-Netze, oder die Gauß'sche Glockenfunktion
    Figure 00020002
    die meist bei lokal linearen neuro-fuzzy Netzen, kurz neuro-fuzzy Netze, und RBF zum Einsatz kommen.
  • Aus der DE 69223221 T2 ist ein Datenverarbeitungssystem mit Mitteln zur Umwandlung eines Eingangssignals in ein Ausgangssignal bekannt. Das Datenverarbeitungssystem verwendet hierzu ein neuronales Netz. Zur Einsparung von Rechenzeit werden dabei die in den Knoten des neuronalen Netzes implementierten, sigmoiden Funktionen über geteilte lineare Funktionen angenähert.
  • Die DE 69719058 T2 offenbart ein künstliches neuronales Netz zum Modellieren der Kurzzeitstruktur eines Prozesses. Hierzu werden in den Knoten des neuronalen Netzes Vorhersagefunktionen verwendet. Um beliebige, nicht-lineare kontinuierliche Funktionen auf einen beliebigen Genauigkeitsgrad zu approximieren, können in den Knoten des neuronalen Netzes Polynome verwendet werden.
  • Aus der DE 10010681 A1 ist ein neuronales Netz zur Nachbildung nicht-linearer Zusammenhänge bekannt. Dieses verwendet zumindest in einigen Neuronen eine nicht-lineare Aktivierungsfunktion. Die DE 10010681 A1 lehrt, dass das Interpolationsverhalten neuronaler Modelle bei Verwendung von Quetschfunktionen, z. B. sigmoidaler Funktionen, besser ist als bei Verwendung von Polynom-Approximationen.
  • Es ist daher Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung der genannten Art zu schaffen, die unter Verwendung vergleichsweise kostengünstiger Rechnerarchitekturen effizient einsetzbar ist.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Weitere vorteilhafte Merkmale von Weiterbildungen der Erfindung sind Gegenstand der jeweiligen Unteransprüche.
  • Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass die Aktivierungsfunktionen während der Regelung sehr oft berechnet werden müssen, so dass eine möglichst ressourcenschonende Berechnungsmethode von großer Bedeutung ist. Ferner ist die Berechnung gerade der für bekannte Aktivierungsfunktionen nötigen Exponentialfunktion numerisch sehr aufwändig. Dies gilt besonders bei Verwendung von Festkommaarithmetik, wie sie in heutigen Steuergeräten üblich ist.
  • Erfindungsgemäß zeichnet sich eine neuronale Steuer- und/oder Regelvorrichtung der eingangs genannten Art dadurch aus, dass die Neuronen in der verdeckten Schicht jeweils eine Aktivierungsfunktion aufweisen, die als Polynom-Approximation einer ursprünglich vorgesehen Aktivierungsfunktion in einem Speicher abgelegt ist. Dementsprechend zeichnet sich ein erfindungsgemäßes Regelungsverfahren unter Verwendung eines neuronalen Netzes dadurch aus, dass Aktivierungsfunktionen aus Polynom-Approximation einer ursprünglich vorgesehen Aktivierungsfunktion unter der Maßgabe hergeleitet werden, dass sie gut im Sinne von stabil und effizient auf einer vorhandenen oder vorgegebenen Rechnerstruktur laufen.
  • Ein Kern einer Weiterbildung der vorliegenden Erfindung ist es mithin, modifizierte Aktivierungsfunktionen vorzusehen, die auch mit Festkommaarithmetik effizient in einem Steuergerät berechnet werden können, wobei die Aktivierungsfunktionen insbesondere als abschnittsweise definierte Funktionen angegeben sind. Durch die Anpassung an Steuergeräte mit Festkommaarithmetik wird der für die Verwendung neuronaler Netze nötige Ressourcenbedarf in vorteilhafter Weise erheblich vermindert, wobei die durch den Einsatz neuronaler Netze erzielbare Reduktion der Anzahl der Kalibrationsgrößen erhalten bleibt.
  • Weitere Merkmale und Vorteile der Erfindung werden nachfolgend unter Beschreibung von Ausführungsbeispielen mit Bezugnahme auf die Abbildungen der Zeichnung angegeben. In der Zeichnung zeigen in schematisierter Form:
  • 1: ein grundsätzlicher Aufbau einer Regelvorrichtung auf Basis eines neuronalen Netzwerkes;
  • 2: eine graphische Darstellung der Berechnung innerhalb eines lokal linearen neuro-fuzzy Netzes;
  • 3: eine graphische Gegenüberstellung der Gauß'schen und parabolischen Zugehörigkeitsfunktion μ anhand je zweier Funktionen mit Zentren bei μ = 1/3 und μ = 2/3 und
  • 4: ein Diagramm zur Charakterisierung einer Schluckgeraden einer Verbrennungskraftmaschine.
  • Über die verschiedenen Ausführungsbeispiele und Abbildungen hinweg werden nachfolgend einheitlich gleiche Bezugsziffern und Bezeichnungen für gleiche Funktions- bzw. Baugruppen und Verfahrensschritte verwendet.
  • 1 zeigt einen grundsätzlicher Aufbau einer Regelvorrichtung 1 auf Basis eines neuronalen Netzwerkes. Das neuronale Netzwerk ist in drei Schichten aufgeteilt: Eine Eingangsschicht 2 mit Empfangsknoten bzw. Neuronen 3 für den Empfang von Eingangsgrößen u in Form von Signalen oder Mustern aus der Außenwelt und eine Ausgangsschicht 4 zur Weitergabe der Signale an die Außenwelt. Zwischen der Eingangsschicht 2 und der Ausgangsschicht 4 ist die sog. verdeckte Schicht 5 angeordnet, deren Neuronen 6 jeweils alle Eingangssignale u erhalten und nach der Verarbeitung Ausgangssignale an alle Neuronen 7 der Ausgangsschicht 4 zur Endverarbeitung weiterleiten. Im vorliegenden Beispielfall sind zwei Neuronen 3 in der Eingangsschicht 2, fünf Neuronen 6 in der verdeckten Schicht 5 und ein Neuron in der Ausgangsschicht 4 vorgesehen. Als Besonderheit weisen die Neuronen 6 der verdeckten Schicht 5 neben einem Modell der Außenwelt, das von einer Konstante bis zu einem mehrdimensionalen Abbild reichen kann, eine modifizierte Aktivierungsfunktion auf. Die Modifikation einer ursprünglich vorgesehenen und i.d.R. mathematisch aufwändig zu berechnenden Funktion wird unter der Maßgabe durchgeführt, dass zwischen der alten und der neuen Aktivierungsfunktion nur eine ausreichende Ähnlichkeit bestehen soll. Daher wird die neue Aktivierungsfunktion aus Polynom-Approximation der ursprünglich vorgesehen Aktivierungsfunktion hergeleitet, um beispielsweise in einem nachfolgend noch diskutierten Anwendungsfall eine beschränkte, monotone und stetig differenzierbare Ersatzfunktion zu erhalten.
  • Im Folgenden wird ein erfindungsgemäßes Verfahren im Einzelnen erläutert. Anschließend wird dessen Anwendung am Beispiel der Abbildung des Schluckverhaltens eines Verbrennungsmotors dargestellt:
  • 1. Berechnungsvorschrift für ein MLP-Netz
  • Der Ausgang eines multilayer perceptron-Netzes, kurz MLP, mit M Neuronen und p Eingängen u1, ..., up wird gemäß
    Figure 00060001
    berechnet, siehe u. a. O. Nelles a.a.O.. Die Gewichte wi und wij sind durch sogenanntes Training des Netzwerkes so zu bestimmen, dass der Ausgang die gewünschten Werte annimmt. Es gibt zahlreiche Trainingsalgorithmen. Für MLP-Netze ist das sogenannte back-propagation-Verfahren sehr verbreitet. Es beruht darauf, dass die partiellen Ableitungen des Netzwerk-Ausgangs nach den Gewichten in einfacher Art und Weise von der Ableitung der Aktivierungsfunktion abhängen. Daher ist es von Bedeutung, die Aktivierungsfunktion so zu wählen, dass deren Ableitung leicht berechenbar ist. Mit der Kenntnis der partiellen Ableitungen des Netzwerk-Ausgangs nach den Gewichten können nun die Gewichte so optimiert werden, dass der Modellierungsfehler am Ausgang des neuronalen Netzes minimiert wird. Für dieses Minimierungsproblem kann beispielsweise ein sog. "steepest descent"-Verfahren oder andere Verfahren zur nichtlinearen Optimierung eingesetzt werden.
  • Als Aktivierungsfunktion wird üblicherweise die logistische Funktion gewählt
  • Figure 00070001
  • Diese Funktion ist beschränkt, streng monoton steigend und stetig differenzierbar. Die Ableitung kann auf einfache Art und Weise berechnet werden.
  • Anstelle dieser aufwändig zu berechnenden Funktion wird vorgeschlagen, als Aktivierungsfunktion eine Funktion zu verwenden, die stückweise durch Polynome dargestellt werden kann. Die Funktion muss beschränkt, monoton und stetig differenzierbar sein. Als besonders geeignet hat sich die folgende, stückweise parabolische Funktion erwiesen:
  • Figure 00070002
  • Diese Funktion ist beschränkt, monoton steigend und stetig differenzierbar. Die Ableitung kann einfach berechnet werden. Diese neue Definition der Aktivierungsfunktion ersetzt damit Gleichung (2).
  • 2. Berechnungsvorschrift für ein lokal lineares neuro-fuzzy Netz
  • Der Ausgang eines lokal linearen neuro-fuzzy Netzwerks mit M Neuronen und p Eingängen u1, ..., up wird bestimmt nach O. Nelles a.a.O.:
  • Figure 00080001
  • Eine Aktivierungs- bzw. Gültigkeitsfunktion ergibt sich durch Normierung einer Zugehörigkeitsfunktion. Dementsprechend ergeben sich im vorliegenden Fall die Gültigkeitsfunktionen Φi durch Normierung der mehrdimensionalen Zugehörigkeitsfunktionen μi. Diese mehrdimensionale Zugehörigkeitsfunktion μi definiert man als Produkt von eindimensionalen Zugehörigkeits-Funktionen μij:
  • Figure 00080002
  • Die Gewichte wij und die Parameter cij bzw. σij können mit Hilfe des LOLIMOT-Trainingsalgorithmus bestimmt werden. Der LOLIMOT-Algorithmus (lokal linear model tree) beruht auf einer iterativen Unterteilung des von den Eingangsgrößen des neuronalen Netzes aufgespannten Raums. In jedem Teilbereich wird ein lokales, üblicherweise lineares, Modell geschätzt. Die Summe der mit den Gültigkeitsfunktionen gewichteten Ausgänge der lokalen Modelle ergibt den Ausgang des neuronalen Netzes. Ausgehend vom nicht unterteilten Eingangsraum erfolgt dabei in jedem Iterationsschritt eine hälftige Teilung eines Teilbereichs, die senkrecht zu einer Koordinatenachse durchgeführt wird. Der Teilbereich und die Koordinatenachse werden dabei so gewählt, dass eine maximale Reduktion des Modellfehlers erzielt wird. Das Abbruchkriterium für den Algorithmus ist das Erreichen einer maximalen Anzahl von lokalen Modellen oder das Unterschreiten eines minimalen Modellfehlers.
  • Eine graphische Darstellung der vorstehend beschriebenen Berechnungsvorschriften ist in 2 wiedergegeben. Hier ist eine Anzahl von M Neuronen 6 in der verdeckten Schicht 5 dargestellt. Diesen Neuronen 6 ist jeweils eine approximierte Gültigkeitsfunktion 9 zugeordnet worden. In dem M-ten Neuron 6 ist exemplarisch eine Gültigkeitsfunktion 10 vorgesehen. Die Gültigkeitsfunktion 10 hat die Aufgabe einer Einstellung eines Extrapolationsverhaltens bzw. eines Verlaufes über die Ränder des Betrachtungsbereiches hinaus.
  • Im beschriebenen Fall sind die eindimensionalen Zugehörigkeitsfunktionen also Gauß-Funktionen. Anstelle dieser aufwändig zu berechnenden Funktion wird hier vorgeschlagen, die eindimensionale Zugehörigkeitsfunktion stückweise durch Polynome darzustellen. Als besonders geeignet hat sich die folgende, in einem Teil des Definitionsbereichs parabolische Funktion erwiesen:
  • Figure 00090001
  • Diese Gleichung ersetzt damit Gleichung (6). Auch in diesem Fall können die Gewichte und Parameter mit einem modifizierten LOLIMOT-Algorithmus bestimmt werden. Die Abbildung von 3 zeigt anhand eines Beispiels Gauß'sche und parabolische Zugehörigkeitsfunktionen im direkten Vergleich. Von Bedeutung ist beim Ersetzen der ursprünglichen durch eine approximierte Zugehörigkeitsfunktion im Wesentlichen der qualitative Verlauf der jeweiligen Kurven. D. h., dass eine Lage der Maxima und ein Abklingen der Funktionen weit ab der Maxima auf Werte nahe Null von großer Bedeutung bei Auswahl und Formung der Ersatzfunktion sind. Weiterhin darf die Funktion nur Werte > 0 annehmen.
  • 3. Berechnungsvorschrift für ein RBF-Netz
  • Die Berechnungsvorschrift für ein neuronales Netz mit radialer Basisfunktion, d. h. vom RBF-Typ, ist formal ein Spezialfall von Gleichung (4), wobei die linearen Gewichte der Eingänge verschwinden, d. h. wij = 0 für alle j > 0. Damit kann das im vorstehenden Abschnitt 2. geschilderte Vorgehen bezüglich der modifizierten Berechnung der Zugehörigkeitsfunktion nach Gleichung (7) direkt übernommen werden.
  • Es folgt nun mit der Modellierung des Schluckverhaltens eines Verbrennungsmotors ein konkretes Anwendungsbeispiel aus der Automobiltechnik.
    • a) Zum Hintergrund: Für den Betrieb moderner Verbrennungsmotoren und die Einhaltung anspruchsvoller Emissionsgrenzwerte muss die Motorsteuerung eine genaue Modellierung des Luftmassenstroms in Abhängigkeit vom Betriebszustand des Motors gewährleisten. Dies ermöglicht es, die einzuspritzende Kraftstoffmenge so zu bemessen, dass ein für die Abgasnachbehandlung im Katalysator optimales Luft-Kraftstoffverhältnis Lambda vorliegt.
  • Dazu wird anhand einer Gaspedalstellung ein aktueller Fahrerwunsch bzw. ein gewünschtes Drehmoment sensiert. In der Motorsteuerung erfolgt heute die Beschreibung des Schluckverhaltens, das ist die Abhängigkeit des Luftmassenstroms MAF vom Saugrohrdruck MAP, in der linearisierten Form, also als sog. Schluckgerade, MAF = EFF_VOL_SLOP·MAP – EFF_VOL_OFS, (8)wobei angenommen wird, dass Nichtlinearitäten in der Abhängigkeit des Luftmassenstroms vom Saugrohrdruck vernachlässigt werden können. Die Parameter für Steigung EFF_VOL_SLOP und MAF-Achsenabschnitt EFF_VOL_OFS der Schluckgeraden können entweder durch Kennfelder oder auch durch ein neuronales Netz in Abhängigkeit von Drehzahl, Nockenwellenposition mit Einlass CAM_IN und/oder Auslass CAM_EX und Aktorstellung, z. B. Drallklappe, Schaltsaugrohr, Ventilhubumschaltung, in dem Steuergerät hinterlegt werden.
  • Außerdem werden die so berechneten Werte für Steigung und Achsenabschnitt zur Kompensation von veränderten Umgebungsbedingungen abhängig von Umgebungsdruck, Saugrohrund Kühlwassertemperatur zusätzlich korrigiert. Weiterhin können Korrekturen angebracht werden, um Nichtlinearitäten in der MAF-MAP-Abhängigkeit abzubilden.
    • b) Ermittlung der Parameter zur Charakterisierung der Schluckgeraden
  • Nach dem heute praktizierten Ansatz wird die Schluckgerade, vgl. Gleichung (8), durch deren Steigung EFF_VOL_SLOP und den laut Vorzeichenkonvention negativen Achsenabschnitt der Ordinate EFF_VOL_OFS eindeutig festgelegt, siehe 4. Die Ermittlung dieser Parameter erfolgt durch Auswertung von Messdatenpaaren (MAF, MAP) für verschiedene Betriebszustände. Typischerweise besteht diese Analyse in einer linearen Regression, durch die Steigung und Achsenabschnitt so gewählt werden, dass die Messdaten mit möglichst geringem quadratischem Fehler durch die Schluckgerade repräsentiert sind. Eine Charakterisierung der Schluckgeraden durch EFF_VOL_OFS und EFF_VOL_SLOP ist in 4 dargestellt.
  • Der Parameter für die Steigung ist nicht direkt interpretierbar. Der MAF-Achsenabschnitt kann als im Zylinder verbleibende Restgasmenge bzw. als der dadurch generierte Massenstrom interpretiert werden. Eine direkte Messung ist für beide Parameter nicht möglich.
  • Zur Abbildung des Schluckverhaltens mittels eines neuronalen Netzes:
    Für die Darstellung des Schluckverhaltens wird ein lokal lineares neuro-fuzzy Netz nach Gleichung (4) benutzt, wobei als Eingänge die Drehzahl N und die Nockenwellenstellungen auf Einlass- und Auslassseite (CAM_IN, CAM_EX) gewählt werden: u1 = N, u2 = CAM_IN, u3 = CAM_EX. (9)
  • Der Ausgang des Netzes ist der aus den Werten EFF_VOL_OFS und EFF_VOL_SLOP bestehende Vektor
    Figure 00120001
    womit auch die Gewichte zu Vektoren werden
  • Figure 00120002
  • Die Berechnung der Netzwerk-Ausgänge erfolgt nun gemäß den Gleichungen (4), (5) mit den parabolischen Zugehörigkeitsfunktionen nach Gleichung (7). Durch diese Form der Zugehörigkeitsfunktion wird der Aufwand insbesondere für Festkommaberechnung im Steuergerät erheblich vermindert.
  • Die Gewichte wij auch die Parameter cij bzw. σij werden mit Hilfe eines an die modifizierten Zugehörigkeitsfunktionen angepassten LOLIMOT-Algorithmus bestimmt.
  • Je nach den im System vorhandenen Freiheitsgraden ist die Art und Zahl der Eingangsgrößen entsprechend zu modifizieren. So sind beispielsweise für ein System ohne Auslassnockenwellenverstellung nur die Eingänge N und CAM_IN zu betrachten. Entsprechend ist für zusätzlich vorhandene Freiheitsgrade, wie z. B. die Verstellung des Ventilhubes, ein zusätzlicher Eingang hinzuzufügen.
  • Die Berücksichtigung diskreter Freiheitsgrade des Systems, z. B. ein zweistufiges Schaltsaugrohr oder eine geschaltete Drallklappe, kann auf die gleiche Weise durch je einen Eingang des neuronalen Netzes erfolgen. Im Fall zweier binärer Aktoren hat es sich allerdings als vorteilhaft erwiesen, für jede mögliche Kombination ein separates neuronales Netz zu definieren.
  • Ein wesentlicher Vorteil eines vorstehend beschriebenen Verfahrens liegt in seiner universellen Einsetzbarkeit. Schon heute ist die Verwendung neuronaler Netze im Kraftfahrzeugbereich in Motorsteuerungen für vielerlei Zwecke im Serieneinsatz. Beispiele hierfür sind Funktionen zur
    • • Klopfregelung, bei dem ein akustisches Sensorausgangssignal mit Parametern der Gemischzusammensetzung, Motorparametern und einen aktuellen Lastzustand als Größen zur Verfügung stehen,
    • • Adaption des Saugrohrmodells, mit einer Luftmassenstrombilanz und diversen Regelungseingriffen über Drosselklappen etc,
    • • Adaption des Lambda-Reglers auf Basis u. a. einer aktuellen Last, Drehzahl, einer Gemischzusammensetzung etc., oder
    • • ein Abgastemperaturmodell ausgehend von einer Wärmebilanz unter Berücksichtigung u. a. von Last, Drehzahl, Zündwinkel, Abgastemperatur, Druck und weiteren Größen.
  • Die dort verwendeten neuronalen Netze entsprechen den oben beschriebenen Standard-Typen MLP, RBF, neuro-fuzzy und verwenden Aktivierungsfunktionen auf Basis der Exponentialfunktion. In allen diesen Fällen kann mit den hier beschriebenen stückweise polynomialen Aktivierungsfunktionen eine erhebliche Verminderung des Rechenzeitbedarfs erreicht werden, ohne dass die Funktionalität beeinträchtigt wird.
  • Eine Ausweitung der Anwendung auf beliebige andere Steuergeräte, in denen neuronale Netze zum Einsatz kommen können, ist ebenfalls problemlos möglich. Ein Beispiel für eine solche Einsatzmöglichkeit wäre die Modellierung des Batterieladezustandes in einem Hybridfahrzeug mit Hilfe neuronaler Netze, vgl. z. B. J. Angloher, U. Wagner, VDI-Berichte 1459, 147 (1999). In diesem Fall könnten die entsprechenden Berechnungsroutinen im Motorsteuergerät oder im Getriebesteuergerät integriert sein oder in einem separaten Steuergerät für die Hybridfunktionalität ausgeführt werden.
  • Durch Benutzung der beschriebenen, stückweise polynomialen Zugehörigkeitsfunktionen kann der Einsatz neuronaler Netze für beliebige Zwecke mit wesentlich vermindertem Bedarf an Rechenzeit erfolgen. Dies gilt besonders, aber nicht ausschließlich, falls Festkommaarithmetik zum Einsatz kommt.
  • 1
    Vorrichtung zur neuronalen Regelung,
    2
    Eingangsschicht
    3
    Empfangsknoten bzw. Neuronen
    4
    Ausgangsschicht
    5
    verdeckte Schicht
    6
    Neuron der verdeckten Schicht 5
    7
    Neuron der Ausgangsschicht 4
    8
    Modell der Außenwelt
    9
    modifizierte Aktivierungsfunktion
    10
    Gültigkeitsfunktion zur Einstellung eines Extrapolationsverhaltens
    ŷ
    Ausgang des neuronalen Netzes
    uj
    Eingangssignal/Eingangsgrößen des neuronalen Netzes
    wi
    Gewicht des neuronalen Netzes
    wij
    Gewicht des neuronalen Netzes
    Φi
    Aktivierungsfunktion (MLP) bzw. Gültigkeitsfunktion (RBF, neuro-fuzzy Netz)
    μi
    Zugehörigkeitsfunktion (RBF, neuro-fuzzy Netz)
    Cij
    Parameter für Zentren lokaler Modelle (RBF, neuro-fuzzy Netz)
    σij
    Parameter für Ausdehnung lokaler Modelle (RBF, neuro-fuzzy Netz)
    MAP
    Saugrohrdruck/hPa
    MAF
    Luftmassenstrom (in den Zylinder)/kg/h
    EFF_VOL_SLOP
    Steigung der Schluckgeraden/kg/(h·hPa)
    EFF_VOL_OFS
    negativer Ordinaten-Achsenabschnitt der Schluckgeraden/kg/h
    N
    Drehzahl der Kurbelwelle/rpm
    CAM_IN
    Stellung der Einlassnockenwelle/CRK
    CAM_EX
    Stellung der Auslassnockenwelle/CRK

Claims (7)

  1. Vorrichtung (1) zur neuronalen Steuerung und/oder Regelung, die eine Eingangsschicht (2) mit Empfangsknoten bzw. Neuronen (3) für den Empfang von Eingangssignalen (uj) oder Mustern aus der Außenwelt, eine Ausgangsschicht (4) zur Weitergabe der Signale an die Außenwelt und eine zwischen der Eingangsschicht (2) und der Ausgangsschicht (4) angeordnet verdeckte Schicht (5) umfasst, deren Neuronen (6) jeweils alle Eingangssignale (uj) erhalten und nach der Verarbeitung Ausgangssignale an alle Neuronen (7) der Ausgangsschicht (4) zur Endverarbeitung weiterleiten, wobei die Neuronen (6) in der verdeckten Schicht (5) jeweils eine Aktivierungsfunktion (9) aufweisen, dadurch gekennzeichnet, dass als Aktivierungsfunktion (9) eine stückweise parabolische Funktion
    Figure 00160001
    oder als Aktivierungsfunktion (9) eine stückweise parabolische Funktion
    Figure 00160002
    vorgesehen ist.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass diese ein Multilayer-Perception-Netzwerk und/oder ein lokal lineares neuro-fuzzy-Netz und/oder ein Netz mit radialer Basisfunktion umfasst.
  3. Vorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Berechnung der Aktivierungsfunktionen mittels Festkommaarithmetik vorgesehen ist.
  4. Brennkraftmaschine mit einer Vorrichtung nach einem der Ansprüche 1 bis 3.
  5. Verfahren zur neuronalen Steuerung und/oder Regelung, bei dem in Neuronen eine Aktivierungsfunktion berechnet wird, dadurch gekennzeichnet, dass als Aktivierungsfunktion (9) eine stückweise parabolische Funktion
    Figure 00170001
    oder als Aktivierungsfunktion (9) eine stückweise parabolische Funktion
    Figure 00170002
    verwendet wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Berechnung der Aktivierungsfunktionen mittels Festkommaarithmetik vorgenommen wird.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass eine Funktion einer Brennkraftmaschine gesteuert und/oder geregelt wird.
DE200610046204 2006-09-29 2006-09-29 Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung Expired - Fee Related DE102006046204B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200610046204 DE102006046204B3 (de) 2006-09-29 2006-09-29 Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200610046204 DE102006046204B3 (de) 2006-09-29 2006-09-29 Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung

Publications (1)

Publication Number Publication Date
DE102006046204B3 true DE102006046204B3 (de) 2008-07-17

Family

ID=39510117

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200610046204 Expired - Fee Related DE102006046204B3 (de) 2006-09-29 2006-09-29 Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung

Country Status (1)

Country Link
DE (1) DE102006046204B3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007008514A1 (de) 2007-02-21 2008-09-04 Siemens Ag Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69223221T2 (de) * 1991-12-11 1998-05-14 Koninkl Philips Electronics Nv Datenverarbeitungssystem mit geteilter nicht-linearer Funktion
DE10010681A1 (de) * 2000-03-04 2001-09-06 Heinz J Theuerkauf Virtueller Drehmomentsensor auf Basis neuronaler Netze (MD-VNS) zur Implementierung in Kraftfahrzeugsteuergeräte
DE69719058T2 (de) * 1996-11-22 2003-12-11 Univ Strathclyde Glasgow Verbessertes neuronales netzwerk

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69223221T2 (de) * 1991-12-11 1998-05-14 Koninkl Philips Electronics Nv Datenverarbeitungssystem mit geteilter nicht-linearer Funktion
DE69719058T2 (de) * 1996-11-22 2003-12-11 Univ Strathclyde Glasgow Verbessertes neuronales netzwerk
DE10010681A1 (de) * 2000-03-04 2001-09-06 Heinz J Theuerkauf Virtueller Drehmomentsensor auf Basis neuronaler Netze (MD-VNS) zur Implementierung in Kraftfahrzeugsteuergeräte

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
B.Wu, et.al.: SAE 2004-01-3054 *
G.Gnonam, et.al.: SAE 2004-01-1360 *
H.Nareid,M.Grimes,J.Verdejo: SAE 2005-01-0045 *
J.Augloher,K.Wagner: VDI Berichte 1459, 147 (1999) *
M.Beham,D.L.Yu: Proc. I Mech E, Part D: J. Automobile Engineering, 219, 227 (2005) *
M.de Zoysa, et.al.: Fourth Internationacal Conference on Knowleged-based Intelligent Engineering Systems & Alhid Technologies, Brighton, UK, 2000 *
O.Nelles: Nonlinear System Identification, Springer, Berlin, 2001 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007008514A1 (de) 2007-02-21 2008-09-04 Siemens Ag Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung

Similar Documents

Publication Publication Date Title
DE102018114336B4 (de) Verfahren zum Steuern eines Stellgliedsystems eines Kraftfahrzeugs
AT518850A1 (de) Verfahren zur simulationsbasierten Analyse eines Kraftfahrzeugs
EP1924474B1 (de) Verfahren zur steuerung einer fahrzeug-antriebseinheit
DE102018222120A1 (de) Steuerung und Steuerverfahren für einen Verbrennungsmotor
WO2006000427A1 (de) Fahrzeug-steuergerät mit einem neuronalen netz
DE102016101859A1 (de) Modellprädiktive Regelsysteme und modellprädiktive Regelverfahren zum Erhöhen der Recheneffizienz
DE102016101861A1 (de) Modellprädiktive Regelsysteme und modellprädiktive Regelverfahren zum Erhöhen der Recheneffizienz
DE69200899T2 (de) Vorrichtung zur Regelung der Drehzahl einer Brennkraftmaschine.
DE3605117C2 (de) Vorrichtung zur Regelung der Fahrgeschwindigkeit
DE102019201016A1 (de) Steuerung und steuerverfahren für verbrennungsmotor
DE102018113545B4 (de) Motorsteuerungssystem und -verfahren
DE102018123818A1 (de) Linearisierter modellbasierter mpc-antriebsstrang
WO2014187828A1 (de) Methode zur ermittlung eines modells einer ausgangsgrösse eines technischen systems
DE102007039691A1 (de) Modellierungsverfahren und Steuergerät für einen Verbrennungsmotor
DE102020106591A1 (de) Verfahren zum Erstellen eines trainierten künstlichen neuronalen Netzes, Verfahren zum Vorhersagen von Emissionsdaten eines Fahrzeugs sowie Verfahren zum Ermitteln von Kalibrierwerten
DE102014000397A1 (de) Modellbasierte Zylinderfüllungserfassung für eine Brennkraftmaschine
DE102019124267A1 (de) Steuerungsvorrichtung einer Brennkraftmaschine und Steuerungsverfahren derselben sowie Lernmodell zur Steuerung einer Brennkraftmaschine und Lernverfahren desselben
DE102019125974A1 (de) System und Verfahren zur Kalibrierung einer Steuervorrichtung zur Steuerung einer Leerlaufdrehzahl
DE10010681A1 (de) Virtueller Drehmomentsensor auf Basis neuronaler Netze (MD-VNS) zur Implementierung in Kraftfahrzeugsteuergeräte
AT518676B1 (de) Verfahren zur Kalibrierung eines technischen Systems
DE102004026583B3 (de) Verfahren zur Optimierung von Kennfeldern
DE3605282A1 (de) Regelvorrichtung fuer brennkraftmaschinen
DE102021118579A1 (de) Maschinenlernvorrichtung
DE102006046204B3 (de) Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung
DE102007008514A1 (de) Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

Owner name: UNIVERSITAET SIEGEN, 57072 SIEGEN, DE

8364 No opposition during term of opposition
R084 Declaration of willingness to licence
R081 Change of applicant/patentee

Owner name: VITESCO TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNERS: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE; UNIVERSITAET SIEGEN, 57072 SIEGEN, DE

Owner name: UNIVERSITAET SIEGEN, DE

Free format text: FORMER OWNERS: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE; UNIVERSITAET SIEGEN, 57072 SIEGEN, DE

R081 Change of applicant/patentee

Owner name: VITESCO TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNERS: UNIVERSITAET SIEGEN, 57072 SIEGEN, DE; VITESCO TECHNOLOGIES GMBH, 30165 HANNOVER, DE

Owner name: UNIVERSITAET SIEGEN, DE

Free format text: FORMER OWNERS: UNIVERSITAET SIEGEN, 57072 SIEGEN, DE; VITESCO TECHNOLOGIES GMBH, 30165 HANNOVER, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee