DE19531967A1 - Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems - Google Patents
Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen SystemsInfo
- Publication number
- DE19531967A1 DE19531967A1 DE19531967A DE19531967A DE19531967A1 DE 19531967 A1 DE19531967 A1 DE 19531967A1 DE 19531967 A DE19531967 A DE 19531967A DE 19531967 A DE19531967 A DE 19531967A DE 19531967 A1 DE19531967 A1 DE 19531967A1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- time series
- technical system
- variable
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Description
Die Erfindung bezieht sich auf ein Lernverfahren zur neurona
len Modellierung von dynamischen Prozessen mit dem erreicht
werden soll, daß das neuronale Netz in der Lage ist Prozesse
mit hohem Anteil an stochastischen Vorgängen zu regeln.
Neuronale Netze finden in die vielfältigsten technischen Ge
biete Eingang. Überall dort, wo es gilt, aus komplexen tech
nischen Zusammenhängen und aus unzureichenden Informationen
Entscheidungen abzuleiten, erweisen sich neuronale Netze als
besonders geeignet. Zur Bildung einer oder mehrerer Ausgangs
größen werden dem neuronalen Netz beispielsweise eine oder
mehrere Eingangsgrößen zugeführt. Hierzu wird ein solches
Netz zunächst für den speziellen Einsatzfall trainiert, an
schließend generalisiert und danach wird es mit einem anderen
Datensatz als den Trainingsdaten validiert. Neuronale Netze
erweisen sich für viele Einsatzfälle als besonders geeignet,
da sie universell trainierbar sind.
Ein häufig auftretendes Problem im Zusammenhang mit dem Ein
satz von neuronalen Netzen besteht allerdings darin, daß häu
fig die Eingangsdaten zum Training, oder beim Betrieb des
Netzes nicht vollständig sind. Dieser Sachverhalt und auch
die Tatsache, daß die Meßwerte für den Aufbau einer Zeitrei
he, welche dem neuronalen Netz zugeführt wird, häufig ungenau
oder verrauscht sind, bewirken, daß teilweise schlechte Ler
nergebnisse der Netze erzielt werden. Bei Prozessen mit hohem
Anteil an stochastischen Vorgängen tritt insbesondere das
Problem auf, daß die Trainingsdaten Zufallscharakter haben
und deshalb bisher keine Methode existiert neuronale Netze
mit dem Verhalten solcher Systeme zu trainieren. Bislang gibt
es keine Ansätze, welche dieser besonderen Problematik Rech
nung tragen.
Die der Erfindung zugrundeliegende Aufgabe besteht deshalb
darin, ein Lernverfahren anzugeben, mit dem der Lernvorgang
beim Training eines neuronalen Netzes verbessert werden kann,
welches das Verhalten eines technischen Systems mit hohem An
teil an stochastischen Vorgängen trainieren soll.
Diese Aufgabe wird gemäß den Merkmalen des Patentanspruchs 1
gelöst.
Weiterbildungen der Erfindung ergeben sich aus den abhängigen
Ansprüchen.
Besonders vorteilhaft können mit dem erfindungsgemäßen Ver
fahren neuronale Netze mit dem Verhalten von technischen Sy
stemen trainiert werden, welche ein nahezu vollständig sto
chastisches Verhalten aufweisen, da sich das erfindungsgemäße
Verfahren statistischer Methoden zur Auswertung der Eingangs
daten beim Training des neuronalen Netzes bedient. Besonders
vorteilhaft werden hierzu die Stellgrößendaten, zur Erzeugung
einer neuen Regelgröße des technischen Systems, mit Hilfe ei
nes Rauschens von bekannter statischer Verteilung variiert.
Durch eine häufige Wiederholung dieses Vorgangs und eine Be
wertung der Regelgröße des technischen Systems anhand einer
Kostenfunktion, wobei solche Gewichte, welche eine Verbesse
rung des Verhaltens des technischen Systems in Bezug auf ein
gewünschtes Sollverhalten bewirken mit Hilfe der Kostenfunk
tion stärker gewichtet werden, kann eine optimale Gewichts
einstellung des neuronalen Netzes erreicht werden. Zur Ein
stellung der Gewichte in Bezug auf den Fehlergradienten wer
den bekannte Verfahren für das Training neuronaler Netze ver
wendet.
Besonders vorteilhaft kann die Anzahl der zum Training des
neuronalen Netzes aufzunehmenden Zeitreihen variiert werden,
damit ist dem Fachmann die Möglichkeit gegeben, die Genauig
keit der Einstellung der Gewichte des neuronalen Netzes in
Abhängigkeit der ihm zur Verfügung stehenden Rechenzeit oder
Rechenkapazität zu beeinflussen.
Vorzugsweise können durch Modellierung oder durch Einsatz des
realen technischen Systems mehrere Zeitreihen gewonnen wer
den, und deren Mittelwerte zum Training des neuronalen Netzes
verwendet werden, da sich so eine bessere statistische Signi
fikanz für die Richtigkeit der Trainingswerte ergibt.
Vorteilhaft wird beim Training des neuronalen Netzes als be
kannte Rauschverteilung zur Variation der Stellgröße eine
Gaußverteilung verwendet, da sich damit der Fehlergradient
zum Training des neuronalen Netzes besonders einfach berech
nen läßt.
Vorteilhaft werden mehrere Zeitreihen simuliert und gemessen,
da so eine Aussage über das Verhalten der Regelgröße des
technischen Systems unter verschiedenen Umständen erhalten
werden kann und sich dadurch die Statistik der Zeitreihe ver
bessert. Vorteilhaft kann nicht nur die Stellgröße, sondern
auch die Regelgröße von einem Rauschen bekannter Verteilung
überlagert sein, ohne daß das Lernverhalten des neuronalen
Netzes nach dem erfindungsgemäßen Verfahren beeinträchtigt
wird.
Im folgenden wird die Erfindung anhand von Figuren weiter er
läutert.
Fig. 1 zeigt eine Zeitreihe und ein Systemverhalten,
Fig. 2 gibt ein Beispiel des erfindungsgemäßen Verfahrens an.
Fig. 1 zeigt eine Zeitreihe von Meßwerten, welche beispiels
weise einem neuronalen Netz zugeführt werden können. Die Er
läuterung dieser Figur dient insbesondere dazu die mathemati
schen Grundlagen zur Behandlung des erfindungsgemäßen Verfah
rens zu durchleuchten. Gemäß ihrer zeitlichen Abfolge werden
diese Meßwerte beispielsweise von einem technischen System
erfaßt und gemäß ihrer zeitlichen Abfolge mit yt bis yt-6 be
zeichnet. Beispielsweise wird in Fig. 1 davon ausgegangen,
daß der Wert yt-2 fehlt. Die im Markov blanket relevanten Wer
te, als benachbarte Werte dieses fehlenden Meßwertes, sind
yt-4, yt-3, yt-1 und yt. Ein solch fehlender Meßwert in einer
Zeitreihe kann beispielsweise dadurch entstehen, daß zum
fraglichen Zeitpunkt das Meßgerät, zur Werteaufnahme nicht
funktionierte, oder daß es zwischen einzelnen gemessenen Wer
ten günstig erscheint, um das neuronale Netz besser zu trai
nieren, diesem einen weiteren Wert zuzuführen, der folglich
noch zu bestimmen ist. Beispielsweise wird in Fig. 1 weiter
davon ausgegangen, daß der Wert yt-3 fehlt. Die im Markov
blanket relevanten Werte, als benachbarte Werte dieses feh
lenden Meßwertes, sind yt-5, yt-4, yt-2 und yt-1. Die Anwendung
des erfindungsgemäßen Verfahrens zum Training hat nach der
erfinderischen Idee zur Folge, daß das Netz mit besser zu
treffenden Gewichtungsfaktoren ausgestattet wird. Dies ist
der Fall, weil sich die Erfindung der Statistik bedient und
es so ermöglicht auch aus Zeitreihen, welche Prozessen mit
hohem stochastischen Anteil von Vorgängen entnommen werden,
die relevanten Trainingsdaten zu extrahieren.
Besonders vorteilhaft werden die Daten für die Stellgröße da
bei durch ein Rauschen mit bekannter Rauschverteilung, wie
beispielsweise Gauß-, oder Poisson-Verteilung variiert.
Hierdurch wird die Einstellung der Gewichte an den Neuronen
des Netzes wesentlich vereinfacht, da sich die mathematischen
Terme für die Berechnung der Regeldifferenz wesentlich einfa
cher gestalten lassen. Dies in Kombination mit einer Kosten
funktion, welche solche Gewichtseinstellungen begünstigt, die
einen gewünschten Sollzustand am technischen System herstel
len, ergibt ein vorteilhaftes Trainingsverfahren, welche mit
vergleichsweise geringem Rechenaufwand zu guten Trainingslei
stungen der Netze führt.
Fig. 1 zeigt dabei die Zeitreihe in Verbindung mit einem zu
trainierenden neuronalen Netz NNW. Es ist zu erkennen, daß y
eine zeitabhängige Variable darstellt, welche das Systemver
halten SY eines technischen Systems repräsentiert. Wie er
kannt werden kann, entsprechen die Werte yt bis yt-6 Meßwer
ten, welche dem Systemverlauf SY entnommen werden. Durch die
gestrichelten Pfeile zu den jeweiligen Zeitpunkten ist symbo
lisiert, daß diese Meßwerte dem neuronalen Netz NNW beim
Training zugeführt werden sollen.
Hier ist der fragliche Meßwert M für den Zeitpunkt yt-2 nicht
vorhanden. Für diesen Meßwert M ist seine Wahrscheinlich
keitsdichte ε1 angegeben. Diese Wahrscheinlichkeitsdichte ε
kann beispielsweise aus einer vorgegebenen bekannten Fehler
verteilungsdichte der übrigen bekannten Meßwerte rückgerech
net werden. Insbesondere wird dabei ausgenutzt, daß sich der
fehlende Meßwert zwischen zwei bekannten Meßwerten befinden
muß und damit auch dessen Fehler durch die Fehler der benach
barten und der restlichen Meßwerte der Zeitreihe begrenzt
wird. Die zugrundeliegende Zeitreihe läßt sich wie folgt be
schreiben:
Dabei ist f entweder bekannt oder wird hinreichend durch ein
neuronales Netz modelliert. εt bedeutet dabei einen additiven
unkorrelierten Fehler mit zeitlichem Mittelwert 0. Dieser
Fehler weist dabei und das ist für das erfindungsgemäße Ver
fahren essentiell eine bekannte oder vorgegebene Wahrschein
lichkeitsdichte Pε (ε) auf und versinnbildlicht typischerwei
se die unmodellierte Dynamik der Zeitreihe. Beispielsweise
soll für eine solche Zeitreihe, ein zukünftiger Wert vorher
gesagt werden. Dabei ist zu beachten, daß zukünftige Werte
relativ zu der momentanen gewählten Zeitposition zu verstehen
sind. Das heißt für einen Zeitpunkt yt-5 ist der Zeitpunkt yt-4
ein zukünftiger Wert. Unter diesen Voraussetzungen läßt sich
die bedingte Wahrscheinlichkeitsdichte für einen vorherzusa
genden Wert der Zeitreihe wie folgt beschreiben.
Wie bereits erwähnt muß die Fehlerverteilungsdichte bekannt
sein. Diese Verteilungsdichte kann entweder anhand des Sy
stemverhaltens und bekannter anderer äußerer Größen ermittelt
oder vorgegeben werden. Eine typische Fehlerverteilung, die
in der Praxis auftritt ist die Gaußverteilung. Mit einer sol
chen angenommenen Gauß′schen Fehlerverteilung läßt sich die
bedingte Wahrscheinlichkeitsdichte wie folgt beschreiben:
Darin bedeutet G (x; c, σ²) die Rotation für eine normale
Dichte, die bei x bestimmt wird mit einem Zentrum C und einer
Varianz σ². Geht man davon aus, daß das zu beschreibende Sy
stem in Form einer Folge von Werten auf einer Zeitachse dar
gestellt wird, so kann man die einzelnen Werte von yt auch
als Zufallsvariable in einem probabilistischen Netzwerk auf
fassen. Beispielsweise besteht das Problem des Netzes darin,
einen Wert der Zeitreihe vorherzusagen, indem die vorhandene
Information aus den restlichen Werten möglichst vollständig
verwendet wird. Unter Voraussetzung der Annahmen, die zuvor
gemacht wurden, läßt sich die gesamte Wahrscheinlichkeits
dichte der Zeitreihe wie folgt beschreiben:
Dabei wird davon ausgegangen, daß yt-k mit k N der fehlende
Wert ist. Mit der Bezeichnung yu = {yt-k} für die Menge der un
bekannten Werte und ym = {yt-1, . . ., yt-k-N}/{yt-k} kann der erwartete
Wert der in der Zeitreihe vorherzusagen ist wie folgt be
schrieben werden:
Dabei gelten folgende Voraussetzungen:
Mt-1 steht für alle Messungen bis zum Zeitpunkt t-1. Die vor anstehende Gleichung ist die grundlegende Gleichung für die Vorhersage mit fehlenden Daten. Dabei ist besonders zu beach ten, daß die Unbekannte yt-k nicht nur von den Werten der Zeitreihe vor dem Zeitpunkt t-k abhängt, sondern auch von den Messungen nach t-k. Der Grund besteht darin, daß die Variablen in ym ∪ yt ein minimales Markov blanket von yt-k for men. Dieses minimale Markov blanket besteht aus den direkten Vorfahren und den direkten Nachfahren einer Variable und al len direkten Vorfahren von Variablen des direkten Nachfol gers. Im betrachteten Beispiel in Fig. 4 sind die direkten Nachfahren yt . . . yt-k+1. Die direkten Vorfahren sind:
Mt-1 steht für alle Messungen bis zum Zeitpunkt t-1. Die vor anstehende Gleichung ist die grundlegende Gleichung für die Vorhersage mit fehlenden Daten. Dabei ist besonders zu beach ten, daß die Unbekannte yt-k nicht nur von den Werten der Zeitreihe vor dem Zeitpunkt t-k abhängt, sondern auch von den Messungen nach t-k. Der Grund besteht darin, daß die Variablen in ym ∪ yt ein minimales Markov blanket von yt-k for men. Dieses minimale Markov blanket besteht aus den direkten Vorfahren und den direkten Nachfahren einer Variable und al len direkten Vorfahren von Variablen des direkten Nachfol gers. Im betrachteten Beispiel in Fig. 4 sind die direkten Nachfahren yt . . . yt-k+1. Die direkten Vorfahren sind:
yt-k-1 . . . y1-k-N
und die direkten Eltern der Nachfolger der Variablen sind:
yt-1 . . . yt-k-N+1.
Aus den theoretischen Grundlagen ist bekannt, daß eine Varia
ble unabhängig von einer anderen Variablen dieses Netzwerkes
ist, wenn die Variablen innerhalb des Markov blankets bekannt
sind. Deshalb wird die benötigte bedingte Dichte aus Glei
chung (5) wie folgt bestimmt:
Der hier beschriebene Fall eines fehlenden Meßwert es kann
auch ○ auf mehrere nebeneinander liegende fehlende Meßwerte
ausgedehnt werden. Falls dies der Fall ist, kann die bedingte
Dichte in Gleichung (5) wie im folgenden beschrieben, be
stimmt werden. Für diesen Fall sei
die Menge aller fehlenden Werte der Zeitreihe zwischen dem
Zeitpunkt t-1 und t-N, und weiterhin sei
die Menge aller Meßwerte bis zum Zeitpunkt t-1. Auch gilt
wobei die rechte Seite in (5e) aus Gleichung (4) erhalten
wird. Im allgemeinen ist das Integral in Gleichung (5), wobei
P(yu/ym) in Gleichung (5) über die Gleichungen (2), (4) und
(5b) bis (5e) bestimmt wird, für die Funktion f(), falls dies
eine nichtlineare Funktion ist, nicht analytisch lösbar. De
tails für die numerische Lösung mit Hilfe statistischer Me
thoden werden im Zusammenhang mit Fig. 2 angegeben. Für den
Fall, daß ein weiterer Meßwert, der Zeitreihe nachgebildet
werden soll, sieht das Verfahren eine iterative Approximation
der Wahrscheinlichkeitsverteilung der fehlenden Werte vor.
Beispielsweise sei für das Training des Netzes zusätzlich der
Wert L für den Zeitpunkt yt-3 nachzubilden. Für diesen Meßwert
M ist seine Wahrscheinlichkeitsdichte ε2 angegeben. Diese
Wahrscheinlichkeitsdichte ε2 kann beispielsweise nach dem
erfindungsgemäßen Verfahren aus einer vorgegebenen bekannten
Fehlerverteilungsdichte der übrigen bekannten Meßwerte rück
gerechnet werden. Für die Approximation der Wahrscheinlich
keitsverteilung von zwei solchen fehlenden Werten L und M
wird zunächst L beispielsweise als bekannt vorausgesetzt oder
geschätzt. Daraus wird die Verteilung von M berechnet und ge
mäß dieser Verteilung ein Wert für M zufällig bestimmt. Mit
diesem bekannten Wert M wird anschließend in derselben Weise
L bestimmt. Dieser Vorgang wird iteriert. Die Folge der so
ermittelten Werte approximiert die gemeinsame Wahrscheinlich
keitsverteilung von L und M. Dieser Iterationsvorgang läuft
vorzugsweise so lange ab, bis eine hinreichende Genauigkeit
der Werte gegeben ist, oder bis das Netz genau genug trai
niert ist. Für mehr als zwei fehlende Werte verfährt man ana
log. Es wird immer jeweils ein Wert gemäß der Verteilung be
stimmt, die sich ergibt, wenn alle anderen als bekannt ange
nommen werden.
Für den Fall, daß y₁, . . . yt mögliche Werte der Zeitreihe dar
stellen sollen ym ⊆ {y₁, . . ., yt} alle Meßwerte bezeichnen und
yu = {y₁, . . ., yt}ym alle unbekannten werte bezeichnen. Das neuro
nale Netz NNW, welches die Funktion f modellieren soll, wer
de beispielsweise mit einem Satz von Gewichten w parametri
siert. Dann gilt:
Die logarithmische Wahrscheinlichkeitsfunktion lautet dann:
wobei dann die gemeinsame Wahrscheinlichkeitsdichte sich zu
approximiert und für das neuronale Netz folgender Zusammen
hang für die Berechnung der Fehlerverteilungsdichte gilt:
Für das Lernen mit Hilfe von Backpropagation, oder anderer
Gradienten basierter Lernalgorithmen wird nun noch der Gra
dient der logarithmischen Wahrscheinlichkeitsfunktion benö
tigt, welcher sich zu:
ergibt. Es ist anzumerken, daß hierbei von bekannten Aus
gangsbedingungen für y₁, . . ., yN ausgegangen wird. Für den Fall,
daß eine Gaußverteilung für die Fehlerverteilung vorliegt er
gibt sich daraus:
wobei
die fehlenden Werte für die Eingänge
des Netzwerkes darstellen und (8a) zeigt, daß falls alle
yl . . . yl-N bekannt sind, das Integral verschwindet.
Falls die Meßwerte von einem zusätzlichen aber bekannten Rau
schen überlagert werden ergeben sich die folgenden Zusammen
hänge. Beispielsweise gilt wieder:
In dieser Variante der Erfindung soll jedoch kein direkter
Zugriff auf yt bestehen. Anstattdessen wird die Zeitreihe
gemessen. Darin bedeutet δt ein unabhängiges Rauschen mit
Mittelwert Null. Unter der Voraussetzung, daß z = {z₁ . . . zt-1} und
y = {y₁ . . . yt} gelten ergibt sich die Gesamtwahrscheinlichkeits
dichte zu:
damit läßt sich die Rechenvorschrift für den erwarteten näch
sten Wert der Zeitreihe angeben
Ebenso kann der Gradient der Wahrscheinlichkeitsfunktion für
das Training berechnet werden. Für den Fall, daß eine Gauß
verteilung des Rauschens mit
vorliegt, ergibt sich:
Dem neuronalen Netz werden beispielsweise Werte zugeführt,
die verrauscht oder nicht genau bestimmbar sind. Durch die
Approximation der Gewichte im neuronalen Netz werden dabei
über die Funktion f, welche dabei durch das neuronale Netz
nachgebildet wird neue Werte der Zeitreihe bestimmbar. Diese
neuen Werte der Zeitreihe werden im Anschluß dem neuronalen
Netz NNW zugeführt, welches daraus wiederum durch Nachbil
dung der Funktion f neue Werte der Zeitreihe bestimmt. Die
ser iterative Vorgang wird solange fortgesetzt, bis eine hin
reichende Genauigkeit der zu bestimmenden Werte erreicht wur
de.
Zur genauen Bestimmung fehlender Werte mit Hilfe der Monte
Carlo Methode wird von folgenden Grundlagen ausgegangen. Es
ist hier zu beachten, daß alle Lösungen die Form
aufweisen, wobei u den Satz von unbekannten Variablen und m
den Satz von bekannten Variablen bedeutet. Ein Integral die
ser Form kann beispielsweise gelöst werden, indem Zufallspro
ben der unbekannten Variablen gemäß P(u|m) gezogen werden.
Beispielsweise werden diese Proben mit u¹, . . ., us bezeichnet.
Daraus ergibt sich folgender Zusammenhang für die Annäherung:
Es ist zu beachten, daß in dieser Gleichung u den Wert yt-k,
welcher fehlt, entspricht. Mit dieser erfindungsgemäßen Lö
sung reduziert sich das Problem also darauf, aus P(u|m) Proben
zu ziehen. Für den Fall, daß lediglich eine Variable fehlt,
also beispielsweise lediglich eine Rückführung aufgetrennt
wurde, reduziert sich das Problem also auf das Probenziehen
aus einer einvariablen Verteilung, welche mit Hilfe des
"sampling-importance-resampling" oder anderen sampling-
Techniken [1] getan werden kann.
Fig. 2 zeigt ein Blockschaltbild zur Verdeutlichung des er
findungsgemäßen Verfahrens. Das neuronale Netz NNW soll hier
das technische System f steuern. Zum einen ist das neuronale
Netz NNW dargestellt und zum anderen das technische System
f. Die Indizes t und t-1 sind die zeitlichen Abhängigkeiten
der einzelnen Werte voneinander abgegeben. Der Index -1 be
deutet dabei, daß der betrachtete Wert sich in der Zeitreihe
vor dem Wert befindet, welcher den Index t hat. Vom neurona
len Netz wird über die Verbindungsleitung 150 die Stellgröße
ut-1 an das technische System f abgegeben. Unterwegs wird die
ser Wert nach dem erfindungsgemäßen Verfahren an einer Ver
knüpfungsstelle "+" mit einem Rauschen von bekannter
Rauschverteilung ε überlagert. Dem technischen System f wird
dieser Wert ut-1 + ε zusammen mit dem Wert yt-1 zugeführt. Das
technische System f reagiert auf diese Stellgröße, indem es
eine Regelgröße yt erzeugt. Diese Regelgröße wird einem Ver
zögerungsglied Z1 zugeführt, welche beispielsweise gleichzei
tig eine Additionsfunktion enthält. Dieses Verzögerungsglied
verzögert beispielsweise den vom technischen System abgegebe
nen Wert yt um eine Zeiteinheit, um so den Eingangswert über
die Leitung 180 für das technische System zur Verfügung stel
len zu können. Weiter wird dieser Wert yt-1 auch über die Lei
tung 100 an das neuronale Netz NNW abgegeben. Zusätzlich ist
in Fig. 2 das Rauschen δ dargestellt, welches beispielsweise
an der Verknüpfungsstelle und dem Verzögerungsglied Z1 der
Regelgröße überlagert werden kann. Diese Art der Überlagerung
ist jedoch nicht notwendige Voraussetzung für die Funktions
fähigkeit des erfindungsgemäßen Verfahrens.
Beispielsweise stellt das System eine Heizungsanlage dar, das
einen Zustand yt-1 zum Zeitpunkt t-1 und eine Kontrollaktion
zum Zeitpunkt t-1, welche als ut-1 bezeichnet ist, wie etwa
Einschalten, auf einen neuen Zustand zum Zeitpunkt t, der mit
yt bezeichnet ist, abbildet. Ferner wird beispielsweise ein
gewünschtes Sollverhalten durch eine Kostenfunktion C(y) vor
gegeben, die etwa C(y) = (y-ysoll)² lautet. Ziel ist es bei
spielsweise, das System mit einem neuronalen Netz NNW so zu
steuern, daß die Kosten minimiert werden. Vorzugsweise können
die Kosten in ferner Zukunft beispielsweise schwächer gewich
tet werden. Hierzu wird beispielsweise ein Abschlagsfaktor
γt-1 eingeführt, wobei 0 γ 1 gilt. Hierzu müssen die Parame
ter des Netzes NNW, also dessen Gewichte richtig einge
stellt, d. h. trainiert werden. Dies erfolgt vorzugsweise mit
tels Gradientenabstieg. Dabei dürfen ut und yt, auch Vektoren
sein, die Kostenfunktion kann auch zeitabhängig sein, wie
beispielsweise Ct (yt). Die Anfangsbedingungen müssen dabei
nicht fest sein, was kein Problem bei der Lösung nach dem er
findungsgemäßen Verfahren darstellt. Im erfindungsgemäßen
Fall werden das technische System und das neuronale Netz als
nicht deterministisch behandelt. Zum Training des Netzes muß
vorzugsweise der Gradient der Kosten nach den Gewichten be
stimmt werden. Dieser ist in (11#) angegeben.
Vorzugsweise wird beim erfindungsgemäßen Verfahren das System
simuliert, oder das reale System benutzt und die Stellgröße
mittels Gaußrauschen überlagert. Die Kosten sind nun Zufalls
größe und durch die Gleichung (12##) gegeben.
Dabei verschwindet das Produkt der Ableitung, welches sich
bei einer deterministischen Lösung, die hier nicht darge
stellt ist, ergeben würde. Das neuronale Netz wird nun zu
nächst mittels Zufallsdaten initialisiert, d. h. die Gewichte
werden irgendwie eingestellt. Anschließend wird das reale Sy
stem mit den verrauschten Stellgrößen betrieben, unabhängig
davon kann auch ein Modell verwendet werden, und es werden
die Stellgrößen beobachtet, welche vom System abgegeben wer
den. Vorzugsweise wird von mehreren Durchläufen des Systems
eine Zeitreihe aufgenommen. Dabei werden beispielsweise so
wohl die Stellgrößen als auch die Regelgrößen protokolliert.
Im Anschluß wird diese Zeitreihe dem neuronalen Netz zuge
führt, um eine günstige Steuerung des technischen Systems zu
erlernen. Durch die vorgegebene Kostenfunktion werden dabei
solche Gewichtsveränderungen am neuronalen Netz begünstigt,
d. h. verstärkt oder weniger gedämpft, welche geringere Kosten
bewirken. Falls dieses Trainingsverfahren mehrfach durchge
führt wird, d. h. falls mehrere Zeitreihen aufgenommen werden,
und mit diesen das neuronale Netz trainiert wird, so ergibt
sich eine sehr zuverlässige Einstellung der Gewichte des neu
ronalen Netzes. Unabhängig von der beispielhaft vorgestellten
Kostenfunktion können auch andere Kostenfunktionen angedacht
werden. Letztendlich ist es wichtig, daß diese Kostenfunktion
eine Verstärkung, bzw. Abschwächung der am Netz eingestellten
Gewichtsfaktoren bezüglich eines günstigen Systemverhaltens
des technischen Systems erreicht.
Durch das erfindungsgemäße Verfahren kann auf diese Weise
über einer statistischen Verteilung der Zeitreihen mittels
zufällig gestörter Stellgrößen eine Einstellung der Gewichte
am neuronalen Netz gefunden werden, welche ein günstiges
Sollverhalten des technischen Systems bewirkt.
Fig. 2 erläutert weiter ein Beispiel des erfindungsgemäßen
Verfahrens anhand eines Blockschaltbildes. Gemäß diesem Bei
spiel sei eine Zeitreihe der Form:
gegeben mit
und
T: Intervallbreite zur Erreichung des Sollzustandes.
T: Intervallbreite zur Erreichung des Sollzustandes.
Nach dem erfindungsgemäßen Verfahren soll nun das neuronale
Netz so trainiert werden, indem die einzustellenden Gewicht
an den Neuronen so gewählt werden, daß die gemäß einer Ko
stenfunktion zu bewertenden erwarteten Kosten innerhalb des
Intervalles T minimiert werden. Diese lassen sich allgemein
als
darstellen mit:
γ 1 Abschlagsfaktor für zukünftige Werte der Zeit
reihe
Wahrscheinlichkeit für das Auftreten bestimm
ter Werte innerhalb der Zeitreihe
Um das Regelverhalten des neuronalen Netzes zu optimieren,
wird gemäß dem erfindungsgemäßen Verfahren zunächst der Gra
dient der zu erwartenden Kosten nach den Gewichten des neuro
nalen Netzes gebildet:
diese Lösung kann durch stochastisches Sampling approximiert
werden, indem die Gleichung (9c) analog angewendet wird, das
heißt in diesem Fall, daß das neuronale Netz zusammen mit dem
technischen System, oder seinem Modell mehrere Zeitzyklen
lang betrieben wird, und daß mehrere Zetreihen von y und u
aufgenommen werden. Die Mittelwertbildung der mit diesen
Zeitreihen gebildeten Gradienten, führt dann zu den Werten,
welche für das Training Verwendung finden. Fallweise kann es
hierzu jedoch günstig sein die Kostenfunktion so zu gestal
ten, daß große Gewichte an einzelnen Neuronen bestraft wer
den, also hohe Kosten verursachen, oder die Zahl und Stärke
der Steueraktionen des Netzes berücksichtigt, um unendlich
starke Steueraktionen vermeiden zu können. Mit der obigen
Voraussetzung für ut ergibt sich
als Gradient für die zu erwartenden Kosten. Durch analoge An
wendung von (9c) vereinfacht sich dieser zu
mit:
T: Anzahl der Zeiteinheiten je Zeitreihe
S: Anzahl der Zeitreihen
γ 1 Abschlagsfaktor für zukünftige Werte der Zeitreihe
NNW: vom neuronalen Netz erzeugter Wert
S: Anzahl der Zeitreihen
γ 1 Abschlagsfaktor für zukünftige Werte der Zeitreihe
NNW: vom neuronalen Netz erzeugter Wert
Claims (7)
1. Verfahren zum Training eines neuronalen Netzes mit dem
nicht deterministischen Verhalten eines technischen Systems,
- a) bei dem das neuronale Netz mit dem technischen System, oder einem Modell davon so in einen Regelkreis eingebunden wird, daß das neuronale Netz als Ausgangsgröße mindestens ei ne Stellgröße an das technische System, oder sein Modell ab gibt und das technische System oder sein Modell aus der vom neuronalen Netz zugeführten Stellgröße, mindestens eine Re gelgröße erzeugt, die dem Neuronalen Netz als Eingangsgröße zugeführt wird
- b) bei dem die Stellgröße mit einem Rauschen von bekannter Rauschverteilung überlagert wird, bevor sie dem technischen System oder seinem Modell zugeführt wird,
- c) und bei dem die Gewichte des neuronalen Netzes in Reaktion
auf die durch das aufgeprägte Rauschen veränderte Regelgröße
wie folgt eingestellt werden:
es wird von einer Kostenfunktion bewertet, ob die Gewichtsän derung am Netz, die nach bekannten Lernverfahren eingestellt wird, eine Verbesserung der Regelgröße in Bezug auf ein Soll verhalten des technischen- Systems bewirkt hat und solche Ge wichtseinstellungen werden durch die Kostenfunktion begün stigt.
2. Verfahren nach Anspruch 1,
bei dem die Gewichtseinstellungen durch die Kostenfunktion
dahingehend bewertet werden, ob die Gewichtsänderung am Netz,
die nach bekannten Lernverfahren eingestellt wird, eine Ver
schlechterung der Regelgröße in Bezug auf ein Sollverhalten
des technischen Systems bewirkt hat und solche Gewichtsein
stellungen durch die Kostenfunktion abgeschwächt werden.
3. Verfahren nach Anspruch 1 oder 2,
bei dem die Gewichte des neuronalen Netzes in Reaktion auf
die durch das aufgeprägte Rauschen veränderte Regelgröße wie
folgt eingestellt werden:
- i) die Neuronengewichte werden beliebig initialisiert; der Regelkreis wird eine Mehrzahl von Zeitzyklen betrieben und es werden sowohl die Regelgröße, als auch die Stellgröße in Form von je einer Zeitreihe protokolliert,
- ii) die Neuronengewichte werden nach bekannten Lernverfahren eingestellt und es wird jeweils für jeden Wert der Zeitreihe der Gradient der Gewichtsänderung an den Neuronen in Abhän gigkeit der Stellgröße und des bekannten Rauschens bestimmt, wobei dieser Vorgang mehrfach wiederholt wird und dabei von einer Kostenfunktion bewertet wird, wie günstig sich die Re gelgröße in Bezug auf ein Sollverhalten des technischen Sy stems als Reaktion.
4. Verfahren nach Anspruch 2, bei dem eine Vielzahl von Zeit
reihen aufgenommen werden und die Neuronengewichte für je
weils eine Zeitreihe bestimmt werden, welche als Einzelwerte
die arithmetischen Mittelwerte der aufgenommenen Zeitreihen
hat.
5. Verfahren nach einem der vorangehenden Ansprüche, bei dem
Eine Gaußverteilung als bekannte Rauschverteilung verwendet
wird.
6. Verfahren nach Anspruch 4, mit einer Zeitreiher der Form:
mit:
NNW: vom neuronalen Netz erzeugter Wert
bei dem die Gewichte an den Neuronen wie folgt bestimmt wer den: mit:
T: Anzahl der Zeiteinheiten je Zeitreihe
S: Anzahl der Zeitreihen
γ 1 Abschlagsfaktor für zukünftige Werte der Zeitreihe.
bei dem die Gewichte an den Neuronen wie folgt bestimmt wer den: mit:
T: Anzahl der Zeiteinheiten je Zeitreihe
S: Anzahl der Zeitreihen
γ 1 Abschlagsfaktor für zukünftige Werte der Zeitreihe.
7. Verfahren nach einem der vorangehenden Ansprüche, bei dem
die Regelgröße mit einem Rauschen von bekannter Rauschvertei
lung der Form
überlagert wird
mit:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19531967A DE19531967C2 (de) | 1995-08-30 | 1995-08-30 | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems |
US08/705,834 US5806053A (en) | 1995-08-30 | 1996-08-30 | Method for training a neural network with the non-deterministic behavior of a technical system |
JP8230974A JPH09128010A (ja) | 1995-08-30 | 1996-08-30 | 技術的系の非決定的特性を有するニューラルネットワークのトレーニング方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19531967A DE19531967C2 (de) | 1995-08-30 | 1995-08-30 | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19531967A1 true DE19531967A1 (de) | 1997-03-06 |
DE19531967C2 DE19531967C2 (de) | 1997-09-11 |
Family
ID=7770802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19531967A Expired - Fee Related DE19531967C2 (de) | 1995-08-30 | 1995-08-30 | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems |
Country Status (3)
Country | Link |
---|---|
US (1) | US5806053A (de) |
JP (1) | JPH09128010A (de) |
DE (1) | DE19531967C2 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19740565A1 (de) * | 1997-09-15 | 1999-03-18 | Max Planck Gesellschaft | Verfahren zur Erfassung zeitabhängiger Moden dynamischer Systeme |
DE19729187C1 (de) * | 1997-07-08 | 1999-04-29 | Siemens Ag | Testverfahren für einen Funktionsapproximator in einer Prozeßsteuerung |
US7006866B1 (en) | 1997-11-07 | 2006-02-28 | Siemens Aktiengesellschaft | Arrangement for predicting an abnormality of a system and for carrying out an action which counteracts the abnormality |
EP4016202A1 (de) * | 2020-12-15 | 2022-06-22 | Siemens Aktiengesellschaft | Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19635758C1 (de) * | 1996-09-03 | 1997-11-20 | Siemens Ag | Verfahren und Vorrichtung zur rechnergestützten Generierung mindestens eines künstlichen Trainingsdatenvektors für ein neuronales Netz |
DE19838654C1 (de) * | 1998-08-25 | 1999-11-25 | Siemens Ag | Verfahren zum Trainieren eines neuronalen Netzes, Verfahren zur Klassifikation einer Folge von Eingangsgrößen unter Verwendung eines neuronalen Netzes, neuronales Netz und Anordnung zum Trainieren eines neuronalen Netzes |
DE10348563B4 (de) | 2002-10-22 | 2014-01-09 | Fisher-Rosemount Systems, Inc. | Integration von Grafikdisplayelementen, Prozeßmodulen und Steuermodulen in Prozeßanlagen |
US9983559B2 (en) * | 2002-10-22 | 2018-05-29 | Fisher-Rosemount Systems, Inc. | Updating and utilizing dynamic process simulation in an operating process environment |
US7146231B2 (en) * | 2002-10-22 | 2006-12-05 | Fisher-Rosemount Systems, Inc.. | Smart process modules and objects in process plants |
US7577636B2 (en) * | 2003-05-28 | 2009-08-18 | Fernandez Dennis S | Network-extensible reconfigurable media appliance |
US20050041609A1 (en) * | 2003-08-22 | 2005-02-24 | Scheidt David H. | Propagation network |
JP2007536634A (ja) | 2004-05-04 | 2007-12-13 | フィッシャー−ローズマウント・システムズ・インコーポレーテッド | プロセス制御システムのためのサービス指向型アーキテクチャ |
US7729789B2 (en) | 2004-05-04 | 2010-06-01 | Fisher-Rosemount Systems, Inc. | Process plant monitoring based on multivariate statistical analysis and on-line process simulation |
US20070041730A1 (en) * | 2005-08-09 | 2007-02-22 | Alcatel | RF extender co-located with DSL remote |
WO2007067645A2 (en) | 2005-12-05 | 2007-06-14 | Fisher-Rosemount Systems, Inc. | Multi-objective predictive process optimization with concurrent process simulation |
US8527252B2 (en) * | 2006-07-28 | 2013-09-03 | Emerson Process Management Power & Water Solutions, Inc. | Real-time synchronized control and simulation within a process plant |
US8095480B2 (en) * | 2007-07-31 | 2012-01-10 | Cornell Research Foundation, Inc. | System and method to enable training a machine learning network in the presence of weak or absent training exemplars |
US7814038B1 (en) | 2007-12-06 | 2010-10-12 | Dominic John Repici | Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks |
US8881039B2 (en) | 2009-03-13 | 2014-11-04 | Fisher-Rosemount Systems, Inc. | Scaling composite shapes for a graphical human-machine interface |
US7915962B2 (en) * | 2009-07-06 | 2011-03-29 | Nortel Networks Limited | System and method for built in self test for timing module holdover |
US8825183B2 (en) | 2010-03-22 | 2014-09-02 | Fisher-Rosemount Systems, Inc. | Methods for a data driven interface based on relationships between process control tags |
KR102494139B1 (ko) | 2015-11-06 | 2023-01-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법 |
US10878140B2 (en) | 2016-07-27 | 2020-12-29 | Emerson Process Management Power & Water Solutions, Inc. | Plant builder system with integrated simulation and control system configuration |
CN106446405B (zh) * | 2016-09-23 | 2018-12-18 | 北京大学深圳研究生院 | 一种集成电路器件神经网络建模样本选择方法及装置 |
US11604459B2 (en) | 2019-07-12 | 2023-03-14 | Emerson Process Management Power & Water Solutions, Inc. | Real-time control using directed predictive simulation within a control system of a process plant |
CN112051256B (zh) * | 2020-07-22 | 2023-01-24 | 中国地质大学(武汉) | 基于cnn模型的待测元素含量libs测量方法、系统 |
US11418969B2 (en) | 2021-01-15 | 2022-08-16 | Fisher-Rosemount Systems, Inc. | Suggestive device connectivity planning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159660A (en) * | 1990-08-09 | 1992-10-27 | Western Thunder | Universal process control using artificial neural networks |
DE4138053A1 (de) * | 1991-11-19 | 1993-05-27 | Siemens Ag | Hybrides lernverfahren fuer kuenstliche neuronale netze |
US5396415A (en) * | 1992-01-31 | 1995-03-07 | Honeywell Inc. | Neruo-pid controller |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2979711B2 (ja) * | 1991-04-24 | 1999-11-15 | 日本電気株式会社 | パターン認識方式および標準パターン学習方式 |
US5649064A (en) * | 1995-05-19 | 1997-07-15 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | System and method for modeling the flow performance features of an object |
-
1995
- 1995-08-30 DE DE19531967A patent/DE19531967C2/de not_active Expired - Fee Related
-
1996
- 1996-08-30 US US08/705,834 patent/US5806053A/en not_active Expired - Fee Related
- 1996-08-30 JP JP8230974A patent/JPH09128010A/ja not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159660A (en) * | 1990-08-09 | 1992-10-27 | Western Thunder | Universal process control using artificial neural networks |
DE4138053A1 (de) * | 1991-11-19 | 1993-05-27 | Siemens Ag | Hybrides lernverfahren fuer kuenstliche neuronale netze |
US5396415A (en) * | 1992-01-31 | 1995-03-07 | Honeywell Inc. | Neruo-pid controller |
Non-Patent Citations (1)
Title |
---|
US-Z.: IEEE Transactions on Systems, Man and Cybernetics, Vol. 23, No. 3, May/Juni 1993, S. 686-697 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19729187C1 (de) * | 1997-07-08 | 1999-04-29 | Siemens Ag | Testverfahren für einen Funktionsapproximator in einer Prozeßsteuerung |
DE19740565A1 (de) * | 1997-09-15 | 1999-03-18 | Max Planck Gesellschaft | Verfahren zur Erfassung zeitabhängiger Moden dynamischer Systeme |
US7277831B1 (en) | 1997-09-15 | 2007-10-02 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. | Method for detecting time dependent modes of dynamic systems |
US7006866B1 (en) | 1997-11-07 | 2006-02-28 | Siemens Aktiengesellschaft | Arrangement for predicting an abnormality of a system and for carrying out an action which counteracts the abnormality |
EP4016202A1 (de) * | 2020-12-15 | 2022-06-22 | Siemens Aktiengesellschaft | Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung |
WO2022128331A1 (de) * | 2020-12-15 | 2022-06-23 | Siemens Aktiengesellschaft | Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung |
Also Published As
Publication number | Publication date |
---|---|
JPH09128010A (ja) | 1997-05-16 |
DE19531967C2 (de) | 1997-09-11 |
US5806053A (en) | 1998-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19531967C2 (de) | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems | |
EP2106576B1 (de) | Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems | |
DE69823049T2 (de) | Modellfreie adaptive prozesssteuerung | |
DE102007017039B4 (de) | Robuste Prozessmodellidentifikation bei modellbasierten Steuerungstechniken | |
DE102008020379A1 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE19530646C1 (de) | Lernverfahren für ein rekurrentes neuronales Netz | |
DE19606480C2 (de) | Verfahren und Anordnung zur Adaption eines Fuzzy-Reglers | |
DE102020201133A1 (de) | Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion | |
EP0750764B1 (de) | Verfahren und anordnung zur fuzzy-regelung | |
EP0956530A1 (de) | Verfahren zur transformation einer zur nachbildung eines technischen prozesses dienenden fuzzy-logik in ein neuronales netz | |
EP1327959B1 (de) | Neuronales Netz zur Modellierung eines physikalischen Systems sowie Verfahren zur Bildung eines solchen neuronalen Netzes | |
DE19530647C1 (de) | Verfahren zur Aufbereitung einer Eingangsgröße für ein neuronales Netz | |
DE19703964C1 (de) | Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz | |
DE4417932B4 (de) | Verfahren und ein System zum Erhalten von Zieleinstellbeträgen für Ausführungsparameter durch Lernen einer Mehrzahl von Sätzen von Muster-Eingabedaten und Muster-Ausgabedaten | |
DE19528426C2 (de) | Verfahren zur Ermittlung von Zustandsparametern eines chemischen Reaktors unter Verwendung künstlicher neuronaler Netze | |
EP0978052B1 (de) | Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz | |
DE4319926A1 (de) | Verfahren zur Regelung eines kontinuierlichen Prozesses mit einer Optimier- und einer Regelphase | |
WO2000003355A2 (de) | Neuronales netz und verfahren und anordnung zum trainieren eines neuronalen netzes | |
DE19835137C2 (de) | Vorrichtung zum Bestimmen der Konzentration einer Meßflüssigkeit | |
EP0591259B1 (de) | Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken | |
EP1145190A2 (de) | Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente | |
DE102006042975A1 (de) | Verfahren zum Betrieb eines Kommunikationsnetzes | |
DE102016113310A1 (de) | Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten | |
DE102022201853A1 (de) | Erkennung kritischer Verkehrssituationen mit Petri-Netzen | |
DE102020211713A1 (de) | Datengetriebenes trainieren einer computerimplementierten differenzierbaren impliziten schicht |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |