DE10316381A1 - Verfahren zum Training von neuronalen Netzen - Google Patents

Verfahren zum Training von neuronalen Netzen Download PDF

Info

Publication number
DE10316381A1
DE10316381A1 DE10316381A DE10316381A DE10316381A1 DE 10316381 A1 DE10316381 A1 DE 10316381A1 DE 10316381 A DE10316381 A DE 10316381A DE 10316381 A DE10316381 A DE 10316381A DE 10316381 A1 DE10316381 A1 DE 10316381A1
Authority
DE
Germany
Prior art keywords
neural networks
training
training data
forecast
standard deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10316381A
Other languages
English (en)
Inventor
Thomas Dipl.-Math. Dr. Mrziglod
Georg Dipl.-Math. Dr. Mogk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayer AG
Original Assignee
Bayer Technology Services GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayer Technology Services GmbH filed Critical Bayer Technology Services GmbH
Priority to DE10316381A priority Critical patent/DE10316381A1/de
Priority to US10/806,594 priority patent/US7406451B2/en
Priority to EP04723983A priority patent/EP1623371A2/de
Priority to PCT/EP2004/003289 priority patent/WO2004090807A2/de
Publication of DE10316381A1 publication Critical patent/DE10316381A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Die Erfindung betrifft ein System und ein Verfahren zum Trainieren einer Anzahl von neuronalen Netzen mit folgenden Schritten: DOLLAR A - Ermittlung eines ersten Trainingsdatensatzes, wobei die Trainingsdaten eine bestimmte Genauigkeit aufweisen, DOLLAR A - Erzeugung einer Anzahl von zweiten Trainingsdatensätzen durch Verrauschen des ersten Trainingsdatensatzes mit einer Zufallsgröße, wobei die Zufallsgröße jeweils von der Genauigkeit abhängt, DOLLAR A - Trainierung jedes der neuronalen Netze mit einem der Trainingsdatensätze. DOLLAR A Mittels eines solchen Systems kann eine Prognose und eine Schätzung des Prognosefehlers durchgeführt werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Trainieren von neuronalen Netzen, ein Verfahren zur Prognose mittels neuronaler Netze und ein System zur Ermittlung eines Prognosewertes und dessen Fehler.
  • Eine Vielzahl von Anwendungsmöglichkeiten sind aus dem Stand der Technik für neuronale Netze bekannt. Neuronale Netze werden zur datengetriebenen Modellbildung zum Beispiel für physikalische, biologische, chemische und technische Vorgänge und Systeme eingesetzt, vgl. Babel W.: Einsatzmöglichkeiten neuronaler Netze in der Industrie: Mustererkennung anhand überwachter Lernverfahren – mit Beispielen aus der Verkehrs- und Medizintechnik, Expert Verlag, Renningen-Malmsheim, 1997. Insbesondere gehören zu den Einsatzgebieten neuronaler Netze die Prozessoptimierung, Bildverarbeitung, Mustererkennung, Robotersteuerung und die Medizintechnik.
  • Bevor ein neuronales Netz zu Prognose- oder Optimierungszwecken eingesetzt werden kann, muss es trainiert werden. Dabei werden üblicherweise die Gewichte der Neuronen durch ein iteratives Verfahren anhand von Trainingsdaten angepasst, vgl. Bärmann F.: Prozessmodellierung: Modellierung von Kontianlagen mit neuronalen Netzen, Internetseite NN-Tool, www.baermann.de und Bärmann F.: Neuronale Netze. Skriptum zur Vorlesung. FH-Gelsenkirchen, Fachbereich Physikalische Technik, Fachgebiet Neuroinformatik, 1998.
  • Aus der DE 195 31 967 ist ein Verfahren zum Training eines neuronalen Netzes mit dem nichtdeterministischen Verhalten eines technischen Systems bekannt. Das neuronale Netz wird dabei so in einen Regelkreis eingebunden, dass das neuronale Netz als Ausgangsgröße eine Stellgröße an das technische System abgibt und das technische System aus der von dem neuronalen Netz zugeführten Stellgröße eine Regelgröße erzeugt, die dem neuronalen Netz als Eingangsgröße zugeführt wird. Die Stellgröße wird mit einem Rauschen von bekannter Rauschverteilung überlagert, bevor sie dem technischen System zugeführt wird.
  • Weitere Verfahren zum Trainieren neuronaler Netze sind bekannt aus DE 692 28 412 T2 und DE 198 38 654 C1 .
  • Ein Verfahren zur Schätzung des Prognosefehlers ist bekannt aus EP 0 762 245 B1 . Hier werden mehrere Neuronale Netze mit unterschiedlichen Trainingsparametern (z.B. unterschiedlicher Initialisierung) mit den Originaldaten trainiert. Der Prognose-Fehler ergibt sich aus Vergleich der Abweichungen der prognostizierten Größen. Nachteilig bei diesem Verfahren ist, dass Informationen über die Messgenauigkeit der zum Training verwendeten Messdaten in die Schätzung des Prognosefehler nicht einfließen.
  • Ferner ist aus dem Stand der Technik ein Verfahren zur Abschätzung der Vertrauenswürdigkeit der von einem neuronalen Netz abgegebenen Prognose bekannt: Protzel P.: Kindermann L., Tagscherer M., Lewandowski A. „Abschätzung der Vertrauenswürdigkeit von Neuronalen Netzprognosen bei der Prozessoptimierung", VDI Berichte NR. 1526, 2000.
  • Der Erfindung liegt die Aufgabe zu Grunde ein verbessertes Verfahren zum Trainieren von neuronalen Netzen, ein Verfahren zur Prognose mittels neuronaler Netze sowie ein System zur Ermittlung von Prognosewerten und deren Fehler zu schaffen.
  • Die der Erfindung zu Grunde liegende Aufgabe wird jeweils mit den Merkmalen der unabhängigen Patentansprüche gelöst. Bevorzugte Ausführungsformen der Erfindung sind in den abhängigen Patentansprüchen angegeben.
  • Die Erfindung ermöglicht es den Umstand zu berücksichtigen, dass die Trainingsdaten für das Training eines neuronalen Netzes nur mit einer endlichen Genauigkeit behaftet sind. Werden die Trainingsdaten zum Beispiel messtechnisch ermittelt, so lässt sich für jedes Datum eine Messgenauigkeit angeben. Zur Berücksichtigung dieser begrenzten Messgenauigkeit für das Training des neuronalen Netzes, werden weitere Sets vom Trainingsdatensätzen erzeugt. Jedes einzelne Set von Trainingsdaten entsteht aus den ursprünglichen Datensätzen durch Verrauschen der Daten im Rahmen der Messgenauigkeit. Zu jedem so erzeugten Trainingsdatensatz wird dann ein neuronales Netz trainiert.
  • Werden in die auf diese An und Weise trainierten neuronale Netze Eingangsdaten eingegeben, so erzeugt jedes dieser Netze eine Prognose. Diese Prognosen können aufgrund der verschiedenen Trainingsdaten, die durch Verrauschen gewonnen worden und für das Training der neuronalen Netze verwendet worden sind, voneinander abweichen. Vorzugsweise wird aus den verschiedenen Prognosen ein Mittelwert gebildet, der eine höhere Genauigkeit und Vertrauenswürdigkeit als die Einzelprognosen aufweist.
  • Nach einer bevorzugten Ausführungsform der Erfindung wird den Trainingsdaten eine gleichverteilte Zufallsgröße mit Erwartungswert Null aufaddiert. Die Zufallsgröße ist dabei so gewählt, dass das Ergebnis der Addition des Ausgangsdatums und der Zufallsgröße innerhalb des durch die Messgenauigkeit gegebenen Bereichs liegt.
  • Nach einer weiteren bevorzugten Ausführungsform der Erfindung wird eine normalverteilte Zufallsgröße mit Erwartungswert Null aufaddiert. Die Varianz der Zufallsgröße ist so gewählt, dass das Ergebnis der Addition des Ausgangsdatums und der Zufallsgröße mit einer vorgegebenen Wahrscheinlichkeit innerhalb des durch die Messgenauigkeit vorgegebenen Bereichs liegt. Diese vorgegebene Wahrscheinlichkeit beträgt zum Beispiel 95% oder darüber.
  • Nach einer weiteren bevorzugten Ausführungsform der Erfindung wird aufgrund der Unterschiedlichkeit der von den neuronalen Netzen ermittelten Prognosen eine Vertrauenswürdigkeit des Prognosewerts ermittelt. Sind die einzelnen Prognosen der neuronalen Netze stark voneinander abweichend, so kann hieraus geschlossen werden, dass die neuronalen Netze in dem Bereich der aktuellen Eingangsdaten kein zuverlässiges Modell darstellen. Zur Beurteilung der Vertrauenswürdigkeit wird beispielsweise die Standardabweichung der einzelnen Prognosen berechnet. Wenn die Standardabweichung ein zulässiges Maß überschreitet, wird daraus geschlussfolgert, dass keine zuverlässige Prognose möglich ist.
  • Von besonderem Vorteil ist, dass die vorliegende Erfindung eine Schätzung des Prognosefehlers und damit eine objektive Aussage über die Qualität der Prognose ermöglicht. Nach einer bevorzugten Ausführungsform wird die Standardabweichung zur Schätzung des Prognosefehlers genutzt. Zum Beispiel wird die Standardabweichung selbst als Maß für den Prognosefehler genutzt. Alternativ wird der Prognosefehler mit Hilfe einer monotonen Funktion aus der Standardabweichung berechnet, z.B. durch Multiplikation der Standardabweichung mit einem problemabhängigen konstanten Faktor.
  • Nach einer weiteren bevorzugten Ausführungsform der Erfindung wird ein Signal abgegeben, wenn die Standardabweichung der Prognosen über einem vorgegebenen Schwellwert liegt. Dieses Signal kann zum Beispiel zu einer visuellen und/oder akustischen Ausgabe für einen Benutzer führen. Dies ist besonders vorteilhaft, wenn die neuronalen Netze für einen Regelungsprozess eingesetzt werden.
  • Im weiteren werden bevorzugte Ausführungsformen der Erfindung mit Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
  • 1 ein Blockdiagram eines neuronalen Netzes,
  • 2 eine schematische Darstellung eines Trainingsdatensatzes für das neuronale Netz der 1,
  • 3 ein Flussdiagram einer Ausführungsform des erfindungsgemäßen Verfahrens zum Training von neuronalen Netzen und zur Ermittlung eines Prognosewerts,
  • 4 ein Blockdiagram eines erfindungsgemäßen Systems zur Ermittlung eines Prognosewerts.
  • Die 1 zeigt ein neuronales Netz 1 mit den Eingängen A, B und C und mit dem Ausgang D. Im allgemeinen Fall kann das neuronale Netz 1 eine beliebige Anzahl von Eingängen und Ausgängen aufweisen. Ferner kann das neuronale Netz auch rigorose Modellanteile beinhalten. In diesem Fall spricht man von einem hybriden neuronalen Netz.
  • Zum Training des neuronalen Netzes 1 dient ein Trainingsdatensatz 2 (vgl. 2). Der Trainingsdatensatz 2 beinhaltet eine Reihe von Messsamples, die jeweils aus Messwerten für die Messgrößen A, B, C und D bestehen. Diese Messgrössen sind den entsprechenden Eingängen des neuronalen Netzes zugeordnet.
  • Die Messwerte werden zum Beispiel aus Versuchsreihen gewonnen, die für die Ermittlung von Trainingsdaten durchgeführt werden. Die Messgenauigkeiten der einzelnen Messgrößen sind in einer Tabelle 3 angegeben. Die Messgröße A wird mit einer Messgenauigkeit von +/–w, die Messgröße B mit einer Messgenauigkeit von +/–x, die Messgröße C mit einer Messgenauigkeit von +/–y und die Messgröße D mit einer Messgenauigkeit von +/–z ermittelt.
  • Die 3 veranschaulicht eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens. In dem Schritt 30 wird eine Anzahl von n Trainingsdatensätzen aus dem Trainingsdatensatz 2 (vgl. 2) erzeugt.
  • Ein weiterer Trainingsdatensatz i, wobei i zwischen 1 und n liegt, wird basierend auf dem Trainingsdatensatz 2 gewonnen, indem die einzelnen Messwerte der Mess größen A, B, C und D für jedes Messsample unter Berücksichtigung der jeweiligen Messgenauigkeit der betreffenden Messgröße verrauscht werden. Dieser Vorgang, das heißt das Verrauschen des Trainingsdatensatzes 2 erfolgt n-fach, um so die n Trainingsdatensätze zu gewinnen.
  • Beispielsweise erfolgt das Verrauschen der Messwerte des Trainingsdatensatzes 2 durch Addition einer gleichverteilten Zufallszahl. Ein verrauschter Messwert x' ergibt sich aus dem ursprünglich gemessenen Messwert x als: x' = x + Zufallszahl,wobei die Zufallszahl in dem Intervall
    [Untergrenze; Obergrenze]
    liegt. Dabei können die Untergrenze und die Obergrenze von dem ursprünglichen Messwert x und der Messgenauigkeit abhängen. Wurde die Messgenauigkeit beispielsweise als relativer Fehler zum Messwert x angegeben, so können die folgenden Grenzen gewählt werden: Untergrenze = –relative Messgenauigkeit·x Obergrenze = relative Messgenauigkeit·x
  • Im Normalfall ist die Untergrenze ein Wert kleiner als 0, während die Obergrenze ein Wert größer als 0 ist.. In diesem Fall liegt der verrauschte Messwert x' innerhalb des Bereichs der Messungenauigkeit. Soll zum Beispiel ein Messwert für die Messgröße A verrauscht werden, so wird zu dem tatsächlich ermittelten Messwert der Messgröße A eine Zufallsgröße aufaddiert.
  • Diese Zufallsgröße ist eine Zufallszahl aus dem Intervall [Untergrenze; Obergrenze], wobei die Untergrenze und die Obergrenze von dem Messwert x abhängen können (s.o.) oder Untergrenze und Obergrenze feste Größen sind.
  • Alternativ kann die Zufallszahl auch normalverteilt sein. In diesem Fall wird die Varianz der Zufallszahl so gewählt, dass der verrauschte Messwert x' mit einer vorgegebenen Wahrscheinlichkeit in dem durch die Messgenauigkeit vorgegebenen Toleranzbereich liegt. Die vorgegebene Wahrscheinlichkeit kann zum Beispiel ≤ 95%, gewählt werden.
  • In dem Schritt 31 wird eine Anzahl von n + 1 neuronalen Netzen vom Typ des neuronalen Netzes 1 der 1 mit dem Trainingsdatensatz 2 und den so gewonnenen n weiteren Trainingsdatensätzen trainiert. Dadurch erhält man n neuronale Netze mit denselben Eingangs- und Ausgangsparametern, die mit verrauschten Trainingsdatensätzen basierend auf demselben messtechnisch ermittelten Trainingsdatensatz trainiert worden sind.
  • Für die Ermittlung eines Prognosewerts wird in dem Schritt 32 ein Eingabedatensatz von Parameterwerten in die Eingänge A, B und C der in dem Schritt 31 trainierten neuronalen Netze eingegeben. In dem Schritt 33 geben die neuronalen Netze an deren Ausgängen jeweils einen Prognosewert aus; in dem betrachteten Beispielsfall liegen also n + 1 Prognosewerte an den Ausgängen D vor.
  • In dem Schritt 34 werden der Mittelwert und die Standardabweichung der in dem Schritt 33 ausgegebenen Prognosewerte berechnet. In dem Schritt 35 wird geprüft, ob die Standardabweichung über einen Schwellwert liegt. Ist dies der Fall, wird in dem Schritt 36 eine Warnung ausgegeben. Die Ausgabe einer Warnung bedeutet, dass die Prognose der neuronalen Netze für den aktuellen Eingangsdatensatz nicht hinreichend vertrauenswürdig ist.
  • Liegt die Standardabweichung dagegen unterhalb des Schwellwerts, so wird eine solche Warnung nicht ausgegeben; in dem Schritt 37 erfolgt die Ausgabe des Mittelwerts der Prognosewerte als Ergebnis der Prognose. Zusätzlich oder alternativ wird die Standardabweichung als Maß für den Prognosefehler ausgegeben.
  • Die 4 zeigt ein Blockdiagram einer Ausführungsform des erfindungsgemäßen Systems. Elemente der 4, die Elementen der 1 entsprechen, sind mit denselben Bezugszeichen gekennzeichnet.
  • Das System beinhaltet eine Anzahl von n + 1 neuronalen Netzen 1, die prinzipiell gleich aufgebaut sind, nämlich jeweils die Eingänge A, B und C und den Ausgang D aufweisen.
  • Die Eingänge A, B und C der neuronalen Netze 1 sind mit einem Eingabemodul 4 verbunden, über welches ein Eingabeparametersatz, für den eine Prognose durchgeführt werden soll, in die neuronalen Netze 1 eingegeben wird.
  • Aufgrund dieser Eingabe von Eingangsdaten gibt jedes der neuronalen Netze 1 an dessen Ausgang für die Messgröße D eine Prognose aus. Diese Prognosen werden in das Auswertungsmodul 5 eingegeben. Das Auswertungsmodul 5 berechnet den Mittelwert der verschiedenen Prognosen für die Messgröße D sowie die Standardabweichung der Prognosen.
  • Das Auswertungsmodul 5 ist mit einer Anzeigeeinheit 6 und mit einem Komparator 7 verbunden. Der Komparator 7 ist mit einem Schwellwertspeicher 8 verbunden.
  • Das Auswertungsmodul 5 gibt den berechneten Mittelwert der Prognosen an die Anzeigeeinheit 6 aus, so dass der Prognosewert dort angezeigt wird. Ferner gibt das Auswertungsmodul 5 die Standardabweichung der Prognosen an den Komparator 7 aus. Der Komparator 7 vergleicht die Standardabweichung mit dem in dem Schwellwertspeicher 8 gespeicherten Schwellwert. Liegt die Standardabweichung über dem Schwellwert, so gibt der Komparator 7 ein Signal ab, welches auf der Anzeigeeinheit 6 als Warnhinweis angezeigt wird. Wenn also ein Prognosewert auf der Anzeigeeinheit 6 zusammen mit einem Warnhinweis angezeigt wird, so bedeutet dies, dass die Streuung der einzelnen Prognosen der neuronalen Netze 1 relativ groß ist, so dass der resultierende Prognosewert als nicht hinreichend vertrauenswürdig betrachtet wird.
  • Über die Anzeige 6 kann ferner die Standardabweichung als Maß für den Prognosefehler für einen Benutzer ausgegeben werden.
  • 1
    neuronales Netz
    2
    Trainingsdatensatz
    3
    Tabelle
    4
    Eingabemodul
    5
    Auswertungsmodul
    6
    Anzeigeeinheit
    7
    Komparator
    8
    Schwellwertspeicher

Claims (20)

  1. Verfahren zum Trainieren einer Anzahl von neuronalen Netzen mit folgenden Schritten: – Ermittlung eines ersten Trainingsdatensatzes, wobei die Trainingsdaten eine bestimmte Genauigkeit aufweisen, – Erzeugung einer Anzahl von zweiten Trainingsdatensätzen durch Verrauschen des ersten Trainingsdatensatzes mit einer Zufallsgröße, – Trainieren jedes der neuronalen Netze mit einem der Trainingsdatensätze.
  2. Verfahren nach Anspruch 1, wobei jedem Datum der Trainingsdaten eine Genauigkeit zugeordnet ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Trainingsdaten Messgrößen beinhalten und zu jeder Messgröße eine Messgenauigkeit angegeben wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche 1, 2 oder 3, wobei es sich bei der Zufallsgröße um eine gleichverteilte Zufallsgröße handelt.
  5. Verfahren nach Anspruch 4, wobei die Zufallsgröße den Erwartungswert Null hat und das Ergebnis der Addition der Zufallsgröße zu dem Trainingsdatum innerhalb des Genauigkeitsbereichs des Trainingsdatums liegt.
  6. Verfahren nach Anspruch 1, 2 oder 3, wobei es sich bei der Zufallsgröße um eine normalverteilte Zufallsgröße handelt.
  7. Verfahren nach Anspruch 6, wobei die Zufallsgröße den Erwartungswert Null hat und das Ergebnis der Addition der Zufallsgröße zu dem jeweiligen Datum mit einer vorgegebenen Wahrscheinlichkeit innerhalb des Genauigkeitsbereichs des Trainingsdatums liegt.
  8. Verfahren nach Anspruch 7, wobei die vorgegebene Wahrscheinlichkeit größer oder gleich 95%, vorzugsweise 99% beträgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 8, wobei die Zufallsgröße aus einem fest vorgegebenen Intervall entnommen wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 8, wobei die Zufallsgröße aus einem von der Genauigkeit abhängigen Intervall entnommen wird.
  11. Verfahren zur Prognose mittels neuronaler Netze mit folgenden Schritten: – Trainieren der neuronalen Netze nach einem Verfahren nach einem der vorhergehenden Ansprüche 1 bis 8, – Ermittlung eines Prognosewerts basierend auf einer Ausweitung der von den neuronalen Netzen abgegebenen Prognosen.
  12. Verfahren nach Anspruch 11, wobei der Prognosewert durch Mittelung der von den neuronalen Netzen abgegebenen Prognosen berechnet wird.
  13. Verfahren nach Anspruch 11 oder 12, wobei die Standardabweichung der von den neuronalen Netzen abgegebenen Prognosen als Maß für die Vertrauenswürdigkeit des Prognosewerts ermittelt wird.
  14. Verfahren nach Anspruch 13, wobei der Prognosewert mit einem Schwellwert verglichen wird, und ein Signal abgegeben wird, wenn die Standardabweichung oberhalb des Schwellwerts liegt.
  15. Verfahren nach einem der vorhergehenden Ansprüche 11 bis 14, wobei die Standardabweichung der von den neuronalen Netzen abgegebenen Prognosen als Maß für den Prognosefehler verwendet wird.
  16. Computersystem zur Ermittlung von zumindest einem Prognosewert mit – einer Anzahl von neuronalen Netzen (1), von denen zumindest einige mittels verrauschten Trainingsdatensätzen trainiert worden sind, – Eingabemitteln (4) zur Eingabe von Eingabedaten in die neuronalen Netze, – Auswertemitteln (5) zur Auswertung der von den neuronalen Netzen ausgegebenen Prognosen zur Ermittlung eines Prognosewerts.
  17. Computersystem nach Anspruch 16, bei dem die Auswertemittel zur Berechnung des Mittelwerts der Prognosen ausgebildet sind.
  18. Computersystem nach Anspruch 16 oder 17, bei dem die Auswertemittel zur Berechnung der Standardabweichung der Prognosen als Maß für die Vertrauenswürdigkeit des Prognosewerts ausgebildet sind.
  19. Computersystem nach Anspruch 18, mit Mitteln (7) zum Vergleich der Standardabweichung mit einem vorgegebenen Schwellwert und zur Abgabe eines Signals, wenn die Standardabweichung oberhalb des Schwellwerts liegt.
  20. Computersystem nach einem der vorhergehenden Ansprüche 16 bis 19, mit Mitteln zur Ausgabe eines Prognosefehlers, wobei der Prognosefehler basierend auf der Standardabweichung ermittelt wird.
DE10316381A 2003-04-10 2003-04-10 Verfahren zum Training von neuronalen Netzen Withdrawn DE10316381A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE10316381A DE10316381A1 (de) 2003-04-10 2003-04-10 Verfahren zum Training von neuronalen Netzen
US10/806,594 US7406451B2 (en) 2003-04-10 2004-03-23 Method for training neural networks
EP04723983A EP1623371A2 (de) 2003-04-10 2004-03-29 Verfahren zum trainieren von neuronalen netzen
PCT/EP2004/003289 WO2004090807A2 (de) 2003-04-10 2004-03-29 Verfahren zum trainieren von neuronalen netzen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10316381A DE10316381A1 (de) 2003-04-10 2003-04-10 Verfahren zum Training von neuronalen Netzen

Publications (1)

Publication Number Publication Date
DE10316381A1 true DE10316381A1 (de) 2004-10-28

Family

ID=33038981

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10316381A Withdrawn DE10316381A1 (de) 2003-04-10 2003-04-10 Verfahren zum Training von neuronalen Netzen

Country Status (4)

Country Link
US (1) US7406451B2 (de)
EP (1) EP1623371A2 (de)
DE (1) DE10316381A1 (de)
WO (1) WO2004090807A2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110322005A (zh) * 2019-06-25 2019-10-11 深圳爱莫科技有限公司 神经网络模型训练方法以及装置、人脸识别方法
CN111160518A (zh) * 2018-11-08 2020-05-15 中国石油化工股份有限公司 炼化污水cod的软测量方法和装置及机器可读存储介质
DE102021202289A1 (de) 2021-03-09 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und Vorrichtung zum Trainieren eines datenbasierten Zeitpunktbestimmungsmodells für die Bestimmung eines Öffnungs- oder Schließzeitpunkts eines Einspritzventils mithilfe maschineller Lernverfahren
DE102021202287A1 (de) 2021-03-09 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben eines Kraftstoffeinspritzventils mithilfe maschineller Lernverfahren

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7409451B1 (en) * 2003-05-30 2008-08-05 Aol Llc, A Delaware Limited Liability Company Switching between connectivity types to maintain connectivity
US10089854B2 (en) * 2008-09-24 2018-10-02 Iintegrate Systems Pty Ltd Alert generation system and method
CN104598970B (zh) * 2015-01-09 2017-02-22 宁波大学 一种爬架组的工作状态检测方法
US11437032B2 (en) 2017-09-29 2022-09-06 Shanghai Cambricon Information Technology Co., Ltd Image processing apparatus and method
JP6846534B2 (ja) 2018-02-13 2021-03-24 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. 計算装置と計算方法
US11630666B2 (en) 2018-02-13 2023-04-18 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
US11720357B2 (en) 2018-02-13 2023-08-08 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
CN110162162B (zh) 2018-02-14 2023-08-18 上海寒武纪信息科技有限公司 处理器的控制装置、方法及设备
EP3624020A4 (de) 2018-05-18 2021-05-05 Shanghai Cambricon Information Technology Co., Ltd Berechnungsverfahren und zugehöriges produkte
EP3798850A4 (de) 2018-06-27 2022-03-23 Shanghai Cambricon Information Technology Co., Ltd Verfahren, vorrichtung und system zur fehlerbeseitigung in einem chip
WO2020010464A1 (en) * 2018-07-12 2020-01-16 Element Ai Inc. Automated generation of documents and labels for use with machine learning systems
WO2020062392A1 (zh) 2018-09-28 2020-04-02 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
CN111383638A (zh) 2018-12-28 2020-07-07 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
US11003947B2 (en) 2019-02-25 2021-05-11 Fair Isaac Corporation Density based confidence measures of neural networks for reliable predictions
CN111832737B (zh) 2019-04-18 2024-01-09 中科寒武纪科技股份有限公司 一种数据处理方法及相关产品
US11934940B2 (en) 2019-04-18 2024-03-19 Cambricon Technologies Corporation Limited AI processor simulation
DE102019207575A1 (de) * 2019-05-23 2020-11-26 Volkswagen Aktiengesellschaft Verfahren zum Beurteilen einer funktionsspezifischen Robustheit eines Neuronalen Netzes
WO2020248423A1 (zh) 2019-06-12 2020-12-17 上海寒武纪信息科技有限公司 一种神经网络的量化参数确定方法及相关产品
US11676028B2 (en) 2019-06-12 2023-06-13 Shanghai Cambricon Information Technology Co., Ltd Neural network quantization parameter determination method and related products
CN112446460A (zh) * 2019-08-28 2021-03-05 上海寒武纪信息科技有限公司 用于处理数据的方法、装置以及相关产品
US11074163B2 (en) * 2019-11-05 2021-07-27 Jpmorgan Chase Bank, N.A. Method and system for generating unit tests using machine learning
DE102021210322A1 (de) 2021-09-17 2023-03-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erzeugen eines Datensatzes zum Trainieren und/oder Testen eines Algorithmus des maschinellen Lernens basierend auf einem Ensemble an Datenfiltern

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5212765A (en) * 1990-08-03 1993-05-18 E. I. Du Pont De Nemours & Co., Inc. On-line training neural network system for process control
DE4120828A1 (de) 1991-06-24 1993-01-07 Siemens Ag Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken
EP0582885A3 (en) * 1992-08-05 1997-07-02 Siemens Ag Procedure to classify field patterns
US5745652A (en) * 1993-10-08 1998-04-28 International Business Machines Corporation Adaptive resource allocation using neural networks
US5699487A (en) * 1995-07-07 1997-12-16 Hewlett-Packard Company Artificial neural network read channel
IT1283483B1 (it) 1996-07-23 1998-04-21 Eurotecnica Contractors Engine Processo per la sintesi di urea da ammoniaca e anidride carbonica e apparecchiatura utile per la realizzazione del processo
DE19635758C1 (de) 1996-09-03 1997-11-20 Siemens Ag Verfahren und Vorrichtung zur rechnergestützten Generierung mindestens eines künstlichen Trainingsdatenvektors für ein neuronales Netz
WO1998034177A2 (de) 1997-01-31 1998-08-06 Siemens Aktiengesellschaft Verfahren zur kombination von ausgangssignalen mehrerer schätzer, insbesondere von mindestens einem neuronalen netz, zu einem gesamtschätzer ermittelten ergebnissignal
US6523016B1 (en) * 1999-04-12 2003-02-18 George Mason University Learnable non-darwinian evolution

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160518A (zh) * 2018-11-08 2020-05-15 中国石油化工股份有限公司 炼化污水cod的软测量方法和装置及机器可读存储介质
CN111160518B (zh) * 2018-11-08 2023-08-15 中国石油化工股份有限公司 炼化污水cod的软测量方法和装置及机器可读存储介质
CN110322005A (zh) * 2019-06-25 2019-10-11 深圳爱莫科技有限公司 神经网络模型训练方法以及装置、人脸识别方法
DE102021202289A1 (de) 2021-03-09 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und Vorrichtung zum Trainieren eines datenbasierten Zeitpunktbestimmungsmodells für die Bestimmung eines Öffnungs- oder Schließzeitpunkts eines Einspritzventils mithilfe maschineller Lernverfahren
DE102021202287A1 (de) 2021-03-09 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben eines Kraftstoffeinspritzventils mithilfe maschineller Lernverfahren
DE102021202287B4 (de) 2021-03-09 2023-03-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben eines Kraftstoffeinspritzventils mithilfe maschineller Lernverfahren

Also Published As

Publication number Publication date
US7406451B2 (en) 2008-07-29
EP1623371A2 (de) 2006-02-08
WO2004090807A3 (de) 2005-12-22
WO2004090807A2 (de) 2004-10-21
US20040205037A1 (en) 2004-10-14

Similar Documents

Publication Publication Date Title
DE10316381A1 (de) Verfahren zum Training von neuronalen Netzen
DE69332980T2 (de) Betreiben eines neuronalen netzwerks mit fehlenden und/oder inkompletten daten
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
EP0934567A1 (de) Verfahren zur klassifikation der statistischen abhängigkeit einer messbaren zeitreihe
DE102011081345A1 (de) Verfahren zum Erstellen eines Modells
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE102013206291A1 (de) Verfahren und Vorrichtung zum Erstellen eines nicht parametrischen, datenbasierten Funktionsmodells
DE10116773A1 (de) Verfahren zur Ermittlung von Spannungs-Dehnungskurven mittels Splineinterpolation auf Basis charakteristischer Punkte und unter dem Einsatz neuronaler Netze
DE102020116054A1 (de) Verfahren, Vorrichtung, Computerprogramm und computerlesbares Speichermedium zum Ermitteln eines neuronalen Netzes und zum Betreiben eines Fahrzeuges
WO2020216621A1 (de) Training trainierbarer module mit lern-daten, deren labels verrauscht sind
DE102016113310A1 (de) Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten
DE102019206049A1 (de) Erkennung und Behebung von Rauschen in Labels von Lern-Daten für trainierbare Module
DE102019114966A1 (de) Verfahren zur Beurteilung von Schweißungen
DE10201804C1 (de) Verfahren und System zum Vergleichen von Messdaten
DE112018001810T5 (de) Recheneinheit, Logaufzeichnungsverfahren, Logaufzeichnungssystem
WO1998024010A1 (de) Verfahren zur neuronalen modellierung der abhängigkeiten von einflussgrössen eines technischen systems
DE102021205097A1 (de) Computerimplementiertes Verfahren und System zur Bestimmung einer Kostenfunktion
DE102021200215A1 (de) Ermitteln einer Konfidenz eines künstlichen neuronalen Netzwerks
DE102020206261A1 (de) Verfahren zum Übertragen einer Sensorcharakteristik
DE102022201853A1 (de) Erkennung kritischer Verkehrssituationen mit Petri-Netzen
DE102020202282A1 (de) Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells
DE102021205098A1 (de) Computerimplementiertes Verfahren und System zur Bestimmung einer Kostenfunktion
DE102015200295A1 (de) Verfahren und Vorrichtung zum Ermitteln von Trainingsdatenpunkten zum Erstellen eines Modells für ein physikalisches System
DE102021202564A1 (de) Vorrichtung und insbesondere computerimplementiertes Verfahren zur Klassifizierung von Datensätzen
DE102021202335A1 (de) Verfahren und Vorrichtung zum Prüfen eines technischen Systems

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee