DE10146222A1 - Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems - Google Patents

Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems

Info

Publication number
DE10146222A1
DE10146222A1 DE10146222A DE10146222A DE10146222A1 DE 10146222 A1 DE10146222 A1 DE 10146222A1 DE 10146222 A DE10146222 A DE 10146222A DE 10146222 A DE10146222 A DE 10146222A DE 10146222 A1 DE10146222 A1 DE 10146222A1
Authority
DE
Germany
Prior art keywords
state
spoken
states
current
transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10146222A
Other languages
English (en)
Inventor
Caglayan Erdem
Hans-Georg Zimmermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10146222A priority Critical patent/DE10146222A1/de
Priority to JP2003529402A priority patent/JP2005502974A/ja
Priority to US10/490,042 priority patent/US20040267684A1/en
Priority to EP02776681A priority patent/EP1428177A2/de
Priority to PCT/DE2002/003494 priority patent/WO2003025851A2/de
Publication of DE10146222A1 publication Critical patent/DE10146222A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)
  • Multi Processors (AREA)
  • Feedback Control In General (AREA)

Abstract

Die Erfindung betrifft eine rechnergestützte Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems. DOLLAR A Bei der Erfindung wird der erste aktuelle Zustand des Systems ermittelt, dadurch, dass ein erster systemimmanenter Informationsfluss mit Systeminformation des Systems aus der Vergangenheit und einer zweiten systemimmanenter Informationsfluss mit Systeminformation aus der Zukunft in dem ersten aktuellen Zustand zusammengeführt und daraus der erste aktuelle Zustand ermittelt werden.

Description

  • Die Erfindung betrifft eine Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems.
  • Aus [1] ist es bekannt, zur Beschreibung eines dynamischen Systems eine Anordnung zur Abbildung zeitlich veränderlicher Zustandsbeschreibungen einzusetzen. Diese Anordnung ist durch miteinander verbundenen Rechenelemente, unter Verwendung derer die Abbildung durchgeführt wird, realisiert.
  • Allgemein wird ein dynamisches System bzw. dynamischer Prozess üblicherweise durch eine Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangsgleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt, beschrieben.
  • Eine entsprechende Struktur eines solchen dynamischen Systems ist in Fig. 2a dargestellt.
  • Das dynamische System 200 unterliegt dem Einfluss einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße ut zu einem Zeitpunkt t mit ut bezeichnet wird:


    wobei mit l eine natürliche Zahl bezeichnet wird.
  • Die Eingangsgröße ut zu einem Zeitpunkt t verursacht eine Veränderung des dynamischen Prozesses, der in dem dynamischen System 200 abläuft.
  • Ein innerer Zustand st


    vorgebbarer Dimension m zu einem Zeitpunkt t ist für einen Beobachter des dynamischen Systems 200 nicht beobachtbar.
  • In Abhängigkeit vom inneren Zustand st und der Eingangsgröße ut wird ein Zustandsübergang des inneren Zustandes st des dynamischen Prozesses verursacht und der Zustand des dynamischen Prozesses geht über in einen Folgezustand st+1 zu einem folgenden Zeitpunkt t + 1.
  • Dabei gilt:

    st+1 = f(st, ut). (1)

    wobei mit f(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
  • Eine von einem Beobachter des dynamischen Systems 200 beobachtbare Ausgangsgröße yt zu einem Zeitpunkt t hängt ab von der Eingangsgröße ut sowie dem inneren Zustand st.
  • Die Ausgangsgröße yt


    ist vorgebbarer Dimension n.
  • Die Abhängigkeit der Ausgangsgröße yt von der Eingangsgröße ut und dem inneren Zustand st des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:

    yt = g(st, ut), (2)

    wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
  • Zur Beschreibung des dynamischen Systems 200 wird in [1] eine Anordnung miteinander verbundener Rechenelemente in Form eines neuronalen Netzes miteinander verbundener Neuronen eingesetzt. Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefasst.
  • Somit hängt ein innerer Zustand eines dynamischen Systems, welches einem dynamischen Prozess unterliegt, gemäß folgender Vorschrift von der Eingangsgröße ut und dem inneren Zustand des vorangegangenen Zeitpunktes st und dem Parametervektor v ab:

    st+1 = NN(v, st, ut), (3)

    wobei mit NN(.) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
  • Die aus [1] bekannte und als Time Delay Recurrent Neural Network (TDRNN) bezeichnete Anordnung wird in einer Trainingsphase derart trainiert, dass zu einer Eingangsgröße ut jeweils eine Zielgröße y d|t an einem realen dynamischen System ermittelt wird. Das Tupel (Eingangsgröße, ermittelte Zielgröße) wird als Trainingsdatum bezeichnet. Eine Vielzahl solcher Trainingsdaten bilden einen Trainingsdatensatz.
  • Dabei weisen zeitlich aufeinanderfolgende Tupel



    der Zeitpunkte (t - 4, t - 3, t - 3, . . .) des Trainingsdatensatzes jeweils einen vorgegeben Zeitschritt auf.
  • Mit dem Trainingsdatensatz wird das TDRNN trainiert. Eine Übersicht über verschiedene Trainingsverfahren ist ebenfalls in [1] zu finden.
  • Es ist an dieser Stelle zu betonen, dass lediglich die Ausgangsgröße yt zu einem Zeitpunkt t des dynamischen Systems 200 erkennbar ist. Der "inneren" Systemzustand st ist nicht beobachtbar.
  • In der Trainingsphase wird üblicherweise folgende Kostenfunktion E minimiert:


    wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeichnet wird.
  • In [2] ist ferner ein Überblick über Grundlagen neuronaler Netze und die Anwendungsmöglichkeiten neuronaler Netze im Bereich der Ökonomie zu finden.
  • Die bekannten Anordnungen und Verfahren weisen insbesondere den Nachteil auf, dass durch sie ein zu beschreibendes dynamisches System bzw. Prozess nur unzureichend genau beschrieben werden kann. Dies ist darauf zurückzuführen, dass mit den bei diesen Anordnungen und Verfahren verwendeten Abbildungen die Zustandsübergangsbeschreibung des dynamischen Prozesses nur unzureichend genau nachgebildet werden kann.
  • Somit liegt der Erfindung das Problem zugrunde, ein Verfahren und eine Anordnung zur rechnergestützten Abbildung zeitlich veränderlicher Zustandsbeschreibungen anzugeben, mit welchen eine Zustandsübergangsbeschreibung eines dynamischen Systems mit verbesserter Genauigkeit beschrieben werden kann und welche Anordnung und welche Verfahren nicht den Nachteilen der bekannten Anordnungen und Verfahren unterliegen.
  • Die Probleme werden durch eine Anordnung sowie ein Verfahren mit den Merkmalen gemäß dem jeweiligen unabhängigen Patentanspruch gelöst.
  • Bei dem Verfahren zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum werden folgende Verfahrenschritte durchgeführt:
    • - es wird eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelt, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist,
    • - es wird eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelt, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist,
    • - es wird der aktuelle erste Zustand ermittelt durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
  • Die Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum weist miteinander verknüpfte Rechenelemente auf, welche Rechenelemente jeweils einen Zustand des Systems und welche Verknüpfungen jeweils eine Transformation zwischen zwei Zuständen des Systems repräsentieren, wobei
    • - erste Rechenelemente derart eingerichtet sind, dass eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelbar sind, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist,
    • - zweite Rechenelemente derart eingerichtet sind, dass eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelbar sind, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist,
    • - ein drittes Rechenelement derart eingerichtet ist, dass der aktuelle erste Zustand ermittelbar ist durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
  • Die Anordnung ist insbesondere geeignet zur Durchführung der erfindungsgemäßen Verfahren oder einer deren nachfolgend erläuterten Weiterbildungen.
  • Anschaulich gesehen wird der erste aktueller Zustand des Systems ermittelt dadurch, dass ein erster systemimmanenter Informationsfluss mit Systeminformation des Systems aus der Vergangenheit und einer zweiter systemimmanenter Informationsfluss mit Systeminformation aus der Zukunft in dem ersten aktuellen Zustand zusammengeführt und daraus der erste aktuelle Zustand ermittelt werden.
  • Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
  • Die im weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf die Verfahren als auch auf die Anordnung.
  • Die Erfindung und die im weiteren beschriebenen Weiterbildungen können sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden.
  • Ferner ist eine Realisierung der Erfindung oder einer im weiteren beschriebenen Weiterbildung möglich durch ein computerlesbares Speichermedium, auf welchem ein Computerprogramm gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
  • Auch kann die Erfindung oder jede im weiteren beschriebene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem ein Computerprogramm gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
  • Bei einer Weiterbildung der Erfindung sind zwei zeitlich aufeinanderfolgende zweite Zustände der zweiten zeitlichen Abfolge jeweils durch eine dritte Transformation miteinander gekoppelt.
  • Diese Kopplung durch die dritte Transformation kann derart ausgestaltet sein, dass ein zeitlich jüngerer zweite Zustand aus einem zeitlich älteren zweiten Zustand ermittelt wird.
  • Ferner können in einer Ausgestaltung der Erfindung zwei zeitlich aufeinanderfolgende dritte Zustände der dritten Abfolge jeweils durch eine vierte Transformation miteinander gekoppelt werden.
  • Diese Kopplung durch die vierte Transformation kann derart ausgestaltet sein, dass ein zeitlich älterer dritter Zustand aus einem zeitlich jüngeren dritten Zustand ermittelt wird.
  • Ferner kann die Erfindung weitergebildet werden derart, dass ein dem aktuellen zweiten Zustand zeitlich nachfolgender jüngerer zweiten Zustand der zweiten zeitlichen Abfolge ermittelt wird
    • - durch die dritte Transformation des aktuellen zweiten Zustands und
    • - durch eine fünfte Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
  • Auch kann ein dem zukünftigen dritten Zustand zeitlich vorangegangener aktueller dritter Zustand der dritten zeitlichen Abfolge ermittelt werden
    • - durch die vierte Transformation des zukünftigen dritten Zustands und
    • - durch eine sechste Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
  • Die Genauigkeit bei der Beschreibung einer Zustandsübergangsbeschreibung eines dynamischen Systems kann verbessert werden, indem ein Fehler zwischen dem ermittelten ersten aktuellen Zustand und einem vorgegebenen aktuellen ersten Zustand ermittelt wird. Eine derartige Fehlerermittlung wird als "error correction" bezeichnet.
  • Eine Verbesserung bei der Beschreibung einer Zustandsübergangsbeschreibung lässt sich erreichen, wenn den zweiten Zuständen der zweiten zeitlichen Abfolge und/oder den dritten Zuständen der dritten zeitlichen Abfolge jeweils eine externe Zustandsinformation des Systems zugeführt wird.
  • Darüber hinaus kann ein Zustand des Systems durch einen Vektor vorgebbarer Dimension beschrieben werden.
  • Eine Weiterbildung der Erfindung wird verwendet zu einer Ermittlung einer Dynamik des dynamisch veränderlichen Systems, wobei die erste zeitliche Abfolge der jeweils ersten Zuständen die Dynamik beschreibt.
  • Eine solche Dynamik kann beispielsweise eine Dynamik eines Elektro-Kardio-Gramms, wobei in diesem Fall die erste zeitliche Abfolge der jeweils ersten Zustände Signale eines Elektro-Kardio-Gramms ist.
  • Auch kann die Dynamik eine Dynamik eines ökonomischen Systems sein, wobei die erste zeitliche Abfolge der jeweils ersten Zustände in diesem Fall ökonomische, makroökonomische oder auch mikroökonomische, Zustände beschrieben durch eine entsprechende ökonomische Größe ist.
  • Durch eine Weiterbildung der Erfindung ist es auch möglich, die Dynamik eines chemischen Reaktors zu ermitteln, wobei die erste zeitliche Abfolge der jeweils ersten Zustände durch chemische Zustandsgrößen des chemischen Reaktors beschrieben wird.
  • Eine weitere Ausgestaltung der Erfindung wird verwendet zu einer Prognose eines Zustands des dynamisch veränderlichen Systems, wobei in diesem Fall der ermittelte erste aktuelle Zustand als der prognostizierte Zustand verwendet wird.
  • In einer Weiterbildung der Erfindung sind vierte Rechenelemente vorgesehen, die jeweils mit einem ersten Rechenelement und/oder einem zweiten Rechenelement verknüpft sind und die derart eingerichtet sind, dass jeweils einem von den vierten Rechenelementen ein vierter Zustand einer vierten zeitlichen Abfolge von jeweils vierten Zuständen des Systems zuführbar sind, wobei jeder vierte Zustand externe Zustandinformation des Systems beinhaltet.
  • Ferner ist in einer weiteren Ausgestaltung der Erfindung vorgesehen, zumindest einen Teil der Rechenelemente als künstliche Neuronen und/oder zumindest einen Teil von den Verknüpfungen zwischen den Rechenelementen variabel auszugestalten.
  • Ferner kann eine Messanordnung zur Erfassung physikalischer Signale vorgesehen werden, mit denen Zustände des dynamisch veränderlichen System beschrieben werden.
  • Auch lassen sich Weiterbildungen der Erfindung bei einer Sprachverarbeitung einsetzen.
  • So kann bei einer solchen Weiterbildung
    • - die externe Zustandsinformation eine erste Sprachinformation eines zu sprechenden Wortes und/oder einer zu sprechende Silbe und/oder eines zu sprechenden Phonems sein und
    • - der aktuelle erste Zustand eine zweite Sprachinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems beinhalten.
  • Auch kann bei einer solchen Weiterbildung vorgesehen werden, dass
    • - die erste Sprachinformation eine Klassifikation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Pauseninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder
    • - die zweite Sprachinformation eine Akzentuierungsinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängeninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
  • Ferner ist bei einer solchen Weiterbildung möglich, dass
    • - die erste Sprachinformation eine phonetische und/oder strukturelle Information des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder
    • - die zweite Sprachinformation eine Frequenzinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängendauer des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
  • Ausführungsbeispiele der Erfindung sind in Figuren dargestellt und werden im weiteren erläutert.
  • Es zeigen
  • Fig. 1 Skizze einer Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN);
  • Fig. 2a und 2b eine erste Skizze einer allgemeinen Beschreibung eines dynamischen Systems und eine zweite Skizze einer Beschreibung eines dynamischen Systems, welchem ein "Kausaler-Retro-Kausaler" Zusammenhang zugrunde liegt;
  • Fig. 3 eine Anordnung gemäß einem zweiten Ausführungsbeispiel (KRKFKNN);
  • Fig. 4 eine Skizze eines chemischen Reaktors, von dem Größen gemessen werden, welche mit der Anordnung gemäß dem ersten Ausführungsbeispiel weiterverarbeitet werden;
  • Fig. 5 eine Skizze einer Anordnung eines TDRNN, welche mit endlich vielen Zuständen über die Zeit entfaltet ist;
  • Fig. 6 eine Skizze eines Verkehrsleitsystems, welches mit der Anordnung im Rahmen eines zweiten Ausführungsbeispiels modelliert wird;
  • Fig. 7 Skizze einer alternativen Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN mit gelösten Verbindungen);
  • Fig. 8 Skizze einer alternativen Anordnung gemäß einem zweiten Ausführungsbeispiel (KRKFKNN mit gelösten Verbindungen);
  • Fig. 9 Skizze einer alternativen Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN);
  • Fig. 10 Skizze einer Sprachbearbeitung unter Verwendung einer Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN);
  • Fig. 11 Skizze einer Sprachbearbeitung unter Verwendung einer Anordnung gemäß einem zweiten Ausführungsbeispiel (KRKFKNN).
  • Erstes Ausführungsbeispiel Chemischer Reaktor
  • Fig. 4 zeigt einen chemischen Reaktor 400, der mit einer chemischen Substanz 401 gefüllt ist. Der chemische Reaktor 400 umfasst einen Rührer 402, mit dem die chemische Substanz 401 gerührt wird. In den chemischen Reaktor 400 einfließende weitere chemische Substanzen 403 reagieren während eines vorgebbaren Zeitraums in dem chemischen Reaktor 400 mit der in dem chemischen Reaktor 400 bereits enthaltenen chemischen Substanz 401. Eine aus dem Reaktor 400 ausfließende Substanz 404 wird aus dem chemischen Reaktor 400 über einen Ausgang abgeleitet.
  • Der Rührer 402 ist über eine Leitung mit einer Steuereinheit 405 verbunden, mit der über ein Steuersignal 406 eine Rührfrequenz des Rührers 402 einstellbar ist.
  • Ferner ist ein Messgerät 407 vorgesehen, mit dem Konzentrationen von in der chemischen Substanz 401 enthaltenen chemischen Stoffe gemessen werden.
  • Messsignale 408 werden einem Rechner bzw. Computer 409 zugeführt, in dem Rechner 409 über eine Eingangs- /Ausgangsschnittstelle 410 und einem Analog/Digital-Wandler 411 digitalisiert und in einem Speicher 412 gespeichert. Ein Prozessor 413 ist ebenso wie der Speicher 412 über einen Bus 414 mit dem Analog/Digital-Wandler 411 verbunden. Der Rechner 409 ist ferner über die Eingangs-/Ausgangsschnittstelle 410mit der Steuerung 405 des Rührers 402 verbunden und somit steuert der Rechner 409 die Rührfrequenz des Rührers 402.
  • Der Rechner 409 ist ferner über die Eingangs-/Ausgangsschnittstelle 410 mit einer Tastatur 415, einer Computermaus 416 sowie einem Bildschirm 417 verbunden.
  • Der chemische Reaktor 400 als dynamisches technisches System 250 unterliegt somit einem dynamischen Prozess.
  • Der chemische Reaktor 400 wird mittels einer Zustandsbeschreibung beschrieben. Eine Eingangsgröße ut dieser Zustandbeschreibung setzt sich in diesem Fall zusammen aus einer Angabe über die Temperatur, die in dem chemischen Reaktor 400 herrscht sowie dem in dem chemischen Reaktor 400 herrschenden Druck und der zu dem Zeitpunkt t eingestellten Rührfrequenz. Somit ist die Eingangsgröße ut ein dreidimensionaler Vektor.
  • Ziel der im weiteren beschriebenen Modellierung des chemischen Reaktors 400 ist die Bestimmung der dynamischen Entwicklung der Stoffkonzentrationen, um somit eine effiziente Erzeugung eines zu produzierenden vorgebbaren Zielstoffes als ausfließende Substanz 404 zu ermöglichen.
  • Dies erfolgt unter Verwendung der im weiteren beschriebenen und in der Fig. 1 dargestellten Anordnung.
  • Der dynamische Prozess, der dem beschriebenen Reaktor 400 zugrunde liegt und einen sogenannten "Kausalen-Retro- Kausalen" Zusammenhang aufweist, wird beschrieben durch eine Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangsgleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt.
  • Eine solche Struktur eines dynamischen Systems mit einem "Kausalen-Retro-Kausalen" Zusammenhang ist in Fig. 2b dargestellt.
  • Das dynamisches System 250 unterliegt dem Einfluss einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße ut zu einem Zeitpunkt t mit ut bezeichnet wird:


    wobei mit l eine natürliche Zahl bezeichnet wird.
  • Die Eingangsgröße ut zu einem Zeitpunkt t verursacht eine Veränderung des dynamischen Prozesses, der in dem dynamischen System 250 abläuft.
  • Ein innerer Zustand des Systems 250 zu einem Zeitpunkt t, welcher innere Zustand für einen Beobachter des Systems 250 nicht beobachtbar ist, setzt sich in diesem Fall zusammen aus einen ersten inneren Teilzustand st und einem zweiten inneren Teilzustand rt.
  • In Abhängigkeit vom ersten inneren Teilzustand st-1 zu einem früheren Zeitpunkt t - 1 und der Eingangsgröße ut wird ein Zustandsübergang des ersten inneren Teilzustandes st-1 des dynamischen Prozesses in einen Folgezustand st verursacht.
  • Dabei gilt:

    st = f1(st-1, ut). (5)

    wobei mit f1(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
  • Anschaulich gesehen wird der erste innere Teilzustand st beeinflusst von einem früheren ersten inneren Teilzustand st-1und der Eingangsgröße ut. Ein solcher Zusammenhang wird üblicherweise als "Kausalität" bezeichnet.
  • In Abhängigkeit vom zweiten inneren Teilzustand rt+1 zu einem nachfolgenden Zeitpunkt t + 1 und der Eingangsgröße ut wird ein Zustandsübergang des ersten inneren Zustandes rt+1 des dynamischen Prozesses in einen Folgezustand rt verursacht.
  • Dabei gilt:

    rt = f2(rt+1, ut). (6)

    wobei mit f2(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
  • Anschaulich gesehen wird in diesem Fall der zweite innere Teilzustand rt beeinflusst von einem späteren zweiten inneren Teilzustand rt+1, im allgemeinen also einer Erwartung über einen späteren Zustand des dynamischen Systems 250, und der Eingangsgröße ut. Ein solcher Zusammenhang wird als "Retro- Kausalität" bezeichnet.
  • Eine von einem Beobachter des dynamischen Systems 250 beobachtbare Ausgangsgröße yt zu einem Zeitpunkt t hängt ab somit von der Eingangsgröße ut, dem ersten inneren Teilzustand st sowie dem zweiten inneren Teilzustand rt+1.
  • Die Ausgangsgröße yt


    ist vorgebbarer Dimension n.
  • Die Abhängigkeit der Ausgangsgröße yt von der Eingangsgröße ut, dem ersten inneren Teilzustand st sowie dem zweiten inneren Teilzustand rt+1 des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:

    yt = g(st, rt+1), (7)

    wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
  • Zur Beschreibung des dynamischen Systems 250 sowie dessen Zustände wird eine Anordnung miteinander verbundener Rechenelemente in Form eines Neuronalen Netzes miteinander verbundener Neuronen eingesetzt. Dieses ist in Fig. 1 dargestellt und wird als "Kausales-Retro-Kausales" Neuronales Netz (KRKNN) bezeichnet.
  • Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefasst.
  • Bei diesem Neuronalen Netz hängen der erste innere Teilzustand st und der zweiten inneren Teilzustand rt gemäß folgenden Vorschriften von der Eingangsgröße ut, dem ersten inneren Teilzustand st-1, dem zweiten inneren Teilzustand rt+1 sowie den Parametervektoren vs, vt, vy ab:

    st = NN(vs, st-1, ut), (8)

    rt = NN(vr, rt+1, ut) (9)

    yt = NN(vy, st, rt) (10)

    wobei mit NN(.) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
  • Das KRKNN 100 gemäß Fig. 1 ist ein über vier Zeitpunkte, t - 1, t, t + 1 und t + 2, entfaltetes Neuronales Netz.
  • Grundzüge eines über eine endliche Anzahl von Zeitpunkten entfaltetes Neuronalen Netzes sind in [1] beschrieben.
  • Zum einfacheren Verständnis der dem KRKNN zugrunde liegenden Prinzipien ist in Fig. 5 das bekannte TDRNN als ein über eine endliche Anzahl von Zeitpunkten entfaltetes neuronales Netz 500 dargestellt.
  • Das in Fig. 5 dargestellte neuronale Netz 500 weist eine Eingangsschicht 501 mit drei Teileingangsschichten 502, 503 und 504 auf, die jeweils eine vorgebbare Anzahl Eingangs- Rechenelemente enthalten, denen Eingangsgrößen ut zu einem vorgebbaren Zeitpunkt t, d. h. im weiteren beschriebene Zeitreihenwerte, anlegbar sind.
  • Eingangs-Rechenelemente, d. h. Eingangsneuronen, sind über variable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten 505 verbunden.
  • Dabei sind Neuronen einer ersten versteckten Schicht 506 mit Neuronen der ersten Teileingangsschicht 502 verbunden. Ferner sind Neuronen einer zweiten versteckten Schicht 507 mit Neuronen der zweiten Eingangsschicht 503 verbunden. Neuronen einer dritten versteckten Schicht 508 sind mit Neuronen der dritten Teileingangsschicht 504 verbunden.
  • Die Verbindungen zwischen der ersten Teileingangsschicht 502 und der ersten versteckten Schicht 506, der zweiten Teileingangsschicht 503 und der zweiten versteckten Schicht 507 sowie der dritten Teileingangsschicht 504 und der dritten versteckten Schicht 508 sind jeweils gleich. Die Gewichte aller Verbindungen sind jeweils in einer ersten Verbindungsmatrix B enthalten.
  • Neuronen einer vierten versteckten Schicht 509 sind mit ihren Eingängen mit Ausgängen von Neuronen der ersten versteckten Schicht 506 gemäß einer durch eine zweite Verbindungsmatrix A2 gegebene Struktur verbunden. Ferner sind Ausgänge der Neuronen der vierten versteckten Schicht 509 mit Eingängen von Neuronen der zweiten versteckten Schicht 507 gemäß einer durch eine dritte Verbindungsmatrix A1 gegebene Struktur verbunden.
  • Ferner sind Neuronen einer fünften versteckten Schicht 510 mit ihren Eingängen gemäß einer durch die dritte Verbindungsmatrix A2 gegebenen Struktur mit Ausgängen von Neuronen der zweiten versteckten Schicht 507 verbunden. Ausgänge der Neuronen der fünften versteckten Schicht 510 sind mit Eingängen von Neuronen der dritten versteckten Schicht 508 gemäß einer durch die dritte Verbindungsmatrix A1 gegebenen Struktur verbunden.
  • Äquivalent gilt diese Art der Verbindungsstruktur für eine sechste versteckte Schicht 511, die gemäß einer durch die zweite Verbindungsmatrix A2 gegebenen Struktur mit Ausgängen der Neuronen der dritten versteckten Schicht 508 verbunden sind und gemäß einer durch die dritte Verbindungsmatrix A1 gegebenen Struktur mit Neuronen einer siebten versteckten Schicht 512.
  • Neuronen einer achten versteckten Schicht 513 sind wiederum gemäß einer durch die erste Verbindungsmatrix A2 gegebenen Struktur mit Neuronen der siebten versteckten Schicht 512 und über Verbindungen gemäß der dritten Verbindungsmatrix A1 mit Neuronen einer neunten versteckten Schicht 514 verbunden. Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t, t - 1, t - 2, t + 1, t + 2, an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren bzw. zuführbaren Signale beziehen (ut, ut-1, ut-2).
  • Eine Ausgangsschicht 520 weist drei Teilausgangsschichten, eine erste Teilausgangsschicht 521, eine zweite Teilausgangsschicht 522 sowie eine dritte Teilausgangsschicht 523 auf. Neuronen der ersten Teilausgangsschicht 521 sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der dritten versteckten Schicht 508 verbunden. Neuronen der zweiten Teilausgangsschicht sind ebenfalls gemäß der durch die Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der achten versteckten Schicht 512 verbunden. Neuronen der dritten Teilausgangsschicht 523 sind gemäß der Ausgangs-Verbindungsmatrix C mit Neuronen der neunten versteckten Schicht 514 verbunden. An den Neuronen der Teilausgangsschichten 521, 522 und 523 sind die Ausgangsgrößen für jeweils einen Zeitpunkt t, t + 1, t + 2 abgreifbar (yt, yt+1, yt+2).
  • Ausgehend von diesem Prinzip der sogenannten geteilten Gewichtswerte (Shared Weights), d. h. dem Grundsatz, dass äquivalente Verbindungsmatrizen in einem neuronalen Netz zu einem jeweiligen Zeitpunkt die gleichen Werte aufweisen, wird im weiteren die in Fig. 1 dargestellte Anordnung gebildet erläutert.
  • Die im weiteren beschriebenen Skizzen sind jeweils so zu verstehen, dass jede Schicht bzw. jede Teilschicht eine vorgebbare Anzahl von Neuronen, d. h. Rechenelementen, aufweist.
  • Teilschichten einer Schicht repräsentieren jeweils einen Systemzustand des durch die Anordnung beschriebenen dynamischen Systems. Teilschichten einer versteckten Schicht repräsentieren dementsprechend jeweils einen "inneren" Systemzustand.
  • Die jeweiligen Verbindungsmatrizen sind beliebiger Dimension und enthalten jeweils zu den entsprechenden Verbindungen zwischen den Neuronen der jeweiligen Schichten die Gewichtswerte.
  • Die Verbindungen sind gerichtet und in Fig. 1 durch Pfeile gekennzeichnet. Eine Pfeilrichtung gibt eine "Rechenrichtung", insbesondere eine Abbildungsrichtung oder eine Transformationsrichtung, an.
  • Die in Fig. 1 dargestellte Anordnung weist eine Eingangsschicht 100 mit vier Teileingangsschichten 101, 102, 103 und 104 auf, wobei jeder Teileingangsschicht 101, 102, 103, 104 jeweils Zeitreihenwerte ut-1, ut, ut+1, ut+2 zu jeweils einem Zeitpunkt t - 1, t, t + 1 bzw. t + 2 zuführbar sind.
  • Die Teileingangsschichten 101, 102, 103, 104 der Eingangsschicht 100 sind jeweils über Verbindungen gemäß einer ersten Verbindungsmatrix A mit Neuronen einer ersten versteckten Schicht 110 mit jeweils vier Teilschichten 111, 112, 113 und 114 der ersten versteckten Schicht 110 verbunden.
  • Die Teileingangsschichten 101, 102, 103, 104 der Eingangsschicht 100 sind zusätzlich jeweils über Verbindungen gemäß einer zweiten Verbindungsmatrix B mit Neuronen einer zweiten versteckten Schicht 120 mit jeweils vier Teilschichten 121, 122, 123 und 124 der zweiten versteckten Schicht 120 verbunden.
  • Die Neuronen der ersten versteckten Schicht 110 sind jeweils gemäß einer durch eine dritte Verbindungsmatrix C gegebenen Struktur mit Neuronen einer Ausgangsschicht 140 verbunden, die ihrerseits wiederum vier Teilausgangsschichten 141, 142, 143 und 144 aufweist.
  • Die Neuronen der Ausgangsschicht 140 sind jeweils gemäß einer durch eine vierte Verbindungsmatrix D gegebenen Struktur mit den Neuronen der zweiten versteckten Schicht 120 verbunden.
  • Auch sind die Neuronen der Ausgangsschicht 140 jeweils gemäß einer durch eine achte Verbindungsmatrix G gegebenen Struktur mit den Neuronen der ersten versteckten Schicht 110 verbunden.
  • Ferner sind die Neuronen der zweiten versteckten Schicht 120 jeweils gemäß einer durch eine siebte Verbindungsmatrix H gegebenen Struktur mit den Neuronen der Ausgangsschicht 140 verbunden.
  • Darüber hinaus ist die Teilschicht 111 der ersten versteckten Schicht 110 über eine Verbindung gemäß einer fünften Verbindungsmatrix E mit den Neuronen der Teilschicht 112 der ersten versteckten Schicht 110 verbunden.
  • Entsprechende Verbindungen weisen auch alle übrigen Teilschichten 112, 113 und 113 der ersten versteckten Schicht 110 auf.
  • Anschaulich gesehen sind somit alle Teilschichten 111, 112, 113 und 114 der ersten versteckten Teilschicht 110 entsprechend ihrer zeitlichen Abfolge t - 1, t, t + 1 und t + 2 miteinander verbunden.
  • Die Teilschichten 121, 122, 123 und 124 der zweiten versteckten Schicht 120 sind gerade gegenläufig miteinander verbunden.
  • In diesem Fall ist die Teilschicht 124 der zweiten versteckten Schicht 120 über eine Verbindung gemäß einer sechsten Verbindungsmatrix F mit den Neuronen der Teilschicht 123 der zweiten versteckten Schicht 120 verbunden.
  • Entsprechende Verbindungen weisen auch alle übrigen Teilschichten 123, 122 und 121 der zweiten versteckten Schicht 120 auf.
  • Anschaulich gesehen sind in diesem Fall alle Teilschichten 121, 122, 123 und 124 der zweiten versteckten Teilschicht 120 entgegen ihrer zeitlichen Abfolge, also t + 2, t + 1, t und t - 1, miteinander verbunden.
  • Entsprechend der beschriebenen Verbindungen wird ein "innerer" Systemzustand st, st+1 bzw. st+2 der Teilschicht 112, 113 bzw. 114 der ersten versteckten Schicht gebildet jeweils aus dem zugehörigen Eingangszustand ut, ut+1 bzw. ut+2, aus dem zeitlich vorhergegangenen Ausgangszustand yt-1, yt bzw. yt und dem zeitlich vorhergegangenen "inneren Systemzustand st-1, st bzw. st.
  • Ferner wird entsprechend der beschriebenen Verbindungen ein "innerer" Systemzustand rt-1, rt bzw. rt+1 der Teilschicht 121, 122 bzw. 123 der zweiten versteckten Schicht 120 gebildet jeweils aus dem zugehörigen Ausgangszustand yt-1, yt bzw. yt+1, aus dem zugehörigen Eingangszustand ut-1, ut bzw. ut+1 und dem zeitlich nachfolgenden "inneren" Systemzustand rt, rt+1 bzw. rt+2.
  • In den Teilausgangsschichten 141, 142, 143 und 144 der Ausgangsschicht 140 wird jeweils ein Zustand aus dem zugehörigen "inneren" Systemzustand st-1, st, st+1 bzw. st+2 einer Teilschicht 111, 112, 113 bzw. 114 der ersten versteckten Schicht 110 und aus dem zeitlich vorangehenden "inneren Systemzustand rt, rt+1, rt+2 bzw. rt+3 (nicht dargestellt) einer Teilschicht 122, 123 bzw. 124 der zweiten versteckten Schicht 120.
  • An einem Ausgang der ersten Teilausgangsschicht 141 der Ausgangsschicht 140 ist somit ein Signal, welches abhängt von den "inneren" Systemzuständen (st, rt) abgreifbar.
  • Entsprechendes gilt für die Teilausgangsschichten 142, 143 und 144.
  • In der Trainingsphase des KRKNN wird folgende Kostenfunktion E minimiert:


    wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeichnet wird.
  • Als Trainingsverfahren wird das Backpropagation-Verfahren eingesetzt. Der Trainingsdatensatz wird auf folgende Weise aus dem chemischen Reaktor 400 gewonnen.
  • Es werden mit dem Messgerät 407 zu vorgegebenen Eingangsgrößen Konzentrationen gemessen und dem Rechner 409 zugeführt, dort digitalisiert und als Zeitreihenwerte xt in einem Speicher gemeinsam mit den entsprechenden Eingangsgrößen, die zu den gemessenen Größen korrespondieren, gruppiert.
  • Bei dem Training werden die Gewichtswerte der jeweiligen Verbindungsmatrizen angepasst. Die Anpassung erfolgt anschaulich derart, dass das KRKNN das durch sie nachgebildete dynamische System, in diesem Fall den chemischen Reaktor, möglichst genau beschreibt.
  • Die Anordnung aus Fig. 1 wird unter Verwendung des Trainingsdatensatzes und der Kostenfunktion E trainiert.
  • Die gemäß dem oben beschriebenen Trainingsverfahren trainierte Anordnung aus Fig. 1 wird zur Steuerung und Überwachung des chemischen Reaktors 400 eingesetzt. Dazu wird aus den Eingangsgrößen ut-1, ut eine prognostizierte Ausgangsgröße yt+1 ermittelt. Diese wird anschließend als Steuergröße, gegebenenfalls nach einer eventuellen Aufbereitung, dem Steuerungsmittel 405 zur Steuerung des Rührers 402 und der Steuerungseinrichtung 430 zur Zuflusssteuerung zugeführt (vgl. Fig. 4).
  • 2. Ausführungsbeispiel Mietpreisprognose
  • In Fig. 3 ist eine Weiterentwicklung des in Fig. 1 dargestellten und im Rahmen der obigen Ausführungen beschriebenen KRKNN dargestellt.
  • Das in Fig. 3 dargestellte weiterentwickelte KRKNN, ein sogenanntes Kausales-Retro-Kausales-Fehler-Korrigierendes- Neuronales-Netz (KRKFKNN), wird für eine Mietpreisprognose verwendet.
  • Die Eingangsgröße ut setzt sich in diesem Fall zusammen aus Angaben über einen Mietpreis, einem Wohnraumangebot, einer Inflation und einer Arbeitslosenrate, welche Angaben bezüglich eines zu untersuchenden Wohngebiets jeweils am Jahresende (Dezemberwerte) ermittelt werden. Somit ist die Eingangsgröße ein vierdimensionaler Vektor. Eine Zeitreihe der Eingangsgrößen, welche aus mehreren zeitlich aufeinanderfolgenden Vektoren bestehen, weißt Zeitschritte von jeweils einem Jahr auf.
  • Ziel der im weiteren beschriebenen Modellierung einer Mitpreisbildung ist die Prognose eines zukünftigen Mietpreises.
  • Die Beschreibung des dynamischen Prozesses der Mietpreisbildung erfolgt unter Verwendung der im weiteren beschriebenen und in der Fig. 3 dargestellten Anordnung.
  • Komponenten aus Fig. 1 sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen versehen.
  • Zusätzlich weist das KRKFKNN eine zweite Eingangsschicht 150 mit vier Teileingangsschichten 151, 152, 153 und 154 auf, wobei jeder Teileingangsschicht 151, 152, 153, 154 jeweils Zeitreihenwerte


    zu jeweils einem Zeitpunkt t - 1, t, t + 1 bzw. t + 2 zuführbar sind. Die Zeitreihenwerte


    sind dabei am dynamischen System gemessene Ausgangswerte.
  • Die Teileingangsschichten 151, 152, 153, 154 der Eingangsschicht 150 sind jeweils über Verbindungen gemäß einer neunten Verbindungsmatrix, welche eine negative Identitätsmatrix ist, mit Neuronen der Ausgangsschicht 140 verbunden.
  • Somit wird in den Teilausgangsschichten 141, 142, 143 und 144 der Ausgangsschicht jeweils ein Differenzzustand (yt-1-y d|t-1), (yt-y d|t), yt+1-y d|t+1 und (yt+2-y d|t+2) gebildet.
  • Die Vorgehensweise für ein Training der oben beschriebenen Anordnung entspricht der Vorgehensweise beim Training der Anordnung gemäß dem ersten Ausführungsbeispiel.
  • 3. Ausführungsbeispiel Verkehrsmodellierung und Stauwarnprognose
  • Ein nachfolgend beschriebenes drittes Ausführungsbeispiel beschreibt eine Verkehrsmodellierung und wird für eine Stauprognose eingesetzt.
  • Bei dem dritten Ausführungsbeispiel wird die Anordnung gemäß dem ersten Ausführungsbeispiel eingesetzt (vgl. Fig. 1).
  • Das dritte Ausführungsbeispiel unterscheidet sich aber vom ersten Ausführungsbeispiel wie auch vom zweiten Ausführungsbeispiel jeweils darin, dass in diesem Fall die ursprünglich als Zeitvariable verwendete Variable t als eine Ortsvariable t verwendet wird.
  • Eine ursprüngliche Beschreibung eines Zustands zum Zeitpunkt t beschreibt somit bei dem dritten Ausführungsbeispiel einen Zustand an einem ersten Ort t. Entsprechendes gilt jeweils für eine Zustandsbeschreibung zu einem Zeitpunkt t - 1 bzw. t + 1 bzw. t + 2.
  • Ferner ergibt sich aus der analogen Übertragung der Zeitvariabilität auf eine Ortvariabilität, dass die Orte t - 1, t, t + 1 und t + 2 entlang einer Fahrstrecke in einer vorgegebenen Fahrtrichtung aufeinanderfolgend angeordnet sind.
  • Fig. 6 zeigt eine Straße 600, die von Autos 601, 602, 603, 604, 605 und 606 befahren ist, dar.
  • In die Straße 600 integrierte Leiterschleifen 610, 611 nehmen elektrische Signale in bekannter Weise auf und führen die elektrischen Signale 615, 616, einem Rechner 620 über eine Eingangs-/Ausgangsschnittstelle 621 zu. In einem mit der Eingangs-/Ausgangsschnittstelle 621 verbundenen Analog/Digital- Wandler 622 werden die elektrischen Signale in eine Zeitreihe digitalisiert und in einem Speicher 623, der über einen Bus 624 mit dem Analog/Digital-Wandler 622 und einem Prozessor 625 verbunden ist, gespeichert. Über die Eingangs- /Ausgangsschnittsstelle 621 werden einem Verkehrsleitsystem 650 Steuerungssignale 951 zugeführt, aus denen in dem Verkehrsleitsystem 650 eine vorgegebene Geschwindigkeitsvorgabe 652 einstellbar ist oder auch weitere Angaben von Verkehrsvorschriften, die über das Verkehrsleitsystem 650 Fahrern der Fahrzeuge 601, 602, 603, 604, 605 und 606 dargestellt werden.
  • Zur Verkehrsmodellierung werden in diesem Fall folgende lokale Zustandsgrößen verwendet:
    • - Verkehrsflussgeschwindigkeit v,
    • - Fahrzeugdichte ρ (ρ = Anzahl von Fahrzeugen pro Kilometer, Fz/km),
    • - Verkehrsfluss q (q = Anzahl der Fahrzeuge pro Stunde Fz/h, (q = v.ρ)), und
    • - jeweils zu einem Zeitpunkt von dem Verkehrsleitsystem 950 angezeigte Geschwindigkeitsbegrenzungen 952.
  • Die lokalen Zustandsgrößen werden wie oben beschrieben unter Verwendung der Leiterschleifen 610, 611 gemessen.
  • Somit stellen diese Größen (v(t), ρ(t), q(t)) einen Zustand des technischen Systems "Verkehr" zu einem bestimmten Zeitpunkt t dar. Aus diesen Größen erfolgt eine Bewertung r(t) jeweils eines aktuellen Zustands, beispielsweise bezüglich Verkehrsfluss und Homogenität. Diese Bewertung kann quantitativ oder qualitativ erfolgen.
  • Im Rahmen dieses Ausführungsbeispiels wird die Verkehrsdynamik in zwei Phasen modelliert:
    Aus in der Anwendungsphase ermittelten Prognosegrößen werden Steuersignale 651 gebildet, mit denen angegeben wird, welche Geschwindigkeitsbegrenzung für einen zukünftigen Zeitraum (t + 1) ausgewählt werden soll.
  • Alternativen zu den Ausführungsbeispielen
  • Im Weiteren werden einige Alternativen zu den oben beschriebenen Ausführungsbeispielen aufgezeigt.
  • Alternative Anwendungsgebiete
  • Die in dem ersten Ausführungsbeispiel beschriebene Anordnung kann auch für die Ermittlung einer Dynamik eines Elektro- Kardio-Gramms (EKG) eingesetzt werden. Damit lassen sich frühzeitig Indikatoren, die auf ein erhöhtes Herzinfarktrisiko hinweisen, bestimmen. Als Eingangsgröße wird eine Zeitreihe aus an einem Patienten gemessenen EKG-Werten verwendet.
  • In einer weiteren Alternative zu dem ersten Ausführungsbeispiel wird die Anordnung gemäß dem ersten Ausführungsbeispiel für eine Verkehrsmodellierung gemäß dem dritten Ausführungsbeispiel eingesetzt.
  • In diesem Fall wird die ursprünglich (bei dem ersten Ausführungsbeispiel) als Zeitvariable verwendete Variable t wie im Rahmen des dritten Ausführungsbeispiels beschrieben als eine Ortvariable t verwendet.
  • Die Ausführung dazu bei dem dritten Ausführungsbeispiel gelten entsprechend.
  • In einer dritten Alternative zu dem ersten Ausführungsbeispiel wird die Anordnung gemäß dem ersten Ausführungsbeispiel im Rahmen einer Sprachbearbeitung eingesetzt (Fig. 10). Grundlagen einer solchen Sprachbearbeitung sind aus [3] bekannt.
  • In diesem Fall wird die Anordnung (KRKNN) 1000 eingesetzt, um eine Akzentuierung in einem zu akzentuierenden Satz 1010 zu ermitteln.
  • Dazu wird der zu akzentuierende Satz 1010 in seine Worte 1011 zerlegt und diese jeweils klassifiziert 1012 (Part-of-speech tagging). Die Klassifizierungen 1012 werden jeweils codiert 1013. Jeder Code 1013 wird um eine Pauseninformation 1014 (phrase break information) erweitert, welche jeweils angibt, ob bei einem Sprechen des zu akzentuierenden Satzes 1010 nach dem jeweiligen Wort eine Pause gemacht wird.
  • Eine solche Codierung eines zu akzentuierenden Satzes ist aus [3] und [4] bekannt.
  • Aus den erweiterten Codes 1015 des Satzes wird eine Zeitreihe 1016 gebildet derart, dass eine zeitliche Abfolge von Zuständen der Zeitreihe der Abfolge der Worte in dem zu akzentuierenden Satz 1010 entspricht. Diese Zeitreihe 1016 wird an die Anordnung 1000 angelegt.
  • Die Anordnung ermittelt nun für jedes Wort 1011 eine Akzentuierungsinformation 1020 (HA: Hauptakzent bzw. stark akzentuiert; NA: Neben Akzent bzw. schwach akzentuiert; KA: Kein Akzent bzw. nicht akzentuiert), welche angibt, ob das jeweilige Wort akzentuiert gesprochen wird.
  • Die Ausführung dazu bei dem ersten Ausführungsbeispiel gelten entsprechend.
  • Die in dem zweiten Ausführungsbeispiel beschriebene Anordnung kann in einer Alternative auch für die Prognose einer makroökonomischer Dynamik, wie beispielsweise eines Wechselkursverlaufs, oder anderen ökonomischer Kennzahlen, wie beispielsweise eines Börsenkurses, eingesetzt werden. Bei einer derartigen Prognose wird eine Eingangsgröße aus Zeitreihen relevanter makroökonomischer bzw. ökonomischer Kennzahlen, wie beispielsweise Zinsen, Währungen oder Inflationsraten, gebildet.
  • In einer weiteren Alternative zu dem zweiten Ausführungsbeispiel wird die Anordnung gemäß dem zweiten Ausführungsbeispiel im Rahmen einer Sprachbearbeitung eingesetzt (Fig. 11). Grundlagen einer solchen Sprachbearbeitung sind aus [5], [6], [7] und [8] bekannt.
  • In diesem Fall, einer silbenbasierten Sprachbearbeitung, wird die Anordnung (KRKFKNN) 1100 eingesetzt, um einen Frequenzverlauf einer Silbe eines Wortes in einem Satz zu modellieren.
  • Eine solche Modellierung ist auch aus [5], [6], [7] und [8] bekannt.
  • Dazu wird der zu modellierende Satz 1110 in Silben 1111 zerlegt. Für jede Silbe wird ein Zustandsvektor 1112 ermittelt, welcher die Silbe phonetisch und strukturell beschreibt.
  • Ein solcher Zustandsvektor 1112 umfasst eine Timinginformation 1113, eine Phonetikinformation 1114, eine Syntaxinformation 1115 und eine Betonungsinformation 1116.
  • Ein solcher Zustandsvektor 1112 ist in [4] beschrieben.
  • Aus den Zustandvektoren 1112 der Silben 1111 des zu modellierenden Satzes 1110 wird eine Zeitreihe 1117 gebildet derart, dass eine zeitliche Abfolge von Zuständen der Zeitreihe 1117 der Abfolge der Silben 1111 in dem zu modellierenden Satz 1110 entspricht. Diese Zeitreihe 1117 wird an die Anordnung 1100 angelegt.
  • Die Anordnung 1100 ermittelt nun für jede Silbe 1111 einen Parametervektor 1122 mit Parametern 1120, fomaxpos, fomaxalpha, lp, rp, welche den Frequenzverlauf 1121 der jeweiligen Silbe 1111 beschreiben.
  • Solche Parameter 1120 sowie die Beschreibung eines Frequenzverlaufes 1121 durch diese Parameter 1120 sind aus [5], [6], [7] und [8] bekannt.
  • Die Ausführung dazu bei dem zweiten Ausführungsbeispiel gelten entsprechend.
  • Strukturelle Alternativen
  • In Fig. 7 ist eine strukturelle Alternative zu der Anordnung aus Fig. 1 gemäß dem ersten Ausführungsbeispiel dargestellt.
  • Komponenten aus Fig. 1 sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen in Fig. 7 versehen dargestellt.
  • Im Gegensatz zu der in Fig. 1 dargestellten Anordnung sind bei der alternativen Anordnung gemäß Fig. 7 die Verbindungen 701, 702, 703, 704, 705, 706, 707, 708, 709, 710 und 711 gelöst bzw. unterbrochen.
  • Diese alternative Anordnung, ein KRKNN mit gelösten Verbindungen, kann sowohl in einer Trainingsphase als auch in einer Anwendungsphase eingesetzt werden.
  • Das Training wie auch die Anwendung der alternativen Anordnung werden in analoger Weise wie bei dem ersten Ausführungsbeispiel beschrieben durchgeführt.
  • In Fig. 8 ist eine strukturelle Alternative zu der Anordnung aus Fig. 3 gemäß dem zweiten Ausführungsbeispiel dargestellt.
  • Komponenten aus Fig. 3 sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen in Fig. 8 versehen dargestellt.
  • Im Gegensatz zu der in Fig. 3 dargestellten Anordnung sind bei der alternativen Anordnung gemäß Fig. 8 die Verbindungen 801, 802, 803, 804, 805, 806, 807, 808, 809, 810, 811, 812 und 813 gelöst bzw. unterbrochen.
  • Diese alternative Anordnung, ein KRKFKNN mit gelösten Verbindungen, kann sowohl in einer Trainingsphase als auch in einer Anwendungsphase eingesetzt werden.
  • Das Training wie auch die Anwendung der alternativen Anordnung werden in analoger Weise wie bei dem zweiten Ausführungsbeispiel beschrieben durchgeführt.
  • Es ist anzumerken, dass es möglich ist, das KRKNN mit gelösten Verbindungen nur in der Trainingsphase und das KRKNN (ohne die gelösten Verbindungen gemäß dem ersten Ausführungsbeispiel) in der Anwendungsphase anzuwenden.
  • Auch ist es möglich das KRKNN mit gelösten Verbindungen nur in der Anwendungsphase und das KRKNN (ohne die gelösten Verbindungen gemäß dem ersten Ausführungsbeispiel) in der Trainingsphase anzuwenden.
  • Entsprechendes gilt für das KRKFKNN und das KRKFKNN mit gelösten Verbindungen.
  • Eine weitere strukturelle Alternative zu der Anordnung gemäß dem ersten Ausführungsbeispiel ist in Fig. 9 dargestellt.
  • Die Anordnung gemäß Fig. 9 ist ein KRKNN mit einer Fixpunktrekurrenz.
  • Komponenten aus Fig. 1 sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen in Fig. 8 versehen dargestellt.
  • Im Gegensatz zu der in Fig. 1 dargestellten Anordnung sind bei der alternativen Anordnung gemäß Fig. 9 zusätzliche Verbindungen 901, 902, 903 und 904 geschlossen.
  • Die zusätzlichen Verbindungen 901, 902, 903 und 904 weisen jeweils eine Verbindungsmatrix GT mit Gewichten auf.
  • Diese alternative Anordnung kann sowohl in einer Trainingsphase als auch in einer Anwendungsphase eingesetzt werden.
  • Das Training wie auch die Anwendung der alternativen Anordnung werden in analoger Weise wie bei dem ersten Ausführungsbeispiel beschrieben durchgeführt.
  • In diesem Dokument sind folgende Veröffentlichungen zitiert:
    [1] S. Hayken, Neural Networks: A Comprehensive Foundation, Mc Millan College Publishing Company, Second Edition, ISBN 0-13-273350-1, S. 732-789, 1999.
    [2] H. Rehkugler und H. G. Zimmermann, Neuronale Netze in der Ökonomie, Grundlagen und finanzwirtschaftliche Anwendungen, Verlag Franz Vahlen München, ISBN 3-8006-1871-0, S. 3-90, 1994;
    [3] J. Hirschberg, Pitch accent in context: predicting intonational prominence from text, Artificial Intelligence 63, S. 305-340, Elsevier, 1993;
    [4] K. Ross et al., Prediction of abstract prosodic labels for speech synthesis, Computer Speech and Language, 10, S. 155-185, 1996;
    [5] R. Haury et al., Optimisation of a Neural Network for Pitch Contour Generation, ICASSP, Seattle, 1998;
    [6] C. Traber, F0 generation with a database of natural F0 patterns and with a neural network, G. Bailly and C. Benoit eds., Talking Machines: Theories, Models and Applications, Elsevier, 1992;
    [7] E. Heuft et al., Parametric Description of F0-Contours in a Prosodic Database, Proc. ICPHS, Vol. 2, S. 378-381, 1995;
    [8] C. Erdem, Topologieoptimierung eines Neuronalen Netzes zur Generierung von F0-Verlaeufen durch Integration unterschiedlicher Codierungen, Tagungsband ESSV, Cottbus, 2000.

Claims (22)

1. Verfahren zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum
bei dem eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelt wird, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist,
bei dem eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelt wird, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist,
bei dem der aktuelle erste Zustand ermittelt wird durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
2. Verfahren nach einem der vorangehenden Ansprüche, bei dem zwei zeitlich aufeinanderfolgende zweite Zustände der zweiten zeitlichen Abfolge jeweils durch eine dritte Transformation miteinander gekoppelt sind.
3. Verfahren nach Anspruch 2, bei dem zwei zeitlich aufeinanderfolgende zweite Zustände der zweiten zeitlichen Abfolge derart durch die dritte Transformation miteinander gekoppelt sind, dass ein zeitlich jüngerer zweite Zustand aus einem zeitlich älteren zweiten Zustand ermittelt wird.
4. Verfahren nach einem der vorangehenden Ansprüche, bei dem zwei zeitlich aufeinanderfolgende dritte Zustände der dritten Abfolge jeweils durch eine vierte Transformation miteinander gekoppelt sind.
5. Verfahren nach Anspruch 4, bei dem zwei zeitlich aufeinanderfolgende dritte Zustände der dritten zeitlichen Abfolge derart durch die vierte Transformation miteinander gekoppelt sind, dass ein zeitlich älterer dritter Zustand aus einem zeitlich jüngeren dritten Zustand ermittelt wird.
6. Verfahren nach einem der Ansprüche 3 bis 5, bei dem ein dem aktuellen zweiten Zustand zeitlich nachfolgender jüngerer zweiten Zustand der zweiten zeitlichen Abfolge ermittelt wird
durch die dritte Transformation des aktuellen zweiten Zustands und
durch eine fünfte Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
7. Verfahren nach einem der Ansprüche 5 bis 6, bei dem ein dem zukünftigen dritten Zustand zeitlich vorangegangener aktueller dritter Zustand der dritten zeitlichen Abfolge ermittelt wird
durch die vierte Transformation des zukünftigen dritten Zustands und
durch eine sechste Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
8. Verfahren nach einem der vorangehenden Zustände, bei dem ein Fehler zwischen dem ermittelten ersten aktuellen Zustand und einem vorgegebenen aktuellen ersten Zustand ermittelt wird.
9. Verfahren nach einem der vorangehenden Zustände, bei dem den zweiten Zuständen der zweiten zeitlichen Abfolge und/oder den dritten Zuständen der dritten zeitlichen Abfolge jeweils eine externe Zustandsinformation des Systems zugeführt wird.
10. Verfahren nach einem der vorangehenden Ansprüche, bei dem ein Zustand des Systems durch einen Vektor vorgebbarer Dimension beschrieben wird.
11. Verfahren nach einem der vorangehenden Ansprüche, verwendet zu einer Ermittlung einer Dynamik des dynamisch veränderlichen Systems, wobei die erste zeitliche Abfolge der jeweils ersten Zuständen die Dynamik beschreibt.
12. Verfahren nach Anspruch 11, verwendet zur Ermittlung der Dynamik eines Elektro-Kardio- Gramms, wobei die erste zeitliche Abfolge der jeweils ersten Zustände Signale eines Elektro-Kardio-Gramms sind.
13. Verfahren nach Anspruch 11, verwendet zur Ermittlung der Dynamik eines ökonomischen Systems, wobei die erste zeitliche Abfolge der jeweils ersten Zustände ökonomische Zustände beschrieben durch eine ökonomische Größe sind.
14. Verfahren nach Anspruch 11, verwendet zur Ermittlung der Dynamik eines chemischen Reaktors, wobei die erste zeitliche Abfolge der jeweils ersten Zustände durch chemische Zustandsgrößen des chemischen Reaktors beschrieben wird.
15. Verfahren nach einem der vorangehenden Ansprüche, verwendet zu einer Prognose eines Zustands des dynamisch veränderlichen Systems, wobei der ermittelte erste aktuelle Zustand als der prognostizierte Zustand verwendet wird.
16. Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum mit miteinander verknüpften Rechenelementen, welche Rechenelemente jeweils einen Zustand des Systems und welche Verknüpfungen jeweils eine Transformation zwischen zwei Zuständen des Systems repräsentieren, wobei
erste Rechenelemente derart eingerichtet sind, dass eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelbar sind, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist,
zweite Rechenelemente derart eingerichtet sind, dass eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelbar sind, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist,
ein drittes Rechenelement derart eingerichtet ist, dass der aktuelle erste Zustand ermittelbar ist durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
17. Anordnung nach Anspruch 16, mit vierten Rechenelementen, die jeweils mit einem ersten Rechenelement und/oder einem zweiten Rechenelement verknüpft sind und die derart eingerichtet sind, dass jeweils einem von den vierten Rechenelementen ein vierter Zustand einer vierten zeitlichen Abfolge von jeweils vierten Zuständen des Systems zuführbar sind, wobei jeder vierte Zustand externe Zustandsinformation des Systems beinhaltet.
18. Anordnung nach Anspruch 16 oder 17, bei der zumindest ein Teil der Rechenelemente künstliche Neuronen und/oder zumindest ein Teil von den Verknüpfungen zwischen den Rechenelementen variabel ausgestaltet sind.
19. Anordnung nach einem der Ansprüche 16 bis 18, mit einer Messanordnung zur Erfassung physikalischer Signale, mit denen Zustände des dynamisch veränderlichen System beschrieben werden.
20. Anordnung nach einem der Ansprüche 17 bis 18, eingesetzt bei einer Sprachbearbeitung, wobei
die externe Zustandsinformation eine erste Sprachinformation eines zu sprechenden Wortes und/oder einer zu sprechende Silbe und/oder eines zu sprechenden Phonems ist und
der aktuelle erste Zustand eine zweite Sprachinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems beinhaltet.
21. Anordnung nach Anspruch 20, bei der
die erste Sprachinformation eine Klassifikation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Pauseninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder
die zweite Sprachinformation eine Akzentuierungsinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängeninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
22. Anordnung nach Anspruch 21, bei der
die erste Sprachinformation eine phonetische und/oder strukturelle Information des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder
die zweite Sprachinformation eine Frequenzinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängendauer des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
DE10146222A 2001-09-19 2001-09-19 Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems Withdrawn DE10146222A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10146222A DE10146222A1 (de) 2001-09-19 2001-09-19 Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems
JP2003529402A JP2005502974A (ja) 2001-09-19 2002-09-17 ダイナミック変化系の第1の状態の第1の時系列から現在の第1の状態を求める方法および装置
US10/490,042 US20040267684A1 (en) 2001-09-19 2002-09-17 Method and system for determining a current first state of a first temporal sequence of respective first states of a dynamically modifiable system
EP02776681A EP1428177A2 (de) 2001-09-19 2002-09-17 Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems
PCT/DE2002/003494 WO2003025851A2 (de) 2001-09-19 2002-09-17 Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10146222A DE10146222A1 (de) 2001-09-19 2001-09-19 Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems

Publications (1)

Publication Number Publication Date
DE10146222A1 true DE10146222A1 (de) 2003-04-10

Family

ID=7699581

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10146222A Withdrawn DE10146222A1 (de) 2001-09-19 2001-09-19 Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems

Country Status (5)

Country Link
US (1) US20040267684A1 (de)
EP (1) EP1428177A2 (de)
JP (1) JP2005502974A (de)
DE (1) DE10146222A1 (de)
WO (1) WO2003025851A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005081076A2 (de) * 2004-02-24 2005-09-01 Siemens Aktiengesellschaft Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10356655B4 (de) * 2003-12-04 2006-04-20 Siemens Ag Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE102004059684B3 (de) * 2004-12-10 2006-02-09 Siemens Ag Verfahren und Anordnung sowie Computerprogramm mit Programmmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE102008014126B4 (de) * 2008-03-13 2010-08-12 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US11599892B1 (en) 2011-11-14 2023-03-07 Economic Alchemy Inc. Methods and systems to extract signals from large and imperfect datasets

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493691B1 (en) * 1998-08-07 2002-12-10 Siemens Ag Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
EP1145192B1 (de) * 1999-03-03 2003-05-14 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
WO2000062250A2 (de) * 1999-04-12 2000-10-19 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
WO2001057648A2 (de) * 2000-01-31 2001-08-09 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005081076A2 (de) * 2004-02-24 2005-09-01 Siemens Aktiengesellschaft Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes
WO2005081076A3 (de) * 2004-02-24 2006-03-02 Siemens Ag Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes

Also Published As

Publication number Publication date
JP2005502974A (ja) 2005-01-27
US20040267684A1 (en) 2004-12-30
EP1428177A2 (de) 2004-06-16
WO2003025851A3 (de) 2004-02-19
WO2003025851A2 (de) 2003-03-27

Similar Documents

Publication Publication Date Title
DE69010941T2 (de) Verfahren und Einrichtung zur automatischen Bestimmung von phonologischen Regeln für ein System zur Erkennung kontinuierlicher Sprache.
WO2014183944A1 (de) Entwurfssystem und verfahren zum entwurf eines fahrerassistenzsystems
EP1145192B1 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE69433907T2 (de) Autonomes, evolutionsartiges Hardwareentwurfssystem
DE102019004300A1 (de) Verwendung eines dynamischen speichernetzwerks zum verfolgen digitaler dialogzustände und erzeugen von antworten
DE102019114577A1 (de) Systeme, vorrichtungen und verfahren für eingebettete codierungen von kontextbezogenen informationen unter verwendung eines neuronalen netzwerks mit vektorraummodellierung
DE102020210379A1 (de) Computerimplementiertes Verfahren und Computerprogrammprodukt zum Erhalten einer Umfeldszenen-Repräsentation für ein automatisiertes Fahrsystem, computerimplementiertes Verfahren zum Lernen einer Prädiktion von Umfeldszenen für ein automatisiertes Fahrsystem und Steuergerät für ein automatisiertes Fahrsystem
DE102021109395A1 (de) Verfahren, systeme und vorrichtungen für benutzerverständliche erklärbare lernmodelle
EP1021793A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102022003079A1 (de) Verfahren zu einer automatisierten Generierung von Daten für rasterkartenbasierte Prädiktionsansätze
DE10146222A1 (de) Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems
EP1252566B1 (de) Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
DE102020215589A1 (de) Steuern eines deep-sequence-modells mit prototypen
EP3816844A1 (de) Computerimplementiertes verfahren und vorrichtung zum verarbeiten von daten
EP2517129B1 (de) Verfahren und prozessrechner zur berechnung der zustandsgrössen eines hybriden differential-algebraischen prozessmodells
DE10047172C1 (de) Verfahren zur Sprachverarbeitung
EP1145190B1 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102008014126B4 (de) Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
EP1384198A2 (de) Verfahren und anordnung zur rechnergestützten abbildung mehrerer zeitlich veränderlicher zustandsbeschreibungen und verfahren zum training einer solchen anordnung
DE102021129864A1 (de) Verfahren und System zur Annotation von Sensordaten
DE102020213176A1 (de) Vorrichtung und Verfahren zum Befüllen eines Knowledge-Graphen, Trainingsverfahren dafür
WO2003054479A1 (de) Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur ermittlung einer manöverinformation aus einem satz von vorgebbaren manöverinformationen für eine mobile einheit unter verwendung von fuzzy-logik
DE102019211017A1 (de) Verfahren zum Clustern verschiedener Zeitreihenwerte von Fahrzeugdaten und Verwendung des Verfahrens
DE102023209381A1 (de) Clusteranalyse von objekttrajektorien mit hybridem denken für maschinelles lernen
DE102022201853A1 (de) Erkennung kritischer Verkehrssituationen mit Petri-Netzen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal