EP1428177A2 - Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems - Google Patents

Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems

Info

Publication number
EP1428177A2
EP1428177A2 EP02776681A EP02776681A EP1428177A2 EP 1428177 A2 EP1428177 A2 EP 1428177A2 EP 02776681 A EP02776681 A EP 02776681A EP 02776681 A EP02776681 A EP 02776681A EP 1428177 A2 EP1428177 A2 EP 1428177A2
Authority
EP
European Patent Office
Prior art keywords
state
spoken
states
current
chronological sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP02776681A
Other languages
English (en)
French (fr)
Inventor
Caglayan Erdem
Hans-Georg Zimmermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1428177A2 publication Critical patent/EP1428177A2/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Definitions

  • the invention relates to a determination of a current first state of a first chronological sequence of first states of a dynamically variable system.
  • a dynamic system or dynamic process is usually described by a state transition description, which is not visible to an observer of the dynamic process, and an output equation, which describes observable quantities of the technical dynamic process.
  • FIG. 2a A corresponding structure of such a dynamic system is shown in Fig. 2a.
  • the dynamic system 200 is subject to the influence of an external input variable u of a predeterminable dimension, an input variable u at a time t being designated u - (-:
  • the input variable u- ⁇ at a time t causes one
  • a state transition of the inner state st of the dynamic process is caused and the state of the dynamic process changes to a subsequent state st + i at a subsequent time t + 1.
  • f (.) denotes a general mapping rule
  • An output variable y observable by an observer of the dynamic system 200 at a time t depends on the input variable ut and the internal state s -
  • the output variable yt (t e ⁇ n ) is predeterminable dimension n.
  • g (.) denotes a general mapping rule
  • an arrangement of interconnected computing elements in the form of a neural network of interconnected neurons is introduced in [1]. puts.
  • the connections between the neurons of the neural network are weighted.
  • the weights of the neural network are summarized in a parameter vector v.
  • an inner state of a dynamic system which is subject to a dynamic process, depends on the input variable ut and the inner state of the previous point in time s and the parameter vector v in accordance with the following regulation:
  • NN denotes a mapping rule specified by the neural network.
  • TDRNN Time Delay Recurrent Neural Network
  • the TDRNN is trained with the training data record. An overview of various training methods can also be found in [1].
  • [2] also provides an overview of the basics of neural networks and the possible uses of neural networks in the area of economics.
  • the invention is therefore based on the problem of specifying a method and an arrangement for computer-aided mapping of time-varying state descriptions, with which a state transition description of a dynamic system can be described with improved accuracy and which arrangement and which methods are not subject to the disadvantages of the known arrangements and methods.
  • a second chronological sequence of respectively second states of the system is determined in a second state space, the second temporal sequence having at least one current second state and an older second state preceding the current second state; determines the third chronological sequence of third states of the system in the second state space, which third chronological sequence has at least one future third state and a younger third state following the future third state, the current first state is determined by a first transformation of the current one second state from the second state space into the first state space and a second transformation of the future third state from the second state space into the first state space.
  • the arrangement for determining a current first state of a first chronological sequence of respectively first states of a dynamically variable system in a first state space has interconnected computing elements, which computing elements each represent a state of the system and which combinations each represent a transformation between two states of the system, wherein first computing elements are set up in such a way that a second chronological sequence of respectively second states of the system can be determined in a second state space, the second chronological sequence having at least one current second state and an older second state preceding the current second state, second computing elements in such a way are set up so that a third chronological sequence of third states of the system can be determined in the second state space, which Before the third chronological sequence has at least one future third state and a more recent third state following the future third state, a third computing element is set up in such a way that the current first state can be determined by a first transformation of the current second state from the second state space into first state space and a second transformation of the future third state from the second state space into the first state space.
  • the arrangement is particularly suitable for carrying out the method according to the invention or one of its further developments explained below.
  • the first current state of the system is clearly determined by merging a first system-inherent information flow with system information of the system from the past and a second system-inherent information flow with system information from the future in the first current state and determining the first current state therefrom.
  • the invention or any further development described below can also be implemented by a computer program product which has a storage medium on which a computer program which carries out the invention or further development is stored.
  • temporally successive second states of the second chronological sequence are coupled to one another by a third transformation.
  • This coupling through the third transformation can be configured in such a way that a second state that is younger in time is determined from a second state that is older in time.
  • two temporally successive third states of the third sequence can each be coupled to one another by a fourth transformation.
  • This coupling through the fourth transformation can be configured in such a way that a third state, which is older in time, is determined from a third state, which is younger in time.
  • the invention can be developed in such a way that a younger second state of the second chronological sequence following the current second state is determined
  • a current third state of the third chronological sequence preceding the future third state can also be determined
  • error correction * The accuracy in the description of a state transition description of a dynamic system can be improved by ascertaining an error between the determined first current state and a predetermined current first state. Such an error determination is referred to as "error correction *".
  • An improvement in the description of a state transition description can be achieved if the second states of the second time sequence and / or the third states of the third time sequence are each supplied with external state information of the system.
  • a state of the system can be described by a dimension which can be predetermined by a vector.
  • a development of the invention is used to determine a dynamic of the dynamically variable system, the first chronological sequence of the respective first states describing the dynamic.
  • Such a dynamic can be, for example, a dynamic of an electrocardio gram, in which case the first chronological sequence of the respective first states is signals of an electrocardio gram.
  • the dynamics can also be a dynamics of an economic system, the first chronological sequence of the respective first states being economic, macroeconomic or is also microeconomic, states described by a corresponding economic size.
  • a further development of the invention also makes it possible to determine the dynamics of a chemical reactor, the first chronological sequence of the respective first states being described by chemical state variables of the chemical reactor.
  • a further embodiment of the invention is used to predict a state of the dynamically variable system, in which case the determined first current state is used as the predicted state.
  • fourth computing elements are provided, each of which is linked to a first computing element and / or a second computing element and which is set up in such a way that one of the fourth computing elements has a fourth state of a fourth time sequence of fourth states of the system can be supplied, with every fourth state containing external state information of the system.
  • At least some of the computing elements are designed as artificial neurons and / or at least some of the links between the computing elements are variable.
  • a measuring arrangement for recording physical signals can be provided, with which states of the dynamically variable system are described.
  • the external status information is first speech information of a word to be spoken and / or a syllable to be spoken and / or a phoneme to be spoken and
  • the current first state contain second speech information of the word to be spoken and / or the syllable to be spoken and / or the phoneme to be spoken.
  • the first speech information a classification of the word to 'and / or to be spoken syllable and / or to be spoken phoneme and / or a pause information of the to be spoken word and / or to be spoken syllable and / or to be spoken phoneme environmentally speaking summarizes and / or the second speech information an accentuation information of the word to be spoken and / or the syllable to be spoken and / or the phoneme to be spoken and / or a length information of the word to be spoken and / or the syllable to be spoken and / or the phoneme to be spoken includes.
  • the first speech information comprises phonetic and / or structural information of the word to be spoken and / or the syllable to be spoken and / or the phoneme to be spoken and / or the second speech information includes frequency information of the word to be spoken and / or the syllable to be spoken and / or the phoneme to be spoken and / or a length of sound length of the word to be spoken and / or the syllable to be spoken and / or the phoneme to be spoken.
  • FIG. 1 sketch of an arrangement according to a first embodiment (KRKNN);
  • FIGS. 2a and 2b show a first sketch of a general description of a dynamic system and a second sketch of a description of a dynamic system which is based on a “causal-retro-causal relationship”;
  • Figure 3 shows an arrangement according to a second embodiment (KRKFKNN);
  • FIG. 4 shows a sketch of a chemical reactor, from which quantities are measured, which are processed further with the arrangement according to the first exemplary embodiment
  • FIG. 5 shows a sketch of an arrangement of a TDRNN which is unfolded over time with a finite number of states
  • FIG. 6 shows a sketch of a traffic control system which is modeled with the arrangement in the context of a second exemplary embodiment
  • FIG. 7 sketch of an alternative arrangement according to a first embodiment (KRKNN with loosened connections);
  • FIG 8 sketch of an alternative arrangement according to a second embodiment (KRKFKNN with loosened connections);
  • FIG. 10 sketch of a speech processing using an arrangement according to a first exemplary embodiment (KRKNN);
  • FIG 11 Sketch of a speech processing using an arrangement according to a second embodiment (KRKFKNN).
  • FIG. 4 shows a chemical reactor 400 which is filled with a chemical substance 401.
  • the chemical reactor 400 comprises a stirrer 402 with which the chemical substance 401 is stirred. Further chemical substances 403 flowing into the chemical reactor 400 react for a predeterminable period in the chemical reactor 400 with the chemical substance 401 already contained in the chemical reactor 400. A substance 404 flowing out of the reactor 400 becomes from the chemical reactor 400 via an outlet derived.
  • the stirrer 402 is connected via a line to a control unit 405, with which a stirring frequency of the stirrer 402 can be set via a control signal 406.
  • a measuring device 407 is also provided, with which concentrations of chemical substances contained in chemical substance 401 are measured.
  • Measurement signals 408 are fed to a computer or computer 409, in which computer 409 is digitized via an input / output interface 410 and an analog / digital converter 411 and stored in a memory 412.
  • a processor 413 like the memory 412, is connected to the analog / digital converter 411 via a bus 414.
  • the computer 409 is also via the input / output interface 410 connected to the controller 405 of the stirrer 402 and thus the computer 409 controls the stirring frequency of the stirrer 402.
  • the computer 409 is also connected via the input / output interface 410 to a keyboard 415, a computer mouse 416 and a screen 417.
  • the chemical reactor 400 as a dynamic technical system 250 is therefore subject to a dynamic process.
  • the chemical reactor 400 is described by means of a status description.
  • an input variable ut of this state description is composed of an indication of the temperature prevailing in the chemical reactor 400 and that prevailing in the chemical reactor 400
  • the input variable ut is thus a three-dimensional vector.
  • the aim of the modeling of the chemical reactor 400 described in the following is to determine the dynamic development of the substance concentrations, in order to enable efficient generation of a predefinable target substance to be produced as the outflowing substance 404.
  • the dynamic process on which the described reactor 400 is based and which has a so-called “causal-retro-causal relationship” is described by a description of the state transition, which is not visible to an observer of the dynamic process, and an output equation, the observable quantities of the technical dynamic process.
  • Such a structure of a dynamic system with a “causal-retro-causal relationship” is shown in FIG. 2b.
  • the dynamic system 250 is subject to the influence of an external input variable u of a predeterminable dimension, an input variable ut at a time t being referred to as ut:
  • the input variable ut at a time t causes one
  • an internal state of the system 250 at a time t which internal state cannot be observed by an observer of the system 250, is composed of a first inner partial state st and a second inner partial state rt.
  • f1 (.) denotes a general mapping rule
  • the first inner partial state st is influenced by an earlier first inner partial state st-i and the input variable ut. Such a connection is usually referred to as “causality”.
  • f2 (.) denotes a general mapping rule
  • the second inner partial state rt is clearly influenced by a later second inner state
  • An output variable yt observable by an observer of the dynamic system 250 at a point in time t thus depends on the input variable ut, the first inner partial state s ⁇ and the second inner partial state rt + ⁇ _.
  • the output variable yt (yt e 9? N ) is predeterminable dimension n.
  • yt g ( s t > J " t + ⁇ ), (7 > where g (.) denotes a general mapping rule.
  • KRKNN ausal-retro-causal neural network
  • the connections between the neurons of the neural network are weighted.
  • the weights of the neural network are summarized in a parameter vector v.
  • the first inner partial state st and the second inner partial state rt depend on the input variable u ⁇ , the first inner partial state st- ⁇ the second inner partial state rt + i and the parameter vectors v s , v ⁇ , Vy in accordance with the following regulations :
  • NN denotes a mapping rule specified by the neural network.
  • the KRKNN 100 according to FIG. 1 is a neural network developed over four points in time, t-1, t, t + 1 and t + 2.
  • FIG. 5 shows the known TDRNN as a neural network 500 that is deployed over a finite number of times.
  • the neural network 500 shown in FIG. 5 has an input layer 501 with three partial input layers 502, 503 and 504, each of which contains a predeterminable number of input computing elements, to which input variables ut at a predefinable time t, ie time series values described below, can be created.
  • Input computing elements i.e. Input neurons are connected via variable connections to neurons of a predefinable number of hidden layers 505.
  • Neurons of a first hidden layer 506 are connected to neurons of the first partial input layer 502. Furthermore, neurons of a second hidden layer 507 are connected to neurons of the second input layer 503. Neurons of a third hidden layer 508 are connected to neurons of the third partial input layer 504.
  • the connections between the first partial input layer 502 and the first hidden layer 506, the second partial input layer 503 and the second hidden layer 507 and the third partial input layer 504 and the third hidden layer 508 are in each case the same.
  • the weights of all connections are each contained in a first connection matrix B.
  • Neurons of a fourth hidden layer 509 are hidden with their inputs with outputs of ' neurons of the first
  • Layer 506 connected according to a structure given by a second connection matrix A2. Furthermore, outputs of the neurons of the fourth hidden layer 509 are connected to inputs of neurons of the second hidden layer 507 according to a structure given by a third connection matrix A ⁇ _. Furthermore, neurons of a fifth hidden layer 510 are connected with their inputs according to a structure given by the third connection matrix A2 to outputs of neurons of the second hidden layer 507. Outputs of the neurons of the fifth hidden layer 510 are connected to inputs of neurons of the third hidden layer 508 according to a structure given by the third connection matrix A ] _.
  • connection structure is equivalent to a sixth hidden layer 511, which are connected to outputs of the neurons of the third hidden layer 508 according to a structure given by the second connection matrix A2 and according to a structure given by the third connection matrix A] _ to neurons of a seventh hidden layer 512.
  • Neurons of an eighth hidden layer 513 are again given in accordance with a through the first connection matrix A2
  • Neurons connected to a ninth hidden layer 514 The details in the indices in the respective layers each indicate the time t, t-1, t-2, t + 1, t + 2, to which the signals that can be tapped or supplied at the outputs of the respective layer relate (u ⁇ t-] t-2) ⁇
  • An output layer 520 has three sub-output layers, a first sub-output layer 521, a second sub-output layer 522 and a third sub-output layer 523. Neurons of the first partial output layer 521 are connected to neurons of the third hidden layer 508 in accordance with a structure given by an output connection matrix C. Neurons of the second partial output layer are also connected to neurons of the eighth hidden layer 512 in accordance with the structure given by the output connection matrix C. Neurons of the third partial output layer 523 are according to the Output connection matrix C connected to ninth hidden layer 514 neurons.
  • the output variables can be tapped at a time t, t + 1, t + 2 from the neurons of the partial output layers 521, 522 and 523 (yt, Yt + 1 '
  • each layer or each sub-layer has a predeterminable number of neurons, i.e. Computing elements.
  • Sub-layers of a layer each represent a system state of the dynamic system described by the arrangement. Accordingly, sub-layers of a hidden layer each represent an “internal” system state.
  • connection matrices are of any dimension and each contain the weight values for the corresponding connections between the neurons of the respective layers.
  • connection is directed and indicated by arrows in FIG. 1.
  • An arrow direction indicates a “computing direction *, in particular an imaging direction or a transformation direction.
  • the arrangement shown in FIG. 1 has an input layer 100 with four partial input layers 101, 102, 103 and 104, with each partial input layer 101, 102, 103, 104 each assigning time series values ut-i, ut, ut + i, +2 A time t-1, t, t + 1 or t + 2 can be supplied in each case.
  • the partial input layers 101, 102, 103, 104 of the input layer 100 are each connected via connections according to a first connection matrix A with neurons of a first hidden layer 110 to four partial layers 111, 112, 113 and 114 of the first hidden layer 110.
  • the partial input layers 101, 102, 103, 104 of the input layer 100 are additionally connected in each case via connections in accordance with a second connection matrix B with neurons of a second hidden layer 120, each with four partial layers 121, 122, 123 and 124 of the second hidden layer 120.
  • the neurons of the first hidden layer 110 are each connected to neurons of an output layer 140, which in turn has four partial output layers 141, 142, 143 and 144, in accordance with a structure given by a third connection matrix C.
  • the neurons of the output layer 140 are each connected to the neurons of the second hidden layer 120 in accordance with a structure given by a fourth connection matrix D.
  • the neurons of the output layer 140 are also connected to the neurons of the first hidden layer 110 in accordance with a structure given by an eighth connection matrix G.
  • the neurons of the second hidden layer 120 are each connected to the neurons of the output layer 140 in accordance with a structure given by a seventh connection matrix H.
  • the sublayer 111 of the first hidden layer 110 is connected to the neurons of the sublayer 112 of the first hidden layer 110 via a connection according to a fifth connection matrix E.
  • Corresponding connections also have all other sub-layers 112, 113 and 113 of the first hidden layer 110.
  • all sub-layers 111, 112, 113 and 114 of the first hidden sub-layer 110 are connected to one another in accordance with their chronological sequence t-1, t, t + 1 and t + 2.
  • the sub-layers 121, 122, 123 and 124 of the second hidden layer 120 are connected to one another in opposite directions.
  • the sub-layer 124 of the second hidden layer 120 is connected to the neurons of the sub-layer 123 of the second hidden layer 120 via a connection according to a sixth connection matrix F.
  • Corresponding connections also have all other sub-layers 123, 122 and 121 of the second hidden layer 120.
  • 113 and 114 of the first hidden layer are each formed from the associated input state u, t + i or ut + 2 ', from the chronologically previous output state yt-i, Yt or yt and the temporally previous "inner" system state s tl' s t or st-
  • an “inner” system state rt _] _, rt or rt + i of the sub-layer 121, 122 and 123 of the second hidden layer 120 each formed from the associated initial state yt-1, Yt or y + i / from the associated input state ut-i, ut or ut + i and the temporally subsequent “inner * system state rt, r t + ⁇ or r t + 2-
  • a state is in each case from the associated "inner" system state st-i, st, st + 1 and s +2 a part ⁇ layer 111, 112, 113 and 114 the first hidden layer 110 and one from the temporally preceding “inner” system state rt, £ "t + ⁇ , ⁇ t + 2 or rt + 3 (not shown)
  • Sub-layer 122, 123 and 124 of the second hidden layer 120 are identical to Sub-layer 122, 123 and 124 of the second hidden layer 120.
  • a signal can thus be tapped, which depends on the “internal” system states (s, r).
  • T is a number of times taken into account.
  • the back propagation method is used as the training method.
  • the training data set is obtained from the chemical reactor 400 in the following manner.
  • Concentrations are measured at predetermined input variables with the measuring device 407 and fed to the computer 409, digitized there and grouped as time series values xt in a memory together with the corresponding input variables which correspond to the measured variables.
  • the weight values of the respective connection matrices are adjusted.
  • the adjustment is made in such a way that the KRKNN describes the dynamic system it simulates, in this case the chemical reactor, as precisely as possible.
  • the arrangement from FIG. 1 is trained using the training data set and the cost function E.
  • a predicted output variable y + i is determined from the input variables u -i, ut. This is then fed as a control variable, possibly after a possible preparation, to control means 405 for controlling stirrer 402 and control device 430 for inflow control (see FIG. 4).
  • FIG. 3 shows a further development of the KRKNN shown in FIG. 1 and described in the context of the above statements.
  • KRKFKNN causal-retro-causal-error-correcting-neural network
  • the input variable ut is composed
  • the input quantity is therefore a four-dimensional vector.
  • a time series of the input variables which consist of several chronologically successive vectors, has time steps of one year each.
  • the aim of modeling co-pricing described below is to forecast a future rental price.
  • the KRKFKNN has a second input layer 150 having four sub-input layers 151, 152, 153 and 154, each part of the input layer 151, 152, 153, 154 in each time series values y 1 __ l, yt 'Y t + i' Y t - ⁇ - 9 to a time ⁇ point t-1, t, t + 1 or t + 2 can be supplied.
  • the partial input layers 151, 152, 153, 154 of the input layer 150 are each connected to neurons of the output layer 140 via connections according to a ninth connection matrix, which is a negative identity matrix.
  • a third exemplary embodiment described below describes traffic modeling and is used for a traffic jam forecast.
  • the arrangement according to the first exemplary embodiment is used (cf. FIG. 1).
  • the third exemplary embodiment differs from the first exemplary embodiment and also from the second exemplary embodiment in that in this case the variable t originally used as a time variable is used as a location variable t.
  • An original description of a state at time t thus describes a state at a first location t in the third exemplary embodiment. The same applies in each case to a description of the state at a time t-1 or t + 1 or t + 2.
  • locations t-1, t, t + 1 and t + 2 are arranged in succession along a route in a predetermined direction of travel.
  • FIG. 6 shows a street 600 which is used by cars 601, 602, 603, 604, 605 and 606.
  • Conductor loops 610, 611 integrated into the street 600 receive electrical signals in a known manner and carry the electrical signals 615, 616 to a computer 620 via a Input / output interface 621 to.
  • the electrical signals are digitized in a time series and in a memory 623, which is connected via a bus
  • a traffic control system 650 is supplied with control signals 951, from which a predetermined speed setting 652 can be set in the traffic control system 650 or also further information from traffic regulations which are transmitted to the drivers 601, 602, 603, 604, via the traffic control system 650. 605 and 606 are shown.
  • the local state variables are measured as described above using the conductor loops 610, 611.
  • variables (v (t), p (t), q (t)) thus represent a state of the technical system “traffic” at a specific point in time t.
  • These variables are used to evaluate r (t) of a current state, for example with regard to traffic flow and homogeneity. This assessment can be quantitative or qualitative.
  • Control signals 651 are formed from forecast variables ascertained in the application phase and are used to indicate which speed limitation is to be selected for a future period (t + 1).
  • the arrangement described in the first exemplary embodiment can also be used to determine the dynamics of an electrocardio gram (EKG). This enables indicators that indicate an increased risk of heart attack to be determined at an early stage. A time series from ECG values measured on a patient is used as the input variable.
  • EKG electrocardio gram
  • the arrangement according to the first exemplary embodiment is used for traffic modeling according to the third exemplary embodiment.
  • variable t originally used as a time variable (in the first exemplary embodiment) is used as a location variable t as described in the context of the third exemplary embodiment.
  • the arrangement according to the first exemplary embodiment is used in the context of speech processing (FIG. 10).
  • the basics of such language processing are known from [3].
  • the arrangement (KRKNN) 1000 is used to determine an accentuation in a sentence 1010 to be accentuated.
  • sentence 1010 to be accentuated is broken down into its words 1011 and these are each classified 1012 (part-of-speech tagging).
  • the classifications 1012 are coded 1013 in each case.
  • Each code 1013 is expanded by a pause information 1014 (phrase break information) which in each case indicates whether a pause is made after the respective word when the sentence 1010 to be accented is said.
  • a time series 1016 is formed from the extended codes 1015 of the sentence in such a way that a chronological sequence of states of the time series corresponds to the sequence of words in the sentence 1010 to be accentuated. This time series 1016 is applied to the arrangement 1000.
  • the arrangement now determines for each word 1011 an accentuation information 1020 (HA: main accent or strongly accented; NA: in addition to accent or slightly accentuated; KA: no accent or not accentuated), which indicates whether the respective word is spoken with an accent.
  • HA main accent or strongly accented
  • NA in addition to accent or slightly accentuated
  • KA no accent or not accentuated
  • the arrangement described in the second exemplary embodiment can also be used to predict macroeconomic dynamics, such as, for example, an exchange rate trend, or other economic indicators, such as, for example, a stock exchange price.
  • macroeconomic dynamics such as, for example, an exchange rate trend, or other economic indicators, such as, for example, a stock exchange price.
  • an input variable from time series of relevant macroeconomic or economic indicators such as interest rates, currencies or inflation rates.
  • the arrangement according to the second exemplary embodiment is used in the context of speech processing (FIG. 11).
  • the basics of such language processing are known from [5], [6], [7] and [8].
  • the arrangement (KRKFKNN) 1100 is used to model a frequency response of a syllable of a word in a sentence.
  • the sentence 1110 to be modeled is broken down into syllables 1111.
  • a state vector 1112 is determined, which describes the syllable phonetically and structurally.
  • Such a state vector 1112 comprises timing information 1113, phonetic information 1114, syntax information 1115 and emphasis information 1116.
  • a time series 1117 is formed from the state vectors 1112 of the syllables 1111 of the sentence 1110 to be modeled such that a chronological sequence of states of the time series 1117 corresponds to the sequence of the syllables 1111 in the sentence 1110 to be modeled. This time series 1117 is applied to the arrangement 1100.
  • the arrangement 1100 now determines for each syllable 1111 a parameter vector 1122 with parameters 1120, fomaxpos, foma- xalpha, lp, rp, which describe the frequency response 1121 of the respective syllable 1111.
  • Such parameters 1120 and the description of a frequency response 1121 by these parameters 1120 are known from [5], [6], [7] and [8].
  • FIG. 7 shows a structural alternative to the arrangement from FIG. 1 according to the first exemplary embodiment.
  • connections 701, 702, 703, 704, 705, 706, 707, 708, 709, 710 and 711 are disconnected or interrupted in the alternative arrangement according to FIG.
  • FIG. 8 shows a structural alternative to the arrangement from FIG. 3 according to the second exemplary embodiment.
  • FIG. 8 Components from FIG. 3 are shown with the same reference numerals in FIG. 8 with the same configuration.
  • the connections 801, 802, 803, 804, 805, 806, 807, 808, 809, 810, 811, 812 and 813 are disconnected or interrupted in the alternative arrangement according to FIG ,
  • FIG. 9 A further structural alternative to the arrangement according to the first exemplary embodiment is shown in FIG. 9.
  • the arrangement according to FIG. 9 is a KRKNN with a fixed point recurrence.
  • the additional connections 901, 902, 903 and 904 each have a connection matrix GT with weights.
  • This alternative arrangement can be used both in a training phase and in an application phase.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)
  • Complex Calculations (AREA)
  • Multi Processors (AREA)

Abstract

Die Erfindung betrifft eine rechnergestützte Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems. Bei der Erfindung wird der erste aktueller Zustand des Systems ermittelt dadurch, dass ein erster systemimmanenter Informationsfluss mit Systeminformation des Systems aus der Vergangenheit und einer zweiter systemimmanenter Informationsfluss mit Systeminformation aus der Zukunft in dem ersten aktuellen Zustand zusammengeführt und daraus der erste aktuelle Zustand ermittelt werden.

Description

Beschreibung
Verfahren und /Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems
Die Erfindung betrifft eine Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems.
Aus [1] ist es bekannt, zur Beschreibung eines dynamischen Systems eine Anordnung zur Abbildung zeitlich veränderlicher Zustandsbeschreibungen einzusetzen. Diese Anordnung ist durch miteinander verbundenen Rechenelemente, unter Verwendung derer die Abbildung durchgeführt wird, realisiert.
Allgemein wird ein dynamisches System bzw. dynamischer Pro- zess üblicherweise durch eine Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangsgleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt, beschrieben.
Eine entsprechende Struktur eines solchen dynamischen Systems ist in Fig.2a dargestellt.
Das dynamische System 200 unterliegt dem Einfluss einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße u zu einem Zeitpunkt t mit u-(- bezeichnet wird:
ut e 5R1,
wobei mit 1 eine natürliche Zahl bezeichnet wird.
Die Eingangsgröße u-^ zu einem Zeitpunkt t verursacht eine
Veränderung des dynamischen Prozesses, der in dem dynamischen System 200 abläuft. Ein innerer Zustand s ( s-t e 9ϊm ) vorgebbarer Dimension m zu einem Zeitpunkt t ist für einen Beobachter des dynamischen Systems 200 nicht beobachtbar.
In Abhängigkeit vom inneren Zustand st und der Eingangsgröße ut wird ein Zustandsübergang des inneren Zustandes st des dynamischen Prozesses verursacht und der Zustand des dynamischen Prozesses geht über in einen Folgezustand st+i zu einem folgenden Zeitpunkt t+1.
Dabei gilt:
st +1 = f(st'ut)- (!)
wobei mit f(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Eine von einem Beobachter des dynamischen Systems 200 beobachtbare Ausgangsgröße y zu einem Zeitpunkt t hängt ab von der Eingangsgröße ut sowie dem inneren Zustand s -
Die Ausgangsgröße yt ( t e ^n ) ist vorgebbarer Dimension n.
Die Abhängigkeit der Ausgangsgröße y von der Eingangsgröße u und dem inneren Zustand st des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:
wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Zur Beschreibung des dynamischen Systems 200 wird in [1] eine Anordnung miteinander verbundener Rechenelemente in Form eines neuronalen Netzes miteinander verbundener Neuronen einge- setzt. Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefasst .
Somit hängt ein innerer Zustand eines dynamischen Systems, welches einem dynamischen Prozess unterliegt, gemäß folgender Vorschrift von der Eingangsgröße ut und dem inneren Zustand des vorangegangenen Zeitpunktes s und dem Parametervektor v ab:
wobei mit NN ( . ) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
Die aus [1] bekannte und als Time Delay Recurrent Neural Network (TDRNN) bezeichnete Anordnung wird in einer Trainingsphase derart trainiert, dass zu einer Eingangsgröße ut jeweils eine Zielgröße yt an einem realen dynamischen System ermittelt wird. Das Tupel (Eingangsgröße, ermittelte Zielgröße) wird als Trainingsdatum bezeichnet. Eine Vielzahl solcher Trainingsdaten bilden einen Trainingsdatensatz.
Dabei weisen zeitlich aufeinanderfolgende Tupel (ut-4 / Y^_ Δ )
(ut-3 Υt _3 ) r (ut-2 ' t-2) der ZeitPunkte (t- , t-3, t-3, ...) des Trainingsdatensatzes jeweils einen vorgegeben Zeitschritt auf.
Mit dem Trainingsdatensatz wird das TDRNN trainiert. Eine Ü- bersicht über verschiedene Trainingsverfahren ist ebenfalls in [1] zu finden.
Es ist an dieser Stelle zu betonen, dass lediglich die Ausgangsgröße yt zu einem Zeitpunkt t des dynamischen Systems 200 erkennbar ist. Der "inneren" Systemzustand st ist nicht beobachtbar. In der Trainingsphase wird üblicherweise folgende Kostenfunktion E minimiert:
wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeich¬ net wird.
In [2] ist ferner ein Überblick über Grundlagen neuronaler Netze und die Anwendungsmöglichkeiten neuronaler Netze im Bereich der Ökonomie zu finden.
Die bekannten Anordnungen und Verfahren weisen insbesondere den Nachteil auf, dass durch sie ein zu beschreibendes dynamisches System bzw. Prozess nur unzureichend genau beschrieben werden kann. Dies ist darauf zurückzuführen, dass mit den bei diesen Anordnungen und Verfahren verwendeten Abbildungen die Zustandsübergangsbeschreibung des dynamischen Prozesses nur unzureichend genau nachgebildet werden kann.
Somit liegt der Erfindung das Problem zugrunde, ein Verfahren und eine Anordnung zur rechnergestützten Abbildung zeitlich veränderlicher Zustandsbeschreibungen anzugeben, mit welchen eine Zustandsübergangsbeschreibung eines dynamischen Systems mit verbesserter Genauigkeit beschrieben werden kann und welche Anordnung und welche Verfahren nicht den Nachteilen der bekannten Anordnungen und Verfahren unterliegen.
Die Probleme werden durch eine Anordnung sowie ein Verfahren mit den Merkmalen gemäß dem jeweiligen unabhängigen Patentanspruch gelöst.
Bei dem Verfahren zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ers- ten Zustandsraum werden folgende Verfahrenschritte durchgeführt : es wird eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelt, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist, es wird eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelt, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist, es wird der aktuelle erste Zustand ermittelt durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
Die Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum weist miteinander verknüpfte Rechenelemente auf, welche Rechenelemente jeweils einen Zustand des Systems und welche Verknüpfungen jeweils eine Transformation zwischen zwei Zuständen des Systems repräsentieren, wobei erste Rechenelemente derart eingerichtet sind, dass eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelbar sind, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist, zweite Rechenelemente derart eingerichtet sind, dass eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelbar sind, wel- ehe dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist, ein drittes Rechenelement derart eingerichtet ist, dass der aktuelle erste Zustand ermittelbar ist durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
Die Anordnung ist insbesondere geeignet zur Durchführung der erfindungsgemäßen Verfahren oder einer deren nachfolgend erläuterten Weiterbildungen.
Anschaulich gesehen wird der erste aktueller Zustand des Systems ermittelt dadurch, dass ein erster systemimmanenter Informationsfluss mit Systeminformation des Systems aus der Vergangenheit und einer zweiter systemimmanenter Informationsfluss mit Systeminformation aus der Zukunft in dem ersten aktuellen Zustand zusammengeführt und daraus der erste aktuelle Zustand ermittelt werden.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf die Verfahren als auch auf die Anordnung.
Die Erfindung und die im weiteren beschriebenen Weiterbildungen können sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden.
Ferner ist eine Realisierung der Erfindung oder einer im weiteren beschriebenen Weiterbildung möglich durch ein Computer- lesbares Speichermedium, auf welchem ein Computerprogramm gespeichert ist, welches die Erfindung oder Weiterbildung ausführt .
Auch kann die Erfindung oder jede im weiteren beschriebene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem ein Computerprogramm gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
Bei einer Weiterbildung der Erfindung sind zwei . zeitlich aufeinanderfolgende zweite Zustände der zweiten zeitlichen Abfolge jeweils durch eine dritte Transformation miteinander gekoppelt .
Diese Kopplung durch die dritte Transformation kann derart ausgestaltet sein, dass ein zeitlich jüngerer zweite Zustand aus einem zeitlich älteren zweiten Zustand ermittelt wird.
Ferner können in einer Ausgestaltung der Erfindung zwei zeitlich aufeinanderfolgende dritte Zustände der dritten Abfolge jeweils durch eine vierte Transformation miteinander gekoppelt werden.
Diese Kopplung durch die vierte Transformation kann derart ausgestaltet sein, dass ein zeitlich älterer dritter Zustand aus einem zeitlich jüngeren dritten Zustand ermittelt wird.
Ferner kann die Erfindung weitergebildet werden derart, dass ein dem aktuellen zweiten Zustand zeitlich nachfolgender jüngerer zweiten Zustand der zweiten zeitlichen Abfolge ermittelt wird
- durch die dritte Transformation des aktuellen zweiten Zustands und
- durch eine fünfte Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum. Auch kann ein dem zukünftigen dritten Zustand zeitlich vorangegangener aktueller dritter Zustand der dritten zeitlichen Abfolge ermittelt werden
- durch die vierte Transformation des zukünftigen dritten Zustands und
- durch eine sechste Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
Die Genauigkeit bei der Beschreibung einer Zustandsübergangsbeschreibung eines dynamischen Systems kann verbessert werden, indem ein Fehler zwischen dem ermittelten ersten aktuellen Zustand und einem vorgegebenen aktuellen ersten Zustand ermittelt wird. Eine derartige Fehlerermittlung wird als „er- ror correction* bezeichnet.
Eine Verbesserung bei der Beschreibung einer Zustandsübergangsbeschreibung lässt sich erreichen, wenn den zweiten Zuständen der zweiten zeitlichen Abfolge und/oder den dritten Zuständen der dritten zeitlichen Abfolge jeweils eine externe Zustandsinformation des Systems zugeführt wird.
Darüber hinaus kann ein Zustand des Systems durch einen Vektor vorgebbarer Dimension beschrieben werden.
Eine Weiterbildung der Erfindung wird verwendet zu einer Ermittlung einer Dynamik des dynamisch veränderlichen Systems, wobei die erste zeitliche Abfolge der jeweils ersten Zuständen die Dynamik beschreibt.
Eine solche Dynamik kann beispielsweise eine Dynamik eines Elektro-Kardio-Gramms, wobei in diesem Fall die erste zeitliche Abfolge der jeweils ersten Zustände Signale eines E- lektro-Kardio-Gramms ist.
Auch kann die Dynamik eine Dynamik eines ökonomischen Systems sein, wobei die erste zeitliche Abfolge der jeweils ersten Zustände in diesem Fall ökonomische, makroökonomische oder auch mikroökonomische, Zustände beschrieben durch eine entsprechende ökonomische Größe ist.
Durch eine Weiterbildung der Erfindung ist es auch möglich, die Dynamik eines chemischen Reaktors zu ermitteln, wobei die erste zeitliche Abfolge der jeweils ersten Zustände durch chemische Zustandsgrößen des chemischen Reaktors beschrieben wird.
Eine weitere Ausgestaltung der Erfindung wird verwendet zu einer Prognose eines Zustands des dynamisch veränderlichen Systems, wobei in diesem Fall der ermittelte erste aktuelle Zustand als der prognostizierte Zustand verwendet wird.
In einer Weiterbildung der Erfindung sind vierte Rechenelemente vorgesehen, die jeweils mit einem ersten Rechenelement und/oder einem zweiten Rechenelement verknüpft sind und die derart eingerichtet sind, dass jeweils einem von den vierten Rechenelementen ein vierter Zustand einer vierten zeitlichen Abfolge von jeweils vierten Zuständen des Systems zuführbar sind, wobei jeder vierte Zustand externe Zustandinformation des Systems beinhaltet.
Ferner ist in einer weiteren Ausgestaltung der Erfindung vorgesehen, zumindest einen Teil der Rechenelemente als künstliche Neuronen und/oder zumindest einen Teil von den Verknüpfungen zwischen den Rechenelementen variabel auszugestalten.
Ferner kann eine Messanordnung zur Erfassung physikalischer Signale vorgesehen werden, mit denen Zustände des dynamisch veränderlichen System beschrieben werden.
Auch lassen sich Weiterbildungen der Erfindung bei einer Sprachverarbeitung einsetzen.
So kann bei einer solchen Weiterbildung die externe Zustandsinformation eine erste Sprachinformation eines zu sprechenden Wortes und/oder einer zu sprechende Silbe und/oder eines zu sprechenden Phonems sein und
- der aktuelle erste Zustand eine zweite Sprachinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems beinhalten.
Auch kann bei einer solchen Weiterbildung vorgesehen werden, dass
- die erste Sprachinformation eine Klassifikation des zu sprechenden Wortes' und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Pauseninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems um- fasst und/oder die zweite Sprachinformation eine Akzentuierungsinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängeninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
Ferner ist bei einer solchen Weiterbildung möglich, dass die erste Sprachinformation eine phonetische und/oder strukturelle Information des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder die zweite Sprachinformation eine Frequenzinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängendauer des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
Ausführungsbeispiele der Erfindung sind in Figuren dargestellt und werden im weiteren erläutert. Es zeigen
Figur 1 Skizze einer Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN) ;
Figuren 2a und 2b eine erste Skizze einer allgemeinen Beschreibung eines dynamischen Systems und eine zweite Skizze einer Beschreibung eines dynamischen Systems, welchem ein „Kausaler-Retro-Kausaler Zusammenhang zugrunde liegt;
Figur 3 eine Anordnung gemäß einem zweiten Ausführungsbei- spiel (KRKFKNN) ;
Figur 4 eine Skizze eines chemischen Reaktors, von dem Größen gemessen werden, welche mit der Anordnung gemäß dem ersten Ausführungsbeispiel weiterverarbeitet werden;
Figur 5 eine Skizze einer Anordnung eines TDRNN, welche mit endlich vielen Zuständen über die Zeit entfaltet ist;
Figur 6 eine Skizze eines Verkehrsleitsystems, welches mit der Anordnung im Rahmen eines zweiten Ausführungsbei- spiels modelliert wird;
Figur 7 Skizze einer alternativen Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN mit gelösten Verbindungen) ;
Figur 8 Skizze einer alternativen Anordnung gemäß einem zweiten Ausführungsbeispiel (KRKFKNN mit gelösten Verbindungen) ;
Figur 9 Skizze einer alternativen Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN) ; Figur 10 Skizze einer Sprachbearbeitung unter Verwendung einer Anordnung gemäß einem ersten Ausführungsbeispiel (KRKNN) ;
Figur 11 Skizze einer Sprachbearbeitung unter Verwendung einer Anordnung gemäß einem zweiten Ausführungsbeispiel (KRKFKNN) .
Erstes Ausführungsbeispiel: Chemischer Reaktor
Fig.4 zeigt einen chemischen Reaktor 400, der mit einer chemischen Substanz 401 gefüllt ist. Der chemische Reaktor 400 umfasst einen Rührer 402, mit dem- die chemische Substanz 401 gerührt wird. In den chemischen Reaktor 400 einfließende weitere chemische Substanzen 403 reagieren während eines vorgebbaren Zeitraums in dem chemischen Reaktor 400 mit der in dem chemischen Reaktor 400 bereits enthaltenen chemischen Substanz 401. Eine aus dem Reaktor 400 ausfließende Substanz 404 wird aus dem chemischen Reaktor 400 über einen Ausgang abgeleitet.
Der Rührer 402 ist über eine Leitung mit einer Steuereinheit 405 verbunden, mit der über ein Steuersignal 406 eine Rührfrequenz des Rührers 402 einstellbar ist.
Ferner ist ein Messgerät 407 vorgesehen, mit dem Konzentrationen von in der chemischen Substanz 401 enthaltenen chemischen Stoffe gemessen werden.
Messsignale 408 werden einem Rechner bzw. Computer 409 zugeführt, in dem Rechner 409 über eine Eingangs- /Ausgangsschnittstelle 410 und einem Analog/Digital-Wandler 411 digitalisiert und in einem Speicher 412 gespeichert. Ein Prozessor 413 ist ebenso wie der Speicher 412 über einen Bus 414 mit dem Analog/Digital-Wandler 411 verbunden. Der Rechner 409 ist ferner über die Eingangs-/Ausgangsschnittstelle 410 mit der Steuerung 405 des Rührers 402 verbunden und somit steuert der Rechner 409 die Rührfrequenz des Rührers 402.
Der Rechner 409 ist ferner über die Eingangs-/Ausgangs- schnittstelle 410 mit einer Tastatur 415, einer Computermaus 416 sowie einem Bildschirm 417 verbunden.
Der chemische Reaktor 400 als dynamisches technisches System 250 unterliegt somit einem dynamischen Prozess.
Der chemische Reaktor 400 wird mittels einer Zustandsbe- schreibung beschrieben. Eine Eingangsgröße ut dieser Zustandbeschreibung setzt sich in diesem Fall zusammen aus einer Angabe über die Temperatur, die in dem chemischen Reaktor 400 herrscht sowie dem in dem chemischen Reaktor 400 herrschenden
Druck und der zu dem Zeitpunkt t eingestellten Rührfrequenz. Somit ist die Eingangsgröße ut ein dreidimensionaler Vektor.
Ziel der im weiteren beschriebenen Modellierung des chemischen Reaktors 400 ist die Bestimmung der dynamischen Entwicklung der Stoffkonzentrationen, um somit eine effiziente Erzeugung eines zu produzierenden vorgebbaren Zielstoffes als ausfließende Substanz 404 zu ermöglichen.
Dies erfolgt unter Verwendung der im weiteren beschriebenen und in der Fig.1 dargestellten Anordnung.
Der dynamische Prozess, der dem beschriebenen Reaktor 400 zugrunde liegt und einen sogenannten „Kausalen-Retro- Kausalen* Zusammenhang aufweist, wird beschrieben durch eine Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangs- gleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt. Eine solche Struktur eines dynamischen Systems mit einem „Kausalen-Retro-Kausalen* Zusammenhang ist in Fig.2b dargestellt.
Das dynamisches System 250 unterliegt dem Einfluss einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße ut zu einem Zeitpunkt t mit ut bezeichnet wird:
ut e 9Ϊ1,
wobei mit 1 eine natürliche Zahl bezeichnet wird.
Die Eingangsgröße ut zu einem Zeitpunkt t verursacht eine
Veränderung des dynamischen Prozesses, der in dem dynamischen System 250 abläuft.
Ein innerer Zustand des Systems 250 zu einem Zeitpunkt t, welcher innere Zustand für einen Beobachter des Systems 250 nicht beobachtbar ist, setzt sich in diesem Fall zusammen aus einen ersten inneren Teilzustand st und einem zweiten inneren Teilzustand rt .
In Abhängigkeit vom ersten inneren Teilzustand st-i zu einem früheren Zeitpunkt t-1 und der Eingangsgröße ut wird ein Zustandsübergang des ersten inneren Teilzustandes st-i des dynamischen Prozesses in einen Folgezustand s verursacht.
Dabei gilt:
st = fl(Ξt-l' ut)- (5)
wobei mit f1 ( . ) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Anschaulich gesehen wird der erste innere Teilzustand st be- einflusst von einem früheren ersten inneren Teilzustand st-i und der Eingangsgröße ut . Ein solcher Zusammenhang wird üblicherweise als „Kausalität* bezeichnet.
In Abhängigkeit vom zweiten inneren Teilzustand rt+i zu einem nachfolgenden Zeitpunkt t+1 und der Eingangsgröße ut wird ein
Zustandsübergang des ersten inneren Zustandes r +i des dynamischen Prozesses in einen Folgezustand rt verursacht.
Dabei gilt:
rt = f2(rt+1/ut). (β)
wobei mit f2 ( . ) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Anschaulich gesehen wird in diesem Fall der zweite innere Teilzustand rt beeinflusst von einem späteren zweiten inneren
Teilzustand t+i im. allgemeinen also einer Erwartung über einen späteren Zustand des dynamischen Systems 250, und der Eingangsgröße ut • Ein solcher Zusammenhang wird als „Retro-
Kausalität* bezeichnet.
Eine von einem Beobachter des dynamischen Systems 250 beobachtbare Ausgangsgröße yt zu einem Zeitpunkt t hängt ab somit von der Eingangsgröße ut, dem ersten inneren Teilzustand s^ sowie dem zweiten inneren Teilzustand rt+ι_.
Die Ausgangsgröße yt ( yt e 9?n ) ist vorgebbarer Dimension n.
Die Abhängigkeit der Ausgangsgröße yt von der Eingangsgröße ut, dem ersten inneren Teilzustand st sowie dem zweiten inneren Teilzustand r +i des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:
yt=g(st>J" t+ι), (7> wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Zur Beschreibung des dynamischen Systems 250 sowie dessen Zustände wird eine Anordnung miteinander verbundener Rechenelemente in Form eines Neuronalen Netzes miteinander verbundener Neuronen eingesetzt. Dieses ist in Fig.1 dargestellt und wird als „Kausales-Retro-Kausales Neuronales Netz (KRKNN) bezeichnet .
Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefasst .
Bei diesem Neuronalen Netz hängen der erste innere Teilzustand st und der zweiten inneren Teilzustand rt gemäß folgenden Vorschriften von der Eingangsgröße u^, dem ersten inneren Teilzustand st-ι dem zweiten inneren Teilzustand rt+i sowie den Parametervektoren vs, v^, Vy ab:
st = NN(vs, st_ι, uj, (8) rt = NN(vr, rt+ι, ut) (9) yt = NNvy, st, rt) (10)
wobei mit NN ( . ) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
Das KRKNN 100 gemäß Fig.1 ist ein über vier Zeitpunkte, t-1, t, t+1 und t+2, entfaltetes Neuronales Netz.
Grundzüge eines über eine endliche Anzahl von Zeitpunkten entfaltetes Neuronalen Netzes sind in [1] beschrieben.
Zum einfacheren Verständnis der dem KRKNN zugrunde liegenden Prinzipien ist in Fig.5 das bekannte TDRNN als ein über eine endliche Anzahl von Zeitpunkten entfaltetes neuronales Netz 500 dargestellt. Das in Fig.5 dargestellte neuronale Netz 500 weist eine Ein- gangsschicht 501 mit drei Teileingangsschichten 502, 503 und 504 auf, die jeweils eine vorgebbare Anzähl Eingangs- Rechenelemente enthalten, denen Eingangsgrößen ut zu einem vorgebbaren Zeitpunkt t, d.h. im weiteren beschriebene Zeitreihenwerte, anlegbar sind.
Eingangs-Rechenelemente, d.h. Eingangsneuronen, sind über variable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten 505 verbunden.
Dabei sind Neuronen einer ersten versteckten Schicht 506 mit Neuronen der ersten Teileingangsschicht 502 verbunden. Ferner sind Neuronen einer zweiten versteckten Schicht 507 mit Neuronen der zweiten Eingangsschicht 503 verbunden. Neuronen einer dritten versteckten Schicht 508 sind mit Neuronen der dritten Teileingangsschicht 504 verbunden.
Die Verbindungen zwischen der ersten Teileingangsschicht 502 und der ersten versteckten Schicht 506, der zweiten Teileingangsschicht 503 und der zweiten versteckten Schicht 507 sowie der dritten Teileingangsschicht 504 und der dritten versteckten Schicht 508 sind jeweils gleich. Die Gewichte aller Verbindungen sind jeweils in einer ersten Verbindungsmatrix B enthalten.
Neuronen einer vierten versteckten Schicht 509 sind mit ihren Eingängen mit Ausgängen von 'Neuronen der ersten versteckten
Schicht 506 gemäß einer durch eine zweite Verbindungsmatrix A2 gegebene Struktur verbunden. Ferner sind Ausgänge der Neuronen der vierten versteckten Schicht 509 mit Eingängen von Neuronen der zweiten versteckten Schicht 507 gemäß einer durch eine dritte Verbindungsmatrix Aι_ gegebene Struktur verbunden . Ferner sind Neuronen einer fünften versteckten Schicht 510 mit ihren Eingängen gemäß einer durch die dritte Verbindungsmatrix A2 gegebenen Struktur mit Ausgängen von Neuronen der zweiten versteckten Schicht 507 verbunden. Ausgänge der Neuronen der fünften versteckten Schicht 510 sind mit Eingängen von Neuronen der dritten versteckten Schicht 508 gemäß einer durch die dritte Verbindungsmatrix A]_ gegebenen Struktur verbunden.
Äquivalent gilt diese Art der Verbindungsstruktur für eine sechste versteckte Schicht 511, die gemäß einer durch die zweite Verbindungsmatrix A2 gegebenen Struktur mit Ausgängen der Neuronen der dritten versteckten Schicht 508 verbunden sind und gemäß einer durch die dritte Verbindungsmatrix A]_ gegebenen Struktur mit Neuronen einer siebten versteckten Schicht 512.
Neuronen einer achten versteckten Schicht 513 sind wiederum gemäß einer durch die erste Verbindungsmatrix A2 gegebenen
Struktur mit Neuronen der siebten versteckten Schicht 512 und über Verbindungen gemäß der dritten Verbindungsmatrix A]_ mit
Neuronen einer neunten versteckten Schicht 514 verbunden. Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t, t-1, t-2, t+1, t+2, an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren bzw. zuführbaren Signale beziehen (u^ t-] t-2) ■
Eine Ausgangsschicht 520 weist drei Teilausgangsschichten, eine erste Teilausgangsschicht 521, eine zweite Teilausgangsschicht 522 sowie eine dritte Teilausgangsschicht 523 auf. Neuronen der ersten Teilausgangsschicht 521 sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der dritten versteckten Schicht 508 verbunden. Neuronen der zweiten Teilausgangsschicht sind ebenfalls gemäß der durch die Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der achten versteckten Schicht 512 verbunden. Neuronen der dritten Teilausgangsschicht 523 sind gemäß der Ausgangs-Verbindungsmatrix C mit Neuronen der neunten versteckten Schicht 514 verbunden. An den Neuronen der Teilausgangsschichten 521, 522 und 523 sind die Ausgangsgrößen für jeweils einen Zeitpunkt t, t+1, t+2 abgreifbar (yt, Yt+1'
Yt+2) •
Ausgehend von diesem Prinzip der sogenannten geteilten Gewichtswerte (Shared Weights) , d.h. dem Grundsatz, dass äquivalente Verbindungsmatrizen in einem neuronalen Netz zu einem jeweiligen Zeitpunkt die gleichen Werte aufweisen, wird im weiteren die in Fig.1 dargestellte Anordnung gebildet erläutert .
Die im weiteren beschriebenen Skizzen sind jeweils so zu verstehen, dass jede Schicht bzw. jede Teilschicht eine vorgebbare Anzahl von Neuronen, d.h. Rechenelementen, aufweist.
Teilschichten einer Schicht repräsentieren jeweils einen Sys- temzustand des durch die Anordnung beschriebenen dynamischen Systems. Teilschichten einer versteckten Schicht repräsentieren dementsprechend jeweils einen „inneren" Systemzustand.
Die jeweiligen Verbindungsmatrizen sind beliebiger Dimension und enthalten jeweils zu den entsprechenden Verbindungen zwischen den Neuronen der jeweiligen Schichten die Gewichtswerte .
Die Verbindungen sind gerichtet und in Fig.1 durch Pfeile gekennzeichnet. Eine Pfeilrichtung gibt eine „Rechenrichtung* , insbesondere eine Abbildungsrichtung oder eine Transformati- onsrichtung, an.
Die in Fig.1 dargestellte Anordnung weist eine Eingangs- schicht 100 mit vier Teileingangsschichten 101, 102, 103 und 104 auf, wobei jeder Teileingangsschicht 101, 102, 103, 104 jeweils Zeitreihenwerte ut-i, ut, ut+i, +2 zu jeweils einem Zeitpunkt t-1, t, t+1 bzw. t+2 zuführbar sind. Die Teileingangsschichten 101, 102, 103, 104 der Eingangsschicht 100 sind jeweils über Verbindungen gemäß einer ersten Verbindungsmatrix A mit Neuronen einer ersten versteckten Schicht 110 mit jeweils vier Teilschichten 111, 112, 113 und 114 der ersten versteckten Schicht 110 verbunden.
Die Teileingangsschichten 101, 102, 103, 104 der Eingangsschicht 100 sind zusätzlich jeweils über Verbindungen gemäß einer zweiten Verbindungsmatrix B mit Neuronen einer zweiten versteckten Schicht 120 mit jeweils vier Teilschichten 121, 122, 123 und 124 der zweiten versteckten Schicht 120 verbunden.
Die Neuronen der ersten versteckten Schicht 110 sind jeweils gemäß einer durch eine dritte Verbindungsmatrix C gegebenen Struktur mit Neuronen einer Ausgangsschicht 140 verbunden, die ihrerseits wiederum vier Teilausgangsschichten 141, 142, 143 und 144 aufweist.
Die Neuronen der Ausgangsschicht 140 sind jeweils gemäß einer durch eine vierte Verbindungsmatrix D gegebenen Struktur mit den Neuronen der zweiten versteckten Schicht 120 verbunden.
Auch sind die Neuronen der Ausgangsschicht 140 jeweils gemäß einer durch eine achte Verbindungsmatrix G gegebenen Struktur mit den Neuronen der ersten versteckten Schicht 110 verbunden.
Ferner sind die Neuronen der zweiten versteckten Schicht 120 jeweils gemäß einer durch eine siebte Verbindungsmatrix H gegebenen Struktur mit den Neuronen der Ausgangsschicht 140 verbunden.
Darüber hinaus ist die Teilschicht 111 der ersten versteckten Schicht 110 über eine Verbindung gemäß einer fünften Verbindungsmatrix E mit den Neuronen der Teilschicht 112 der ersten versteckten Schicht 110 verbunden. Entsprechende Verbindungen weisen auch alle übrigen Teilschichten 112, 113 und 113 der ersten versteckten Schicht 110 auf.
Anschaulich gesehen sind somit alle Teilschichten 111, 112, 113 und 114 der ersten versteckten Teilschicht 110 entsprechend ihrer zeitlichen Abfolge t-1, t, t+1 und t+2 miteinander verbunden.
Die Teilschichten 121, 122, 123 und 124 der zweiten versteckten Schicht 120 sind gerade gegenläufig miteinander verbunden.
In diesem Fall ist die Teilschicht 124 der zweiten versteckten Schicht 120 über eine Verbindung gemäß einer sechsten Verbindungsmatrix F mit den Neuronen der Teilschicht 123 der zweiten versteckten Schicht 120 verbunden.
Entsprechende Verbindungen weisen auch alle übrigen Teilschichten 123, 122 und 121 der zweiten versteckten Schicht 120 auf.
Anschaulich gesehen sind in diesem Fall alle Teilschichten 121, 122, 123 und 124 der zweiten versteckten Teilschicht 120 entgegen ihrer zeitlichen Abfolge, also t+2, t+1, t und t-1, miteinander verbunden.
Entsprechend der beschriebenen Verbindungen wird ein „innerer* Systemzustand st, st+i bzw. st+2 der Teilschicht 112,
113 bzw. 114 der ersten versteckten Schicht gebildet jeweils aus dem zugehörigen Eingangszustand u , t+i bzw. ut+2' aus dem zeitlich vorhergegangenen Ausgangszustand yt-i, Yt bzw. yt und dem zeitlich vorhergegangenen „inneren" Systemzustand st-l' st bzw. st-
Ferner wird entsprechend der beschriebenen Verbindungen ein „innerer" Systemzustand rt_]_, rt bzw. rt+i der Teilschicht 121, 122 bzw. 123 der zweiten versteckten Schicht 120 gebildet jeweils aus dem zugehörigen Ausgangszustand yt-l, Yt bzw. y +i/ aus dem zugehörigen Eingangszustand ut-i, ut bzw. ut+i und dem zeitlich nachfolgenden „inneren* Systemzustand rt, rt+ι bzw. rt+2-
In den Teilausgangsschichten 141, 142, 143 und 144 der Ausgangsschicht 140 wird jeweils ein Zustand aus dem zugehörigen „inneren" Systemzustand st-i, st, st+1 bzw. s +2 einer Teil¬ schicht 111, 112, 113 bzw. 114 der ersten versteckten Schicht 110 und aus dem zeitlich vorangehenden „inneren" Systemzustand rt, £"t+ι, ^t+2 bzw. rt+3 (nicht dargestellt) einer
Teilschicht 122, 123 bzw. 124 der zweiten versteckten Schicht 120.
An einem Ausgang der ersten Teilausgangsschicht 141 der Aus- gangsschicht 140 ist somit ein Signal, welches abhängt von den „inneren" Systemzuständen (s ,r ) abgreifbar.
Entsprechendes gilt für die Teilausgangsschichten 142, 143 und 144.
In der Trainingsphase des KRKNN wird folgende Kostenfunktion
E minimiert :
wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeichnet wird.
Als Trainingsverfahren wird das Backpropagation-Verfahren eingesetzt. Der Trainingsdatensatz wird auf folgende Weise aus dem chemischen Reaktor 400 gewonnen.
Es werden mit dem Messgerät 407 zu vorgegebenen Eingangsgrößen Konzentrationen gemessen und dem Rechner 409 zugeführt, dort digitalisiert und als Zeitreihenwerte xt in einem Speicher gemeinsam mit den entsprechenden Eingangsgrößen, die zu den gemessenen Größen korrespondieren, gruppiert.
Bei dem Training werden die Gewichtswerte der jeweiligen Verbindungsmatrizen angepasst. Die Anpassung erfolgt anschaulich derart, dass das KRKNN das durch sie nachgebildete dynamische System, in diesem Fall den chemischen Reaktor, möglichst genau beschreibt.
Die Anordnung aus Fig.1 wird unter Verwendung des Trainingsdatensatzes und der Kostenfunktion E trainiert.
Die gemäß dem oben beschriebenen Trainingsverfahren trainierte Anordnung aus Fig.1 wird zur Steuerung und Überwachung des chemischen Reaktors 400 eingesetzt. Dazu wird aus den Eingangsgrößen u -i, ut eine prognostizierte Ausgangsgröße y +i ermittelt. Diese wird anschließend als Steuergröße, gegebenenfalls nach einer eventuellen Aufbereitung, dem Steuerungsmittel 405 zur Steuerung des Rührers 402 und der Steuerungseinrichtung 430 zur Zuflusssteuerung zugeführt (vgl. Fig.4) .
2. Ausführungsbeispiel: Mietpreisprognose
In Fig.3 ist eine Weiterentwicklung des in Fig.1 dargestellten und im Rahmen der obigen Ausführungen beschriebenen KRKNN dargestellt .
Das in Fig.3 dargestellte weiterentwickelte KRKNN, ein sogenanntes Kausales-Retro-Kausales-Fehler-Korrigierendes- Neuronales-Netz (KRKFKNN) , wird für eine Mietpreisprognose verwendet.
Die Eingangsgröße ut setzt sich in diesem Fall zusammen aus
Angaben über einen Mietpreis, einem Wohnraumangebot, einer Inflation und einer Arbeitslosenrate, welche Angaben bezüglich eines zu untersuchenden Wohngebiets jeweils am Jahresen- de (Dezemberwerte) ermittelt werden. Somit ist die Eingangsgröße ein vierdimensionaler Vektor. Eine Zeitreihe der Eingangsgrößen, welche aus mehreren zeitlich aufeinanderfolgenden Vektoren bestehen, weißt Zeitschritte von jeweils einem Jahr auf .
Ziel der im weiteren beschriebenen Modellierung einer Mitpreisbildung ist die Prognose eines zukünftigen Mietpreises.
Die Beschreibung des dynamischen Prozesses der Mietpreisbildung erfolgt unter Verwendung der im weiteren beschriebenen und in der Fig.3 dargestellten Anordnung.
Komponenten aus Fig. !■ sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen versehen.
Zusätzlich weist das KRKFKNN eine zweite Eingangsschicht 150 mit vier Teileingangsschichten 151, 152, 153 und 154 auf, wobei jeder Teileingangsschicht 151, 152, 153, 154 jeweils Zeitreihenwerte y1__l, yt ' Yt+i ' Yt-ι-9 zu jeweils einem Zeit¬ punkt t-1, t, t+1 bzw. t+2 zuführbar sind. Die Zeitreihenwer- te Yt_ι ' Yt ' Yt-t-1 ' Yt-t-9 s:"-nd dabei am dynamischen System gemessene Ausgangswerte.
Die Teileingangsschichten 151, 152, 153, 154 der Eingangsschicht 150 sind jeweils über Verbindungen gemäß einer neunten Verbindungsmatrix, welche eine negative Identitätsmatrix ist, mit Neuronen der Ausgangsschicht 140 verbunden.
Somit wird in den Teilausgangsschichten 141, 142, 143 und 144 der Ausgangsschicht jeweils ein Differenzzustand (y^ i-
Vt_ι)' (Yt~ t)' (yt+ryt+l} und (yt+2t+2) gebildet. Die Vorgehensweise für ein Training der oben beschriebenen Anordnung entspricht der Vorgehensweise beim Training der Anordnung gemäß dem ersten Ausführungsbeispiel.
3. Ausführungsbeispiel: Verkehrsmodellierung und Stauwarnprognose
Ein nachfolgend beschriebenes drittes Ausführungsbeispiel beschreibt eine Verkehrsmodellierung und wird für eine Stauprognose eingesetzt.
Bei dem dritten Ausführungsbeispiel wird die Anordnung gemäß dem ersten Ausführungsbeispiel eingesetzt (vgl. Fig.1) .
Das dritte Ausführungsbeispiel unterscheidet sich aber vom ersten Ausführungsbeispiel wie auch vom zweiten Ausführungs- beispiel jeweils darin, dass in diesem Fall die ursprünglich als Zeitvariable verwendete Variable t als eine Ortsvariable t verwendet wird.
Eine ursprüngliche Beschreibung eines Zustands zum Zeitpunkt t beschreibt somit bei dem dritten Ausführungsbeispiel einen Zustand an einem ersten Ort t. Entsprechendes gilt jeweils für eine Zustandsbeschreibung zu einem Zeitpunkt t-1 bzw. t+1 bzw. t+2.
Ferner ergibt sich aus der analogen Übertragung der Zeitvariabilität auf eine Ortvariabilität, dass die Orte t-1, t, t+1 und t+2 entlang einer Fahrstrecke in einer vorgegebenen Fahrtrichtung aufeinanderfolgend angeordnet sind.
Fig.6 zeigt eine Straße 600, die von Autos 601, 602, 603, 604, 605 und 606 befahren ist, dar.
In die Straße 600 integrierte Leiterschleifen 610, 611 nehmen elektrische Signale in bekannter Weise auf und führen die e- lektrischen Signale 615, 616, einem Rechner 620 über eine Eingangs-/Ausgangsschnittstelle 621 zu. In einem mit der Ein- gangs-/Ausgangsschnittstelle 621 verbundenen Analog/Digital- Wandler 622 werden die elektrischen Signale in eine Zeitreihe digitalisiert und in einem Speicher 623, der über einen Bus
624 mit dem Analog/Digital-Wandler 622 und einem Prozessor
625 verbunden ist, gespeichert. Über die Eingangs- /Ausgangsschnittsstelle 621 werden einem Verkehrsleitsystem 650 Steuerungssignale 951 zugeführt, aus denen in dem Verkehrsleitsystem 650 eine vorgegebene Geschwindigkeitsvorgabe 652 einstellbar ist oder auch weitere Angaben von Verkehrsvorschriften, die über das Verkehrsleitsystem 650 Fahrern der Fahrzeuge 601, 602, 603, 604, 605 und 606 dargestellt werden.
Zur Verkehrsmodellierung werden in diesem Fall folgende lokale Zustandsgrößen verwendet:
- Verkehrsflussgeschwindigkeit v,
- Fahrzeugdichte p (p = Anzahl von Fahrzeugen pro Kilome-
Fz ter -— ) , km
Fz
- Verkehrsfluss q (q = Anzahl der Fahrzeuge pro Stunde — , h
(q= v * p) ) , und
- jeweils zu einem Zeitpunkt von dem Verkehrsleitsystem 950 angezeigte Geschwindigkeitsbegrenzungen 952.
Die lokalen Zustandsgrößen werden wie oben beschrieben unter Verwendung der Leiterschleifen 610, 611 gemessen.
Somit stellen diese Größen (v(t), p(t), q(t)) einen Zustand des technischen Systems "Verkehr" zu einem bestimmten Zeitpunkt t dar. Aus diesen Größen erfolgt eine Bewertung r(t) jeweils eines aktuellen Zustands, beispielsweise bezüglich Verkehrsfluss und Homogenität. Diese Bewertung kann quantitativ oder qualitativ erfolgen.
Im Rahmen dieses Ausführungsbeispiels wird die Verkehrsdynamik in zwei Phasen modelliert: Aus in der Anwendungsphase ermittelten Prognosegrößen werden Steuersignale 651 gebildet, mit denen angegeben wird, welche Geschwindigkeitsbegrenzung für einen zukünftigen Zeitraum (t+1) ausgewählt werden soll.
Alternativen zu den Ausführungsbeispielen
Im Weiteren werden einige Alternativen zu den oben beschriebenen Ausführungsbeispielen aufgezeigt.
Alternative Anwendungsgebiete:
Die in dem ersten Ausführungsbeispiel beschriebene Anordnung kann auch für die Ermittlung einer Dynamik eines Elektro- Kardio-Gramms (EKG) eingesetzt werden. Damit lassen sich frühzeitig Indikatoren, die auf ein erhöhtes Herzinfarktrisiko hinweisen, bestimmen. Als Eingangsgröße wird eine Zeitreihe aus an einem Patienten gemessenen EKG-Werten verwendet.
In einer weiteren Alternative zu dem ersten Ausführungsbeispiel wird die Anordnung gemäß dem ersten Ausführungsbeispiel für eine Verkehrsmodellierung gemäß dem dritten Ausführungs- beispiel eingesetzt.
In diesem Fall wird die ursprünglich (bei dem ersten Ausführungsbeispiel) als Zeitvariable verwendete Variable t wie im Rahmen des dritten Ausführungsbeispiels beschrieben als eine Ortvariable t verwendet.
Die Ausführung dazu bei dem dritten Ausführungsbeispiel gelten entsprechend.
In einer dritten Alternative zu dem ersten Ausführungsbeispiel wird die Anordnung gemäß dem ersten Ausführungsbeispiel im Rahmen einer Sprachbearbeitung eingesetzt (Fig.10). Grundlagen einer solchen Sprachbearbeitung sind aus [3] bekannt. In diesem Fall wird die Anordnung (KRKNN) 1000 eingesetzt, um eine Akzentuierung in einem zu akzentuierenden Satz 1010 zu ermitteln.
Dazu wird der zu akzentuierende Satz 1010 in seine Worte 1011 zerlegt und diese jeweils klassifiziert 1012 (Part-of-speech tagging) . Die Klassifizierungen 1012 werden jeweils codiert 1013. Jeder Code 1013 wird um eine Pauseninformation 1014 (phrase break Information) erweitert, welche jeweils angibt, ob bei einem Sprechen des zu akzentuierenden Satzes 1010 nach dem jeweiligen Wort eine Pause gemacht wird.
Eine solche Codierung eines zu akzentuierenden Satzes ist aus [3] und [4] bekannt.
Aus den erweiterten Codes 1015 des Satzes wird eine Zeitreihe 1016 gebildet derart, dass eine zeitliche Abfolge von Zuständen der Zeitreihe der Abfolge der Worte in dem zu akzentuierenden Satz 1010 entspricht. Diese Zeitreihe 1016 wird an die Anordnung 1000 angelegt.
Die Anordnung ermittelt nun für jedes Wort 1011 eine Akzentuierungsinformation 1020 (HA: Hauptakzent bzw. stark akzentuiert; NA: Neben Akzent bzw. schwach akzentuiert; KA: Kein Akzent bzw. nicht akzentuiert), welche angibt, ob das jeweilige Wort akzentuiert gesprochen wird.
Die Ausführung dazu bei dem ersten Ausführungsbeispiel gelten entsprechend.
Die in dem zweiten Ausführungsbeispiel beschriebene Anordnung kann in einer Alternative auch für die Prognose einer makroökonomischer Dynamik, wie beispielsweise eines Wechselkursverlaufs, oder anderen ökonomischer Kennzahlen, wie beispielsweise eines Börsenkurses, eingesetzt werden. Bei einer derartigen Prognose wird eine Eingangsgröße aus Zeitreihen relevanter makroökonomischer bzw. ökonomischer Kennzahlen, wie beispielsweise Zinsen, Währungen oder Inflationsraten, gebildet.
In einer weiteren Alternative zu dem zweiten Ausführungsbeispiel wird die Anordnung gemäß dem zweiten Ausführungsbeispiel im Rahmen einer Sprachbearbeitung eingesetzt (Fig.11). Grundlagen einer solchen Sprachbearbeitung sind aus [5], [6], [7] und [8] bekannt.
In diesem Fall, einer silbenbasierten Sprachbearbeitung, wird die Anordnung (KRKFKNN) 1100 eingesetzt, um einen Frequenzverlauf einer Silbe eines Wortes in einem Satz zu modellieren.
Eine solche Modellierung ist auch aus [5], [6], [7] und [8] bekannt .
Dazu wird der zu modellierende Satz 1110 in Silben 1111 zerlegt. Für jede Silbe wird ein Zustandsvektor 1112 ermittelt, welcher die Silbe phonetisch und strukturell beschreibt.
Ein solcher Zustandsvektor 1112 umfasst eine Timinginformati- on 1113, eine Phonetikinformation 1114, eine Syntaxinformation 1115 und eine Betonungsinformation 1116.
Ein solcher Zustandsvektor 1112 ist in [4] beschrieben.
Aus den Zustandvektoren 1112 der Silben 1111 des zu modellierenden Satzes 1110 wird eine Zeitreihe 1117 gebildet derart, dass eine zeitliche Abfolge von Zuständen der Zeitreihe 1117 der Abfolge der Silben 1111 in dem zu modellierenden Satz 1110 entspricht. Diese Zeitreihe 1117 wird an die Anordnung 1100 angelegt.
Die Anordnung 1100 ermittelt nun für jede Silbe 1111 einen Parametervektor 1122 mit Parametern 1120, fomaxpos, foma- xalpha, lp, rp, welche den Frequenzverlauf 1121 der jeweiligen Silbe 1111 beschreiben.
Solche Parameter 1120 sowie die Beschreibung eines Frequenzverlaufes 1121 durch diese Parameter 1120 sind aus [5], [6], [7] und [8] bekannt.
Die Ausführung dazu bei dem zweiten Ausführungsbeispiel gelten entsprechend.
Strukturelle Alternativen
In Fig.7 ist eine strukturelle Alternative zu der Anordnung aus Fig.l gemäß dem ersten Ausführungsbeispiel dargestellt.
Komponenten aus Fig.l sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen in Fig.7 versehen dargestellt.
Im Gegensatz zu der in Fig.l dargestellten Anordnung sind bei der alternativen Anordnung gemäß Fig.7 die Verbindungen 701, 702, 703, 704, 705, 706, 707, 708, 709, 710 und 711 gelöst bzw. unterbrochen.
Diese alternative Anordnung, ein KRKNN mit gelösten Verbindungen, kann sowohl in einer Trainingsphase als auch in einer Anwendungsphase eingesetzt werden.
Das Training wie auch die Anwendung der alternativen Anordnung werden in analoger Weise wie bei dem ersten Ausführungs- beispiel beschrieben durchgeführt.
In Fig.8 ist eine strukturelle Alternative zu der Anordnung aus Fig.3 gemäß dem zweiten Ausführungsbeispiel dargestellt.
Komponenten aus Fig.3 sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen in Fig.8 versehen dargestellt. Im Gegensatz zu der in Fig.3 dargestellten Anordnung sind bei der alternativen Anordnung gemäß Fig.8 die Verbindungen 801, 802, 803, 804, 805, 806, 807, 808, 809, 810, 811, 812 und 813 gelöst bzw. unterbrochen.
Diese alternative Anordnung, ein KRKFKNN mit gelösten Verbindungen, kann sowohl in einer Trainingsphase als auch in einer Anwendungsphase eingesetzt werden.
Das Training wie auch die Anwendung der alternativen Anordnung werden in analoger Weise wie bei dem zweiten Ausführungsbeispiel beschrieben durchgeführt.
Es ist anzumerken, dass es möglich ist, das KRKNN mit gelösten Verbindungen nur in der Trainingsphase und das KRKNN (ohne die gelösten Verbindungen gemäß dem ersten Ausführungsbeispiel) in der Anwendungsphase anzuwenden.
Auch ist es möglich das KRKNN mit gelösten Verbindungen nur in der Anwendungsphase und das KRKNN (ohne die gelösten Verbindungen gemäß dem ersten Ausführungsbeispiel) in der Trainingsphase anzuwenden.
Entsprechendes gilt für das KRKFKNN und das KRKFKNN mit gelösten Verbindungen.
Eine weitere strukturelle Alternative zu der Anordnung gemäß dem ersten Ausführungsbeispiel ist in Fig.9 dargestellt.
Die Anordnung gemäß Fig.9 ist ein KRKNN mit einer Fixpunktre- kurrenz.
Komponenten aus Fig.l sind bei gleicher Ausgestaltung mit gleichen Bezugszeichen in Fig.8 versehen dargestellt. Im Gegensatz zu der in Fig.l dargestellten Anordnung sind bei der alternativen Anordnung gemäß Fig.9 zusätzliche Verbindungen 901, 902, 903 und 904 geschlossen.
Die zusätzlichen Verbindungen 901, 902, 903 und 904 weisen jeweils eine Verbindungsmatrix GT mit Gewichten auf.
Diese alternative Anordnung kann sowohl in einer Trainingsphase als auch in einer Anwendungsphase eingesetzt werden.
Das Training wie auch die Anwendung der alternativen Anordnung werden in analoger Weise wie bei dem ersten Ausführungsbeispiel beschrieben durchgeführt.
In diesem Dokument sind folgende Veröffentlichungen zitiert:
[1] S. Hayken, Neural Networks: A Comprehensive Foundation, Mc Millan College Publishing Company, Second Edition, ISBN 0-13-273350-1, S. 732-789, 1999.
[2] H. Rehkugler und H. G. Zimmermann, Neuronale Netze in der Ökonomie, Grundlagen und finanzwirtschaftliche Anwendungen, Verlag Franz Vahlen München, ISBN 3-8006-1871-0, S. 3-90, 1994;
[3] J. Hirschberg, Pitch accent in context: predicting intonational prominence from text, Artificial Intelli- gence 63, S. 305-340, Elsevier, 1993;
[4] K. Ross et al . , Prediction of abstract prosodic labeis for speech synthesis, Computer Speech and Language, 10, S. 155-185, 1996;
[5] R. Haury et al., Optimisation of a Neural Network for Pitch Contour Generation, ICASSP, Seattle, 1998;
[6] C. Traber, F0 generation with a database of natural F0 patterns and with a neural network, G. Bailly and C. Be- noit eds . , Talking Machines: Theories, Models and Applications, Elsevier, 1992;
[7] E. Heuft et al . , Parametric Description of FO-Contours in a Prosodic Database, Proc. ICPHS, Vol. 2, S. 378-381, 1995;
[8] C. Erdem, Topologieoptimierung eines Neuronalen Netzes zur Generierung von FO-Verlaeufen durch Integration unterschiedlicher Codierungen, Tagungsband ESSV, Cottbus, 2000.

Claims

Patentansprüche
1. Verfahren zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum
- bei dem eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelt wird, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist,
- bei dem eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelt wird, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist,
- bei dem der aktuelle erste Zustand ermittelt wird durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
2. Verfahren nach einem der vorangehenden Ansprüche, bei dem zwei zeitlich aufeinanderfolgende zweite Zustände der zweiten zeitlichen Abfolge jeweils durch eine dritte Transformation miteinander gekoppelt sind.
3. Verfahren nach Anspruch 2, bei dem zwei zeitlich aufeinanderfolgende zweite Zustände der zweiten zeitlichen Abfolge derart durch die dritte Transformation miteinander gekoppelt sind, dass ein zeitlich jüngerer zweite Zustand aus einem zeitlich älteren zweiten Zustand ermittelt wird.
4. Verfahren nach einem der vorangehenden Ansprüche, bei dem zwei zeitlich aufeinanderfolgende dritte Zustände der dritten Abfolge jeweils durch eine vierte Transformation miteinander gekoppelt sind.
5. Verfahren nach Anspruch 4, bei dem zwei zeitlich aufeinanderfolgende dritte Zustände der dritten zeitlichen Abfolge derart durch die vierte Transformation miteinander gekoppelt sind, dass ein zeitlich älterer dritter Zustand aus einem zeitlich jüngeren dritten Zustand ermittelt wird.
6. Verfahren nach einem der Ansprüche 3 bis 5, bei dem ein dem aktuellen zweiten Zustand zeitlich nachfolgender jüngerer zweiten Zustand der zweiten zeitlichen Abfolge ermittelt wird
- durch die dritte Transformation des aktuellen zweiten Zustands und
- durch eine fünfte Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
7. Verfahren nach einem der Ansprüche 5 bis 6, bei dem ein dem zukünftigen dritten Zustand zeitlich vorangegangener aktueller dritter Zustand der dritten zeitlichen Abfolge ermittelt wird durch die vierte Transformation des zukünftigen dritten
Zustands und durch eine sechste Transformation des aktuellen Zustands von dem ersten Zustandsraum in den zweiten Zustandsraum.
8. Verfahren nach einem der vorangehenden Zustände, bei dem ein Fehler zwischen dem ermittelten ersten aktuellen Zustand und einem vorgegebenen aktuellen ersten Zustand ermittelt wird.
9. Verfahren nach einem der vorangehenden Zustände, bei dem den zweiten Zuständen der zweiten zeitlichen Abfolge und/oder den dritten Zuständen der dritten zeitlichen Abfolge jeweils eine externe Zustandsinformation des Systems zugeführt wird.
10. Verfahren nach einem der vorangehenden Ansprüche, bei dem ein Zustand des Systems durch einen Vektor vorgebbarer Dimension beschrieben wird.
11. Verfahren nach einem der vorangehenden Ansprüche, verwendet zu einer Ermittlung einer Dynamik des dynamisch veränderlichen Systems, wobei die erste zeitliche Abfolge der jeweils ersten Zuständen die Dynamik beschreibt.
12. Verfahren nach Anspruch 11, verwendet zur Ermittlung der Dynamik eines Elektro-Kardio- Gramms, wobei die erste zeitliche Abfolge der jeweils ersten Zustände Signale eines Elektro-Kardio-Gramms sind.
13. Verfahren nach Anspruch 11, verwendet zur Ermittlung der Dynamik eines ökonomischen Systems, wobei die erste zeitliche Abfolge der jeweils ersten Zustände ökonomische Zustände beschrieben durch eine ökonomische Größe sind.
14. Verfahren nach Anspruch 11, verwendet zur Ermittlung der Dynamik eines chemischen Reaktors, wobei die erste zeitliche Abfolge der jeweils ersten Zustände durch chemische Zustands'größen des chemischen Reaktors beschrieben wird.
15. Verfahren nach einem der vorangehenden Ansprüche, verwendet zu einer Prognose eines Zustands des dynamisch veränderlichen Systems, wobei der ermittelte erste aktuelle Zustand als der prognostizierte Zustand verwendet wird.
16. Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems in einem ersten Zustandsraum mit miteinander verknüpften Rechenelementen, welche Rechenelemente jeweils einen Zustand des Systems und welche Verknüpfungen jeweils eine Transformation zwischen zwei Zuständen des Systems repräsentieren, wobei erste Rechenelemente derart eingerichtet sind, dass eine zweite zeitliche Abfolge von jeweils zweiten Zuständen des Systems in einem zweiten Zustandsraum ermittelbar sind, welche zweite zeitliche Abfolge mindestens einen aktuellen zweiten Zustand und einen dem aktuellen zweiten Zustand zeitlich vorangegangenen älteren zweiten Zustand aufweist, zweite Rechenelemente derart eingerichtet sind, dass eine dritte zeitliche Abfolge von jeweils dritten Zuständen des Systems in dem zweiten Zustandsraum ermittelbar sind, welche dritte zeitliche Abfolge mindestens einen zukünftigen dritten Zustand und einen dem zukünftigen dritten Zustand zeitlich nachfolgenden jüngeren dritten Zustand aufweist, ein drittes Rechenelement derart eingerichtet ist, dass der aktuelle erste Zustand ermittelbar ist durch eine erste Transformation des aktuellen zweiten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum und einer zweiten Transformation des zukünftigen dritten Zustands von dem zweiten Zustandsraum in den ersten Zustandsraum.
17. Anordnung nach Anspruch 16, mit vierten Rechenelementen, die jeweils mit einem ersten Rechenelement und/oder einem zweiten Rechenelement verknüpft sind und die derart eingerichtet sind, dass jeweils einem von den vierten Rechenelementen ein vierter Zustand einer vierten zeitlichen Abfolge von jeweils vierten Zuständen des Systems zuführbar sind, wobei jeder vierte Zustand externe Zustandsinformation des Systems beinhaltet.
18. Anordnung nach Anspruch 16 oder 17, bei der zumindest ein Teil der Rechenelemente künstliche Neuronen und/oder zumindest ein Teil von den Verknüpfungen zwischen den Rechenelementen variabel ausgestaltet sind.
19. Anordnung nach einem der Ansprüche 16 bis 18, mit einer Messanordnung zur Erfassung physikalischer Signale, mit denen Zustände des dynamisch veränderlichen System beschrieben werden.
20. Anordnung nach einem der Ansprüche 17 bis 18, eingesetzt bei einer Sprachbearbeitung, wobei
- die externe Zustandsinformation eine erste Sprachinformation eines zu sprechenden Wortes und/oder einer zu sprechende Silbe und/oder eines zu sprechenden Phonems ist und der aktuelle erste Zustand eine zweite Sprachinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems beinhaltet.
21. Anordnung nach Anspruch 20, bei der die erste Sprachinformation eine Klassifikation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Pausen- information des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder die zweite Sprachinformation eine Akzentuierungsinformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängeninformation des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst.
22. Anordnung nach Anspruch 21, bei der
- die erste Sprachinformation eine phonetische und/oder strukturelle Information des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst und/oder die zweite Sprachinformation eine Frequenzinformation des zu sprechenden Wortes und/oder de zu sprechenden Silbe und/oder des zu sprechenden Phonems und/oder eine Lautlängendauer des zu sprechenden Wortes und/oder der zu sprechenden Silbe und/oder des zu sprechenden Phonems umfasst,
EP02776681A 2001-09-19 2002-09-17 Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems Withdrawn EP1428177A2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10146222A DE10146222A1 (de) 2001-09-19 2001-09-19 Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems
DE10146222 2001-09-19
PCT/DE2002/003494 WO2003025851A2 (de) 2001-09-19 2002-09-17 Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems

Publications (1)

Publication Number Publication Date
EP1428177A2 true EP1428177A2 (de) 2004-06-16

Family

ID=7699581

Family Applications (1)

Application Number Title Priority Date Filing Date
EP02776681A Withdrawn EP1428177A2 (de) 2001-09-19 2002-09-17 Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems

Country Status (5)

Country Link
US (1) US20040267684A1 (de)
EP (1) EP1428177A2 (de)
JP (1) JP2005502974A (de)
DE (1) DE10146222A1 (de)
WO (1) WO2003025851A2 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10356655B4 (de) * 2003-12-04 2006-04-20 Siemens Ag Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
WO2005081076A2 (de) * 2004-02-24 2005-09-01 Siemens Aktiengesellschaft Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes
DE102004059684B3 (de) * 2004-12-10 2006-02-09 Siemens Ag Verfahren und Anordnung sowie Computerprogramm mit Programmmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE102008014126B4 (de) * 2008-03-13 2010-08-12 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US11599892B1 (en) 2011-11-14 2023-03-07 Economic Alchemy Inc. Methods and systems to extract signals from large and imperfect datasets

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493691B1 (en) * 1998-08-07 2002-12-10 Siemens Ag Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
DE50002165D1 (de) * 1999-03-03 2003-06-18 Siemens Ag Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE50002640D1 (de) * 1999-04-12 2003-07-31 Siemens Ag Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
WO2001057648A2 (de) * 2000-01-31 2001-08-09 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO03025851A2 *

Also Published As

Publication number Publication date
JP2005502974A (ja) 2005-01-27
US20040267684A1 (en) 2004-12-30
WO2003025851A3 (de) 2004-02-19
WO2003025851A2 (de) 2003-03-27
DE10146222A1 (de) 2003-04-10

Similar Documents

Publication Publication Date Title
EP2649567B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
WO2014183944A1 (de) Entwurfssystem und verfahren zum entwurf eines fahrerassistenzsystems
EP1145192B1 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102019114577A1 (de) Systeme, vorrichtungen und verfahren für eingebettete codierungen von kontextbezogenen informationen unter verwendung eines neuronalen netzwerks mit vektorraummodellierung
DE69433907T2 (de) Autonomes, evolutionsartiges Hardwareentwurfssystem
WO2000008599A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102020210379A1 (de) Computerimplementiertes Verfahren und Computerprogrammprodukt zum Erhalten einer Umfeldszenen-Repräsentation für ein automatisiertes Fahrsystem, computerimplementiertes Verfahren zum Lernen einer Prädiktion von Umfeldszenen für ein automatisiertes Fahrsystem und Steuergerät für ein automatisiertes Fahrsystem
EP1428177A2 (de) Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems
EP1252566B1 (de) Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
DE10324045B3 (de) Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemverhaltens eines dynamischen Systems
EP3816844A1 (de) Computerimplementiertes verfahren und vorrichtung zum verarbeiten von daten
DE10047172C1 (de) Verfahren zur Sprachverarbeitung
EP1145190B1 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
WO2002027654A2 (de) Verfahren und anordnung zur rechnergestützten abbildung mehrerer zeitlich veränderlicher zustandsbeschreibungen und verfahren zum training einer solchen anordnung
DE102022003003A1 (de) Automatische Fotobearbeitung mittels sprachlicher Anweisung
DE102008014126B4 (de) Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
WO1998007100A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE102019211017A1 (de) Verfahren zum Clustern verschiedener Zeitreihenwerte von Fahrzeugdaten und Verwendung des Verfahrens
DE19653553C1 (de) Verfahren zum Trainieren eines mehrschichtigen neuronalen Netzes mit Trainingsdaten und Anordnung zur Durchführung des Verfahrens
EP1194890B1 (de) Anordnung und verfahren sowie computerprogramm-erzeugnis und computerlesbares speichermedium zur rechnergestützten kompensation eines ungleichgewichtszustands eines technischen systems
DE19653554A1 (de) Verfahren zum Trainieren eines neuronalen Netzes mit Trainingsdaten und Anordnung eines künstlichen neuronalen Netzes
DE102022201853A1 (de) Erkennung kritischer Verkehrssituationen mit Petri-Netzen
Zeileis Testing for structural change: Theory, Implementation and Applications
DE102023209381A1 (de) Clusteranalyse von objekttrajektorien mit hybridem denken für maschinelles lernen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20040226

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LI LU MC NL PT SE SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: ERDEM, CAGLAYAN

Inventor name: ZIMMERMANN, HANS-GEORG

17Q First examination report despatched

Effective date: 20050323

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20050401