DE19526954C1 - Statistical estimator computation unit - Google Patents

Statistical estimator computation unit

Info

Publication number
DE19526954C1
DE19526954C1 DE19526954A DE19526954A DE19526954C1 DE 19526954 C1 DE19526954 C1 DE 19526954C1 DE 19526954 A DE19526954 A DE 19526954A DE 19526954 A DE19526954 A DE 19526954A DE 19526954 C1 DE19526954 C1 DE 19526954C1
Authority
DE
Germany
Prior art keywords
estimators
estimator
statistical
training data
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19526954A
Other languages
German (de)
Inventor
Volker Dr Tresp
Michiaki Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19526954A priority Critical patent/DE19526954C1/en
Application granted granted Critical
Publication of DE19526954C1 publication Critical patent/DE19526954C1/en
Priority to JP8194660A priority patent/JPH0991144A/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

The computation unit (CE) employs a number statistical estimators (Si) provided by neural networks, with individual weighting of the estimator output signals, before input to an overall estimator (GS), providing an estimated result signal (ES). The weighting of the estimator output signals is effected via individual weighting functions, obtained in dependence on training data provided during a training phase and corresponding to the reciprocal of the variance of each estimator.

Description

Bei künstlichen neuronalen Netzen und anderen Schätzern, die auf statistischen Verfahren basieren, ist es oftmals sehr nützlich, wenn ein komplexes Problem einer Abbildung von ei­ ner Kombination von Eingangssignalen x ∈ D auf eine Kombi­ nation von Ausgangssignalen y ∈ K in eine Mehrzahl kleinerer Abbildungen aufgeteilt wird.With artificial neural networks and other estimators based on statistical methods, it is often very useful if a complex problem of mapping a combination of input signals x ∈ D is divided into a combination of output signals y ∈ K into a plurality of smaller maps becomes.

Dabei ist es bekannt, die Aufteilung eines komplexen rechner­ gestützten statistischen Schätzers, also z. B. eines künstli­ chen neuronalen Netzes, in eine Mehrzahl einfacherer rechner­ gestützte statistische Schätzer durchzuführen und die Aus­ gangssignale der Mehrzahl einfacherer rechnergestützter sta­ tistischer Schätzer zu gewichten und die gewichteten Aus­ gangssignale in einem Gesamtschätzer zu einem Ergebnissignal akkumulieren (R. Jacobs et al., Adaptive Mixtures of Local Ex­ perts, Neural Computation, Vol. 3, Massachusetts Institute of Technology, 1991, S. 79-87).It is known to split a complex calculator supported statistical estimator, e.g. B. an artificial Chen neural network, in a plurality of simpler computers based statistical estimators and the Aus output signals of the majority of simpler computer-aided sta to weight the statistical estimator and the weighted out output signals in a total estimator to a result signal accumulate (R. Jacobs et al., Adaptive Mixtures of Local Ex perts, Neural Computation, Vol. 3, Massachusetts Institute of Technology, 1991, pp. 79-87).

Dabei ist es bekannt, daß die Gewichtsfunktionen mit dem Training der einzelnen Schätzer bestimmt werden und somit an die Trainingsdaten angepaßt werden. Dabei wird das bekannte Expectation-Maximization Verfahren, EM-Verfahren genannt, zur Bildung der Gewichtsfunktionen verwendet, wobei die gesamte Mehrzahl der einfacheren Schätzer alle mit denselben Trai­ ningsdaten trainiert werden.It is known that the weight functions with the Training of the individual estimators can be determined and thus the training data are adjusted. The familiar Expectation-Maximization procedure, called EM procedure, for Formation of the weight functions used, the whole Most of the simpler estimators all with the same trai training data.

Um die Ergebnisse bei der Akkumulierung zu verbessern, ist es bekannt, die Ausgangssignale aller Module, also aller einzel­ nen Schätzer zu mitteln, und somit den Gesamtschätzer zu ver­ bessern (M. Perrone, Improving Regression Estimates: Avera­ ging Methods for Variance Reduction with Extensions to Gene­ ral Convex Measure Optimization, PhD thesis, Brown Universi­ ty, USA, S. 10-21, 1993).To improve the results of the accumulation, it is known, the output signals of all modules, i.e. all individual averaging an estimate and thus verifying the total estimate improve (M. Perrone, Improving Regression Estimates: Avera  went Methods for Variance Reduction with Extensions to Gene ral Convex Measure Optimization, PhD thesis, Brown Universi ty, USA, pp. 10-21, 1993).

Die Tatsache, daß sich der Begriff eines statistischen Schät­ zers nicht nur auf künstliche neuronale Netze beschränkt, sondern alle rechnergestützten Schätzer umfaßt, die auf sta­ tistischen Verfahren basieren, ist jedem Fachmann bekannt und sofort ersichtlich.The fact that the concept of a statistical estimate not limited to artificial neural networks, but includes all computer-based estimators based on sta Based on the statistical methods, is known to any person skilled in the art immediately visible.

Eine Übersicht über rechnergestützte Schätzer, die auf stati­ stischen Verfahren basieren, ist in (J. Hartung et al., Stati­ stik, Oldenbourg Verlag, München, 9. Auflage, ISBN 3-486- 22055-1, S. 123-142, 1993) gegeben.An overview of computer-based estimators based on stati based on technical methods is described in (J. Hartung et al., Stati stik, Oldenbourg Verlag, Munich, 9th edition, ISBN 3-486- 22055-1, pp. 123-142, 1993).

Das erfindungsgemäße Verfahren ist für alle rechnergestützten statistischen Schätzer einsetzbar. Weitere statistische Schätzer, die in (J. Hartung et al., Statistik, Oldenbourg Verlag, München, 9. Auflage, ISBN 3-486-22055-1, S. 123-142, 1993) nicht angegeben sind, aber für die das erfindungsgemäße Verfahren selbstverständlich auch einsetzbar ist, sind jedem Fachmann bekannt.The method according to the invention is computer-aided for all statistical estimators can be used. More statistical Estimators described in (J. Hartung et al., Statistics, Oldenbourg Verlag, Munich, 9th edition, ISBN 3-486-22055-1, pp. 123-142, 1993) are not specified, but for which the invention The procedure is of course applicable to everyone Known specialist.

Es sind unterschiedliche Möglichkeiten zur Berechnung der Va­ rianz eines einzelnen Moduls, also eines einzelnen Schätzers, bekannt (B. Efron et al., An Introduction to the Bootstrap, Chapman & Hall Verlag, New York, USA, ISBN 0-412-04231-2, S. 39-45, 1993; und R. Tibshirani, A Comparison of Some Error Estimates for Neural Network Models, Department of Preventive Medicine and Biostatistics, University of Toronto, 1994).There are different ways of calculating the Va rianz of a single module, i.e. a single estimator, known (B. Efron et al., An Introduction to the Bootstrap, Chapman & Hall Verlag, New York, USA, ISBN 0-412-04231-2, p. 39-45, 1993; and R. Tibshirani, A Comparison of Some Error Estimates for Neural Network Models, Department of Preventive Medicine and Biostatistics, University of Toronto, 1994).

Aus (B. Efron et al., An Introduction to the Bootstrap, Chap­ man & Hall Verlag, New York, USA, ISBN 0-412-04231-2, S. 124- 140, 1993) sind die Grundlagen über auftretende Verzerrungen der Schätzer, dem sogenannten Bias, und deren Schätzung zur deren Kompensation, bekannt. From (B. Efron et al., An Introduction to the Bootstrap, Chap man & Hall Verlag, New York, USA, ISBN 0-412-04231-2, pp. 124- 140, 1993) are the basics about distortions that occur the estimator, the so-called bias, and their estimation for their compensation, known.  

Das bekannte Verfahren der Gewichtung der rechnergestützten statistischen "kleineren" Schätzern birgt vor allem den Nach­ teil einer erheblichen Ungenauigkeit in der Akkumulierung in dem Gesamtschätzer zu einem Ergebnissignal, dem Schätzungser­ gebnis, in sich.The well-known method of weighting the computerized statistical "smaller" estimators mainly hold the night part of a considerable inaccuracy in the accumulation in the total estimator for a result signal, the estimator result in itself.

Somit liegt der Erfindung das Problem zugrunde, ein Verfahren anzugeben, das die Ungenauigkeit eines Gesamtschätzers, die durch Gewichtsfunktionen verursacht wird, die Ausgangssignale von "kleineren" rechnergestützten statistischen Schätzern ge­ wichten und als Eingangssignale des Gesamtschätzers zur Ver­ fügung stellen, verringert.The invention is therefore based on the problem of a method indicate the inaccuracy of an overall estimator, the is caused by weight functions, the output signals from "smaller" computer-aided statistical estimators weight and as input signals of the total estimator for ver provision, reduced.

Das Problem wird durch das Verfahren gemäß Patentanspruch 1 gelöst.The problem is solved by the method according to claim 1 solved.

Bei dem Verfahren werden Gewichtsfunktionen verwendet, die abhängig sind von der Verläßlichkeit der einzelnen Schätzer, die abhängig sind von den Trainingsdaten, mit denen die ein­ zelnen "kleineren" rechnergestützten statistischen Schätzer in einer Trainingsphase trainiert wurden. Dadurch wird die Genauigkeit des Gesamtschätzers erheblich erhöht.Weight functions are used in the method depend on the reliability of the individual estimators, which depend on the training data with which the one individual "smaller" computer-aided statistical estimators were trained in a training phase. This will make the Accuracy of the total estimator increased considerably.

Dies wird vor allem dadurch erreicht, daß durch die Abhängig­ keit der Gewichtsfunktionen von den verwendeten Trainingsda­ ten die Verläßlichkeit jedes einzelnen "kleineren" rechnerge­ stützten statistischen Schätzers abhängig von den Trainings­ daten, mit denen jeder einzelne "kleinere" rechnergestützte statistische Schätzer berücksichtigt wird bei der Akkumulati­ on der Ausgangssignale der "kleineren" rechnergestützten sta­ tistischen Schätzer in einer Generalisierungsphase in dem Ge­ samtschätzer zu dem Ergebnissignal für die angelegten Ein­ gangssignale der "kleineren" rechnergestützten statistischen Schätzer.This is mainly achieved by the fact that the dependent weight functions of the used training data the reliability of each "smaller" computer supported statistical estimators depending on the training data with which each individual "smaller" computer-based statistical estimators are taken into account in the accumulation on the output signals of the "smaller" computer-based sta statistical estimators in a generalization phase in the Ge total estimates of the result signal for the input output signals of the "smaller" computer-aided statistical Estimator.

Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen. Further developments of the invention result from the dependent Claims.  

Im folgenden wird die Erfindung anhand von lediglich ein be­ vorzugtes Ausführungsbeispiel darstellenden Zeichnungen näher erläutert.In the following the invention will be based on only one preferred embodiment illustrating drawings explained.

Es zeigenShow it

Fig. 1 eine Skizze, in der schematisch die Anordnung dar­ gestellt ist, in der Ausgangssignale vieler "kleinerer" sta­ tistischer Schätzer gewichtet werden, abhängig von den Trai­ ningsdaten, mit denen die Schätzer trainiert wurden, und in einem Gesamtschätzer zu einem Ergebnissignal akkumuliert wer­ den; Fig. 1 is a sketch in which the arrangement is shown schematically, in the output signals of many "smaller" statistical estimators are weighted, depending on the training data with which the estimators were trained, and who accumulates in a total estimator to a result signal the;

Fig. 2 eine Skizze, in der schematisch die Anordnung dar­ gestellt ist, mit der Ausgangssignale vieler "kleinerer" sta­ tistischer Schätzer gewichtet werden abhängig von den Trai­ ningsdaten, mit denen die Schätzer trainiert wurden, wobei unterschiedliche Schätzer mit unterschiedlichen Trainingsda­ ten trainiert wurden, und in einem Gesamtschätzer zu einem Ergebnissignal akkumuliert werden; Fig. 2 is a sketch, are weighted in which the arrangement is provided schematically illustrate the output signals of many "small" sta tistical estimator beginnings data depending on the Trai with which the estimator trained using different estimators with different Trainingsda ten trained, and accumulated into a result signal in an overall estimator;

Fig. 3 ein Ablaufdiagramm, das den Ablauf des erfindungs­ gemäßen Verfahrens darstellt; Fig. 3 is a flowchart illustrating the sequence of the inventive method;

Fig. 4 eine Skizze, in der Möglichkeiten dargestellt sind, wie man die Gewichtsfunktionen bildet. Fig. 4 is a sketch showing the ways in which the weight functions are formed.

Anhand der Fig. 1 bis 4 wird das erfindungsgemäße Verfah­ ren weiter erläutert.Referring to Figs. 1 to 4 procedural to the invention is further illustrated ren.

In Fig. 1 ist eine Anordnung dargestellt mit "kleineren" rechnergestützten statistischen Schätzern Si, d. h. rechner­ gestützten Schätzern, die auf statistische Verfahren beruhen. Hierbei ist ein Index i, der jeden "kleineren" rechnerge­ stützten statistischen Schätzern Si eindeutig identifiziert, eine natürliche Zahl in dem Intervall [1 . . . n].In Fig. 1, an arrangement is represented by "smaller" computerized statistical estimators Si, ie computer-aided estimators that are based on statistical methods. Here, an index i, which uniquely identifies each "smaller" computational statistical estimator Si, is a natural number in the interval [1. . . n].

Es ist also eine Anordnung mit einer beliebigen Anzahl von n "kleineren" rechnergestützten statistischen Schätzern Si für eine Anordnung, für das das erfindungsgemäße Verfahren angewendet werden kann, vorgesehen.So it is an arrangement with any number of n "smaller" computer-aided statistical estimators Si  for an arrangement for which the method according to the invention can be applied.

Unter rechnergestützten statistischen Schätzern Si sind in diesem Zusammenhang z. B. künstliche neuronale Netze, oder andere Schätzer, die auf statistischen Verfahren basieren, die z. B. aus (J. Hartung et al., Statistik, Oldenbourg Ver­ lag, München, 9. Auflage, ISBN 3-486-22055-1, S. 123-142, 1993) bekannt sind, zu verstehen.Among computer-aided statistical estimators Si are in this connection z. B. artificial neural networks, or other estimators based on statistical methods the z. B. from (J. Hartung et al., Statistics, Oldenbourg Ver lag, Munich, 9th edition, ISBN 3-486-22055-1, pp. 123-142, 1993) are known to understand.

Im folgenden wird jede Parameteranpassung eines statistischen Schätzers Si als Training des Schätzers Si bezeichnet.In the following, each parameter adjustment is a statistical Estimator Si called training of the estimator Si.

Die rechnergestützten statistischen Schätzer Si sind Schät­ zer, die mit Hilfe einer Computereinheit CE realisiert wer­ den. Aus diesem Grund sind die statistischen Schätzer Si rechnergestützt. Die Tatsache, daß z. B. neuronale Netze und auch alle anderen Arten statistischer Schätzer nichts anderes darstellen als eine eigene Art von Datenverarbeitungsanlage, also eine eigene Art von Computereinheit, ist jedem Fachmann völlig geläufig.The computer-aided statistical estimators Si are estimates zer, who realized with the help of a computer unit CE the. For this reason, the statistical estimators are Si computer-aided. The fact that e.g. B. neural networks and also all other types of statistical estimators nothing else represent as a separate type of data processing system, every specialist is a separate type of computer unit completely common.

In einer Trainingsphase 1 werden an die einzelnen "kleineren" rechnergestützten statistischen Schätzer Si Trainingsdaten x angelegt, mit denen die Schätzer trainiert werden (vgl. Fig. 3).In a training phase 1, training data x with which the estimators are trained are applied to the individual “smaller” computer-aided statistical estimators Si (cf. FIG. 3).

Algorithmen zum Trainieren statistischer Schätzer sind jedem Fachmann hinlänglich bekannt, und können ohne Einschränkungen zum Trainieren der "kleineren" rechnergestützten statisti­ schen Schätzer Si eingesetzt werden. Eine Übersicht über eine Auswahl von Trainingsalgorithmen ist in (J. Hertz et al., In­ troduction to the Theory of Neural Computation, Addison- Wesley Publishing Company, ISBN 0-201-51560-1, S. 89-156, 1991) beschrieben. Algorithms for training statistical estimators are everyone Those skilled in the art are well known and can do so without limitation to train the "smaller" computer-aided statistics cal estimators Si are used. An overview of one Selection of training algorithms is described in (J. Hertz et al., In troduction to the Theory of Neural Computation, Addison- Wesley Publishing Company, ISBN 0-201-51560-1, pp. 89-156, 1991).  

Es ist ebenso vorgesehen, daß nicht alle "kleineren" rechner­ gestützten statistischen Schätzer Si mit denselben Trainings­ daten x trainiert werden, sondern sie können auch, wie in Fig. 2 dargestellt, jeweils nur mit einem Teil txj der Trai­ ningsdaten x trainiert werden. Hierbei ist ein Index j, der jeden Teil txj der Trainingsdaten x eindeutig identifiziert, eine beliebige natürliche Zahl im Intervall [1 . . . m].It is also provided that not all "smaller" computer-aided statistical estimators Si are trained with the same training data x, but, as shown in FIG. 2, they can also be trained with only a part txj of the training data x. An index j, which uniquely identifies each part txj of the training data x, is an arbitrary natural number in the interval [1. . . m].

Die Gesamtheit der mehreren "kleineren" rechnergestützten statistischen Schätzer Si wird im folgenden als eine Vielzahl VZ von Schätzern Si bezeichnet.The entirety of several "smaller" computer-based statistical estimator Si is referred to below as a variety VZ designated by estimators Si.

Hierbei bezeichnen die Teile Txj der Trainingsdaten x nicht nur einzelne Muster, die zum Training der Vielzahl VZ der Schätzer Si verwendet werden, sondern sie können ebenso ein­ zelne Teile eines oder mehrerer zum Training verwendeter Mu­ ster umfassen.Here, the parts Txj of the training data x do not denote only individual patterns that are used to train the large number of VZ Si estimators are used, but they can also be used individual parts of one or more mu used for training include.

Die Teile txj der Trainingsdaten x können sich in den Trai­ ningsdaten x überschneiden, können aber auch disjunkt sein.The parts txj of the training data x can be in the trai ning data x overlap, but can also be disjoint.

Es ist auch vorgesehen, daß jeweils ein Teil txj der Trai­ ningsdaten x für genau einen "kleineren" rechnergestützten statistischen Schätzer Si verwendet wird.It is also envisaged that a part txj of the trai ningsdaten x for exactly one "smaller" computer-based statistical estimator Si is used.

Es ist aber ebenso vorgesehen, daß in einer weiteren Ausfüh­ rungsform ein Teil txj der Trainingsdaten x für mehrere "kleinere" rechnergestützte statistische Schätzer Si verwen­ det werden oder mehrere Teile txj der Trainingsdaten x für einen "kleineren" rechnergestützten statistischen Schätzer Si verwendet werden.But it is also provided that in a further embodiment a part txj of the training data x for several Use "smaller" computer-aided statistical estimators Si det or several parts txj of the training data x for a "smaller" computer-based statistical estimator Si be used.

Durch Gewichtsfunktionen hi(xg) werden Ausgangssignale ASi der Vielzahl VZ von Schätzern Si in einer Generalisierungs­ phase GP 3 gewichtet, wenn zu erkennende bzw. zu klassifizie­ rende oder zu schätzende Daten ED, an die Vielzahl VZ von Schätzern Si gelegt werden (vgl. Fig. 3). By weight functions hi (xg) output signals AS of the plurality VZ of estimators Si phase in a generalization GP 3 weighted, when set to be recognized or to CLASSIFICA yield or to be estimated data ED, to the plurality VZ of estimators Si (see Fig. . 3).

Hierbei bezeichnet ein Datenpunkt xg ein Datum, das in der Generalisierungsphase GP an die Vielzahl VZ von Schätzern Si angelegt wird.Here, a data point xg denotes a date that is in the Generalization phase GP to the large number of VZ of estimators Si is created.

Das Verfahren ist auch ohne Einschränkungen anwendbar auf an die Vielzahl VZ der Schätzer Si angelegten Daten ED, die durch eine Regression durch die Vielzahl VZ der Schätzer Si und den Gesamtschätzer GS an die Daten ED approximiert werden sollen.The method can also be used without restrictions on the multiplicity VZ of the estimators Si applied data ED, the by a regression due to the large number VZ of the estimators Si and the total estimator GS is approximated to the data ED should.

Die Generalisierungsphase GP ist eine der Trainingsphase 1 zeitlich folgenden Phase, in der die Daten ED an die Vielzahl VZ der einzelnen Schätzer Si angelegt werden. Hierbei müssen die Gewichtsfunktionen hi(xg) schon gebildet worden sein. Die Bildung der Gewichtsfunktionen hi(xg) wird in unterschiedli­ chen Ausführungsformen im weiteren beschrieben.The generalization phase GP is one of the training phase 1 temporally following phase, in which the data ED to the multitude VZ of the individual estimators Si are created. Here you have to the weight functions hi (xg) have already been formed. The Formation of the weight functions hi (xg) is differentiated into Chen embodiments described below.

Dies bedeutet, daß gewichtete Ausgangssignale GASi der Viel­ zahl VZ von Schätzern Si sich ergeben ausThis means that weighted output signals GASi of the lot number VZ of estimators Si result from

GASi = hi(xg) * ASi.GASi = hi (xg) * ASi.

Hierbei bezeichnet der Index i wiederum jeweils das Ausgangs­ signale ASi, die Gewichtsfunktionen hi(xg) und die gewichte­ ten Ausgangssignale GASi eindeutig, die jeweils alle dem i- ten Schätzer Si zugeordnet werden.Here, the index i in turn designates the output signals ASi, the weight functions hi (xg) and the weights output signals GASi clearly, each of which corresponds to the i- th estimator Si are assigned.

Die gewichteten Ausgangssignale GASi werden in einem Gesamt­ schätzer GS akkumuliert und bilden ein Ergebnissignal ES(xg). Das Ergebnissignal ES(xg) kann auch ein Vektor beliebiger vorgegebener Dimension sein.The weighted output signals GASi are aggregated estimators GS accumulate and form a result signal ES (xg). The result signal ES (xg) can also be any vector given dimension.

Die Gewichtsfunktionen hi(xg) werden in der Trainingsphase 1 gebildet, abhängig von den Trainingsdaten x oder den Teilen txj der Trainingsdaten x, wie im weiteren beschrieben wird. The weight functions hi (xg) are in training phase 1 formed, depending on the training data x or the parts txj of the training data x, as will be described below.  

Im weiteren sind einige Varianten A beschrieben zur Bildung 2 der Gewichtsfunktionen hi(xg) (vgl. Fig. 3 und 4).Some variants A are described below for forming 2 of the weight functions hi (xg) (cf. FIGS . 3 and 4).

Die Gewichtsfunktionen hi(xg) werden abhängig von den Trai­ ningsdaten x oder Teilen txj der Trainingsdaten x gebildet (vgl. Fig. 3).The weight functions hi (xg) are formed depending on the training data x or parts txj of the training data x (cf. FIG. 3).

Eine vorteilhafte Bildung der Gewichtsfunktionen hi(xg) für jeden Schätzer Si geschieht durch Berücksichtigung der Vari­ anz Var(Si(xg)) B des jeweiligen Schätzers Si für ein in der Generalisierungsphase GP an die Vielzahl VZ der Schätzer Si angelegtes Datum xg.An advantageous formation of the weight functions hi (xg) for each estimator Si takes into account the vari anz Var (Si (xg)) B of the respective estimator Si for an in the Generalization phase GP to the large number VZ of estimators Si Date created xg.

Wie im vorigen beschrieben wurde, sind verschieden Möglich­ keiten zur Berechnung der Varianz Var(Si(xg)) eines Schätzers Si bekannt (B. Efron et al., An Introduction to the Bootstrap, Chapman & Hall Verlag, New York, USA, ISBN 0-412-04231-2, S. 39-45, 1993; und R. Tibshirani, A Comparison of Some Error Estimates for Neural Network Models, Department of Preventive Medicine and Biostatistics, University of Toronto, 1994).As described in the previous, different are possible to calculate the variance Var (Si (xg)) of an estimator Si known (B. Efron et al., An Introduction to the Bootstrap, Chapman & Hall Verlag, New York, USA, ISBN 0-412-04231-2, p. 39-45, 1993; and R. Tibshirani, A Comparison of Some Error Estimates for Neural Network Models, Department of Preventive Medicine and Biostatistics, University of Toronto, 1994).

Die Varianz Var(Si(xg)) eines Schätzers Si wird für die je­ weilige Gewichtsfunktion hi(xg) berücksichtigt, indem die Ge­ wichtsfunktion hi(xg) gebildet wird aus dem Kehrwert der Va­ rianz Var(Si(xg)) eines Schätzers Si, also ergibt sich jede Gewichtsfunktion hi(xg) aus:The variance Var (Si (xg)) of an estimator Si is for each due to the weight function hi (xg) by taking the Ge weighting function hi (xg) is formed from the reciprocal of the Va rianz Var (Si (xg)) of an estimator Si, so each results Weight function hi (xg) off:

Diese Art B der Bildung der Gewichtsfunktionen hi(xg) eignet sich besonders für den Fall, daß die einzelnen Schätzer Si der Vielzahl VZ von Schätzern Si in der Trainingsphase 1 mit unterschiedlichen Teilen txj der Trainingsdaten x trainiert werden, wobei die unterschiedlichen Teile txj der Trainings­ daten x aber ein und dasselbe Eingangs-Ausgangs-Verhalten ei­ ner Abbildung beschreiben. This type B of forming the weight functions hi (xg) is suitable especially in the event that the individual estimators Si the large number of VZ of estimators Si in training phase 1 different parts txj of the training data x trained be the different parts txj of the training data x but one and the same input-output behavior Describe a picture.  

Anschaulich bedeutet diese Art der Bildung der Gewichtsfunk­ tionen hi(xg), daß die Ausgangssignale ASi eines unsicheren Schätzers, also eines Schätzers Si der Vielzahl VZ von Schät­ zern Si, der an dem jeweiligen Datenpunkt xg eine große Va­ rianz Var(Si(xg)) aufweist, geringer gewichtet werden, als die Ausgangssignale ASi eines sichereren Schätzers Si, also eines Schätzers Si, der an dem jeweiligen Datenpunkt xg eine geringere Varianz Var(Si(xg)) aufweist.This type of formation means weight radio tion hi (xg) that the output signals ASi of an unsafe Estimator, that is, an estimator Si of the plurality VZ from Schät zer Si, which has a large Va at the respective data point xg rianz Var (Si (xg)) has less weight than the output signals ASi of a safer estimator Si, that is of an estimator Si, which is a at the respective data point xg has lower variance Var (Si (xg)).

Die Tatsache, daß die im vorigen beschriebene Art der Bildung der Gewichtsfunktionen hi(xg) für den Fall des Trainings mit unterschiedlichen Teilen txj der Trainingsdaten x für jeden Schätzer Si der Vielzahl VZ von Schätzern Si vorteilhaft ein­ setzbar ist, bedeutet aber in keinem Fall, daß diese Art der Bildung der Gewichtsfunktionen hi(xg) nicht auch für alle an­ deren Fälle, also z. B. für das Training der Vielzahl VZ von Schätzern Si mit den gleichen Trainingsdaten x einsetzbar ist.The fact that the type of education described above of the weight functions hi (xg) for the case of training with different parts txj of the training data x for each Estimators Si of the plurality VZ of estimators Si advantageously is settable, but in no case means that this type of Formation of the weight functions hi (xg) not also for everyone whose cases, e.g. B. for training the large number of VZ Estimators Si can be used with the same training data x is.

Eine weitere Möglichkeit, die Gewichtsfunktionen hi(xg) zu bilden, liegt darin, die Wahrscheinlichkeit P(i|xg), also die Wahrscheinlichkeit, daß der Datenpunkt xg zu einem bestimmten Schätzer Si gehört, in den Gewichtsfunktionen hi(xg) zu be­ rücksichtigen D (vgl. Fig. 4).Another possibility of forming the weight functions hi (xg) is to take into account the probability P (i | xg), that is the probability that the data point xg belongs to a certain estimator Si, in the weight functions hi (xg) D (see Fig. 4).

Also ergeben sich die Gewichtsfunktionen hi(xg) aus D:So the weight functions hi (xg) result from D:

Die Wahrscheinlichkeit P(i|xg) kann auf verschiedenen Wegen geschätzt werden, die jedem Fachmann bekannt sind.The probability P (i | xg) can be done in different ways estimated that are known to any person skilled in the art.

Eine vorteilhafte Möglichkeit zur Schätzung der Wahrschein­ lichkeit P(x|i) besteht in der Verwendung eines Gauß-Modells:An advantageous way to estimate the probability P (x | i) consists of using a Gaussian model:

Hierbei bezeichnet der Term D(xg; Paril) eine mehrdimensionale lokale Dichteverteilung einem Parametersatz Paril.Here, the term D (xg; Par il ) denotes a multidimensional local density distribution of a parameter set Par il .

Jeder Schätzer Si weist o unterschiedliche lokale Dichtever­ teilungen D(xg; Paril) auf, die jeweils durch einen Index 1 ein­ deutig identifiziert werden, die in.Each estimator Si has o different local density distributions D (xg; Par il ), each of which is clearly identified by an index 1, which in.

Ein weiterer Parametersatz Pil beschreibt die "Stärke" der einzelnen lokalen Dichteverteilung D(xg; Paril) an dem Daten­ punkt xg für den Schätzer Si.Another parameter set P il describes the "strength" of the individual local density distribution D (xg; Par il ) at the data point xg for the estimator Si.

In einem speziellen Fall kann der Term auch mit einer mehrdi­ mensionalen Gauß-Normalverteilung realisiert werden. In die­ sem Fall ergibt sich für:In a special case, the term can also be used with a multiple di dimensional Gaussian normal distribution can be realized. In the This case results for:

D(xg; Paril) = G(xg; cil; Σil).D (xg; Par il ) = G (xg; c il ; Σ il ).

Hierbei bezeichnet G(xg; cil; Σil) eine Gaußsche Normalverteilung mit einem Zentrumsvektor cil und einer Kovarianzmatrix Σil an dem Datenpunkt xg.Here G (xg; c il ; Σ il ) denotes a Gaussian normal distribution with a center vector c il and a covariance matrix Σ il at the data point xg.

Der weitere Parametersatz Pil sowie der Parametersatz Paril können beispielsweise durch den bekannten EM-Algorithmus be­ stimmt werden (A. Dempster et al., Maximum Likelihood from in­ complete data via the EM algorithm, Journal of the Royal Sta­ tistical Society B, 1989).The further parameter set P il and the parameter set Par il can be determined, for example, by the known EM algorithm (A. Dempster et al., Maximum Likelihood from in complete data via the EM algorithm, Journal of the Royal Statistical Society B, 1989 ).

Weitere Möglichkeiten zur Bestimmung des weiteren Parameter­ satzes Pil sowie des Parametersatzes Paril sind jedem Fachmann geläufig und können ohne Einschränkungen eingesetzt werden. Any person skilled in the art is familiar with other options for determining the further parameter set P il and the parameter set Par il and can be used without restrictions.

Diese im vorigen beschriebene Art der Bildung der Gewichts­ funktionen hi(xg) ist besonders geeignet, jedoch keineswegs beschränkt auf den Fall, daß die einzelnen Schätzer Si der Vielzahl VZ von Schätzern Si in der Trainingsphase 1 mit un­ terschiedlichen Teilen txj der Trainingsdaten x trainiert wurden, wobei die unterschiedlichen Teile txj der Trainings­ daten x unterschiedliches Eingangs-Ausgangs-Verhalten eines Schätzers Si.This type of weight formation described above functions hi (xg) is particularly suitable, but by no means limited to the case that the individual estimators Si the Many VZ of estimators Si in training phase 1 with un different parts txj of the training data x trained were, with the different parts txj of the training data x different input-output behavior of a Estimator Si.

Das Ergebnissignal ES(xg) ergibt sich in den im vorigen be­ schriebenen Fällen, für jeden Fachmann bekannt, in der fol­ genden Weise:The result signal ES (xg) results in the be in the previous cases, known to every specialist, in the fol way:

Für die bisher beschriebenen Arten, die Gewichtsfunktionen hi(xg) zu bilden, wird angenommen, daß die Schätzer Si von­ einander unabhängig sind.For the types described so far, the weight functions hi (xg), it is assumed that the estimators Si of are independent of each other.

Für den Fall, daß die einzelnen Schätzer Si der Vielzahl VZ von Schätzern Si nicht voneinander unabhängig sind, ist eine weitere Möglichkeit geeignet, das Ergebnissignal ES(xg) zu bilden C (vgl. Fig. 4).In the event that the individual estimators Si of the plurality VZ of estimators Si are not independent of one another, a further possibility is suitable for forming the result signal ES (xg) C (cf. FIG. 4).

Dies schließt die Anwendung der im folgenden beschriebenen Vorgehensweise zur Bestimmung des Ergebnissignals ES(xg) auf unabhängige Schätzer Si keineswegs aus.This excludes the use of those described below Procedure for determining the result signal ES (xg) independent estimators Si by no means.

Zur anschaulicheren Erläuterung dieser Verfahrensvariante werden einige Annahmen getroffen, die allerdings nicht die Allgemeingültigkeit der im folgenden beschriebenen Variante einschränken, wie ebenso im folgenden dargestellt beschrieben wird. For a clearer explanation of this process variant some assumptions are made, but not the General validity of the variant described below restrict, as also described below becomes.  

Es werden zur Veranschaulichung zwei Schätzer S1 und S2 ange­ nommen, deren Abhängigkeit durch folgende Beziehung gegeben ist:Two estimators S1 and S2 are provided for illustration taken, their dependence given by the following relationship is:

Im folgenden bezeichnen Funktionen Si(xg) die Abbildungen der Schätzer Si an dem Datenpunkt xg, also die "Vorhersagen" der Schätzer Si, die gebildet werden aus der eigentlichen Abbil­ dung fi(xg) und einem unabhängigen Gaußschen Rauschen εi, dem die jeweiligen Abbildungen fi(xg) unterliegen, mit der Vari­ anz Var(Si(xg)) eines einzelnen Schätzers Si der Vielzahl VZ von Schätzern Si:In the following, functions Si (xg) denote the images of the estimators Si at the data point xg, that is to say the "predictions" of the estimators Si, which are formed from the actual image fi (xg) and an independent Gaussian noise ε i , which the respective Figures f i (xg) with the variance Var (Si (xg)) of a single estimator Si are subject to the plurality VZ of estimators Si:

Si(xg) = fi(xg) + εi.S i (xg) = f i (xg) + ε i .

Die Funktionen f1(x) und f2(x) werden geschätzt, also angenä­ hert durch:The functions f1 (x) and f2 (x) are estimated, i.e. approximate through:

Eine Kopplungsvarianz Varc gibt die Stärke der Kopplung zwi­ schen den beiden Schätzern Si, also die Abhängigkeiten der Schätzer S1 und S2 an.A coupling variance Var c indicates the strength of the coupling between the two estimators Si, that is to say the dependencies of the estimators S1 and S2.

Je größer die Kopplungsvarianz Varc ist, desto weniger sind die Schätzer S1 und S2 "gekoppelt".The greater the coupling variance Var c , the less the estimators S1 and S2 are "coupled".

Geht also der Wert der Kopplungsvarianz Varc → ∞, so sind die beiden Schätzer S1 und S2 "entkoppelt", also voneinander unabhängig. If the value of the coupling variance Var c → ∞ goes, then the two estimators S1 and S2 are "decoupled", that is to say independent of one another.

Wenn die Kopplungsvarianz Varc den Wert Varc = 0 aufweist, so ist das Eingangs-Ausgangs-Verhalten der Schätzer S1 und S2 identisch.If the coupling variance Var c has the value Var c = 0, the input-output behavior of the estimators S1 and S2 is identical.

Das Ergebnissignal ES(xg) ergibt sich dann in der folgenden Weise:The result signal ES (xg) then results in the following Wise:

ES(xg) = P(1|xg) · f₁(xg) + P(2|xg) · f₂(xg)ES (xg) = P (1 | xg) · f₁ (xg) + P (2 | xg) · f₂ (xg)

Der an zwei Schätzern S1 und S2 veranschaulichte Fall der Ab­ hängigkeit der Schätzer Si voneinander wird verallgemeinert in dem folgenden Ausdruck:The case of Ab illustrated by two estimators S1 and S2 dependency of the estimators Si on each other is generalized in the following expression:

Für den allgemeinen Fall wird folgende Abhängigkeit der Schätzer Si angenommen:For the general case, the following dependency becomes the Estimator Si assumed:

Für den Fall, daß nur ein Trainingsdatensatz für die Vielzahl VZ von Schätzern Si vorliegt, also die Trainingsdaten x, kann die Gesamtschätzung noch weiter verbessert werden, indem die Gewichtsfunktionen hi(xg) auf folgende Art E gebildet werden (vgl. Fig. 4):In the event that there is only one training data record for the plurality VZ of estimators Si, that is to say the training data x, the overall estimate can be further improved by forming the weight functions hi (xg) in the following manner E (cf. FIG. 4) :

Hierbei ist mit Res(Si(xg)) ein durch statistisches Rauschen verursachter Restfehler bezeichnet. Here, with Res (Si (xg)) is due to statistical noise residual error caused.  

Der Restfehler Res(Si(xg)) kann geschätzt werden, indem ein Trainingsfehler in der Trainingsphase 1, der durch statisti­ sches Rauschen verursacht wird, beispielsweise mit einem neu­ ronalen Netz approximiert wird.The residual error Res (Si (xg)) can be estimated by using a Training errors in training phase 1, which are caused by statisti noise is caused, for example with a new one ronal network is approximated.

In den bisherigen Fällen wurde angenommen, daß die einzelnen Schätzer Si untereinander nicht korreliert sind.In previous cases it was assumed that the individual Estimators Si are not correlated with one another.

Für den Fall, daß die einzelnen Schätzer Si in der Trainings­ phase 1 nicht mit völlig unterschiedlichen Trainingsdaten x trainiert wurden, d. h., daß sich die Teile txj der Trai­ ningsdaten x, mit denen die einzelnen Schätzer Si der Viel­ zahl VZ von Schätzern Si zumindest zum Teil überschneiden, können die einzelnen Schätzer Si der Vielzahl VZ von Schät­ zern Si korreliert sein.In the event that the individual estimators Si in the training phase 1 not with completely different training data x have been trained, d. that is, the parts txj of the trai ningsdaten x, with which the individual estimators Si the lot number VZ of estimators Si at least partially overlap, the individual estimators Si of the variety VZ from Schät zer Si be correlated.

Eine Kovarianzmatrix Ω(xg) der Dimension nxn beschreibt exi­ stierende Kovarianzen zwischen den einzelnen Schätzern Si der Vielzahl VZ von Schätzern Si für den Datenpunkt xg.A covariance matrix Ω (xg) of dimension nxn describes exi constant covariances between the individual estimators Si der Many VZ of estimators Si for the data point xg.

Ein n-dimensionaler Vektor aller Gewichtsfunktionen hi(xg) ergibt sich in diesem Fall aus:In this case, an n-dimensional vector of all weight functions hi (xg) results from:

hi(xg) = Ω-1(xg) · u hi (xg) = Ω -1 (xg) u

Hierbei bezeichnet ein Vektor u einen n-dimensionalen Ein­ heitsvektor.Here, a vector u denotes an n-dimensional unit vector.

Für den Fall, daß die einzelnen Schätzer Si der Vielzahl VZ von Schätzern Si Verzerrungen, dem sogenannten Bias, unter­ liegen, ergibt sich der n-dimensionale Vektor aller Gewichts­ funktionen hi(xg) aus:In the event that the individual estimators Si are subject to the plurality VZ of estimators Si distortions, the so-called bias, the n-dimensional vector of all weight functions hi (xg) results from:

hi(xg) = (Ω(xg) + B(xg))-1 · u hi (xg) = (Ω (x g) + B (xg)) -1 · u

Hierbei bezeichnet eine Bias-Matrix B(xg) der Dimension nxn eine Matrix, in der Verzerrungen biasi(xg) der einzelnen Schätzer Si der Vielzahl VZ von Schätzern Si eingetragen sind.Here, a bias matrix B (xg) of dimension nxn denotes a matrix in which distortions bias i (xg) of the individual estimators Si of the plurality VZ of estimators Si are entered.

Nicht-Diagonalelemente Bst(x) der Bias-Matrix B(x) ergeben sich aus:Non-diagonal elements B st (x) of the bias matrix B (x) result from:

Bst(x) = biass(x) · biast(x)B st (x) = bias s (x) · bias t (x)

mit s ≠ t.with s ≠ t.

Claims (5)

1. Verfahren zur rechnergestützten Kombination einer Vielzahl (VZ) von Schätzern (Si; i = 1 . . . n), die auf statistischen Ver­ fahren beruhen, zu einem Ergebnissignal (ES(xg)) in einem Ge­ samtschätzer (GS),
  • - bei dem in einer Trainingsphase (1) die Schätzer (Si) der Vielzahl (VZ) von Schätzern (Si) mit Trainingsdaten (x) oder Teilen (txj; j = 1 . . . m) trainiert werden,
  • - bei dem für jeden Schätzer (Si) eine Gewichtsfunktion (hi(xg); i = 1 . . . n) gebildet wird, die das Gewicht festlegt, mit dem jeder Schätzer (Si) jeweils bei der Kombination in dem Gesamtschätzer (GS) zu dem Ergebnissignal (ES(xg)) berück­ sichtigt wird, und
  • - bei dem jede Gewichtsfunktion (hi(xg)) von den Trainingsda­ ten (x) oder den Teilen (txj) der Trainingsdaten (x) der ein­ zelnen Schätzer (Si) der Vielzahl (VZ) von Schätzern (Si) ab­ hängt.
1. Method for the computer-aided combination of a plurality (VZ) of estimators (Si; i = 1... N), which are based on statistical methods, to form a result signal (ES (xg)) in a total estimator (GS),
  • - in which the estimators (Si) of the plurality (VZ) of estimators (Si) are trained with training data (x) or parts (txj; j = 1... m) in a training phase (1),
  • - in which a weight function (hi (xg); i = 1... n) is formed for each estimator (Si), which specifies the weight with which each estimator (Si) in each case when combined in the total estimator (GS) the result signal (ES (xg)) is taken into account, and
  • - in which each weight function (hi (xg)) depends on the training data (x) or the parts (txj) of the training data (x) which depends on an individual estimator (Si) of the plurality (VZ) of estimators (Si).
2. Verfahren nach Anspruch 1, bei dem die Gewichtsfunktion (hi(xg)) verwendet wird, die sich ergibt aus wobei der Term Var(Si(xg)) die Varianz des Schätzers (Si) für einen Datenpunkt (xg) bezeichnet.2. The method of claim 1, wherein the weight function (hi (xg)) is used, which results from where the term Var (Si (xg)) denotes the variance of the estimator (Si) for a data point (xg). 3. Verfahren nach Anspruch 1, bei dem die Gewichtsfunktion (hi(xg)) verwendet wird, die sich ergibt aus hi(xg) = P(i|xg), wobei der Term P(i|xg) die Wahrscheinlichkeit angibt, daß ein Datenpunkt (xg) einem Schätzer (Si) zugeordnet wird.3. The method of claim 1, wherein the weight function (hi (xg)) is used, which results from hi (xg) = P (i | xg), where the term P (i | xg) indicates the probability that a Data point (xg) is assigned to an estimator (Si). 4. Verfahren nach Anspruch 1, bei dem bei voneinander abhän­ gigen Schätzern (Si) der Vielzahl (VZ) von Schätzern (Si) 4. The method according to claim 1, in which the mutually dependent estimators (Si) of the plurality (VZ) of estimators (Si) 5. Verfahren nach Anspruch 1, bei dem die Gewichtsfunktion (hi(xg)) verwendet wird, die sich ergibt aus wobei der Term Var(Si(xg)) die Va­ rianz des Schätzers (Si) für den Datenpunkt (xg) bezeichnet und wobei der Term Res(Si(xg)) einen durch statistisches Rau­ schen des Schätzers (Si) verursachten Restfehler des Schät­ zers (Si) bezeichnet.5. The method of claim 1, wherein the weight function (hi (xg)) is used, which results from where the term Var (Si (xg)) denotes the variance of the estimator (Si) for the data point (xg) and wherein the term Res (Si (xg)) denotes a residual error of the estimate caused by statistical noise of the estimator (Si) zers (Si) called.
DE19526954A 1995-07-24 1995-07-24 Statistical estimator computation unit Expired - Fee Related DE19526954C1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19526954A DE19526954C1 (en) 1995-07-24 1995-07-24 Statistical estimator computation unit
JP8194660A JPH0991144A (en) 1995-07-24 1996-07-24 Method for computer-aided combination of plurality of estimators with result signal in one total estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19526954A DE19526954C1 (en) 1995-07-24 1995-07-24 Statistical estimator computation unit

Publications (1)

Publication Number Publication Date
DE19526954C1 true DE19526954C1 (en) 1996-04-18

Family

ID=7767623

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19526954A Expired - Fee Related DE19526954C1 (en) 1995-07-24 1995-07-24 Statistical estimator computation unit

Country Status (2)

Country Link
JP (1) JPH0991144A (en)
DE (1) DE19526954C1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998034177A2 (en) * 1997-01-31 1998-08-06 Siemens Aktiengesellschaft Method for combining output signals of several estimators, in particular of at least one neural network, into a results signal determined by a global estimator
DE19721067C1 (en) * 1997-05-20 1998-09-17 Siemens Nixdorf Advanced Techn Stochastic estimator

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6993792B2 (en) * 2017-05-09 2022-02-03 株式会社日立製作所 Web access control device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAYKIN, Simon: Adaptive Filter Theory, 2nd ed., Englewood Cliffs, New Jersey, Prentice-Hall, Inc. 1991, S.31-36 ISBN 0-13-013236-5 *
ROJAS, Raul: Theorie der neuronalen Netze, Berlin, Springer-Verlag, 1993, S.29-34 und 73-75 ISBN 3-540-56353-9 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998034177A2 (en) * 1997-01-31 1998-08-06 Siemens Aktiengesellschaft Method for combining output signals of several estimators, in particular of at least one neural network, into a results signal determined by a global estimator
WO1998034177A3 (en) * 1997-01-31 1998-11-19 Siemens Ag Method for combining output signals of several estimators, in particular of at least one neural network, into a results signal determined by a global estimator
DE19721067C1 (en) * 1997-05-20 1998-09-17 Siemens Nixdorf Advanced Techn Stochastic estimator

Also Published As

Publication number Publication date
JPH0991144A (en) 1997-04-04

Similar Documents

Publication Publication Date Title
Wallace Pretest estimation in regression: A survey
Mulligan et al. Measuring aggregate human capital
DE4241688C2 (en) Method for generating a word part model for speech recognition
EP1145192B1 (en) Assembly of interconnected computing elements, method for computer-assisted determination of a dynamic which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
EP3736817A1 (en) Checking and / or improvement in the consistency of data codes in medical image processing
Antonie et al. A panel data analysis of the connection between employee remuneration, productivity and minimum wage in Romania
DE10306598A1 (en) Method and device for measuring the availability of complex electronic systems, including computer systems
DE102022100920A1 (en) COMPUTE-IN-MEMORY ACCUMULATOR
DE69224718T2 (en) Classification procedure for computer architectures
DE19635758C1 (en) Artificial training data vector generation for computer-based neural network e.g. for financial markets
DE19526954C1 (en) Statistical estimator computation unit
WO2000008599A2 (en) Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
EP3812949A1 (en) Configurable digital twin
DE112020007291T5 (en) OPTIMAL SOLUTION CALCULATION DEVICE FOR AN OPTIMIZATION PROBLEM AND OPTIMAL SOLUTION CALCULATION METHOD FOR AN OPTIMIZATION PROBLEM
EP1252566A2 (en) Configuration of interconnected arithmetic elements, and method for the computer-aided determination of a second state of a system in a first state space from a first state of the system in the first state space
DE69619154T2 (en) Method and device for pattern recognition
EP0978052B1 (en) Computer-aided selection of training data for neural networks
DE69230636T2 (en) Device for performing signal processing using a least square method
EP1114398B1 (en) Method for training a neural network, method for classifying a sequence of input parameters using a neural network, neural network and array for training a neural network
DE69229223T2 (en) NEURONAL NETWORK AND LEARNING METHOD
EP1425679A2 (en) Arrangement with artificial neurons for describing the transmission behavior of a nerve cell to be excited and method for determining the transmission behavior of a nerve cell to be excited using artificial neurons
DE19721067C1 (en) Stochastic estimator
EP0591259B1 (en) Method of processing uncertainties in input data in neuronal networks
WO2023139146A1 (en) Method for determining similarity relations between tables
DE102004059684B3 (en) Computer process and assembly to predict a future condition of a dynamic system e.g. telecommunications neural-network within defined limits

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee