EP1977319A2 - Verfahren zum auffinden eines fehlers beim betrieb einer eine datensatzmenge aufweisenden anlage - Google Patents

Verfahren zum auffinden eines fehlers beim betrieb einer eine datensatzmenge aufweisenden anlage

Info

Publication number
EP1977319A2
EP1977319A2 EP07703593A EP07703593A EP1977319A2 EP 1977319 A2 EP1977319 A2 EP 1977319A2 EP 07703593 A EP07703593 A EP 07703593A EP 07703593 A EP07703593 A EP 07703593A EP 1977319 A2 EP1977319 A2 EP 1977319A2
Authority
EP
European Patent Office
Prior art keywords
data
target
cell
determined
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP07703593A
Other languages
English (en)
French (fr)
Inventor
Einar Broese
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1977319A2 publication Critical patent/EP1977319A2/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment

Definitions

  • the invention relates to a method for finding an error in the operation of a record having a set amount ⁇ position.
  • Each record comprises a certain number of individual data.
  • Each item ⁇ date can here in turn accept different values.
  • a data record may include the output or measured values of all sensors in the motor vehicle which are related to a specific vehicle
  • a record may be e.g. include all known personal data or insurance data of a particular insured person.
  • Validity ranges eg an interval between the minimum and maximum value or a set of permitted values, are defined for each individual date in a data record. All values that fall outside the permitted rich Gültmaschinesbe ⁇ are marked as invalid. For example, it is known in a rolling mill that only raw material with thicknesses of 2cm to 20cm is rolled. A data set containing a material thickness of 0.2cm or 200cm is thus rather defective.
  • the object of the present invention is to specify an improved method for finding a faulty data record in a data set.
  • a record contains all the data for a complete description of a fact or operation.
  • assumed that all process parameters of the running process in the automated system are also recorded and are summarized in a data set. Otherwise, even a success of the process would not be predictable or deliver highly scattering results. All data of a data record are thus in some kind together ⁇ men conference or relationships. These conditions or relationships are also reproducible, ie that data of an approximately same data set fluctuate only by a residual error. These relationships are given, for example, when neural networks can map them.
  • the relations or contexts mentioned here need not be explicitly known, nor can they be described, nor purposefully imitated, they simply have to exist.
  • the invention is also based on the idea of dividing the data of a data set into so-called input data and target data.
  • the above-mentioned relationships then apply such that the same or similar input data results in similar target data, only slightly scattering around a residual error typical of the respective combination of input data and target data.
  • a neural network would then be able, for example, from the input data as inputs the target data ⁇ be adhered to the corresponding residual error to reproduce at its output. Records for which the target data deviates more than the residual error from this rule, are classified as erroneous or potentially erroneous data.
  • the basic idea of the invention is based on recognizing erroneous records in that feh ⁇ lerhafte target data for given or similar input data other than target data completely adopted or are to be derived from the input and target data contexts in conflict.
  • the method according to the invention are a number of M data records basis, each input data A ⁇ a number of N and at least one cover with these correlated Zielda ⁇ growth.
  • the distinction between input data and target date can be made, for example, by the type of data itself. For example, typically, since all process-relevant data is acquired in an automation system, to equivalent products and constant product quality antee the process output to ga ⁇ , there may for example be selected the process-related data as input data and a measured value at the producing well or process product as the target date. Alternatively, however, the classification can also take place arbitrarily, ie, a date to be checked of the data set as the target date and the remaining as input data are selected.
  • the N input data along with the target date of the records may also be just a subset of larger total records. In other words, are then initially not hidden from any overall record to be considered data and method of the invention is then the total records out ⁇ leads only on the anti ⁇ speaking subset of the data. This leads to computing time advantages. All that remains to be ensured is that the target data is defined as precisely as possible by the input data.
  • Each input date can now assume different values, but they are limited in their respective value range.
  • a 24V-powered sensor can only apply voltages from OV deliver up to 24V. Since each input data is thus on a number beam within the limited range of values, an N-dimensional hyper-cube or input data space is spanned by combining all N input data into one data set, in the manner of a vector. The input data space is thus finite or limited. All conceivable value combinations of input data are therefore within the hypervolume of the input data space.
  • Each point in the N-dimensional input data space whose coordinates are given by the input data of a data set, then the value of the target date of the corresponding data set is zugeord ⁇ net.
  • At least one of the value ranges of an input datum is subdivided into a number K n of intervals. In the N-dimensional input space, this results in a total of a number TT ⁇ n of N-dimensional cells or hyperqua-
  • N dern ie subspaces of the input data space. These are limited by the interval limits of the intervals, ie they each have the intervals as edge lengths.
  • At least one of the resulting cells is selected as the cell to be tested.
  • a test criterion is then calculated for the target data of the data records of the selected cell from the values of the target data of the data sets, since ⁇ . What sHence ⁇ ze here form the basis for determining the test criterion may be different.
  • the test criterion can be determined from the values of one or more or all data records in one or more or all cells.
  • the test criterion is used to check the values of the target data in the cell to be tested.
  • all target data of all data sets are checked, which lie with the values of their input data in the cell to be tested or in the respective interval of the value range of the input data.
  • the data sets whose N-dimensional coordinates are in the form of the input data in the corresponding N-dimensional hyper-cube of the cell to be tested are checked.
  • Each record of the selected cell, the target date misses the value of the test criterion is, flags as erroneous ge ⁇ .
  • test criterion is determined from the values of the target data and thus based on the processes or properties underlying the data, this is much narrower than the previously known minimum-maximum control or limit value control. This would correspond to only one Sprint prü ⁇ fung, whether because the input data is within the input data space.
  • test criteria are usually different for each cell, so that apply different test criteria for their target data for different data sets, so Da ⁇ ten accounts with different input data.
  • plausibility checks can be integrated, which were previously not possible.
  • the data records marked as faulty can be displayed to a plant operator so that they can examine the corresponding data records more precisely.
  • the method provides some sort of prefiltering to mark suspect records.
  • the number of records actually manually or particularly to be checked by the plant operator is thereby reduced considerably. If the suspicious records prove to be faulty then so
  • this knowledge can be used to improve, for example, the automation system underlying the data records.
  • these records can be excluded from further use.
  • the faulty data records can provide information on other sources of error, eg sources of error that led to an incorrect target date only after several process steps.
  • an alarm triggering or the like can be linked to the finding of faulty data records if the data records originate from a production system, for example.
  • An alarm system is, however, only makes sense if the target has been optimized ⁇ criteria for a long time, so that possible only in fact erroneous records as faulty and the false alarm ratio does not exceed an acceptable level.
  • the inventive method will become apparent respects ⁇ Lich of plant operation more efficient troubleshooting, a faster start-up, a higher product quality and fewer accidents.
  • test criteria also adapt to newly generated data records in the course of the process or time, i. Value combinations of the input and destination data, since they are created from these.
  • the intervals for an input date can be formed by equidistant division of its value range.
  • the equidistance uncle division of the value range is particularly simple and oh ⁇ ne knowledge and empirical evidence on the relationship of the input data can be performed with one another or to the target data.
  • a fixed number of intervals can be specified, which is used for all input variables.
  • the intervals for an input date can also be calculated using prior knowledge of the input and / or destination data be formed. Preliminary knowledge is eg theoretical considerations or empirical experiences that certain subdivisions are better than others. On the one hand, you can subdivide important input quantities finer than unimportant ones. On the other hand, you can choose a non-equidistant division so that the increase of the target size len within a cell for all Zel ⁇ is approximately equal.
  • test criterion As a test criterion, a separate local tolerance range is determined for each cell for the value of the target date, which is significantly narrower than the globally permissible value range. Thus, mathematical conditions are created to test data sets or target data against the test criteria. Such a test criterion can therefore be evaluated easily and quickly, which greatly speeds up the entire process.
  • the local tolerance range consists of a setpoint and ei ⁇ ner allowable deviation.
  • Setpoint and permissible deviation in the test criterion can be determined by statistical methods from the values of the target data. What data base which records ie from which cells, in this case the sta ⁇ tistical methods are used, as described above, possible in various ways.
  • the residual dispersion of the target value for known input data - but still have a structure - so just a relatively low residual scattering with otherwise good reproducibility of the target value - to record in numbers.
  • target values in a cell are accumulated in a certain value range, it can be assumed that individual values lying outside this value range are faulty.
  • the target value in the target criterion can therefore be determined as the mean value of all target data of the data records of the selected cell.
  • the single erroneous value will then be the middle hardly change value. Incorrect values can then be detected due to a particularly large distance to the mean ⁇ to.
  • the search for erroneous data records is performed by a local value, that is, only for the respective cell.
  • the permissible deviation from the local reference is calculated ⁇ advantageous way legally from the averaged across all cells local standard deviation.
  • the weighting or a multiplicative weighting factor determines the actual width of the tolerance range and can be determined empirically, for example.
  • the use of the local standard deviation (the target size within a cell for the calculation of the permissible deviation) is in principle possible, but less favorable, since it is falsified by the erroneous data sets more than the standard deviation averaged over all cells.
  • the global spread of the target value can also be determined for all data records, ie without consideration of the cell boundaries. Subsequently, the tolerance range can be determined by weighting the global variance.
  • This variant of the method provides an alternative measure for the assessment of erroneous data records taking into account all data records. The mentioned alternative dimensions are more or less suitable for certain applications. Which variant is the best for which application can usually be determined by empirical values or preliminary testing.
  • the data from all or the data to be examined cell determined statistical measures can also predict the under investigation cell for Beurtei ⁇ development of the defectiveness of records of used to be examined cell.
  • an empirical model for mapping the input data to the target data so that the target criterion can then be determined for the selected cell with the empirical model.
  • an empirical model By using an empirical model, one can attempt to model the relationships between target data and input data. In other words, an attempt is characterized to create a prediction for the value of the target date in gege ⁇ given input data in the cell to be examined. Then, it is then checked whether the target values are worth in the cell outside a tolerance range around the prediction ⁇ to, if necessary, reindeer as faulty to markie ⁇ .
  • MLP multilayer perceptron
  • JIT just-in-time modeling
  • Teter is where it generates all records, with the weighting of the N-dimensional hyper distance of the respective input data, so the input data vector to the Middle ⁇ point of the examined cell yields. Data sets close to hyperspace are therefore most heavily weighted. Normalization can here eg len reference to the edge lengths of the newspaper, so the intervals in which the value ranges under ⁇ shares were to be performed.
  • the target criterion to divulg ⁇ sponding cell can be excluded, that is, the endpoint is then a subset of all the cells except for the cell to be examined, determined on the basis of all or. Faulty values in the cell to be examined or faulty data records are therefore not included in the determination of the target criterion with a.
  • the target criterion is not falsified by incorrect data records of the cell to be examined.
  • CLUSTER Located in one cell at least two groups (CLUSTER) of records that their target values regarding each of close together, between which but there is a gap which is greater than, for example, the local blocking, so be ⁇ is suspected that only one of these data groups is correct, the other or the other data groups are faulty.
  • Cells with multiple data groups are referred to below as heterogeneous cells. The more data there is in a bad data group, the less likely it is that the local averaging method will recognize that data. Then only the method of empirical modeling described above with the exclusion of all data from the considered heterogeneous cell will help.
  • One possible method for finding "heterogeneous" cells can be as follows: the target values of the selected cell are sorted according to their size, the differences of each two adjacent target values are determined and differences greater than a gap limit value , are defined as a gap, resulting in a steadily increasing number of target values in the cell to be examined, each of which adjoins each other without gaps or gaps between them.Sets with target values that adjoin one another without gaps are grouped into clusters of a cluster in a cell are then jointly designated as faulty or non-defective depending on the target criterion. With such a method variant , entire accumulations or groups, namely the clusters, of erroneous data sets can be determined.
  • the target values are then not checked against a test criterion determined in the cell to be examined, but against a test cell determined from the surrounding cells or the remaining cells or all cells. criterion tested. These then come, for example, from the empirical model described above.
  • the average value of the associated target values of the cluster can then be determined for each cluster and checked with the target criterion.
  • clustering and separate evaluation with the target criterion via corresponding average values can be used to subdivide cells into cells. This measure also serves to DA to distinguish stick in their entirety by not fault ⁇ bad clusters.
  • the test criterion in a cell to be tested can also be determined in such a way that all data records of a cell except the data record or cluster closest to the test criterion are marked as defective.
  • the test criterion represents a "best fit" criterion.
  • Eliminate here means after finding a errone ⁇ th data set to exclude this from the further investigation.
  • the target criteria in a subsequent step are then determined on a new database, namely excluding the erroneous data found so far.
  • the target criteria are always sert verbes ⁇ so during the proceedings, as more and more erroneous values from the data base be removed.
  • FIG 1 shows a rolling mill for steel belts with system control and neural network in a highly simplified representation
  • FIG 2 in the rolling mill of FIG 1 generated records with two
  • FIG. 3 shows a diagram of the target values of the data records from FIG. 2 plotted against the input data
  • FIG. 4 shows a flow chart for a method for finding faulty data records.
  • FIG. 1 shows a steel rolling mill 2 with a corresponding system control 4 in a highly simplified representation.
  • raw material 6 namely metal slabs
  • the system controller 4 comprises two sensors 10a, b, the sensor 10a detecting the width b of the raw material 6 and the sensor 10b detecting the rolling force F in the steel rolling mill 2.
  • the plant control ⁇ tion 4 also includes a keyboard 12, via which a worker, not shown, which feeds the steel mill 2, the raw material 6, the carbon content c of Rohmateri ⁇ as 6 as numerical value in percent enters.
  • a neural network 14 is integrated in the system control 4.
  • the neural network 14 forms the steel after the rolling process and is calculated with a knowledge of the width b and the carbon content c of the raw material 6, before the metal strip is Untitled 8 gefer ⁇ expected or resultant rolling force F.
  • the neural network 14 thus creates a recuperdik ⁇ tion of during the rolling process, so at a later time, the measured value F.
  • the width b of the raw material 6 can only Zvi ⁇ rule 1100mm and 1400mm vary, since only such a raw material is purchased or processed. 8
  • the concentration c of the carbon content in the raw material 6 is guaranteed by manufacturers whose Her ⁇ and is between 0.30% and 0.60%.
  • Other raw materials are definitely not processed in Rolling Mill 2.
  • the M data records 16 are now to be checked for erroneous data records 16, ie erroneous data records 16 are found and marked as faulty.
  • a computing unit not shown
  • records 16 whose values were c ⁇ 0.30% or c> 0.60% were marked as faulty.
  • Such an indication may, for example, be merely an input error on the keyboard 12, as it is definitely known that materials with such a carbon content c are not used.
  • Such records 16 are already sorted out in FIG.
  • the values of b, c and F of all the data sets in FIG 2 ⁇ thus lie within the allowable range ⁇ intervals for the individual data 18a-c.
  • a datum namely the individual datum 18c or the rolling force F
  • the individual data 18a, b, or width b and carbon content c, are selected as two input data or input values for the method.
  • N 2.
  • the value range of the individual data 18a, b is divided into three equal intervals In to I i3 and I 2 i to I 2 3.
  • the input space 20 is divided into nine cells Z 11 to Z 33 .
  • All M records 16 are thus each unique in one of the new cells Z 11 to Z 33 .
  • the cell Z 31 are all data sets 16 whose width b between 1300mm and 1400mm see and their carbon content c between ⁇ 0.30% and 0.40%.
  • Each of these data records has a target value, namely a rolling force F.
  • the distribution of the respective rolling forces F is shown separately in FIG. 4 as histogram I 11 to f 33 for each of the cells Z 11 to Z 33 .
  • Each histogram shows for the respective rolling force F as abscissa the frequency of the rolling forces F plotted on the ordinate.
  • the histogram f 32 of the cell Z 32 contributes the data records 16 in the cell Z 32 with the numbers 1 and M.
  • the corresponding rolling forces F of 180OkN and 120OkN are also marked on the F-axis of the histogram f 32 by crosses.
  • an average value F 11 to F 33 and a standard deviation ⁇ n to ⁇ 33 are calculated for each of the nine cells Z 11 to Z 33 .
  • Z 11 to Z 33 are then selected once for each cell as the cell to be tested.
  • the selected cell from ⁇ is checked whether these records contains 16 whose rolling force F by more 11 to F 33 of the cell is different than ⁇ ⁇ loc the appropriate mean F.
  • This test thus represents the test criterion according to the invention.
  • Data sets 16 for which this condition is fulfilled are marked as faulty and excluded from further consideration.
  • a data record 16 is included whose rolling force F is 30OkN. This is indicated in FIG. 3 as a wrong date 22.
  • the value three is selected in cell Z 3 i. From the mean F 13, the FEHLDA ⁇ tum is 22 to more than 3CR / oc removed. This data record is thus marked as invalid and excluded from further consideration.
  • the loop 42 describes the first way to identify bad records 16.
  • the loop 42 may be performed alone or in combination with the other method variants listed below. Steps 40-42 can be repeated several times, until no feh ⁇ lerhaften data or incorrect data 22 are found.
  • a sorting step 44 follows the loop 42.
  • the sorting step 44 for each test cell Z 11 to Z 33 each ⁇ wells the individual data 18c, so the rolling forces F of all the data sets ⁇ 16 of the corresponding cell according to their size, ranked in ascending or descending so. In FIG 3, this is by the appearance of a histogram f n indicates anyway overall to f 33, again shown explicitly in Fig. 4 Between every two adjacent rolling forces wells ⁇ F whose distances are determined 26th Distances 26 which are greater than a threshold value ⁇ ⁇ loc are identified as gap 28. in the
  • Example, the value of the parameter ß 2 was selected.
  • Ze data records 16 with rolling forces F, which together ⁇ hanging without a gap 28 are in clusters or groups 30a, b summarized.
  • the cell Zi 2 shows a value distribution of the WaIz forces F of the data sets 16 lying in the cell 12, which are divided by the gap 28 into the two groups 30 a, b.
  • the cell Z i2 is therefore declared as a "heterogeneous cell".
  • the step 40 corresponding to step 46 is, therefore, separates inside the cell Z i2, however, for each group 30a and b ge ⁇ whose respective mean value F 12a and F 12b of the roll ⁇ forces F is determined, which are also shown in FIG 3 , Since there are now several, in the example two, mean values in the cell Z 12 , none of these a priori can be assumed to be the correct mean value as above. Therefore, the correct expected target value, ie mean value, in the time Z12 must be estimated otherwise.
  • an empirical estimation Mo ⁇ is designed dell of 32 the data sets 16 underlying process.
  • the model 32 supplies the expected rolling force F as the starting variable.
  • the model 32 is in this case for example an MLP or JIT, as explained above.
  • the estimated value F s determined in the estimation step 48 is shown in FIG.
  • erroneous data records 16, in the example the group 30 b of data records 16, can also be identified and invalidated be marked and then excluded from further proceedings.
  • step 50 the average values are in turn F 11 to F 33 agrees 11 to Z 33 for all cells be ⁇ Z corresponding to step 40th Since, however, were as now ruled out some records to be faulty in this instance, he give up this ⁇ other numerical values for the mean values F 11 through F 33 in step 50. Then again, an estimation step
  • F 33s is determined. This again takes place optionally at the same or changed empirical model 32 as in step 48, in that the corresponding cell Zu to Z 33 is excluded for each of the estimated values F lls to F 33s .
  • test step 54 it is checked for each of the cells Z 11 to Z 33 whether their mean value F 11 to F 33 is more than
  • the test condition ie the test criterion, is then whether the deviation is smaller than ⁇ 2 ⁇ glob .
  • step 54 therefore, the step 42 is a test ⁇ criterion based on the weighted by a factor ⁇ using local or global ⁇ loc lob scattering accordingly. Correspondingly found records are again marked as invalid.
  • Z i3 is detected in process step 50 to 54 for the cell that the only group 34 Da ⁇ ten accountsn 16 with their calculated average by more than 13 F 0,2 ⁇ sM from the from the remaining eight cell Z 11 to Z 33 (without

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Complex Calculations (AREA)
  • General Factory Administration (AREA)
  • Debugging And Monitoring (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Auffinden eines Fehlers beim Betrieb einer eine Datensatzmenge ( M ) aufweisenden Anlage, wobei jeder Datensatz (16) eine Anzahl ( N ) Eingangsdaten (18a,b) und mindestens ein mit diesen korreliertes Zieldatum (18c) umfasst, und wobei jedes Eingangsdatum (18a,b) nur Werte innerhalb eines Wertebereiches ( Wn ) annimmt und dadurch die Eingangsdaten (18a,b) einen Eingangsdatenraum (20) aufspannen, weist folgende Schritte auf: - mindestens einer der Wertebereiche ( Wn ) wird in Intervalle (Ik ,n) unterteilt, wodurch sich im Eingangsdatenraum (20) N -dimensionale Zellen (Z) mit den Intervallen (Ik,n) als Kantenlängen bilden, - eine Zelle (Z) wird als zu prüfende Zelle (Z) ausgewählt, - aus den Werten (F) der Zieldaten (18c) der Datensätze (16) wird ein Prüfkriterium (42,44,48) für die Zieldaten (18c) der Datensätze (16) der ausgewählten Zelle (Z) ermittelt, - jeder Datensatz (16) der ausgewählten Zelle (Z), dessen Wert (F) des Zieldatums (18c) das Prüfkriterium (42,44,48) verfehlt, wird als fehlerhaft gekennzeichnet.

Description

Beschreibung
Verfahren zum Auffinden eines Fehlers beim Betrieb einer eine Datensatzmenge aufweisenden Anlage
Die Erfindung betrifft ein Verfahren zum Auffinden eines Fehlers beim Betrieb einer eine Datensatzmenge aufweisenden An¬ lage .
In vielen Bereichen der modernen Technik werden Daten in großem Umfang verarbeitet. In der Regel sind hierbei die Daten in Form von Datensätzen organisiert. Jeder Datensatz umfasst hierbei eine bestimmte Anzahl von Einzeldaten. Jedes Einzel¬ datum kann hierbei wiederum verschiedene Werte annehmen.
Datensätze sind in der Regel so strukturiert, dass deren Ein¬ zeldaten in irgendeiner Art und Weise zusammenhängen bzw. zueinander korreliert sind. Z.B. in einem Kraftfahrzeug kann ein Datensatz die Ausgangs- bzw. Messwerte sämtlicher Senso- ren im Kraftfahrzeug beinhalten, die zu einem bestimmten
Zeitpunkt oder innerhalb eines bestimmten Zeitintervalls er- fasst werden. In einer Datenverarbeitungsanlage z.B. einer Versicherung kann ein Datensatz z.B. sämtliche bekannte persönliche Daten bzw. Versicherungsdaten eines bestimmten Ver- sicherten umfassen.
In modernen Automatisierungssystemen werden heute in großem Umfang Messdaten bzw. Steuerdaten aufgenommen bzw. erzeugt und für die Steuerung der Anlage verwendet. Auch hier fallen also viele Daten bzw. Datensätze an. Ohne Beschränkung der Allgemeingültigkeit wird im weiteren Verlauf des Textes die Erfindung am Beispiel der Automatisierungstechnik erläutert.
Sowohl bei der Erfassung oder Erzeugung, als auch bei der Weiterleitung der Daten kann es zu Fehlern kommen. Z.B. kann ein Messdaten erzeugender Sensor ausfallen oder fehlerhafte Daten liefern. Datensätze oder Teile dieser können bei der automatischen Verarbeitung durch Programmfehler vertauscht werden. Bei der manuellen Eingabe von Kenngrößen oder Parametern können Fehleingaben oder Tippfehler auftreten. All dies kann zu verschiedenen Problemen, von Qualitätsmängeln bis hin zum Produktionsstillstand führen.
Obschon während der Konzeptionierung, Planung bzw. Inbetriebsetzung einer entsprechenden Anlage heute viel Aufwand auf die Kontrolle der bearbeiteten Daten verwendet wird, passiert es immer wieder, dass fehlerhafte Daten zu spät entdeckt wer- den. Ein Schaden ist dann oft bereits eingetreten bzw. es dauert sehr lange, bis die Quelle der fehlerhaften Daten lo¬ kalisiert ist.
Effektive Suchverfahren, um in einer Datensatzmenge fehler- hafte Datensätze zu identifizieren, fehlen heute. Händisch ist die stetig wachsende Menge der Datensätze nicht mehr kon¬ trollierbar oder überprüfbar. Daher sind heute automatisierbare Verfahren zur Suche fehlerhafter Datensätze notwendig.
Bisher ist eine automatische Kontrolle von Daten bzw. Daten¬ sätzen in der Regel lediglich als Grenzwertkontrolle ausge¬ führt. Für jedes einzelne Datum in einem Datensatz werden Gültigkeitsbereiche, z.B. ein Intervall zwischen Minimal- und Maximalwert oder eine Menge erlaubter Werte, festgelegt. Sämtliche Werte, die außerhalb des erlaubten Gültigkeitsbe¬ reiches liegen, werden als ungültig gekennzeichnet. Z.B. ist in einem Walzwerk bekannt, dass nur Rohmaterial mit Dicken von 2cm bis 20cm gewalzt wird. Ein Datensatz, welcher eine Materialdicke von 0,2cm oder 200cm beinhaltet, ist damit si- eher fehlerhaft.
Durch das bekannte Verfahren können also nur grobe Fehler herausgefiltert werden, da die Grenzen für erlaubte Werte von Daten soweit geöffnet werden müssen, dass alle theoretisch möglichen Werte als nicht fehlerhaft erkannt werden. Kleinere Fehler, wie sie z.B. durch das Vertauschen von Materialien entstehen, werden nicht gefunden. Legt für obiges Beispiel ein Arbeiter im Walzwerk z.B. Material der Dicke 20cm ein und erzeugt jedoch Eingangsdaten mit einem Dickenwert von 2cm kann dieser Fehler durch das obige Verfahren nicht entdeckt werden .
Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Verfahren zum Auffinden eines fehlerhaften Datensatzes in einer Datensatzmenge anzugeben.
Die Aufgabe der Erfindung wird wie folgt gelöst. Die Erfin- düng beruht auf folgender Überlegung. In der Regel enthält ein Datensatz alle Daten zur vollständigen Beschreibung eines Sachverhalts oder Vorgangs. Z.B. ist in der Automatisierungs¬ technik davon auszugehen, dass alle Prozessparameter des in der automatisierten Anlage ablaufenden Prozesses auch erfasst werden und in einem Datensatz zusammengefasst werden. Ansonsten würde ja auch ein Gelingen des Prozesses nicht vorhersehbar sein oder stark streuende Ergebnisse liefern. Alle Daten eines Datensatzes stehen somit in irgendwie gearteten Zusam¬ menhängen bzw. Beziehungen zueinander. Diese Bedingungen bzw. Zusammenhänge sind außerdem reproduzierbar, d.h. dass Daten eines in etwa gleichen Datensatzes lediglich um einen Restfehler schwanken. Diese Zusammenhänge sind z.B. dann gegeben, wenn neuronale Netze diese abbilden können. Die erwähnten Beziehungen bzw. Zusammenhänge müssen dabei weder explizit be- kannt, noch beschreibbar, noch gezielt nachbildbar sein, sie müssen lediglich existieren.
Die Erfindung beruht weiterhin auf der Idee, die Daten eines Datensatzes in sogenannte Eingangsdaten und Zieldaten aufzu- teilen. Die oben erwähnten Zusammenhänge gelten dann derart, dass sich bei gleichen oder ähnlichen Eingangsdaten ähnliche Zieldaten ergeben, lediglich leicht streuend um einen für die jeweilige Kombination aus Eingangsdaten und Zieldaten typischen Restfehler. Ein neuronales Netz wäre dann z.B. in der Lage, aus den Eingangsdaten als Eingänge die Zieldaten, be¬ haftet mit dem entsprechenden Restfehler, an seinem Ausgang zu reproduzieren. Datensätze, für die die Zieldaten stärker als durch den Restfehler bedingt von dieser Regel abweichen, werden als fehlerhafte bzw. potentiell fehlerhafte Daten klassifiziert.
Mit anderen Worten beruht also die Grundidee der Erfindung darauf, fehlerhafte Datensätze dadurch zu erkennen, dass feh¬ lerhafte Zieldaten bei gegebenen bzw. ähnlichen Eingangsdaten zu anderen als fehlerfrei angenommenen Zieldaten bzw. zu den aus den Eingangs- und Zieldaten ableitbaren Zusammenhängen im Widerspruch stehen.
Dem erfindungsgemäßen Verfahren liegen eine Anzahl von M Datensätzen zu Grunde, die jeweils eine Anzahl von N Ein¬ gangsdaten und mindestens ein mit diesen korreliertes Zielda¬ tum umfassen. Die Unterscheidung in Eingangsdaten und Zielda- tum kann z.B. durch die Art der Daten an sich erfolgen. Da bei einer Automatisierungsanlage beispielsweise in der Regel alle prozessrelevanten Daten erfasst werden, um gleiche Produkte bzw. konstante Produktqualität am Prozessausgang zu ga¬ rantieren, können dort z.B. die prozesstechnischen Messdaten als Eingangsdaten und ein Messwert am produzierten Gut bzw. Prozessprodukt als Zieldatum gewählt werden. Alternativ kann die Einteilung aber auch willkürlich erfolgen, d.h. ein zu kontrollierendes Datum des Datensatzes als Zieldatum und die restlichen als Eingangsdaten gewählt werden.
Die N Eingangsdaten zusammen mit dem Zieldatum der Datensätze können auch nur eine Untermenge von größeren Gesamtdatensätzen sein. Mit anderen Worten werden dann aus jedem Gesamtdatensatz zunächst nicht zu betrachtende Daten ausgeblendet und das erfindungsgemäße Verfahren wird dann nur auf der ent¬ sprechenden Untermenge der Daten der Gesamtdatensätze ausge¬ führt. Dies führt zu Rechenzeitvorteilen. Sicherzustellen bleibt lediglich, dass die Zieldaten möglichst genau durch die Eingangsdaten definiert sind.
Jedes Eingangsdatum kann nun verschiedene Werte annehmen, die aber in ihrem jeweiligen Wertebereich begrenzt sind. So kann ein mit 24V betriebener Messfühler z.B. nur Spannungen von OV bis 24V abgeben. Da jedes Eingangsdatum somit auf einem Zahlenstrahl innerhalb des begrenzten Wertebereiches liegt, wird durch die Zusammenfassung sämtlicher N Eingangsdaten zu einem Datensatz - nach Art eines Vektors - ein N -dimensionaler Hyperquader bzw. Eingangsdatenraum aufgespannt. Der Eingangsdatenraum ist also endlich bzw. begrenzt. Alle denkbaren Wertekombinationen von Eingangsdaten liegen somit innerhalb des Hypervolumens des Eingansdatenraums . Jedem Punkt im N- dimensionalen Eingangsdatenraum, dessen Koordinaten durch die Eingangsdaten eines Datensatzes gegeben sind, ist dann der Wert des Zieldatums des entsprechenden Datensatzes zugeord¬ net .
Im erfindungsgemäßen Verfahren zum Auffinden eines fehlerhaf- ten Datensatzes in einer Datensatzmenge von M Datensätzen wird mindestens einer der Wertebereiche eines Eingangsdatums in eine Anzahl Kn von Intervallen unterteilt. Im N- dimensionalen Eingangsraum bilden sich hierdurch insgesamt eine Anzahl TT-^n von N -dimensionalen Zellen bzw. Hyperqua-
N dern, also Teilräumen des Eingangsdatenraums. Diese sind be¬ grenzt durch die Intervallgrenzen der Intervalle, weisen also jeweils die Intervalle als Kantenlängen auf.
Mindestens eine der so entstandenen Zellen wird als zu prü- fende Zelle ausgewählt. Aus den Werten der Zieldaten der Da¬ tensätze wird sodann ein Prüfkriterium für die Zieldaten der Datensätze der ausgewählten Zelle ermittelt. Welche Datensät¬ ze hierbei die Grundlage zur Ermittlung des Prüfkriteriums bilden, kann verschieden sein. Das Prüfkriterium kann aus den Werten eines oder mehrerer oder aller Datensätze in einer oder mehreren oder allen Zellen ermittelt werden.
Anhand des Prüfkriteriums werden die Werte der Zieldaten in der zu prüfenden Zelle geprüft. Geprüft werden also sämtliche Zieldaten sämtlicher Datensätze, welche mit den Werten ihrer Eingangsdaten in der zu prüfenden Zelle bzw. im jeweiligen Intervall des Wertebereiches der Eingangsdaten liegen. Mit anderen Worten werden die Datensätze geprüft, deren N- dimensionale Koordinaten in Form der Eingangsdaten im entsprechenden N -dimensionalen Hyperquader der zu prüfenden Zelle liegen.
Jeder Datensatz der ausgewählten Zelle, dessen Wert des Zieldatums das Prüfkriterium verfehlt, wird als fehlerhaft ge¬ kennzeichnet .
Es wird also nicht nur das Zieldatum, sondern der gesamte Da¬ tensatz als fehlerhaft klassifiziert. Da die Wahl von Ein¬ gangs- und Zieldaten eventuell willkürlich sein kann, deckt das erfindungsgemäße Verfahren also nicht nur Fehler im Ziel¬ datum sondern im gesamten Datensatz auf.
Da das Prüfkriterium aus den Werten der Zieldaten und damit auf Basis der den Daten zugrundeliegenden Prozesse bzw. Eigenschaften ermittelt wird, ist dieses wesentlich enger ge- fasst als die bisher bekannte Minimal-Maximal-Kontrolle oder Grenzwertkontrolle. Diese entspräche lediglich einer Überprü¬ fung, ob denn die Eingangsdaten innerhalb des Eingangsdatenraums liegen.
Die Prüfkriterien sind in der Regel für jede Zelle unter- schiedlich, so dass für unterschiedliche Datensätze, also Da¬ tensätze mit unterschiedlichen Eingangsdaten, unterschiedliche Prüfkriterium für deren Zieldaten gelten. In den Prüfkriterien lassen sich daher Plausibilitätsüberprüfungen integrieren, welche bisher nicht möglich waren.
Die als fehlerhaft gekennzeichneten Datensätze können z.B. einem Anlagenbetreiber angezeigt werden, so dass dieser die entsprechenden Datensätze genauer untersuchen kann. Somit liefert das Verfahren eine Art Vorfilterung zur Markierung verdächtiger Datensätze. Die Anzahl der vom Anlagenbetreiber tatsächlich händisch bzw. besonders zu überprüfenden Datensätze reduziert sich dadurch erheblich. Erweisen sich die verdächtigen Datensätze dann tatsächlich als fehlerhaft, so kann diese Erkenntnis einerseits zur Verbesserung z.B. der den Datensätzen zu Grunde liegenden Automatisierungsanlage benutzt werden. Andererseits können diese Datensätze von der weiteren Nutzung ausgeschlossen werden.
Die fehlerhaften Datensätze können Hinweise auf anderweitige Fehlerquellen liefern, z.B. Fehlerquellen die erst nach mehreren Prozessschritten zu einem fehlerhaften Zieldatum führten. An das Auffinden fehlerhafter Datensätze kann z.B. auch eine Alarmauslösung oder ähnliches geknüpft sein, wenn die Datensätze z.B. von einem Fertigungssystem stammen. Ein Alarmsystem ist allerdings erst dann sinnvoll, wenn die Ziel¬ kriterien über längere Zeit optimiert worden sind, so dass möglichst nur noch tatsächlich fehlerhafte Datensätze als fehlerhaft gekennzeichnet werden und die Fehlalarm-Quote ein akzeptables Maß nicht überschreitet.
Durch das erfindungsgemäße Verfahren ergeben sich hinsicht¬ lich des Anlagenbetriebs eine effektivere Fehlersuche, eine schnellere Inbetriebsetzung, eine höhere Produktqualität und weniger Störfälle.
Die Prüfkriterien passen sich im Laufe des Verfahrens bzw. der Zeit auch an jeweils neu erzeugte Datensätze, d.h. Werte- kombinationen der Eingangs- und Zieldaten an, da sie aus diesen erstellt werden.
Die Intervalle für ein Eingangsdatum können durch äquidistan- te Teilung dessen Wertebereichs gebildet werden. Die äquidis- tante Teilung des Wertebereichs ist besonders einfach und oh¬ ne Vorwissen bzw. empirische Erfahrungen über die Zusammenhänge der Eingangsdaten untereinander bzw. zu den Zieldaten durchführbar. Hier kann z.B. eine feste Anzahl von Intervallen vorgegeben werden, die für alle Eingangsgrößen verwendet wird.
Die Intervalle für ein Eingangsdatum können aber auch unter Nutzung von Vorwissen über die Eingangs- und/oder Zieldaten gebildet werden. Vorwissen sind z.B. theoretische Überlegungen oder empirische Erfahrungen, dass bestimmte Unterteilungen besser als andere sind. Zum einen kann man wichtige Eingangsgrößen feiner unterteilen als unwichtige. Zum anderen kann man eine nicht äquidistante Unterteilung so wählen, dass der Anstieg der Zielgröße innerhalb einer Zelle für alle Zel¬ len in etwa gleich ist.
Als Prüfkriterium wird für jede Zelle ein eigener lokaler To- leranzbereich für den Wert des Zieldatums ermittelt, der deutlich enger ist als der global zulässige Wertebereich. Somit werden mathematische Bedingungen geschaffen, um Datensätze bzw. Zieldaten gegen die Prüfkriterien zu testen. Ein derartiges Prüfkriterium ist also einfach und schnell auswert- bar, was das gesamte Verfahren stark beschleunigt.
Der lokale Toleranzbereich besteht aus einem Sollwert und ei¬ ner zulässigen Abweichung. Sollwert und zulässige Abweichung im Prüfkriterium können durch statistische Methoden aus Wer- ten der Zieldaten ermittelt werden. Auf welche Datenbasis, d.h. welche Datensätze aus welchen Zellen, hierbei die sta¬ tistischen Methoden angewandt werden, ist wie oben beschrieben, auf verschiedene Weise möglich.
Gerade statistische Methoden eignen sich besonders dazu, nicht explizit nachvollziehbare und diesbezüglich zufällige Vorgänge - im vorliegenden Fall die Reststreuung des Zielwertes bei bekannten Eingangsdaten -, welche jedoch dennoch eine Struktur besitzen - also eben nur eine relativ geringe Rest- Streuung bei ansonsten guter Reproduzierbarkeit des Zielwertes-, zahlenmäßig zu erfassen.
Liegen in einer Zelle Zielwerte gehäuft in einem gewissen Wertebereich, so ist davon auszugehen, dass einzelne, außer- halb dieses Wertebereiches liegende Werte fehlerhaft sind.
Der Sollwert im Zielkriterium kann daher als Mittelwert aller Zieldaten der Datensätze der ausgewählten Zelle ermittelt werden. Der einzelne fehlerhafte Wert wird dann den Mittel- wert kaum verändern. Fehlerhaft Werte können dann auf Grund eines besonders großen Abstandes zum Mittelwert erkannt wer¬ den. Die Suche fehlerhafter Datensätze wird mit anderen Worten von einem lokalen, also nur für die jeweilige Zelle er- mittelten Wert durchgeführt.
Die zulässige Abweichung vom lokalen Sollwert wird vorteil¬ hafterweise aus der über alle Zellen gemittelten lokalen Standardabweichung berechnet. Natürlich können auch andere, der Standardabweichung vergleichbare Maße wie z.B. die Streu¬ ung hierzu verwendet werden. Die Gewichtung bzw. ein mul- tiplikativer Gewichtsfaktor bestimmt hierbei die tatsächliche Weite des Toleranzbereiches und kann z.B. empirisch ermittelt werden .
Die Verwendung der lokalen Standardabweichung (der Zielgröße innerhalb einer Zelle für die Berechnung der zulässigen Abweichung) ist zwar prinzipiell möglich, aber ungünstiger, da sie durch die fehlerhaften Datensätze stärker verfälscht wird, als die über alle Zellen gemittelte Standardabweichung.
Anstelle der Mittelung der lokalen Streuungen kann auch für alle Datensätze die globale Streuung des Zielwertes ermittelt werden, also ohne Berücksichtigung der Zellengrenzen. An- schließend kann der Toleranzbereich durch Gewichtung der globalen Streuung ermittelt werden. Diese Verfahrensvariante schafft ein alternatives Maß zur Beurteilung fehlerhafter Datensätze unter Berücksichtigung aller Datensätze. Die erwähnten alternativen Maße sind für bestimmte Anwendungsfälle mehr oder weniger geeignet. Welche Variante für welchen Anwendungsfall die beste ist, kann meist durch Erfahrungswerte oder Vorabtest ermittelt werden.
Alternativ zu den aus allen Daten oder den Daten der zu un- tersuchenden Zelle ermittelten statistischen Maßen können auch Vorhersagen über die zu untersuchende Zelle zur Beurtei¬ lung der Fehlerhaftigkeit von Datensätzen der zu untersuchenden Zelle benutzt werden. Im Verfahren kann daher ein empiri- sches Modell zur Abbildung der Eingangsdaten auf die Zieldaten erstellt werden, so dass das Zielkriterium dann für die ausgewählte Zelle mit dem empirischen Modell ermittelt werden kann. Durch die Verwendung eines empirischen Modells kann versucht werden, die Beziehungen zwischen Zieldaten und Eingangsdaten nachzubilden. Mit anderen Worten wird dadurch versucht, eine Prädiktion für den Wert des Zieldatums bei gege¬ benen Eingangsdaten in der zu untersuchenden Zelle zu erstellen. Anschließend wird dann geprüft, ob die Zielwerte in der Zelle außerhalb eines Toleranzbereiches um den Prädiktions¬ wert liegen, um sie gegebenenfalls als fehlerhaft zu markie¬ ren .
Verschiedenste Arten empirischer Modelle können verwendet werden, wie z.B. ein Multilayer-Perzeptron (MLP), also ein nichtlineares neuronales Netz oder ein aus der DE 102 03 787.6 bekanntes Just-in-Time-Modelling (JIT) ohne Zeitterm. In wenigen Worten beschrieben, wird dort ein ge- wichteter Mittelwert aller Datensätze erzeugt, wobei sich die Gewichtung aus dem N -dimensionalen Hyperabstand der jeweiligen Eingangsdaten, also des Eingangsdatenvektors, zum Mittel¬ punkt der untersuchten Zelle ergibt. Im Hyperraum nahe liegende Datensätze werden also am stärksten gewichtet. Eine Normierung kann hierbei z.B. anhand der Kantenlängen der ZeI- len, also der Intervalle, in welchen die Wertebereiche unter¬ teilt wurden, durchgeführt werden. Ein derartiges Vorgehen ist besonders von der Kantenlänge der Zellen abhängig, wes¬ halb sich in diesem Fall eine manuelle Teilung der Wertebe¬ reiche empfiehlt. Die Vorteile eines JIT gegenüber einem MLP sind dessen höhere Genauigkeit und die geringere Rechenzeit, da die für das MLP notwendige Lernphase entfällt.
Bei der Ermittlung des Zielkriteriums kann die zu untersu¬ chende Zelle ausgeschlossen werden, d.h. das Zielkriterium wird dann auf Basis aller oder einer Teilmenge aller Zellen, außer der zu untersuchenden Zelle, ermittelt. Fehlerhafte Werte in der zu untersuchenden Zelle bzw. fehlerhafte Datensätze gehen somit nicht in die Ermittlung des Zielkriteriums mit ein. Das Zielkriterium wird durch fehlerhafte Datensätze der zu untersuchenden Zelle nicht verfälscht.
Befinden sich in einer Zelle mindestens zwei Gruppen (Clus- ter) von Datensätzen, die bezüglich ihrer Zielwerte jeweils eng beieinander liegen, zwischen denen aber eine Lücke klafft, die größer ist als z.B. die lokale Sperrung, so be¬ steht der Verdacht, dass nur eine dieser Datengruppen korrekt ist, die andere, bzw. die anderen Datengruppen, fehlerhaft sind. Zellen mit mehreren Datengruppen (Clustern) werden im folgenden als heterogene Zellen bezeichnet. Je mehr Daten sich dabei in einer fehlerhaften Datengruppe befinden, desto unwahrscheinlicher wird es, dass die Methode der lokalen Mittelwertbildung diese Daten erkennt. Dann hilft nur die oben beschriebene Methode der empirischen Modellierung unter Aus- schluss aller Daten aus der betrachteten heterogenen Zelle.
Eine mögliche Methode zum Auffinden „heterogener" Zellen, d.h. Zellen mit mehreren Datengruppen, kann wie folgt ablau- fen: Die Zielwerte der ausgewählten Zelle werden nach ihrer Größe sortiert, die Differenzen je zweier benachbarter Zielwerte werden ermittelt und Differenzen, die größer einem Lückengrenzwert sind, werden als Lücke definiert. So entsteht eine stetig steigende Aneinanderreihung von Zielwerten in der zu untersuchenden Zelle, welche je nachdem ohne Lücke oder unter Zwischenschaltung von Lücken aneinander grenzen. Datensätze mit Zielwerten, die ohne Lücken aneinander grenzen, werden zu Clustern zusammengefasst . Alle Datensätze eines Clusters in einer Zelle werden dann in Abhängigkeit des Ziel- kriteriums gemeinsam als fehlerhaft oder nicht fehlerhaft ge¬ kennzeichnet. Mit einer derartigen Verfahrensvariante, können ganze Ansammlungen bzw. Gruppen, eben die Cluster, fehlerhafter Datensätze ermittelt werden.
Zur Überprüfung auf Fehlerhaftigkeit werden dann die Zielwerte nicht gegen ein in der zu unersuchenden Zelle ermitteltes Prüfkriterium, sondern gegen ein aus den umliegenden Zellen oder den restlichen Zellen oder allen Zellen ermittelte Prüf- kriterium getestet. Diese stammen dann z.B. aus dem oben beschriebenen empirischen Modell.
Nach Clusterbildung kann dann für jeden Cluster der Mittel- wert der zugehörigen Zielwerte des Clusters ermittelt und mit dem Zielkriterium geprüft werden. Durch die Clusterbildung und die getrennte Bewertung mit dem Zielkriterium über entsprechende Mittelwerte kann mit anderen Worten eine Unter¬ gruppierung in Zellen erfolgen. Auch diese Maßnahme dient da- zu, fehlerhafte Cluster in ihrer Gesamtheit von nicht fehler¬ haften zu unterscheiden.
Das Prüfkriterium in einer zu prüfenden Zelle kann auch so ermittelt werden, dass alle Datensätze einer Zelle außer des dem Prüfkriterium am nächsten kommenden Datensatzes oder Clusters als fehlerhaft gekennzeichnet werden. Durch eine derartige Verfahrensvariante wird sichergestellt, dass ledig¬ lich ein einziger Cluster in einer heterogenen Zelle oder ein einziger Datensatz in einer Zelle als korrekt, und alle ande- ren als fehlerhaft gekennzeichnet werden. Das Prüfkriterium stellt mit anderen Worten ein „best fit"-Kriterium dar.
Wie bereits erwähnt, können durch die verschiedenen Verfahrensvarianten einzelne Ausreißer von Zielwerten in zu unter- suchenden Zellen, ganze Cluster fehlerhafter Werte innerhalb einer Zelle, oder alle Datensätze einer zu untersuchenden Zelle als fehlerhaft erkannt und markiert werden. Am geeig¬ netsten um sämtliche fehlerhafte Datensätze zu erkennen, er¬ scheint die Möglichkeit, in einem ersten Verfahrensdurchlauf wie oben beschrieben, einzelne fehlerhafte Datensätze, also die Ausreißer, zu suchen und zu eliminieren, in den verbleibenden Datensätzen fehlerhafte Cluster zu suchen und zu eliminieren, und anschließend noch gesamte fehlerhafte Zellen zu suchen und ebenfalls zu eliminieren.
Eliminieren bedeutet hierbei, nach Auffinden eines fehlerhaf¬ ten Datensatzes diesen von der weiteren Untersuchung auszuschließen. Die Zielkriterien in einem folgenden Schritt wer- den dann auf einer neuen Datenbasis, nämlich unter Ausschluss der bisher gefundenen fehlerhaften Daten, ermittelt. Die Zielkriterien werden so im Laufe des Verfahrens stets verbes¬ sert, da immer mehr fehlerhafte Werte aus deren Datenbasis entfernt werden.
Es kann auch vorteilhaft sein, jeden der einzelnen Prozess- Schritte mehrfach auszuführen, oder die gesamte Filter-Proze¬ dur ein zweites Mal durchzuführen.
Für eine weitere Beschreibung der Erfindung wird auf die Ausführungsbeispiele der Zeichnungen verwiesen. Es zeigen, jeweils in einer schematischen Prinzipskizze:
FIG 1 ein Walzwerk für Stahlbänder mit Anlagensteuerung und neuronalem Netzwerk in stark vereinfachter Darstellung, FIG 2 im Walzwerk aus FIG 1 erzeugte Datensätze mit zwei
Eingangswerten und einem Zielwert, FIG 3 ein Diagramm der Zielwerte der Datensätze aus FIG 2, aufgetragen über den Eingangsdaten,
FIG 4 ein Flussdiagramm für ein Verfahren zum Auffinden fehlerhafter Datensätze.
FIG 1 zeigt ein Stahlwalzwerk 2 mit einer entsprechenden Anlagensteuerung 4 in stark vereinfachter Darstellung. Im Stahlwalzwerk 2 wird Rohmaterial 6, nämlich Metall-Brammen, durch die symbolisch angedeuteten Walzen zu einem Metallband 8 als Ausgangsprodukt des Walzwerkes 2 gewalzt.
Die Anlagensteuerung 4 umfasst zwei Sensoren 10a, b, wobei der Sensor 10a die Breite b des Rohmaterials 6 und der Sensor 10b die Walzkraft F im Stahlwalzwerk 2 erfasst. Die Anlagensteue¬ rung 4 umfasst außerdem eine Tastatur 12, über die ein nicht dargestellter Arbeiter, welcher dem Stahlwalzwerk 2 das Rohmaterial 6 zuführt, den Kohlenstoffgehalt c des Rohmateri¬ als 6 als Zahlenwert in Prozent eingibt. Zur Steuerung bzw. Überwachung des Walzprozesses im Stahlwalzwerk 2 ist in der Anlagensteuerung 4 ein neuronales Netz 14 integriert. Das neuronale Netz 14 bildet den Stahl- walzprozess nach und errechnet bei Kenntnis von Breite b und Kohlenstoffgehalt c des Rohmaterials 6 die zu erwartende bzw. resultierende Walzkraft F, noch bevor das Metallband 8 gefer¬ tigt ist. Das neuronale Netz 14 erstellt somit eine Prädik¬ tion des während des Walzprozesses, also zu einem späteren Zeitpunkt, gemessenen Wertes F.
Zu jedem einzelnen Stück Rohmaterial 6 welches zu einem Me¬ tallband 8 gewalzt wird, existiert damit ein Datensatz 16, welcher drei Einzeldaten 18a-c bzw. Variablen umfasst, die jeweils Zahlenwerte, nämlich die Breite b in mm, den Kohlen- stoffgehalt c in Prozent und die Walzkraft F in kN eines be¬ stimmten individuellen Rohmaterials 6 bzw. daraus erstellten Metallbandes 8 als Werte enthalten.
An einem bestimmten Produktionstag werden in einem Stahlwalz- werk 2 insgesamt eine Anzahl von M Metallbändern 8 gefertigt. In der Anlagensteuerung 4 fallen daher insgesamt M Datensätze 16 an, welche in FIG 2 dargestellt sind.
Für das Stahlwalzwerk 2 sind folgende Rahmenbedingungen be- kannt : Die Breite b des Rohmaterials 6 kann lediglich zwi¬ schen 1100mm und 1400mm variieren, da nur solches Rohmaterial 8 eingekauft bzw. verarbeitet wird. Die Konzentration c des Kohlenstoffgehaltes im Rohmaterial 6 ist von dessen Her¬ steller garantiert und liegt zwischen 0,30% und 0,60%. Andere Rohmaterialien werden im Walzwerk 2 definitiv nicht verarbeitet. Als Ausgangsprodukt des Stahlwalzwerkes, also als Me¬ tallband 8 werden lediglich solche gewalzt, deren Walzkraft F zwischen 20OkN und 200OkN liegt, da dies die mechanisch von der Anlage vorgegebenen Werte sind. Metallbänder 8 mit ande- ren Werten können das Walzwerk 2 definitiv nicht verlassen.
Die M Datensätze 16 sollen nun auf fehlerhafte Datensätze 16 überprüft werden, d.h. fehlerhafte Datensätze 16 sollen ge- funden und als fehlerhaft markiert werden. Gemäß Stand der Technik wurden bisher durch eine nicht dargestellte Recheneinheit in der Anlagensteuerung 4 lediglich die Intervallgrenzen der Größen b, c und d, also die Einzeldaten 18a-c überprüft. Z.B. wurden Datensätze 16 deren Werte c<0,30% oder c>0,60% waren, als fehlerhaft markiert. Eine derartige Angabe kann nach obigen Voraussetzungen z.B. lediglich ein Eingabefehler an der Tastatur 12 sein, da definitiv bekannt ist, dass Materialien mit einem derartigen Kohlenstoffgehalt c nicht verwendet werden. Derartige Datensätze 16 sind in FIG 2 bereits aussortiert. Die Werte b, c und F sämtlicher Daten¬ sätze in FIG 2 liegen also innerhalb der erlaubten Bereichs¬ intervalle für die Einzeldaten 18a-c.
Zur Durchführung des erfindungsgemäßen Verfahrens wird nun in allen Datensätzen 16 ein Datum, nämlich das Einzeldatum 18c bzw. die Walzkraft F, als Zieldatum bzw. Zielwert für das Verfahren gewählt. Die Einzeldaten 18a, b, bzw. Breite b und Kohlenstoffgehalt c, werden als zwei Eingangsdaten bzw. Ein- gangswerte für das Verfahren gewählt. Damit gilt N=2. Diese
Wahl ist bereits daher sinnvoll, da die Walzkraft F sich auch tatsächlich im Walzprozess aufgrund der Einstellungen, z.B. Walzenposition, Verarbeitungstemperatur usw., des Walzwerkes 2, vor allem aber zwangsweise aus den Werten b und c er- gibt. Da mit den Einzeldaten 18a, b im stark vereinfachten Beispiel - alle restlichen Parameter des Walzwerks 2 sind konstant - sämtliche Einflussgrößen auf die Walzkraft F be¬ kannt sind, wird sich, abgesehen von Fertigungstoleranzen, bei gegebenem Wertepaar Breite b und Kohlenstoffgehalt c eine stets etwa gleiche Walzkraft F einstellen.
In FIG 3 sind sämtliche M-Datensätze 16 graphisch darge¬ stellt. Die Eingangsdaten 18a, b, also die Werte b und c span¬ nen innerhalb ihrer erlaubten Wertebereiche Wi und W2 einen, da N=2 gilt, zweidimensionalen Eingangsraum 20 auf. Sämtliche Wertepaare der Eingangsdaten 18a, b müssen also, nach Vorab¬ ausgrenzung unplausibler Werte gemäß Stand der Technik, wie oben erläutert, innerhalb des Eingangsraums 20 liegen. Im Eingangsraum 20 sind die Datensätze mit den Nummern 1-3, M-I und M jeweils durch ein beschriftetes Kreuz markiert. Die Werte der Einzeldaten 18a, b bilden hierbei die kartesischen Koordinaten .
Im Verfahren gemäß FIG 4 wird in einem ersten Schritt 38 der Wertebereich der Einzeldaten 18a, b in jeweils drei gleichgroße Intervalle In bis Ii3 und I2i bis I23 aufgeteilt. Durch die Aufteilung in Intervalle In bis I23 wird der Eingangsraum 20 in neun Zellen Z11 bis Z33 geteilt.
Sämtliche M Datensätze 16 liegen somit jeweils eindeutig in einer der neuen Zellen Z11 bis Z33. So liegen beispielsweise in der Zelle Z31 sämtliche Datensätze 16, deren Breite b zwi- sehen 1300mm und 1400mm und deren Kohlenstoffgehalt c zwi¬ schen 0,30% und 0,40% liegt. Jeder dieser Datensätze weist hierbei einen Zielwert, nämlich eine Walzkraft F auf. Die Verteilung der jeweiligen Walzkräfte F ist in FIG 4 für jede der Zellen Z11 bis Z33 separat als Histogramm I11 bis f33 auf- getragen. Jedes Histogramm zeigt für die jeweilige Walzkraft F als Abszisse die Häufigkeit der Walzkräfte F auf der Ordinate angetragen. Zum Beispiel tragen zum Histogramm f32 der Zelle Z32 die in der Zelle Z32 liegenden Datensätze 16 mit den Nummern 1 und M bei. Die entsprechenden Walzkräfte F von 180OkN und 120OkN sind auf der F-Achse des Histogramms f32 ebenfalls durch Kreuze markiert.
Zum Auffinden fehlerhafter Datensätze 16 wird im nächsten Schritt 40 wird für jede der neun Zellen Z11 bis Z33 ein Mit- telwert F11 bis F33 und eine Standardabweichung σn bis σ33 berechnet. Im Beispiel gemäß FIG 3 ergibt sich z.B. für die Zelle 31 ein Mittelwert F11 von 140OkN und eine Standardab¬ weichung σn von 230N.
Anschließend wird in einem Schritt 31 die mittlere lokale
Streuung σloc berechnet, als gemittelter Wert aller Streuungen von (T11 bis σ33. Im Beispiel ergibt sich σloc = 250N . Gleich¬ zeitig wird die globale Streuung σ lob aller Werte F sämtli- eher M Datensätze 16 als Differenz des Maximalwertes von F und des Minimalwertes von F ermittelt.
In der Schleife 42 wird anschließend für jede der Zellen Z11 bis Z33 einmal als zu prüfende Zelle ausgewählt. In der aus¬ gewählten Zelle wird geprüft, ob diese Datensätze 16 enthält, deren Walzkraft F um mehr als α σloc vom entsprechenden Mittelwert F11 bis F33 der Zelle abweicht. Diese Prüfung stellt also das erfindungsgemäße Prüfkriterium dar. Datensätze 16, für welche diese Bedingung erfüllt ist, werden als fehlerhaft markiert und von der weiteren Betrachtung ausgeschlossen. Im Beispiel der Zelle Z31 ist z.B. ein Datensatz 16 enthalten, dessen Walzkraft F bei 30OkN liegt. Dieser ist in FIG 3 als Fehldatum 22 gekennzeichnet. Als Parameter α ist in Zelle Z3i der Wert drei gewählt. Vom Mittelwert F13 liegt das Fehlda¬ tum 22 um mehr als 3cr/oc entfernt. Dieser Datensatz wird damit als ungültig markiert und von der weiteren Betrachtung ausgeschlossen .
Mit anderen Worten werden in der Schleife 42 einzelne Datensätze 16, die hinsichtlich ihrer Einzeldaten 18a-c von der Mehrzahl der anderen Datensätze 16 abweichen, also sogenannte „Ausreißer", erkannt und als ungültige Datensätze 16 mar¬ kiert .
Die Schleife 42 beschreibt die erste Möglichkeit, fehlerhafte Datensätze 16 zu identifizieren. Die Schleife 42 kann alleine oder in Kombination mit den weiter unten aufgeführten anderen Verfahrensvarianten durchgeführt werden. Die Schritte 40-42 können mehrfach wiederholt werden, so lange, bis keine feh¬ lerhaften Daten bzw. Fehldaten 22 mehr gefunden werden.
Sinnvollerweise werden die genannten Verfahrensvarianten jedoch in der hier in FIG 4 aufgeführten Reihenfolge nacheinan- der durchgeführt. Die in der Schleife 42 erkannten fehlerhaf¬ ten Datensätze werden aus der Gesamtmenge aller Datensätze 16 entfernt, die folgenden Untersuchungen also bereits an einer vorgefilterten Menge bzw. Untermenge der ursprünglichen M Da- tensätze durchgeführt. Durch die Eliminierung fehlerhafter Datensätze werden die statistischen Maße etc. wie z.B. die Mittelwerte F oder Standardabweichungen σ genauer, d.h. sie entsprechen mehr und mehr den Werten für einen fehlerfreien und korrekten Prozessablauf und den damit assoziierten Werten der Einzeldaten 18a-c in den Datensätzen 16.
Zur Identifizierung weiterer fehlerhafter Datensätze schließt sich an die Schleife 42 ein Sortierschritt 44 an. Im Sortier- schritt 44 werden für jede zu prüfende Zelle Z11 bis Z33 je¬ weils die Einzeldaten 18c, also die Walzkräfte F aller Daten¬ sätze 16 der entsprechenden Zelle ihrer Größe nach, also aufsteigend bzw. absteigend sortiert. In FIG 3 ist dies durch die Darstellung als Histogramm fn bis f33 sowieso schon ge- zeigt, in FIG 4 nochmals explizit dargestellt. Zwischen je¬ weils zwei benachbarten Walzkräften F werden deren Abstände 26 ermittelt. Abstände 26, welche größer sind als einem Grenzwert ß σloc sind, werden als Lücke 28 identifiziert. Im
Beispiel wurde der Wert des Parameters ß=2 gewählt. Datensät- ze 16 mit Walzkräften F, welche ohne eine Lücke 28 zusammen¬ hängen, werden zu Clustern bzw. Gruppen 30a, b zusammenge- fasst .
In FIG 3 zeigt die Zelle Zi2 eine Werteverteilung der WaIz- kräfte F der in der Zelle 12 liegenden Datensätze 16, welche durch die Lücke 28 in die zwei Gruppen 30a, b aufgeteilt sind. Die Zelle Zi2 wird daher als "heterogene Zelle" deklariert.
Bei einer derartig heterogenen Zelle Zi2 besteht der Ver- dacht, dass eine der Gruppen 30a oder 30b im Gegensatz zu den oben gefundenen Ausreißern bzw. Fehldaten 22 eine ganze Gruppe fehlerhafter Werte 18c darstellt.
In einem, dem Schritt 40 entsprechenden Schritt 46 wird daher innerhalb der Zelle Zi2, jedoch für jede Gruppe 30a und b ge¬ trennt, deren jeweiliger Mittelwert F12a und F12b der Walz¬ kräfte F ermittelt, welche in FIG 3 ebenfalls eingezeichnet sind. Da nun mehrere, im Beispiel zwei, Mittelwerte in der Zelle Z12 vorhanden sind, kann keiner von diesen a priori als korrekter Mittelwert wie oben, angenommen werden. Daher muss der korrekte zu erwartende Zielwert, also Mittelwert, in der ZeI- Ie Z12 anderweitig abgeschätzt werden.
In einem Schätzschritt 48 wird daher ein empirisches Mo¬ dell 32 des den Datensätzen 16 zugrunde liegenden Prozesses entworfen. Im vorliegenden Beispiel wird also versucht, das Walzwerk 2 insofern nachzubilden, dass bei gegebenen Werten von Breite b und Kohlenstoffgehalt c als Eingangsgrößen das Modell 32 die zu erwartende Walzkraft F als Ausgangsgröße liefert. Hierzu werden von den neun Zellen Z11 bis Z33 alle bis auf die zu untersuchende Zelle, im Beispiel die Zelle Zi2, zur Modellierung verwendet. Das heißt, dass nur die Da¬ tensätze 16 der verbleibenden acht Zellen benutzt werden, um einen Schätzwert Fs für die zu prüfende Zelle Zi2 zu ermit¬ teln. Das Modell 32 ist hierbei z.B. ein MLP oder JIT, wie oben erläutert.
Der im Schätzschritt 48 ermittelte Schätzwert Fs ist in FIG
3 eingezeichnet. Für alle, im Beispiel also beide, Grup¬ pen 30a, b wird nun geprüft, welcher der Mittelwerte der Grup¬ pen 30a, b, im Beispiel F12a oder F12b dem Schätzwert Fs am nächsten kommt. In FIG 3 ist dies der Mittelwert F12a der
Gruppe 30a. Dieser wird als gültig erachtet. Sämtlichen Da¬ tensätze 16 der verbleibenden Gruppen, im Beispiel der Gruppe
30b, werden daher als fehlerhaft markiert. Die Überprüfung auf den geringsten Abstand der Mittelwerte F12a oder F12b der Gruppen 30a, b zum Schätzwert Fs stellt also in Schritt 48 das erfindungsgemäße Prüfkriterium dar. Natürlich ist auch der Weg dorthin, also das Sortieren der Datensätze 16 und das Auffinden der Lücken 28 in gewisser Weise dem Prüfkriterium zuzuordnen .
Mit der Verfahrensvariante der Schritte 44 bis 48 können also auch gruppenweise fehlerhafte Datensätze 16, im Beispiel die Gruppe 30b von Datensätzen 16, identifiziert und als ungültig markiert und danach vom weiteren Verfahren ausgeschlossen werden .
Mit der dritten Verfahrensvariante, welche sich in FIG 4 an den Schätzschritt 48 anschließt, werden dann noch Datensätze gesucht, die innerhalb einer Zelle als geschlossene Gruppe ohne Lücke 28 in ihrer Gesamtheit fehlerhaft sind. Dies ist in FIG 3 für die Zelle Z13 gezeigt.
Im Schritt 50 werden entsprechend dem Schritt 40 wiederum die Mittelwerte F11 bis F33 für sämtliche Zellen Z11 bis Z33 be¬ stimmt. Da jedoch, wie im vorliegenden Beispiel inzwischen etliche Datensätze als fehlerhaft ausgeschlossen wurden, er¬ geben sich hierbei andere Zahlenwerte für die Mittelwerte F11 bis F33 im Schritt 50. Dann wird nochmals ein Schätzschritt
52 entsprechend dem Schätzschritt 48, jedoch ebenfalls auf der veränderten Datenbasis ausgeführt, so dass für jede der Zellen Z11 bis Z33 auch ein entsprechender Schätzwert Flls bis
F33s ermittelt wird. Dies erfolgt wieder wahlweise am glei- chen oder geänderten empirischen Modell 32 wie in Schritt 48, indem für jeden der Schätzwerte Flls bis F33s die entsprechende Zelle Zu bis Z33 ausgeschlossen wird.
Anschließend wird im Prüfschritt 54 für jede der Zellen Z11 bis Z33 geprüft, ob deren Mittelwert F11 bis F33 um mehr als
Y1 σloc vom entsprechenden Schätzwert Flls bis F33s abweicht. Anstelle der lokalen Streuung σloc kann hier alternativ auch die globale Streuung verwendet werden. Die Prüfbedingung, also das Prüfkriterium lautet dann, ob die Abweichung kleiner γ2 σglob ist. Im Beispiel wurde die Werte γil=3 bzw. γ22=0,2 gewählt .
In Schritt 54 wird also entsprechend dem Schritt 42 ein Prüf¬ kriterium anhand der mit einem Faktor gewichteten lokalen σloc oder globalen σ lob Streuung verwendet. Entsprechend gefundene Datensätze werden wieder als ungültig markiert. In FIG 3 wird im Verfahrensabschnitt 50 bis 54 für die Zelle Zi3 erkannt, dass deren einzige Gruppe 34 von Da¬ tensätzen 16 mit ihrem errechneten Mittelwert F13 um mehr als 0,2σsM vom aus den restlichen acht Zellen Z11 bis Z33 (ohne
Z13) geschätzten Mittelwert F13s abweicht. Alle Datensätze 16 der Zelle Zi3 werden daher als ungültig markiert.

Claims

Patentansprüche
1. Verfahren zum Auffinden eines Fehlers beim Betrieb einer eine Datensatzmenge (M) aufweisenden Anlage, insbesondere einer Automatisierungsanlage, wobei jeder Datensatz (16) eine Anzahl (N) Eingangsdaten (18a, b) und mindestens ein mit die¬ sen korreliertes Zieldatum (18c) umfasst, und wobei jedes
Eingangsdatum (18a, b) nur Werte innerhalb eines Werteberei¬ ches (Wn) annimmt und dadurch die Eingangsdaten (18a, b) ei- nen Eingangsdatenraum (20) aufspannen, mit folgenden Schritten :
- mindestens einer der Wertebereiche (Wn) wird in Interval¬ le (I) unterteilt, wodurch sich im Eingangsdatenraum (20) N -dimensionale Zellen (Z) mit den Intervallen (Ikn) als Kantenlängen bilden,
- mindestens eine Zelle (Z) wird als zu prüfende Zelle (Z) ausgewählt,
- aus den Werten (F) der Zieldaten (18c) der Datensätze (16) wird ein Prüfkriterium (42,44,48) für die Zieldaten (18c) der Datensätze (16) der ausgewählten Zelle (Z) ermittelt,
- jeder Datensatz (16) der ausgewählten Zelle (Z), dessen Wert (F) des Zieldatums (18c) das Prüfkriterium (42,44,48) verfehlt, wird als fehlerhaft gekennzeichnet und anhand dessen ein Fehler in der Anlage aufgefunden.
2. Verfahren nach Anspruch 1, bei dem die Intervalle (Ikn) für ein Eingangsdatum (18a, b) durch äquidistante Teilung dessen Wertebereiches (Wn) in eine vorgebbare Anzahl von Inter¬ vallen ( Ikn ) gebildet werden.
3. Verfahren nach Anspruch 1, bei dem die Intervalle (I) für ein Eingangsdatum (18a, b) unter Nutzung von Vorwissen ü- ber die Eingangs- (18a, b) und/oder Zieldaten (18c) durch ma¬ nuell konfigurierbare Teilung dessen Wertebereiches (Wn) ge- bildet werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem als Prüfkriterium (42,44,48) ein Toleranzbereich (F ± σ) für den Wert (F) des Zieldatums (18c) ermittelt wird.
5. Verfahren nach Anspruch 4, bei dem das Prüfkriterium (42,44,48) durch statistische Methoden aus Werten (F) der Zieldaten (18c) ermittelt werden.
6. Verfahren nach Anspruch 4 oder 5, bei dem als Sollwert (F) der Mittelwert der Zieldaten (18c) der Datensätze (16) der ausgewählten Zelle (Z) ermittelt wird.
7. Verfahren einem der Ansprüche 4 bis 6, bei dem der Toleranzbereich (F ± σ) durch Gewichtung (α,ß,γi,γ2) mit der Stan- dardabweichung der entsprechenden Zieldaten (18c) der ausgewählten Zelle (Z) ermittelt wird.
8. Verfahren nach einem der Ansprüche 4 bis 6, bei dem der Toleranzbereich (σ) durch Gewichtung (α,ß,γi) mit der über alle Zellen (Z) gemittelten Standardabweichung der entsprechenden Zieldaten (18c) ermittelt wird.
9. Verfahren nach einem der Ansprüche 4 bis 8, bei dem:
- die globale Streuung ( σ ) des Zielwertes für alle Daten- sätze (16) ermittelt wird,
- der Toleranzbereich durch Gewichtung (γ2) der globalen Streuung ( σg ) ermittelt wird.
10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem:
- ein empirisches Modell (32) zur Abbildung der Eingangsda¬ ten (18a, b) auf die Zieldaten (18c) erstellt wird,
- das Zielkriterium (48,54) für die ausgewählte Zelle (Z) mit dem empirischen Modell (32) ermittelt wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem - das Zielkriterium (42,44,48) auf Basis aller oder einer Teilmenge aller Zellen (Z), außer der zu untersuchenden Zelle (Z) ermittelt wird.
12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem
- die Zielwerte (18c) der ausgewählten Zelle (Z) nach ihrer Größe sortiert werden,
- die Differenzen (26) je zweier benachbarten Zielwerte (18c] ermittelt werden,
- Differenzen (26), die größer einem Lückengrenzwert sind, als Lücke (28) definiert werden,
- Datensätze (16) mit Zielwerten (18c), die ohne Lücke (28) aneinandergrenzen, zu Clustern (30a, b) zusammengefasst wer- den,
- Datensätze (16) eines Clusters (30a, b) in Abhängigkeit des Prüfkriteriums (42,44,48) gemeinsam als fehlerhaft oder nicht fehlerhaft gekennzeichnet werden.
13. Verfahren nach Anspruch 12, bei dem für jeden Cluster
(30a, b) der Mittelwert der zugehörigen Zielwerte (18c) ermit¬ telt und mit dem Prüfkriterium (42,44,48) geprüft wird.
14. Verfahren nach einem der Ansprüche 12 oder 13, bei dem das Prüfkriterium (42,44,48) so ermittelt wird, dass alle Da¬ tensätze (16) einer Zelle (Z) außer des dem Prüfkriterium (42,44,48) am nächsten kommenden Datensatzes (18) oder Clus¬ ters (34) als fehlerhaft gekennzeichnet werden.
EP07703593A 2006-01-25 2007-01-03 Verfahren zum auffinden eines fehlers beim betrieb einer eine datensatzmenge aufweisenden anlage Ceased EP1977319A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200610003611 DE102006003611A1 (de) 2006-01-25 2006-01-25 Verfahren zum Auffinden eines fehlerhaften Datensatzes in einer Datensatzmenge
PCT/EP2007/050018 WO2007085504A2 (de) 2006-01-25 2007-01-03 Verfahren zum auffinden eines fehlers beim betrieb einer eine datensatzmenge aufweisenden anlage

Publications (1)

Publication Number Publication Date
EP1977319A2 true EP1977319A2 (de) 2008-10-08

Family

ID=38268113

Family Applications (1)

Application Number Title Priority Date Filing Date
EP07703593A Ceased EP1977319A2 (de) 2006-01-25 2007-01-03 Verfahren zum auffinden eines fehlers beim betrieb einer eine datensatzmenge aufweisenden anlage

Country Status (5)

Country Link
EP (1) EP1977319A2 (de)
CN (1) CN101375254A (de)
DE (1) DE102006003611A1 (de)
RU (1) RU2008134475A (de)
WO (1) WO2007085504A2 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101325638B1 (ko) * 2011-09-09 2013-11-07 비앤에프테크놀로지 주식회사 하위 구성요소의 상태가 반영된 플랜트의 건강지수 측정방법 및 그 방법을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 저장매체
DE102017007971A1 (de) 2017-08-23 2018-04-19 Daimler Ag Verfahren zur Herstellung einer Prüfvorlage
DE102022107820A1 (de) 2022-04-01 2023-10-05 Volkswagen Aktiengesellschaft Verfahren und Prozessorschaltung zum Überprüfen einer Plausibilität eines Detektionsergebnisses einer Objekterkennung in einem künstlichen neuronalen Netzwerk sowie Kraftfahrzeug

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19514535A1 (de) * 1995-04-20 1996-10-31 Johannes Prof Dr Wortberg Verfahren zur Überwachung von Produkteigenschaften und Regelung eines Herstellungsprozesses
DE19530049B4 (de) * 1995-08-16 2004-12-23 Thomas Froese Verfahren zur Erkennung von fehlerhaften Vorhersagen in einer neuromodellgestützten oder neuronalen Regelung
DE19644131C2 (de) * 1996-10-23 2002-09-19 Siemens Ag Verfahren zum Optimieren der Bandbreitenverteilung an den Enden eines eine Walzstraße in einem oder mehreren Stichen durchlaufenden Bandes
US6073089A (en) * 1997-10-22 2000-06-06 Baker; Michelle Systems and methods for adaptive profiling, fault detection, and alert generation in a changing environment which is measurable by at least two different measures of state
AU2002329611A1 (en) * 2001-07-20 2003-03-03 Altaworks Corporation System and method for adaptive threshold determination for performance metrics
US20030065409A1 (en) * 2001-09-28 2003-04-03 Raeth Peter G. Adaptively detecting an event of interest
DE10203787A1 (de) * 2002-01-31 2003-08-14 Siemens Ag Verfahren zur Regelung eines industriellen Prozesses

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2007085504A3 *

Also Published As

Publication number Publication date
WO2007085504A3 (de) 2007-10-25
RU2008134475A (ru) 2010-02-27
WO2007085504A2 (de) 2007-08-02
DE102006003611A1 (de) 2007-08-02
CN101375254A (zh) 2009-02-25

Similar Documents

Publication Publication Date Title
DE102017211737B4 (de) Überwachungsvorrichtung und Verfahren zur Überwachung eines Systems
WO2001002840A1 (de) Verfahren und vorrichtung zur prozessoptimierenden einstellung von parametern eines produktionsprozesses
EP3649033B1 (de) Verfahren zur untersuchung eines funktionsverhaltens einer komponente einer technischen anlage, computerprogramm und computerlesbares speichermedium
EP3390967B1 (de) Verfahren zum überwachen von mindestens zwei redundanten sensoren
EP3210088B1 (de) Verfahren und assistenzsystem zur erkennung einer störung in einer anlage
DE102018109819A1 (de) Verfahren zur Gewinnung von Information aus Röntgen-Computertomographiedaten zur Optimierung des Spritzgussprozesses von kurzfaserverstärkten Kunststoffteilen
DE69713600T2 (de) System zur überwachung und diagnose von automatischen regelschleifen
EP0617262A1 (de) Verfahren zur Störausblendung bei einer Differentialdosierwaage und Vorrichtung zur Durchführung des Verfahrens
EP1977319A2 (de) Verfahren zum auffinden eines fehlers beim betrieb einer eine datensatzmenge aufweisenden anlage
EP4165484A1 (de) Überwachungsvorrichtung und verfahren zur anomaliedetektion
EP1737587B1 (de) Verfahren zur aufbereitung von oberflächendaten, verfahren und vorrichtung zur qualitätsbewertung und zum qualitätsmanagement von bandmaterial
EP3396477B1 (de) Verfahren zur bestimung von regeln zur charakterisierung des normalen betriebszustands eines arbeitsprozesses
EP1932791A1 (de) Verfahren zur Messung der Zugspannung einer laufenden Bahn
WO2022263458A1 (de) Überwachung der produktion von werkstoffplatten, insbesondere holzwerkstoffplatten, insbesondere unter verwendung einer selbstorganisierenden karte
EP1260895B1 (de) Verfahren und Vorrichtung zur produktionsstufenübergreifenden Verknüpfung von Daten
DE102017204400A1 (de) Verfahren zum Betrieb eines Sensors und Verfahren und Vorrichtung zum Analysieren von Daten eines Sensors
DE102013100410A1 (de) Verfahren und Vorrichtung zum Überwachen einer Kältemittelfüllmenge
EP2569763B1 (de) Verfahren zur rechnergestützten überwachung der funktionsleistung eines technischen systems
EP3771594A1 (de) Verfahren zum erkennen fehlerhafter messereignisse und computerprogrammprodukt
EP1055162A1 (de) Prozess- und anlagendiagnoseverfahren
EP1157311B1 (de) Verfahren und anordnung zum entwurf eines technischen systems
DE102008051040B4 (de) Verfahren zur Materialflussüberwachung für kontinuierliche Wägungen
DE102022211293A1 (de) Verfahren zur Identifizierung von Anomalien und somit auch tatsächlichen Bearbeitungspositionen einer Bahn sowie zur Klassifizierung dieser Anomalien, Anlage und Computerprogrammprodukt
EP1528150B1 (de) System zur computergestützten Überwachung eines Querprofils eines Qualitätsparameters einer Materialbahn
EP3825791A1 (de) Verfahren zum bestimmen eines stationären modells eines technischen systems

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080725

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: BROESE, EINAR

17Q First examination report despatched

Effective date: 20081113

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20090924