WO2002006953A1 - Capteur logiciel et dispositif d'evaluation correspondant - Google Patents

Capteur logiciel et dispositif d'evaluation correspondant Download PDF

Info

Publication number
WO2002006953A1
WO2002006953A1 PCT/JP2000/004497 JP0004497W WO0206953A1 WO 2002006953 A1 WO2002006953 A1 WO 2002006953A1 JP 0004497 W JP0004497 W JP 0004497W WO 0206953 A1 WO0206953 A1 WO 0206953A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
input
data
case
unit
Prior art date
Application number
PCT/JP2000/004497
Other languages
English (en)
French (fr)
Inventor
Hiroaki Tsutsui
Junichi Tsuboi
Original Assignee
Yamatake Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamatake Corporation filed Critical Yamatake Corporation
Priority to US10/332,224 priority Critical patent/US7359842B1/en
Priority to AU2000258488A priority patent/AU2000258488A1/en
Priority to DE10085478T priority patent/DE10085478T1/de
Priority to CNB008198748A priority patent/CN1287275C/zh
Priority to PCT/JP2000/004497 priority patent/WO2002006953A1/ja
Publication of WO2002006953A1 publication Critical patent/WO2002006953A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Definitions

  • the present invention relates to the application of case-based reasoning that introduces the concept of topology. More specifically, the present invention relates to a soft sensor for estimating output data actually detected from an identification target using case-based reasoning, and a device for evaluating the soft sensor. Background art
  • an inference system that estimates output data that is actually detected from an identification target using an inference engine does not actually detect physical quantities like a hard sensor, but estimates the physical quantities by arithmetic processing. It is called a soft sensor.
  • a soft sensor for example, a system that monitors the amount of emissions such as NOx and SOx contained in exhaust gas from a combustion device using a neural network is disclosed (for example, Japanese Patent Application Laid-Open No. See 9-504 4 4 6 etc.). This is done by estimating the amount of emissions such as NOx and SOx emitted from the combustion device using a neural network that uses various physical quantities detected by the hard sensors as input variables. Instead of using hard, physical sensors that detect directly, instead of monitoring the amount of emissions in the exhaust gas, or trying to adjust these sensors.
  • neural networks have the problem of model restructuring caused by their model structure, so the learning time is relatively long and it is not possible to follow the target changes in real time. Was. Therefore, it is difficult to meet the expectation of a soft sensor that would be used as a substitute for a hard sensor that measures rapidly changing objects such as NOx.
  • a statistical evaluation value (mean error) can be given to the estimated output data.
  • an appropriate evaluation error value could not be given.
  • the soft sensor performs arithmetic processing on a set of input data obtained for each of a plurality of input variables indicating the behavior of a target using a predetermined inference model.
  • a soft sensor that estimates output data actually detected from a target according to the set of input data and outputs the output data as estimated output data, wherein the set of input data obtained for each of a plurality of input variables necessary for the estimation History data consisting of the input data and the actual output data obtained from the target with the input data as input conditions, and quantizing the case-based input space according to the desired output tolerance to form multiple unit input spaces
  • each history data is arranged in the corresponding unit input space, and for each unit input space having one or more history data, the history data of the unit input space is stored.
  • And case base are generated by creating a case that represents, by searching this thing example base unit corresponding to the new input data Isseki set input space
  • a case search unit that obtains cases from one or more unit input spaces each having a case with the closest phase distance, and an output estimator that estimates output data corresponding to a new set of input data.
  • the output estimating unit calculates output data corresponding to a new set of input data from the output data of the case searched by the case searching unit, and outputs it as the estimated output data.
  • an output evaluator for calculating an error included in the estimated output data is further provided. In this output evaluator, a unit input space corresponding to a new set of input data and a case of the case searched by the case search unit are obtained.
  • An error included in the estimated output data output from the output estimating unit is calculated based on the phase distance from the unit input space and the output allowable error, and is output as an estimated error corresponding to the estimated output data. It was made.
  • a function evaluation unit is provided to determine whether the soft sensor is functioning properly using the estimation error from the output evaluation unit, the estimated output data from the output estimation unit, and the true value output data obtained from the target. This was to be evaluated.
  • the case is obtained by the case search unit from one or more unit input spaces having the closest phase distance to the unit input space corresponding to the new set of input data and having the case, and outputting the case.
  • the estimating unit calculates the output data corresponding to the new set of input data from the output data of the case searched by the case searching unit and outputs the calculated output data as estimated output data.
  • the output estimator calculates an estimation error and outputs it for each estimated output data.
  • the function evaluation unit evaluates whether the soft sensor is functioning properly.
  • the evaluation apparatus for a soft sensor performs an arithmetic process on a set of input data obtained for each of a plurality of input variables indicating the behavior of a target using a predetermined inference model, thereby obtaining the input data.
  • the soft sensor evaluation device evaluates the soft sensor.
  • an output estimator that calculates output data corresponding to a new set of input data from the output data of the case searched by the case search unit and outputs it as evaluation estimation output data. From the output estimator based on the phase distance and the output tolerance between the unit input space corresponding to the new input data set and the unit input space of the case searched by the case search unit.
  • An output evaluation unit that calculates an error included in the obtained estimated output data and outputs the evaluation output error in parallel for each evaluation estimated output data, and a function evaluation unit that evaluates the soft sensor. Evaluates whether the soft sensor is functioning properly using the estimation and estimation error from the output estimator, the estimation and estimation output from the output estimator, and the true value output data obtained from the target. That's how it was done.
  • a function evaluator is provided to evaluate the difference between the estimated output data obtained by the output estimator corresponding to the new set of input data and the output data of the true value obtained from the target. By comparing the estimated output data with the estimated estimation error, it is evaluated whether the soft sensor is functioning properly.
  • another evaluation apparatus for a soft sensor performs an arithmetic process on a set of input data obtained for each of a plurality of input variables indicating the behavior of a target using a predetermined inference model, thereby obtaining the input data.
  • An evaluation device for a soft sensor that evaluates a shift sensor.A set of input data obtained for each of a plurality of input variables required for estimation and the actual output obtained from the target using the input data as input conditions.
  • a plurality of historical data consisting of data is fetched, and an input quantization unit that forms a plurality of unit input spaces by quantizing the case-based input space according to a desired output tolerance, and an input quantization unit For each of the unit input spaces thus determined, it is determined whether or not the condition that the variation of the output data between the pieces of history data arranged in the unit input space is within a desired output allowable error is satisfied.
  • the output distribution condition determination means for calculating and outputting the sufficiency rate as the output distribution condition satisfaction rate, and for each unit input space formed by this input quantization unit, Output data of the representative history data representing the history data to be placed, and the output data average of the representative history data of one or more unit input spaces where the phase distance is closest to the unit input space and the history data is located Judgment is made as to whether the difference from the value satisfies the condition that the difference is within the output allowable error according to the phase distance, and the sufficiency rate of the unit input space that satisfies this condition is calculated and output as the continuity condition satisfaction rate
  • the input quantizer evaluates the inference model generated by using the history data based on the output distribution condition satisfaction rate and the continuity condition satisfaction rate by providing a condition judgment means. .
  • the input quantizer captures the history data, quantizes the case-based input space according to a desired output allowable error, forms a plurality of unit input spaces, and determines the output distribution condition.
  • the output distribution condition satisfaction rate and the continuity condition satisfaction rate are calculated as evaluation indices by the means and the continuity condition determination means, and the inference model generated using the history data based on these evaluation indices is evaluated by the input quantizing unit based on these evaluation indexes. Is done. BRIEF DESCRIPTION OF THE FIGURES
  • FIG. 1 is a functional block diagram showing a soft sensor according to the first to third embodiments of the present invention.
  • FIG. 2 is a functional block diagram showing the case base generation device.
  • FIG. 6 is a flowchart showing the process of determining the input quantization number.
  • FIG. 7 is an explanatory diagram showing output distribution conditions.
  • FIG. 8 is an explanatory diagram showing continuity conditions.
  • FIG. 9 is an explanatory diagram showing a change in the evaluation index.
  • FIG. 10 is an explanatory diagram showing evaluation criteria for modeling evaluation.
  • FIG. 11 is an explanatory diagram showing the case generation processing.
  • FIG. 12 is a flowchart showing the case generation processing.
  • FIG. 13 is an explanatory diagram showing the definition of the similarity.
  • FIG. 14 is a flowchart showing the similar case search process.
  • FIG. 20 is an explanatory diagram showing the relationship between each condition and the evaluation result.
  • FIG. 1 is a functional block diagram showing a soft sensor according to the first embodiment of the present invention.
  • the soft sensor 1 includes a case base 11, a case search unit 12, an output estimation unit 13, an output evaluation unit 14, an adaptive learning unit 15, and a function evaluation unit 16.
  • the case base 11 is generated by the case base generation device 2 described later based on history data actually obtained from the behavior of the object whose output data is estimated by the soft sensor 1.
  • This case base 11 is a case base created by introducing the concept of topology (Topology), and the input space is quantized according to the desired output tolerance (accuracy required).
  • the relationship between input and output is defined for each unit input space (hereinafter referred to as mesh) that is formed by quantization.
  • the case search unit 12 selects a mesh corresponding to the new input data A (31) by referring to the case base 11 and searches for a case representing the respective mesh from the mesh or its neighboring meshes.
  • This input data A is composed of n values of input variables X i xn Xcu Xon, similarly to the input data X of the history data used for generating the case base 11.
  • the output estimating unit 13 calculates and outputs an estimated output data Y (32) corresponding to the new input data A from the output data of one or more cases searched by the case searching unit 12.
  • the adaptive learning unit 15 adaptively learns the case base 11 based on the new history data 34 actually obtained from the behavior of the target.
  • the new history data 34 has the same structure as the history data used to generate the case base 11, but is composed of data that is not used as the history data. Later, data obtained by actual measurement from the target will be used.
  • k (k is a positive integer) new history data P ′ i to P ′ k are prepared as the new history data P ′.
  • the similarity indicating how far the one or more cases retrieved by the case retrieval unit 12 are from the mesh corresponding to the input data A and the case similarity are calculated.
  • the estimated error d (33) included in the estimated output data Y is individually evaluated and output for each estimated output data Y. I do.
  • the function evaluation unit 16 evaluates whether the soft sensor is functioning properly by using the estimation error d, the estimated output data Y, and the true value output data ⁇ (35) obtained from the target by actual measurement.
  • the evaluation result 36 is output.
  • Case Base Generation Case Base Generator and Case Base
  • FIG. 2 is a functional block diagram showing the case base generation device.
  • the case base 11 used in the soft sensor 1 is generated in advance by the case base generation device 2 using the history data 37.
  • the case base generation device 2 is provided with an input quantization unit 21 and a case generation unit 22.
  • the history data 37 includes a plurality of input data X used for estimation and the input data It consists of a set with output data Y actually measured when X is input to the target.
  • input data X n (n is an integer of 2 or more) input variables X ixn are selected.
  • As history data 37, j (j is an integer of 2 or more) history data Pl to Pj are prepared.
  • the input quantization unit 21 quantizes the case-based input space based on the history data 37 and desired modeling conditions 38 to define a mesh.
  • the input quantization unit 21 is provided with output distribution condition determining means 21A and continuity condition determining means 21B.Based on the determination results of these determining means 21A and 21B, the input space is determined. The quantization number is selected.
  • the case generation unit 22 the history data 37 is allocated to each mesh, and a case base 39 is generated by calculating a representative case for each mesh.
  • the case base 39 is used as, for example, the case base 11 of the soft sensor 1 and the evaluation case base 51 (see FIG. 21) of the evaluation device 5 described later.
  • the evaluation case base 51 when the evaluation case base 51 is generated, the evaluation case base 51 is generated based on the history data 63 used when generating the inference model of the soft sensor.
  • the case base generation device 2 also functions as a device that determines whether or not a target can be modeled with desired accuracy based on the case data, that is, also functions as a soft sensor evaluation device described later.
  • FIG. 3 is an explanatory diagram showing the concept of the phase used in the case-based inference model of the present invention
  • FIG. 4 is an explanatory diagram showing the quantization process of the input space
  • FIG. 5 is a flowchart showing the case-base generation process.
  • the input space is quantized into a phase space to obtain the required tolerance ⁇ (output tolerance) of the output error, which is the required accuracy.
  • output tolerance
  • mapping f X ⁇ Y to be continuous is an open set in ⁇ (near the output) ⁇ Inverse mapping — 1 ( ⁇ ) Is equivalent to the open set of X (input neighborhood). is there.
  • Inverse mapping — 1 ( ⁇ ) Is equivalent to the open set of X (input neighborhood).
  • the output neighborhood can be associated with the input neighborhood that satisfies the allowable range of the output error, and the input space can be quantized and regarded as a phase space.
  • History de Isseki consists of a set of the input data obtained in the past and the output data, wherein the input chi iota, is composed of a chi 2 and the output y.
  • These history data are distributed in the input space X i _ x 2 as shown in the upper right of FIG. This as shown in Figure 4 the lower right, if the quantized at equal intervals of a mesh having X 1, X 2 direction to each predetermined width, taking into account the tolerance ⁇ of the output error as shown in FIG. 4 the lower left,
  • the size of the mesh that is, the input quantization number, is determined.
  • the allowable range ⁇ of the output error is a value indicating how much an error between the output obtained by the estimation and the unknown true value with respect to the new input data is allowed, and is set in advance as a modeling condition. Therefore, by determining the size of the mesh using this allowable width ⁇ , it is possible to define the input neighborhood, that is, the case corresponding to the size of the output neighborhood, and the output data estimated from all the input data belonging to that case. Will satisfy the allowable range ⁇ of the output error.
  • the case base generation device 2 generates a case base 39 by using such a quantization process between input spaces.
  • the history data 37 is read (step 100), and modeling conditions such as the allowable width ⁇ of the output error are set.
  • Step 101 various evaluation indices are calculated based on the permissible width ⁇ , and an input quantization number is selected for each input variable based on the evaluation indices (Step 102). Then, from the history data 37 allocated to each mesh, each case constituting the case base 39 is generated (step 103).
  • FIG. 6 is a flowchart showing the process of determining the number of input quantizations
  • FIG. 7 is an explanatory diagram showing an output distribution condition which is one of the evaluation indices
  • FIG. 9 is an explanatory diagram showing the continuity condition
  • FIG. 9 is an explanatory diagram showing the relationship between the satisfaction rate of each evaluation index and the number of input quantizations.
  • the output distribution condition is, as shown in Fig. 7, the output distribution width of the output y of the historical data belonging to that mesh for an arbitrary mesh obtained by quantizing the input space with the selected input quantization number.
  • the condition is that it is smaller than the allowable width ⁇ of the output error.
  • the continuity condition is, as shown in Fig.
  • the output value y of the case generated by the mesh for an arbitrary mesh obtained by quantizing the input space with the selected input quantization number, and the case And the average output value y 'of surrounding cases existing around the similarity r is smaller than the permissible range of output error ⁇ (r + 1).
  • the continuity condition described above is based on the difference between the output value y of a case generated by an arbitrary mesh and the average output value y 'of the case around the case similar to the similarity r. r + 1).
  • an evaluation criterion (threshold) is set as a criterion for judging the quality of an evaluation index (step 110). Then, each evaluation index is calculated for each input quantization number (step 11 1), and the obtained evaluation index is compared with the evaluation criterion, and the input index that satisfies the evaluation criterion is obtained. Select the quantization number (step 1 1 2). As an evaluation criterion, it is desirable to select an input quantization number that satisfies both the output distribution condition and the continuity condition at least 90%, and the system displays the 90% or 95% division number. Like to be I'm wearing The values of 90% and 95% are considered to be statistically appropriate.
  • the ratio of cases satisfying the condition to all cases is used as the evaluation index.
  • metrics value of the input number of quantizing m about X i is, Xl, X 2, ⁇ ⁇ , quantizes the input range width of chi eta at each input quantizer, in all cases generated by the quantization
  • the ratio of cases satisfying the evaluation index condition, that is, the output distribution condition satisfaction rate and the continuity condition satisfaction rate is obtained.
  • any one of the input quantization numbers for which all the evaluation index values have cleared the evaluation criterion is selected and determined as the input quantization number of the input variable X i.
  • the evaluation indices of the output distribution condition satisfaction rate SD and the continuity condition satisfaction rate Sc do not increase monotonically as the input quantization number m increases, but are as shown in Fig. 9. Since it changes in a parabolic manner with a certain degree of vertical width, after a certain input quantization number m falls below the evaluation criterion again, there are cases where the evaluation criterion is satisfied, such as m 2 . Regarding this, out of the preset maximum value of the number of quantized test inputs m max , the evaluation index of the output distribution condition satisfaction rate SD and the continuity condition satisfaction rate Sc is the smallest that satisfies the evaluation criteria.
  • the index that is, the output distribution condition satisfaction rate and the continuity condition satisfaction rate are determined based on the evaluation criteria shown in FIG. Assess whether the object can be modeled with the desired accuracy. Worth it. If at least one of the output distribution condition satisfaction rate and the continuity condition satisfaction rate does not satisfy the evaluation criterion, the input quantizing unit 21 determines that the case based on the case data generated from the history data 37. Judgment cannot be made with the desired output error tolerance, and it is evaluated that modeling cannot be performed with the required accuracy.
  • a specific evaluation result as shown in FIG. 10 can be selected. For example, if the output distribution condition satisfaction rate is much lower than the evaluation criterion, for some case-based meshes, it is expected that the variation in the historical data 37 included in the meshes is larger than the desired output error tolerance. You. Therefore, with the current input variables, it is highly probable that the historical data used to generate the case base belongs to several different populations, and it is determined that these cases cannot be treated as the same mesh, and the input variable selection Can be evaluated as needing to be reviewed. If the output distribution condition satisfaction rate is somewhat lower than the evaluation criterion, it is judged that the variation of the cases included in the same mesh is likely to be caused by noise, and the noise removal processing for the history data 37 must be reviewed. Can be evaluated as necessary.
  • the continuity condition satisfaction rate is much lower than the evaluation criterion, it is determined that the mesh in which the cases exist in the case base is discrete, and it is highly likely that the history data 37 is insufficient. It can be evaluated that it is necessary to review the measurement points so that the bias in the historical data 37 is corrected. Also, if the continuity condition satisfaction rate is somewhat lower than the evaluation standard, it is judged that the bias of the history data 37 is likely to be caused by noise, and the noise removal processing for the history data 37 is reviewed. Can be evaluated as necessary.
  • the input quantizer 21 determines the output distribution condition satisfaction rate and the continuity condition satisfaction rate, and evaluates whether or not the object can be modeled with desired accuracy using the history data. Since 40 is output, if modeling based on the required accuracy cannot be performed when generating the case base, specific measures can be taken based on the evaluation result 40.
  • FIG. 11 is an explanatory diagram showing the case generation processing
  • FIG. 12 is a flowchart showing the case generation processing.
  • each input variable is quantized (divided) based on the selected input quantization number, and a mesh is generated (step 120).
  • the input variable X 1 is divided into 10 and the input variable ⁇ 2 is divided into 6 parts.
  • each piece of history data is allocated to each mesh (step 122), a mesh in which the history data exists is selected as a case, and its input / output values and output values are calculated (step 122).
  • the average value of the outputs y of the three pieces of history data is used as the output value representing the case, and the median value of the mesh is used as the input value representing the case.
  • the soft sensor 1 shown in Fig. 1 estimates the estimated output data Y (32) from the newly input data A (31) using the case base 11 generated in this way. .
  • the case search section 12 the values X Q1 to X of the input variables of the input data A are obtained.
  • a similar case is searched from the case base 11 using n and similarity.
  • FIG. 13 is an explanatory diagram showing the definition of the similarity
  • FIG. 14 is a flowchart showing a similar case search process in the case search section 12.
  • the similarity is a measure of how similar each case is to the mesh corresponding to the new input data among the meshes provided in the input space of the case base 11 .
  • the case retrieval unit 12 first takes in input data (step 130) and selects a mesh corresponding to the input data from the input space of the case base 11 (step 130). At the same time (step 131), the similarity used as the case search range is initialized to 0 (step 132), and similar cases are searched from the case search range indicated by the similarity (step 133). If a case exists in the message corresponding to the input data (step 134: YES), the case is output as a similar case (step 136). On the other hand, if there is no case in the mesh corresponding to the input data in step 134 (step 134: NO), the similarity is increased by 1 to expand the case search range (step 135), and return to step 133. Then, search for similar cases again.
  • the case search section 12 searches the case base 11 for similar cases corresponding to the new input data, and the output estimating section 13 outputs the output corresponding to the new input data A based on these similar cases.
  • the case search unit 12 expands the search range 15 Search cases. Then, the output estimating unit 13 calculates estimated output data from the searched cases. At this time, if multiple cases are retrieved, the average value of the output values of each case is used as the estimated output data. In this way, the output estimating unit 13 estimates and outputs the estimated output data Y corresponding to the new input data A.
  • the adaptive learning unit 15 updates the case base 11 based on the new history data 34 obtained by actually measuring the target.
  • the new history data 34 May be automatically obtained, for example, every hour using a calendar function or a temperature sensor, so that adaptive learning can be automated.
  • FIG. 17 is an explanatory diagram showing an adaptive learning operation when a corresponding case exists.
  • the output value y of the new data B 48.2 and the output of the case 160 before the revision
  • the output revision formula is the forgetting factor C F. rget is provided, and the output value before revision ⁇ is the ratio indicated by this forgetting factor.
  • D and the output value Y of the new data B are added to obtain the revised output value of the case.
  • FIG. 18 is an explanatory diagram showing an adaptive learning operation when there is no corresponding case.
  • the median value of the mesh corresponding to the new data B is used as the input value
  • a new case 162 with the output value y of overnight B as the representative output value is newly generated and added to the case base 11.
  • the inference model used in the soft sensor 1 applies the framework of case-based inference to the modeling, and based on the concept of topology, the input-output relationship of the system. It can be said that this is a modeling technique applicable to general objects where the continuity of satisfies.
  • the data is stored as a case in the identified input space, and the reliability of the estimated output data can be shown by the phase distance (similarity) between the input and the previously stored input case when estimating the output. .
  • the output data is estimated using such a model. Therefore, the following operation and effect can be obtained as compared with a conventional inference model such as a neural network or a regression model.
  • the input space is quantized as a parameter and the input space is quantized to define the similarity to the case base, and the evaluation index value is calculated to determine the quantization number. . For this reason, convergence calculation is not required, and the completeness of the model can be evaluated from this evaluation index value. It is not necessary to perform model evaluation using separate test data as in the past.
  • case base Since the case base is composed of individual cases, the case base can be partially revised based on new data, and there is no need to identify parameters as before, and adaptive learning can be performed easily.
  • the problem of learning and convergence calculation in the conventional model is the problem of defining case-based structure and similarity in case-based reasoning (CBR).
  • CBR case-based reasoning
  • the output tolerance that is, the unambiguous definition of the case base and similarity according to the required accuracy is quantized into the input space and the phase It is done by making it a space. Therefore, it is necessary to define an input / output model without requiring sufficient knowledge of the target, that is, identification of the input / output structure. Can be.
  • the estimation error d for the estimated output data Y is calculated by the output evaluator 14 of the soft sensor 1 during the operation of the soft sensor, and is output in real time in parallel with the estimated output data Y. Things.
  • the reliability of the estimated output data Y is defined by the similarity.
  • the output evaluator 14 calculates the similarity r indicating the distance between the mesh corresponding to the input data A and the searched mesh based on the search result of the case search unit 12 and the output per mesh set as the modeling condition.
  • the unique estimation error d (evaluation error value) included in each estimated output data Y is calculated by the output evaluator 14 and is output corresponding to the estimated output data Y. Compared with such statistical evaluation values (mean errors), the reliability of each estimated output Y can be evaluated appropriately. Furthermore, since the output is performed in parallel during the operation of the soft sensor 1, the error of the estimated output data can be evaluated in real time.
  • the function evaluation unit determines whether the soft sensor 1 is functioning properly during the operation of the soft sensor, that is, whether the soft sensor 1 is functioning according to the standard of the soft sensor determined by the desired output error allowable width and the phase distance. This is to be evaluated in 16.
  • FIG. 19 is an explanatory diagram showing the conditions used for evaluating the function of the soft sensor
  • FIG. 20 is an explanatory diagram showing the relationship between the conditions and the evaluation results.
  • the evaluation is performed based on the two conditions (1) and (2) shown in Fig. 19.
  • condition 1 the estimated output data Y obtained from the output estimator 13 based on the case base 11 for the new input data A and the true-value output data ⁇ ⁇
  • the difference (absolute value) and the product (r + 1) of the similarity r + 1 used for estimating the estimated output data ⁇ and the output error allowable width ⁇ (r + 1) ⁇ , that is, the error estimating unit 1 Compare with the estimated error d obtained from 4 to judge whether or not I ⁇ — ⁇ ⁇ I ⁇ (r + 1) ⁇ is satisfied. Then, when such a condition (2) is satisfied, since the estimation is performed within the required accuracy range, the evaluation result 36 indicating that the soft sensor is functioning properly is output. At this time, as shown in FIG. 20, a specific evaluation result 36 that encourages case-based learning may be output.
  • the adaptive learning unit 15 may be controlled based on the evaluation result, and the case 11 can be automatically updated.
  • the timing for performing adaptive learning is as follows: when the output data of the true value actually measured from the target is obtained, the new history consisting of the output data of the true value and the corresponding input data is obtained. Learning using data, that is, partial revision of the case base 11 may be performed. If the similarity r> 0, that is, if there is no case in the mesh corresponding to the input data A, adaptive learning may be performed. For adaptive learning, if there is a large discrepancy between the output data of the previous case and the true value output data, the previous case may be discarded and the true value output data may be adopted as a new case. Further, learning may not be performed sequentially when true value output data is obtained, but may be collectively learned, for example, when new history data to be learned is generated to some extent.
  • the difference between the estimated output data Y obtained from the output estimator 13 based on the case base 11 and the output data of the true value input from outside for the new input data A is ⁇ ⁇ . (Absolute value) and the product of the similarity r + 1 used for estimating the estimated output data ⁇ and the allowable output error width ⁇ (r + 1) ⁇ , that is, the error estimation unit 14 Compare the obtained estimation error d with IY— ⁇ ⁇ I> (r + 1) ⁇ . Determine if you are satisfied. Then, when such a condition (2) is satisfied, since the estimation cannot be performed within the required accuracy range, the evaluation result 36 indicating that the soft sensor is not functioning properly is output. At this time, as shown in Fig.
  • the evaluation is made by comparing the difference between the estimated output data Y with respect to the input data A and the true output data ⁇ ⁇ ⁇ with (r + 1) ⁇ , that is, the output error d. It is possible to accurately and appropriately evaluate whether the sensor is functioning correctly, that is, whether it is functioning according to the standard of the soft sensor determined by a desired output error allowable width and a phase distance.
  • FIG. 21 is a functional block diagram showing an evaluation device that evaluates a soft sensor that estimates output data using a neural network (NN). Does this soft sensor 4 have historical data?
  • the input data A (61) is obtained by using a neural network generation unit 41 that generates a neural network 42 based on (63) and a neural network 42 generated by the neural network generation unit 41. ) Is provided, and an output estimating unit 43 for estimating the output data corresponding to the output data Y and outputting it as estimated output data Y (62) is provided.
  • a soft sensor using a neural network as an inference engine will be described as an example.However, the invention is not limited to a neural network, and other models such as a linear model, a nonlinear model, or the above-described case base are inferred. It is also applicable when externally evaluating a soft sensor as an engine.
  • the evaluation device 5 for evaluating the function of the soft sensor 4 is provided with an evaluation case base 51, an example search unit 52, an output estimation unit 53, an output evaluation unit 54, and a function evaluation unit 55. ing. These components correspond to the components of the soft sensor 1 in FIG. 1, and perform almost the same operation. That is, the evaluation case base 51 corresponds to the case base 11. Note that this evaluation case base 51 uses the same historical data 63 used when generating the neural network (NN) 42 of the soft sensor 4, for example, using the case base generation device 2 shown in FIG. Is generated in advance.
  • the case search section 52, the output estimation section 53, the output evaluation section 54, and the function evaluation section 55 are respectively the case search section 12, the output estimation section 13, and the output evaluation section 1 of the soft sensor 1. 4. It corresponds to the function evaluation section 16.
  • the function evaluation section 55 the evaluation estimation data Y H from the output estimation section 53 , the evaluation estimation error d ⁇ ⁇ from the output evaluation section 54 , and the output data of the true value actually measured from the target by, for example, a hard sensor ⁇ ⁇ ⁇
  • the function evaluation of the soft sensor 4 using the neural network 42 is performed using ⁇ ( 66 ). This evaluation operation is the same as that of the function evaluation unit 16 described above. Evaluation is performed using the conditions shown in FIG. 18 and the evaluation result is output based on the relationship shown in FIG. Output. In each condition of Fig.
  • the estimated output data ⁇ ⁇ ⁇ is used instead of the estimated output data ⁇ , and for (r + 1) ⁇ , the estimated estimated error d H is used instead of the estimated error d.
  • the evaluation operation here is omitted.
  • the historical data used to generate the soft sensor inference model is used for evaluation.
  • a case base is generated in advance, and the evaluation device installed in parallel with the soft sensor uses the evaluation case base to evaluate and output the same input data as the input data input to the soft sensor based on the evaluation case base. Since the estimation errors were calculated and the functions of the soft sensor were evaluated using these, the soft sensors using any inference engine were evaluated based on the estimation accuracy that the evaluation case base could provide. It is possible to indirectly evaluate whether the soft sensor is functioning properly.
  • the fourth embodiment describes an evaluation device that evaluates the functions of a soft sensor during operation by performing estimation operations in parallel with a separately generated evaluation case base for a soft sensor using an arbitrary inference model. did.
  • a case will be described where the function evaluation of the soft sensor is performed when the inference model used by the soft sensor is generated, not when the software sensor is operated.
  • the evaluation case base 51 used in the evaluation device shown in Fig. 21 is shown in Fig. 2 using the inference model of the soft sensor 4 here, using the historical data 67 that generated the neural network 42. It is generated by the case base generation device 2 described above.
  • the neural network used in the soft sensor 4 is based on the determination of the output distribution condition determining means 21A and the continuity condition determining means 21B of the input quantizing section 21.
  • the model feasibility of the object by the network 42 can be evaluated, and the case base generation device in FIG. 2 can be regarded as a model evaluation device.
  • This evaluation is performed by referring to the evaluation criterion shown in FIG. 10 in the same manner as described above, and using the indices obtained from the output distribution condition determining means 21 A and the continuity condition determining means 21 B, namely,
  • the continuity condition is to determine the satisfaction rate, and the detailed description is omitted here.
  • the input quantizer 21 determines the output distribution condition satisfaction rate and the continuity condition satisfaction rate, and evaluates whether or not the object can be modeled with desired accuracy using the history data. Since 40 is output, if modeling based on required accuracy is not possible at the time of generation of the evaluation case base, it is determined that the same problem will occur with any soft sensor inference model generated with the same historical data. Based on the evaluation result 40, take specific measures, such as reviewing input variable selection, reviewing measurement points, or reviewing noise elimination processing for historical data. Measures can be taken. In the present embodiment, a soft sensor using a neural network has been described as an example. However, the present invention is not limited to this. Can be evaluated appropriately. Industrial applicability
  • a set of input data obtained for each of a plurality of input variables necessary for estimation and the input data are obtained from the target as input conditions.
  • a plurality of history data consisting of the actual output data obtained is fetched, the case-based input space is quantized according to the desired output tolerance to form a plurality of unit input spaces, and each history is stored in the corresponding unit input space.
  • an output evaluator for calculating an error included in the estimated output data is further provided, and the output evaluator includes a unit input space corresponding to a new set of input data and The error included in the estimated output data output from the output estimating unit is calculated based on the phase distance between the unit input space of the case searched by the case searching unit and the output allowable error, and is calculated as the estimated output data. Since the estimation error is output as the corresponding estimation error, the estimation error included in each estimation output data can be clearly presented. .
  • the function evaluation unit outputs The evaluation is performed using the estimation error from the evaluation unit, the estimated output data from the output estimation unit, and the output data of the true value obtained from the target. We can evaluate appropriately.
  • a case search unit that acquires cases from one or more unit input spaces that have cases, and an output corresponding to a new set of input data from the output data of the cases searched by this case search unit
  • An output estimator that calculates data and outputs it as evaluation estimation output data; and a phase distance and output allowance between the unit input space corresponding to the new input data set and the unit input space of the case searched by the case search unit.
  • An error included in the estimated output data output from the output estimating unit is calculated based on the error, and the output estimating unit that outputs the evaluation estimated error in parallel for each evaluation estimated output data and the soft sensor are evaluated.
  • a function evaluation unit is provided, and the evaluation estimation output data obtained by the output estimation unit corresponding to a new set of input data and the evaluation estimation data are used.
  • the difference between the obtained true value output data and the evaluation estimation error corresponding to the evaluation estimation output data was compared to evaluate whether the soft sensor was functioning properly. Based on the estimation accuracy that the case base can provide Therefore, it is possible to indirectly evaluate whether the soft sensor is functioning properly.
  • a set of input data obtained for each of a plurality of input variables required for estimation and the input data obtained from the target as input conditions are obtained.
  • An output distribution condition determining means for calculating and outputting a satisfaction rate of a unit input space satisfying this condition as an output distribution condition satisfaction rate; and a unit input space for each unit input space formed by the input quantization unit.
  • the output data of the representative history data that represents the history data that is placed in between, and the representative history data of one or more unit input spaces that have the closest phase distance to the unit input space and the history data is placed It is determined whether the difference from the average value of the output data is within the output allowable error according to the phase distance, and the sufficiency rate of the unit input space that satisfies this condition is calculated as the continuity condition satisfaction rate
  • a continuity condition judging means for outputting is provided, and the input quantizer evaluates the inference model generated by using the history data based on the output distribution condition satisfaction rate and the continuity condition satisfaction rate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)

Description

明 細 書 ソフトセンサおよびその評価装置 技術分野
本発明は、 位相の概念を導入した事例べ一ス推論の応用に関する。 より詳しく は、 本発明は事例ベース推論を用いて同定対象から実際に検出される出力データ を推定するソフトセンサおよびその評価装置に関するものである。 背景技術
一般に、 推論エンジンを用いて同定対象から実際に検出される出力データを推 定する推論システムは、 ハードセンサのように物理量を実際に検出するのではな く、 演算処理により物理量を推定することから、 ソフトセンサと呼ばれている。 このソフトセンサの応用例としては、 例えばニューラルネットワークを用いて 燃焼装置からの排気ガスに含まれる N O xや S O xなどの排出物の量を監視する システムが開示されている (例えば、 特表平 9一 5 0 4 3 4 6号公報など参照) 。 これは、 ハードセンサで検出した各種物理量を入力変数とするニューラルネット ワークを用いて、 燃焼装置から排出される N O xや S O xなどの排出物の量を推 定することにより、 これら排出物を、 直接、 物理的に検出するハードセンサを用 いる代わりに排気ガスに含まれる排出物の量を監視し、 あるいはこれらセンサを 調整しょうというものである。
しかしながら、 このような従来のソフトセンサでは、 ニューラルネットワーク を用いて対象を同定しているため、 ソフトセンサを実際に使用する場合には次の ような問題点があった。 まず、 ニューラルネットワークは、 そのモデル構造に起 因したモデル再構築の問題を内在しているため、 学習に要する時間が比較的長く、 リアルタイムでその対象変化に追従することができないという問題点があつた。 したがって、 N O xなど変化の激しい対象を計測するハードセンサの代わりとし て利用したいというソフトセンサに対する期待に応えることが難しい。 また、 ニューラルネットワークでは、 統計的な評価値 (平均誤差) を推定出力 データに与えることはできるものの、 ソフトセンサを実際に使用する際には新た な入力デ一タを扱うためその推定出力データに対して適切な評価誤差値を与える ことができないという問題点があった。 さらに、 ソフトセンサを運用する際、 リ アルタイムで推定出力データの誤差を評価したり、 ソフトセンサが正しく機能し ているかどうかを評価することができなかった。
また、 対象のモデルを作成する場合には次のような問題点があった。 まず、 二 ュ一ラルネットワークでは、 線形あるいは非線形の回帰モデルなどと同様に、 履 歴デー夕から所定のァルゴリズムに則って、 そのモデルの入出力空間の全域にわ たって入出力間の関係付けを行う必要があるが、 実際の計測で得られる履歴デ一 夕は、 同定対象のある特定の状態を記録したものがほとんどである。 したがって、 多くの場合、 入出力空間の全域での関数形状が不明であることから、 用意された 履歴デ一夕から作成したモデルと対象との適合性を評価することができないとい う問題点があった。 さらに、 推定がうまく行えない場合には、 その原因がモデル 作成に用いた履歴デ一夕の不足なのか、 あるいは入力変数の選択や階層構造など モデル設計に不具合があるのかを判断できないという問題点があった。 発明の開示
上記の問題点を解消するため、 本発明にかかるソフトセンサは、 対象の振る舞 いを示す複数の入力変数ごとに得られた入力データの組を所定の推論モデルを用 いて演算処理することにより、 その入力データの組に応じて対象から実際に検出 される出力データを推定し推定出力データとして出力するソフトセンサであって、 推定に必要な複数の入力変数ごとに得られた入力データの組とその入力データを 入力条件として対象から得られた実際の出力データとからなる履歴データを複数 取り込み、 所望の出力許容誤差に応じて事例ベースの入力空間を量子化して複数 の単位入力空間を形成するとともに対応する単位入力空間内に各履歴データを配 置し、 1つ以上の履歴データを有する単位入力空間ごとにその単位入力空間の履 歴データを代表する事例を作成することにより生成された事例ベースと、 この事 例ベースを検索することにより、 新たな入力デ一夕の組に対応する単位入力空間 に最も位相距離が近くて事例を有する 1つ以上の単位入力空間からそれぞれ事例 を取得する事例検索部と、 新たな入力データの組に対応する出力データを推定す る出力推定部とを設け、 この出力推定部で、 事例検索部により検索された事例の 出力データから新たな入力デ一夕の組に対応する出力データを算出し推定出力デ 一夕として出力するようにしたものである。 また、 推定出力デ一夕に含まれる誤 差を算出する出力評価部をさらに設け、 この出力評価部で、 新たな入力データの 組に対応する単位入力空間と事例検索部で検索された事例の単位入力空間との間 の位相距離と出力許容誤差とに基づき、 出力推定部から出力された推定出力デー 夕に含まれる誤差を算出し、 推定出力デ一夕に対応する推定誤差として出力する ようにしたものである。 また、 機能評価部を設けて、 出力評価部からの推定誤差、 出力推定部からの推定出力データ、 および対象から得られた真値の出力データを 用いてソフトセンサが正しく機能しているかどうかを評価するようにしたもので ある。
この発明によれば、 事例検索部により、 新たな入力データの組に対応する単位 入力空間に最も位相距離が近くて事例を有する 1つ以上の単位入力空間からそれ ぞれ事例が取得され、 出力推定部により、 事例検索部で検索された事例の出力デ 一夕から新たな入力データの組に対応する出力デ一夕が算出され推定出力データ として出力される。 また、 出力評価部により、 推定誤差が算出され推定出力デー 夕ごとに対応して出力される。 また、 機能評価部により、 ソフトセンサが正しく 機能しているかどうかが評価される。
また、 本発明にかかるソフトセンサの評価装置は、 対象の振る舞いを示す複数 の入力変数ごとに得られた入力データの組を所定の推論モデルを用いて演算処理 することにより、 その入力デ一夕の組に応じて対象から実際に検出される出力デ —夕を推定し推定出力データとして出力するソフトセンサについて、 そのソフト センサを評価するソフトセンサの評価装置であって、 ソフトセンサの推論モデル を生成する際に用いられ、 推定に必要な複数の入力変数ごとに得られた入力デー 夕の組とその入力データを入力条件として対象から得られた実際の出力データと からなる履歴データを複数取り込み、 所望の出力許容誤差に応じて事例ベースの 入力空間を量子化して複数の単位入力空間を形成するとともに対応する単位入力 空間内に各履歴データを配置し、 1つ以上の履歴データを有する単位入力空間ご とにその単位入力空間の履歴データを代表する事例を作成することにより生成さ れた評価用事例ベースと、 この評価用事例ベースを検索することにより、 ソフト センサに入力される新たな入力データの組に対応する単位入力空間に最も位相距 離が近くて事例を有する 1つ以上の単位入力空間からそれぞれ事例を取得する事 例検索部と、 この事例検索部により検索された事例の出力デ一夕から新たな入力 デ一夕の組に対応する出力データを算出し評価推定出力データとして出力する出 力推定部と、 新たな入力データの組に対応する単位入力空間と事例検索部で検索 された事例の単位入力空間との間の位相距離と出力許容誤差とに基づき、 出力推 定部から出力された推定出力データに含まれる誤差を算出し、 評価推定誤差とし て評価推定出力データごとに並列して出力する出力評価部と、 ソフトセンサを評 価する機能評価部とを備え、 機能評価部により、 出力評価部からの評価推定誤差、 出力推定部からの評価推定出力デ一夕、 および対象から得られた真値の出力デー タを用いてソフトセンサが正しく機能しているかどうかを評価するようにしたも のである。 また、 機能評価部を設けて、 新たな入力デ一夕の組に対応して出力推 定部で得られた評価推定出力データと対象から得られた真値の出力データとの差 と、 評価推定出力データに対応する評価推定誤差とを比較することにより、 ソフ トセンサが正しく機能しているかどうかを評価するようにしたものである。
この発明によれば、 事例検索部により、 新たな入力データの組に対応する単位 入力空間に最も位相距離が近くて事例を有する 1つ以上の単位入力空間からそれ ぞれ事例が取得され、 出力推定部により、 事例検索部により検索された事例の出 力データから新たな入力データの組に対応する出力データが算出され評価推定出 力データとして出力され、 出力評価部により、 推定誤差が算出され推定出力デ一 夕ごとに並列して出力される。 そして、 機能評価部により、 ソフトセンサが正し く機能しているかどうかが間接的に評価される。
また、 本発明にかかる他のソフトセンサの評価装置は、 対象の振る舞いを示す 複数の入力変数ごとに得られた入力データの組を所定の推論モデルを用いて演算 処理することにより、 その入力データの組に応じて対象から実際に検出される出 力データを推定し推定出力データとして出力するソフトセンサについて、 そのソ フトセンサを評価するソフトセンサの評価装置であって、 推定に必要な複数の入 力変数ごとに得られた入力デ一夕の組とその入力データを入力条件として対象か ら得られた実際の出力データとからなる履歴データを複数取り込み、 所望の出力 許容誤差に応じて事例べ一スの入力空間を量子化して複数の単位入力空間を形成 する入力量子化部と、 この入力量子化部により形成した各単位入力空間について、 その単位入力空間に配置される履歴データ間の出力データのばらつきが所望の出 力許容誤差以内であるという条件を満たすか否か判断し、 この条件を満たす単位 入力空間の充足率を出力分布条件充足率として算出出力する出力分布条件判定手 段と、 この入力量子化部により形成した各単位入力空間について、 その単位入力 空間に配置される履歴データを代表する代表履歴データの出力データと、 その単 位入力空間に最も位相距離が近くかつ履歴データが配置される 1つ以上の単位入 力空間の代表履歴データの出力データ平均値との差が、 位相距離に応じた出力許 容誤差以内であるという条件を満たすか否か判断し、 この条件を満たす単位入力 空間の充足率を連続性条件充足率として算出出力する連続性条件判定手段とを設 けて、 入力量子化部で、 出力分布条件充足率および連続性条件充足率に基づき履 歴デ一夕を用いて生成された推論モデルを評価するようにしたものである。
この発明によれば、 入力量子化部により、 履歴データが取り込まれ、 所望の出 力許容誤差に応じて事例ベースの入力空間が量子化されて複数の単位入力空間が 形成され、 出力分布条件判定手段および連続性条件判定手段で評価指標として出 力分布条件充足率および連続性条件充足率が算出され、 入力量子化部によりこれ ら評価指標に基づき履歴データを用いて生成された推論モデルが評価される。 図面の簡単な説明
図 1は、 本発明の第 1〜第 3の実施例にかかるソフトセンサを示す機能プロ ック図である。
図 2は、 事例ベース生成装置を示す機能ブロック図である。
図 3は、 本発明の事例ベース推論モデルで用いる位相の概念を示す説明図で ある。
図 4は、 入力空間の量子化処理を示す説明図である。 図 5は、 事例べ一ス生成処理を示すフロ一チヤ一トである。
図 6は、 入力量子化数の決定処理を示すフローチャートである。
図 7は、 出力分布条件を示す説明図である。
図 8は、 連続性条件を示す説明図である。
図 9は、 評価指標の変化を示す説明図である。
図 1 0は、 モデリング評価の評価基準を示す説明図である。
図 1 1は、 事例生成処理を示す説明図である。
図 1 2は、 事例生成処理を示すフローチャートである。
図 1 3は、 類似度の定義を示す説明図である。
図 1 4は、 類似事例検索処理を示すフローチャートである。
図 1 5は、 出力推定動作 (類似事例が存在する場合) を示す説明図である。 図 1 6は、 出力推定動作 (類似事例が存在しない場合) を示す説明図である 図 1 7は、 適応学習動作 (対応事例が存在する場合) を示す説明図である。 図 1 8は、 適応学習動作 (対応事例が存在しない場合) を示す説明図である 図 1 9は、 ソフトセンサの機能評価で用いる条件を示す説明図である。
図 2 0は、 各条件と評価結果との関係を示す説明図である。
図 2 1は、 本発明の第 4の実施例にかかるソフトセンサの評価装置を示す機 能ブロック図である。 発明を実施するための最良の形態
次に、 本発明の実施例について図面を参照して説明する。
[第 1の実施例]
図 1は本発明の第 1の実施例にかかるソフトセンサを示す機能ブロック図であ る。 このソフトセンサ 1には、 事例ベース 1 1、 事例検索部 1 2、 出力推定部 1 3、 出力評価部 1 4、 適応学習部 1 5および機能評価部 1 6が設けられている。 事例べ一ス 1 1は、 ソフトセンサ 1で出力データを推定する対象の振る舞いから 実際に得られた履歴データに基づき後述する事例ベース生成装置 2で生成される。 この事例ベース 1 1は、 位相 (Topo l ogy) の概念を導入して作成された事例べ一 スであり、 所望の出力許容誤差 (要求精度) に応じて入力空間が量子化されてお り、 それぞれ量子化されてできた単位入力空間 (以下、 メッシュという) ごとに、 入出力間の関係が定義されている。
事例検索部 12では、 この事例ベース 1 1を参照することにより、 新たな入力 データ A (31) に対応するメッシュを選択し、 そのメッシュあるいはその近傍 メッシュからそれぞれのメッシュを代表する事例を検索する。 この入力デー夕 A は、 事例べ一ス 1 1の生成に用いる履歴デ一夕の入力デ一夕 Xと同様に、 n個の 入力変数 X i xnの値 Xcu Xonから構成されている。 出力推定部 13では、 事 例検索部 12で検索された 1つ以上の事例の出力データから、 新たな入力データ Aに対応する推定出力デ一夕 Y (32) を算出して出力する。 適応学習部 15で は、 対象の振る舞いから実際に得られた新規な履歴データ 34に基づき、 事例べ ース 1 1の学習を適応的に行う。 新規履歴デ一夕 34は、 事例べ一ス 11の生成 に用いる履歴デー夕と同じ構成ではあるが、 履歴デー夕として使用されていない デ一夕からなっており、 例えばソフトセンサ 1の使用開始後に対象から実際の計 測で得られたデータなどが用いられる。 ここでは新規履歴デ一夕 P' として、 k 個 (kは正整数) の新規履歴データ P' i〜P' kが用意されている。
出力評価部 14では、 事例検索部 12で検索された 1つ以上の事例が、 入力デ 一夕 Aに対応するメッシュからどの程度離れたメッシュの事例かを示す類似度と 事例べ一ス生成時に用いられたモデリング条件の 1つである所望の出力許容誤差 (要求精度) とに基づき、 推定出力データ Yごとにその推定出力データ Yに含ま れる推定誤差 d (33) を個別に評価して出力する。 機能評価部 16では、 推定 誤差 d、 推定出力データ Y、 対象から実測などにより得られた真値の出力データ Υουτ (35) とを用いて、 ソフトセンサが正しく機能しているかどうかを評価し その評価結果 36を出力する。
事例ベースの生成:事例べ一ス生成装置および事例ベース
次に、 図 2を参照して、 事例ベース生成装置について説明する。 図 2は事例べ ース生成装置を示す機能ブロック図である。 ソフトセンサ 1で用いる事例ベース 11は、 履歴データ 37を用いて予め事例ベース生成装置 2で生成される。 この 事例べ一ス生成装置 2には、 入力量子化部 2 1と事例生成部 22とが設けられて いる。 履歴データ 37は、 推定に用いる複数の入力データ Xと、 その入力データ Xが対象に入力された場合に実際に計測された出力データ Yとの組からなる。 こ こでは、 入力データ Xとして、 n個 (nは 2以上の整数) の入力変数 X i x nが 選択されている。 また履歴データ 3 7として、 j個 (jは 2以上の整数) の履歴 データ P lP jが用意されている。 入力量子化部 2 1では、 履歴データ 3 7と所望のモデリング条件 3 8とに基づ き事例ベースの入力空間を量子化してメッシュを定義する。 入力量子化部 2 1に は出力分布条件判定手段 2 1 Aと連続性条件判定手段 2 1 Bとが設けられており、 これら判定手段 2 1 A, 2 1 Bの判定結果に基づき入力空間の量子化数が選択さ れる。 事例生成部 2 2では、 各メッシュへ履歴データ 3 7のそれぞれを振り分け、 各メッシュごとに代表する事例を算出することにより事例ベース 3 9を生成する。 この事例ベース 3 9が例えばソフトセンサ 1の事例ベース 1 1や後述する評価装 置 5の評価用事例べ一ス 5 1 (図 2 1参照) として用いられる。 特に、 評価用事 例ベース 5 1を生成する際には、 そのソフトセンサの推論モデルを生成する際に 用いた履歴デ一夕 6 3に基づいて評価用事例べ一ス 5 1を生成するため、 この事 例ベース生成装置 2は、 その事例データにより対象を所望の精度でモデリングで きるかどうかを判定する装置、 すなわち後述するソフトセンサの評価装置として も機能する。
以下、 本発明で用いる事例ベースとその事例ベース生成装置の動作について説 明する。 図 3は本発明の事例ベース推論モデルで用いる位相の概念を示す説明図、 図 4は入力空間の量子化処理を示す説明図、 図 5は事例ベース生成処理を示すフ 口—チャートである。
(事例ベース推論モデル)
本発明で用いる事例ベース推論モデルでは、 数学の位相論における連続写像の 概念に基づき、 入力空間を量子化し位相空間とすることにより、 要求精度である 出力誤差の許容幅 ε (出力許容誤差) に応じた事例ベースと類似度の一般的な定 義を行っている。
位相論における連続写像の概念とは、 例えば空間 X, Υにおいて、 写像 f : X →Yが連続であるための必要十分条件が、 Υにおける開集合 (出力近傍) Ο逆写 像 —1 (〇) が Xの開集合 (入力近傍) に相当することである、 という考え方で ある。 この連続写像の概念を用いて、 入力空間から出力空間への写像 fが連続す ることを前提とし、 図 3に示すように、 出力空間において出力誤差の許容幅を用 いて出力近傍を定めることにより、 これら出力近傍とその出力誤差の許容幅を満 足する入力近傍とを対応付けることができ、 入力空間を量子化し位相空間として 捉えることができる。
(入力空間の量子化)
本発明では、 この入力空間の量子化処理を図 4に示すようにして行っている。 履歴デ一夕は、 過去に得られた入力データと出力データとの組からなり、 ここで は入力 Χ ι, χ 2と出力 yとから構成されている。 これら履歴デ一夕は入力空間 X i _ x 2において、 図 4右上のように分布している。 これを図 4右下のように、 X 1 , X 2方向にそれぞれ所定幅を有する等間隔のメッシュで量子化する場合、 図 4 左下に示すように出力誤差の許容幅 εを考慮して、 メッシュの大きさすなわち入 力量子化数を決定している。 出力誤差の許容幅 εとは、 推定により得られる出力 と新規入力データに対する未知の真値との誤差をどの程度まで許容するかを示す 値であり、 モデリング条件として予め設定される。 したがって、 この許容幅 εを 用いてメッシュの大きさを決定することにより、 出力近傍の大きさに対応する入 力近傍すなわち事例を定義でき、 その事例に属する全ての入力データから推定さ れる出力データの誤差が、 出力誤差の許容幅 εを満足することになる。
事例ベース生成装置 2では、 このような入力空.間の量子化処理を用いて、 事例 ベース 3 9を生成している。 図 5において、 まず、 履歴データ 3 7を読み込むと ともに (ステップ 1 0 0 ) 、 出力誤差の許容幅 εなどのモデリング条件を設定し
(ステップ 1 0 1 ) 、 この許容幅 εに基づき各種評価指標を算出し、 その評価指 標に基づいて各入力変数ごとに入力量子化数を選択する (ステップ 1 0 2 ) 。 そ して、 各メッシュに配分された履歴データ 3 7から事例べ一ス 3 9を構成する各 事例を生成する (ステップ 1 0 3 ) 。
(入力量子化数の決定)
ここで、 図 6〜 9を参照して、 評価指標を用いた入力量子化数の決定処理につ いて説明する。 図 6は入力量子化数の決定処理を示すフローチャート、 図 7は評 価指標の 1つである出力分布条件を示す説明図、 図 8は評価指標の 1つである連 続性条件を示す説明図、 図 9は各評価指標の充足率と入力量子化数との関係を示 す説明図である。
出力分布条件とは、 図 7に示すように、 選択した入力量子化数で入力空間を量 子化して得られた任意のメッシュについて、 そのメッシュ内に属する履歴データ の出力 yの出力分布幅が出力誤差の許容幅 εより小さい、 という条件である。 こ れにより 1つのメッシュすなわち入力近傍が、 これに対応する出力近傍に定めた 条件すなわち出力誤差の許容幅 εを満足するかどうか検査される。 連続性条件と は、 図 8に示すように、 選択した入力量子化数で入力空間を量子化して得られた 任意のメッシュについて、 そのメッシュで生成された事例の出力値 yと、 その事 例と類似度 rの周囲に存在する周囲事例の平均出力値 y ' との差が、 出力誤差の 許容幅 ε ( r + 1 ) より小さい、 という条件である。
これにより、 各事例間すなわち入力近傍間での出力値の差が、 これらに対応す る出力近傍間に定めた条件すなわち出力誤差の許容幅 εを満足するかどうか検査 される。 この連続性条件を満たすことにより、 各事例が連続的に所望の精度を満 たすように、 入力空間をカバ一していると判断できる。 この連続性条件を検査す る場合、 検査対象メッシュの事例と周囲事例との距離すなわち後述する類似度 r を考慮する必要がある。 これは先に述べた位相論における連続写像の概念を正し く反映させるためである。 ここで、 メッシュ内の出力誤差許容幅が ε以内である ことから、 2つの事例間の類似度が rの場合、 その出力誤差許容幅は ε ( r + 1 ) 以内となる。 したがって、 上記の連続性条件は、 任意のメッシュで生成され た事例の出力値 yと、 その事例と類似度 rの周囲事例の平均出力値 y ' との差が、 出力誤差の許容幅 ε ( r + 1 ) より小さい、 という条件となる。
入力量子化数の決定処理では、 図 6に示すように、 まず評価指標の良否を判定 するための基準として評価基準 (しきい値) を設定する (ステップ 1 1 0 ) 。 そ して、 各入力量子化数ごとに各評価指標を算出し (ステップ 1 1 1 ) 、 得られた 評価指標と評価基準とを比較して、 評価基準を満足する評価指標が得られた入力 量子化数を選択する (ステップ 1 1 2 ) 。 評価基準としては、 出力分布条件およ び連続性条件をともに満たす事例が 9 0 %以上となる入力量子化数を選択するの が望ましく、 システムでは 9 0 %もしくは 9 5 %の分割数が表示されるようにな つている。 この 90 %や 95 %という値は、 統計的に考えて適切な値と考えられ るからである。
この入力量子化数は、 各入力変数ごとに順に決定される。 例えば、 入力変数が Xi, X 2, ··, χηの場合、 X から χηまで順に入力量子化数を決定していく。 こ こで、 評価指標を算出する際、 すべての入力変数に入力量子化数を割り当てる必 要がある。 したがって、 X iに関する評価指標を求める際、 〜 卜 iについては、 その時点ですでに決定されている入力量子化数を用い、 X i以降の X i + 1, ·', X nについては、 と同じ入力量子化数を用いる。
前述した各条件のうち、 出力分布条件と連続性条件については、 評価指標とし て、 その条件を満足する事例の全事例に対する割合すなわち評価指標充足率が用 いられる。 例えば、 X iに関する入力量子化数 mの評価指標値は、 Xl, X 2, · ·, χηの入力レンジ幅をそれぞれの入力量子化数で量子化し、 量子化により生成され た全事例における、 その評価指標条件を満たす事例の割合、 すなわち出力分布条 件充足率と連続性条件充足率とで求められる。 そして、 その入力変数 X iについて、 これら全ての評価指標値が評価基準をクリアした入力量子化数からいずれかを選 択し、 その入力変数 X iの入力量子化数として決定する。
このとき、 出力分布条件充足率 SDと連続性条件充足率 Scの各評価指標は、 入 力量子化数 mの増加に応じて単調に増加するのではなく、 図 9に示すように、 あ る程度の上下幅を伴って放物線状に変化するため、 ある入力量子化数 mについて は評価基準を再度下回った後、 m2のように評価基準を満足するケースもある。 こ れについては、 予め設定される検査入力量子化数の最大値 mmaxまでのうち、 出力 分布条件充足率 S Dと連続性条件充足率 S cの各評価指標が評価基準を満足する最 も小さい入力量子化数 を選択することにより、 最大値 mmaxに依存することな く最適な入力量子化数を選択できるとともに、 メッシュ数を最小限に抑制でき、 事例べ一スのサイズを小さくできる。
(モデリング評価)
このように入力量子化数を決定する際、 図 10に示すような評価基準に基づき 指標、 すなわち出力分布条件充足率および連続性条件充足率を判定することによ り、 その履歴データを用いて対象を所望の精度でモデリングできるかどうかを評 価できる。 入力量子化部 2 1では、 出力分布条件充足率および連続性条件充足率 のうち、 少なくともいずれか一方の評価指標が評価基準を満足できなかった場合 は、 履歴データ 3 7から生成した事例ベースでは所望の出力誤差許容幅で推定で きないと判断し、 要求精度でモデリングできないと評価する。
この場合、 図 1 0に示すような、 具体的な評価結果を選択することができる。 例えば、 出力分布条件充足率が評価基準より非常に低い場合は、 事例ベースのい くつかのメッシュについて、 そのメッシュに含まれる履歴データ 3 7のばらつき が所望の出力誤差許容幅より大きいと予想される。 したがって、 現行の入力変数 では、 事例べ一スの生成に用いた履歴データがいくつかの異なる母集団に属する 可能性が高く、 これら事例を同一メッシュとして扱うことができないと判断し、 入力変数選択の見直しが必要であると評価できる。 また、 出力分布条件充足率が 評価基準よりある程度低めの場合は、 同一メッシュに含まれる事例のばらつきは ノイズに起因する可能性が高いと判断し、 履歴データ 3 7に対するノイズ除去処 理の見直しが必要であると評価できる。
一方、 連続性条件充足率が評価基準より非常に低い場合は、 事例ベースのうち 事例が存在するメッシュが離散的であると判断し、 その履歴データ 3 7が不足し ている可能性が高く、 履歴データ 3 7の偏りが是正されるように計測ポイントの 見直しが必要であると評価できる。 また、 連続性条件充足率が評価基準よりある 程度低めの場合は、 履歴デ一夕 3 7の偏りがノイズに起因する可能性が高いと判 断し、 履歴データ 3 7に対するノイズ除去処理の見直しが必要であると評価でき る。
このように、 入力量子化部 2 1において出力分布条件充足率および連続性条件 充足率を判定して、 その履歴データを用いて対象を所望の精度でモデリングでき るかどうかを評価し、 評価結果 4 0を出力するようにしたので、 事例べ一ス生成 時に要求精度に基づくモデリングができない場合には評価結果 4 0に基づき具体 的な対策をとることができる。
(事例の生成)
事例ベース生成装置 2では、 以上のようにして入力量子化数が選択され、 その 入力量子化数で量子化された入力空間ここでは各メッシュに各履歴データが配分 されて、 事例が生成される。 図 1 1は事例生成処理を示す説明図、 図 1 2は事例 生成処理を示すフローチャートである。
まず、 選択された入力量子化数に基づき各入力変数を量子化 (分割し) 、 メッ シュを生成する (ステップ 1 2 0 ) 。 図 1 1では、 入力変数 X lが 1 0分割される とともに入力変数 χ 2が 6分割されている。 そして、 各履歴データが各メッシュに 振り分けられて (ステップ 1 2 1 ) 、 履歴データが存在するメッシュが事例とし て選択され、 その入出値および出力値が算出される (ステップ 1 2 2 ) 。 図 1 1 右上に示すように、 同一メッシュに 3つの履歴データが振り分けられた場合、 図 1 1右下に示すように、 これらが 1つ事例として統合される。 このとき、 事例を 代表する出力値として 3つの履歴データの出力 yの平均値が用いられ、 事例を代 表する入力値としてそのメッシュの中央値が用いられる。
出力データの推定:事例検索部および出力推定部
次に、 本発明の第 1の実施例にかかるソフトセンサの動作について説明する。 図 1のソフトセンサ 1では、 このようにして生成された事例ベース 1 1を用いて、 新規に入力された入力デ一夕 A ( 3 1 ) から推定出力データ Y ( 3 2 ) を推定す る。 まず、 事例検索部 1 2では、 入力データ Aの各入力変数の値 X Q 1〜X。nと類 似度とを用いて事例ベース 1 1から類似事例を検索する。 図 1 3は類似度の定義 を示す説明図、 図 1 4は事例検索部 1 2における類似事例検索処理を示すフロー チヤ一トである。 類似度とは、 事例べ一ス 1 1が持つ入力空間に設けられた各メ ッシュのうち、 各事例が新規入力データに対応するメッシュとどの程度の類似性 を有しているか示す尺度である。
図 1 3では、 入力データに対応する中央メッシュに事例が存在すれば、 その事 例と入力データとは 「類似度 r == 0」 であると定義されている。 また、 中央メッ シュの 1つ隣に存在する事例とは 「類似度 r = l」 となり、 以降、 中央メッシュ から 1メッシュずつ離れていくごとに類似度が 1ずつ増加していく。 したがって、 推定を行う場合、 類似度 rの事例による推定値は、 (r + 1 ) X出力誤差許容幅 ε以内の精度を持つことになる。 このとき、 推定を行う入力値に対してうまく両 側の事例が使用された場合は、 (r + 1 ) X εよりも良い精度の出力値である場 合が予想される。 また、 推定を行う値に対して片側の事例のみが使用された場合 は、 (r + 1) X ε程度の精度であることが、 入出力の連続性のもとに予想され る。
事例検索部 12では、 図 14に示すように、 まず、 入力データを取り込み (ス テツプ 130) 、 事例べ一ス 1 1が持つ入力空間から、 その入力デ一夕に対応す るメッシュを選択するとともに (ステップ 131) 、 事例検索範囲として用いる 類似度を 0に初期化し (ステップ 132) 、 その類似度が示す事例検索範囲から 類似事例を検索する (ステップ 133) 。 ここで、 入力データに対応するメッシ ュに事例が存在した場合は (ステップ 134 : YES) 、 その事例を類似事例と して出力する (ステップ 136) 。 一方、 ステップ 134において、 入力データ に対応するメッシュに事例が存在しなかった場合は (ステップ 134 : NO) 、 類似度を 1だけ増やして事例検索範囲を拡げ (ステップ 135) 、 ステップ 13 3へ戻って、 再度、 類似事例を検索する。
このようにして、 事例検索部 12において、 新規入力データに対応する類似事 例が事例ベース 1 1から検索され、 出力推定部 13で、 これら類似事例に基づき、 新規の入力データ Aに対応する出力データ Yが推定される。 例えば、 図 15に示 すように、 入力データ A (22. 1, 58. 4) に対応するメッシュ 150に事 例が存在した場合、 その事例の出力値 y=70. 2が推定出力データとして選択 される。
また、 図 16に示すように、 入力データ A (23. 8, 62. 3) に対応する メッシュ 151に事例が存在しなかった場合、 事例検索部 12では検索範囲 1 5 2を拡大して類似事例を検索する。 そして、 検索された事例から出力推定部 13 で推定出力データを算出する。 このとき、 複数の事例が検索された場合は、 それ ら各事例の出力値の平均値が推定出力データとして用いられる。 このようにして、 出力推定部 13では、 新規入力データ Aに対応する推定出力データ Yが推定され て出力される。
谪応学習:適応学習部
次に、 図 17, 18を参照して、 適応学習部の動作について説明する。
図 1に示すように、 適応学習部 15では、 対象から実測して得られた新規履歴 データ 34に基づき事例ベース 11を更新する。 このとき、 新規履歴データ 34 をカレンダ機能や温度センサなどで例えば 1時間ごとに自動的に得るようにして もよく、 これにより適応学習の自動化が可能となる。
まず、 事例ベース 1 1が持つ入力空間から新規データに対応する事例が検索さ れる。 ここで、 その新規データに対応する事例が存在した場合は、 その事例のみ を改訂する。 図 17は、 対応する事例が存在する場合の適応学習動作を示す説明 図である。 ここでは、 新規データ B (23. 9, 66. 8, 48. 2) に対応す る事例 160が存在するため、 新規データ Bの出力値 y = 48. 2と改訂前の事 例 160の出力値 49. 7とから、 その事例の新たな出力値 y = 49. 0を算出 している。 出力改訂演算式としては、 忘却係数 CFrgetを設け、 この忘却係数が 示す比率で改訂前出力値 γ。, dと新規データ Bの出力値 Yとを加算し、 その事例の 改訂後の出力値としている。
一方、 新規デ一夕に対応する事例が存在しない場合は、 その新規データに基づ き新たな事例を生成する。 図 18は、 対応する事例が存在しない場合の適応学習 動作を示す説明図である。 ここでは、 新規データ B (23. 7, 62. 3, 43. 8) に対応するメッシュ 161に事例が存在しないため、 その新規データ Bに対 応するメッシュの中央値を入力値とし、 新規デ一夕 Bの出力値 yを代表の出力値 とする新規事例 162を新たな生成して、 事例ベース 11に追加している。
以上説明したように、 本実施例にかかるソフトセンサ 1で用いる推論モデルは、 事例べ一ス推論の枠組みをモデリングに適用したもので、 位相 (Topology) の概 念に基づき、 システムの入出力関係の連続性が成り立つ一般的な対象に適用可能 なモデリング技術といえる。
したがって、 データは同定された入力空間に事例として蓄えられ、 出力推定時 には入力と予め蓄積されている入力事例との位相距離 (類似度) により推定出力 データの信頼性が示せるという特徴を持つ。 本発明では、 このようなモデルを用 いて出力データを推定するようにしたので、 ニューラルネットワークや回帰モデ ルなどの従来の推論モデルと比較して、 次のような作用効果が得られる。
従来の推論モデルでは、
1 ) 入出力全域の関係を規定するために特殊なモデル構造を用いているため、 システムに最適な構造を見つけるためには多くの手間を必要とする。 2 ) 履歴データの学習を行う場合、 モデル構造の持つ複数のパラメ一夕を同定 するための収束計算を行う必要があり、 この処理に膨大な時間がかかる。
3 ) 新たなデータに基づきモデルを更新する場合にもパラメータの同定を行う 必要があり、 実際には適応学習が困難である。
4 ) 推定を行う入力値に対してモデル出力値がどの程度信頼できるかどうかを 把握するのが困難である。
これに対して、 本発明によれば、
1 ) 過去に経験した事例 (問題と解答) を事例ベースとして蓄積し、 システム の入出力関係を内包する入出力事例を用いているため、 入出力関係を表すための 特殊なモデルを必要としない。
2 ) 事例ベースを生成する場合は、 入力量子化数をパラメ一夕として入力空間 を量子化して事例ベースと類似度を定義し、 評価指標値を算出して量子化数を決 定している。 このため収束計算を必要とせず、 さらにこの評価指標値からモデル の完成度を評価でき、 従来のように別途テストデータを用いてモデル評価を行う 必要がない。
3 ) 新たに入力された問題に対する解答は、 類似事例を検索することにより得 ている。 したがって、 問題に対して検索された事例の類似の程度が判定できるた め、 この類似度を解答の信頼性評価に利用できる。
4 ) 事例ベースが個々の事例から構成されているため、 新たなデータに基づき 事例ベースを部分改訂でき、 従来のようにパラメ一夕の同定を行う必要がなく、 容易に適応学習できる。
なお、 従来のモデルにおける学習と収束計算の問題については、 事例ベース推 論 (Case- Based Reasoning: C B R) において事例ベース構造と類似度の定義と いう問題となる。 これは、 従来の事例ベース推論において、 対象の十分な知見が なければ定義できないという、 工学上の大きな問題となっている。 本発明の事例 ベース推論モデルでは、 数学の位相論における連続写像の概念に基づき、 出力許 容誤差すなわち要求精度に応じた事例ベースと類似度との一義的な定義を、 入力 空間を量子化し位相空間とすることで行っている。 したがって、 対象の十分な知 見すなわち入出力構造の同定を必要とすることなく、 入出力モデルを定めること ができる。
[第 2の実施例]
次に、 図 1を参照して本発明の第 2の実施例にかかるソフトセンサの出力評価 について説明する。 本実施例では、 ソフトセンサ運用時において推定出力データ Yに対する推定誤差 dをソフ卜センサ 1の出力評価部 1 4で算出し、 推定出力デ 一夕 Yと並行してリアルタイムで出力するようにしたものである。
出力評価:出力評価部
図 1 3で示したように、 推定出力データ Yは類似度によりその信頼性が規定さ れる。 出力評価部 1 4では、 事例検索部 1 2の検索結果に基づき入力データ Aに 対応するメッシュと検索したメッシュとの距離を示す類似度 rと、 モデリング条 件として設定された 1メッシュ当たりの出力誤差の許容幅 εとから推定誤差 d = ( r + 1 ) εを算出している。 したがって、 入力デ一夕 Αに対応するメッシュに 事例が存在すれば、 位相距離すなわち類似度 r = 0であることから推定誤差 d = εとなり、 入力データ Αに対応するメッシュに事例が存在せずその付近の他のメ ッシュに事例が存在する場合は、 他のメッシュとの類似度 rが大きくなるにつれ て、 推定出力デ一夕 Yに含まれる推定誤差が大きくなる。
このように、 個々の推定出力データ Yに含まれる固有の推定誤差 d (評価誤差 値) を出力評価部 1 4で算出し、 推定出力データ Yに対応して出力するようにし たので、 従来のような統計的な評価値 (平均誤差) と比較して、 個々の推定出力 デ一夕 Yの信頼性を適切に評価することができる。 さらに、 ソフトセンサ 1の運 用時に並列的に出力するようにしたので、 リアルタイムで推定出力データの誤差 を評価することができる。
[第 3の実施例]
次に、 図 1を参照して本発明の第 3の実施例にかかるソフトセンサの機能評価 について説明する。 本実施例では、 ソフトセンサ運用時においてソフトセンサ 1 が正しく機能しているかどうか、 すなわち所望の出力誤差許容幅や位相距離によ つて定まるソフトセンサの規格どおりに機能しているかどうかを機能評価部 1 6 で評価するようにしたものである。
ソフトセンサの機能評価:機能評価都 以下、 図 1 9, 2 0を参照して、 ソフトセンサの機能評価方法について説明す る。 図 1 9はソフトセンサの機能評価に用いる条件を示す説明図、 図 2 0は条件 と評価結果との関係を示す説明図である。 ソフトセンサの機能評価を行う場合、 図 1 9に示す 2つの条件①, ②に基づいて評価する。
条件①については、 新規の入力デ一夕 Aに対して事例ベース 1 1に基づき出力 推定部 1 3から得られた推定出力データ Yと外部から入力された真値の出力デ一 タ Υουτとの差 (絶対値) と、 その推定出力データ Υの推定に用いた類似度 r + 1 と出力誤差許容幅 εとの積 (r + 1 ) εすなわち推定出力データ Yに対して誤差 推定部 1 4から得られた推定誤差 dとを比較し、 I Υ— Υουτ I≤ ( r + 1 ) εを 満足するかどうか判断する。 そして、 このような条件①が成立する場合は、 要求 精度の範囲内で推定できていることから、 ソフトセンサが正しく機能していると いう評価結果 3 6を出力する。 このとき、 図 2 0に示すように、 事例ベースの学 習を促す具体的な評価結果 3 6を出力するようにしてもよい。
また、 この評価結果に基づき適応学習部 1 5を制御するようにしてもよく、 事 例べ一ス 1 1の更新を自動的に行うことができる。 適応学習を行うタイミングと しては、 対象から実測された真値の出力デ一夕が得られた時点で、 その真値の出 カデ一夕とそれに対応する入力デ一夕とからなる新規履歴データを用いて学習す なわち事例ベース 1 1の部分改訂を行うようにしてもよい。 また類似度 r > 0の 場合、 すなわち入力データ Aに対応するメッシュに事例が存在しない場合に適応 学習を行うようにしてもよい。 適応学習については、 それまでの事例の出力デー 夕と真値の出力データとの乖離が大きい場合、 それまでの事例を廃棄して真値の 出力データを新たな事例として採用してもよい。 また、 真値の出力データが得ら れた時点で逐次学習を行わず、 例えば学習させるべき新規履歴データがある程度 発生した時点などに、 一括して学習させるようにしてもよい。
条件②については、 新規の入力データ Aに対して事例ベース 1 1に基づき出力 推定部 1 3から得られた推定出力データ Yと外部から入力された真値の出力デ一 夕 Υουτとの差 (絶対値) と、 その推定出力データ Υの推定に用いた類似度 r + 1 と出力誤差許容幅 εとの積 (r + 1 ) εすなわち推定出力データ Yに対して誤差 推定部 1 4から得られた推定誤差 dとを比較し、 I Y— Υουτ I > ( r + 1 ) εを 満足するかどうか判断する。 そして、 このような条件②が成立する場合は、 要求 精度の範囲内で推定ができていないことから、 ソフトセンサが正しく機能してい ないという評価結果 3 6を出力する。 このとき、 図 2 0に示すように、 例えば条 件②が突発的に成立する場合には一時的なノイズの可能性を示唆を示唆したり、 例えば条件②が頻繁に成立する場合には出力誤差許容幅や入力変数選択の見直し を示唆する具体的な評価結果 3 6を出力するようにしてもよい。
このように、 入力データ Aに対する推定出力データ Yと真値の出力データ Υου τとの差と、 (r + 1 ) εすなわち出力誤差 dとを比較することにより評価するよ うにしたので、 ソフトセンサが正しく機能しているかどうか、 すなわち所望の出 力誤差許容幅や位相距離によって定まるソフトセンサの規格どおりに機能してい るかどうかを精度よく適切に評価することができる。
[第 4の実施例]
第 3の実施例では、 事例ベースを用いて出力デ一夕を推定するソフトセンサの 機能評価を行う場合について説明したが、 本実施例では、 任意の推論エンジンを 用いたソフトセンサの機能評価を外部から間接的に行う場合について説明する。 図 2 1はニューラルネットワーク (N N) を用いて出力データを推定するソフト センサを評価する評価装置を示す機能ブロック図である。 このソフトセンサ 4に は、 履歴データ? 〜 』 (6 3 ) に基づきニューラルネットワーク 4 2を生成す るニューラルネッ卜ワーク生成部 4 1と、 このニューラルネットワーク生成部 4 1により生成されたニューラルネットワーク 4 2を用いて入力データ A ( 6 1 ) に対応する出力データを推定し、 推定出力データ Y ( 6 2 ) として出力する出力 推定部 4 3とが設けられている。 以下では、 推論エンジンとしてニューラルネッ トワークを用いたソフトセンサを例として説明するが、 ニューラルネットワーク に限定されるものではなく、 他のモデル例えば線形モデル、 非線形モデル、 ある いは前述した事例ベースを推論エンジンとするソフトセンサを外部から評価する 場合にも適用できる。
ソフトセンサの機能評価:評価装置
ソフトセンサ 4の機能評価を行う評価装置 5には、 評価用事例ベース 5 1、 事 例検索部 5 2、 出力推定部 5 3、 出力評価部 5 4、 機能評価部 5 5とが設けられ ている。 これら各部は図 1のソフトセンサ 1の各部に対応しており、 ほぼ同様の 動作を行う。 すなわち評価用事例べ一ス 5 1は事例ベース 1 1に相当する。 なお、 この評価用事例ベース 5 1は、 ソフトセンサ 4のニューラルネットワーク (N N) 4 2を生成する場合に用いたもの同じ履歴データ 6 3を用いて、 例えば図 2 に示した事例ベース生成装置 2により予め生成されているものとする。 また、 事 例検索部 5 2、 出力推定部 5 3, 出力評価部 5 4、 機能評価部 5 5については、 それぞれソフトセンサ 1の事例検索部 1 2、 出力推定部 1 3 , 出力評価部 1 4、 機能評価部 1 6に相当する。
次に、 評価装置 5の動作について説明する。 この評価装置 5は、 ソフトセンサ 4と並列的に動作するものであり、 ソフトセンサ 4に入力される入力データ Aが 評価装置 5の事例検索部 5 2にも入力される。 事例検索部 5 2では、 評価用事例 ベース 5 1を用いて入力データ Aに対応する 1つ以上の事例を検索する。 出力推 定部 5 3では、 検索された事例の出力値に基づき入力データ Aに対応する出力デ —夕を算出し、 評価推定データ YH ( 6 4 ) として出力する。 また、 出力評価部 5 4では、 事例検索部 5 2での事例検索で用いた類似度に基づき評価推定データ Y Hの推定誤差を算出し、 評価推定誤差 d H ( 6 5 ) として出力する。 この評価推定 誤差 d Hは、 前述と同様に入力データ Aに対応する評価推定出力デ一夕 YHごとに その推定誤差を示すデータとして出力される。
ソフトセンサの機能評価:機能評価部
機能評価部 5 5では、 出力推定部 5 3からの評価推定データ YH、 出力評価部 5 4からの評価推定誤差 d Η、 さらには対象から例えばハードセンサにより実測され た真値の出力データ Υουτ ( 6 6 ) を用いて、 ニューラルネットワーク 4 2を用い たソフトセンサ 4の機能評価を行う。 この評価動作については、 前述した機能評 価部 1 6と同様であり、 図 1 8に示した条件を用いて評価を行い、 図 1 9に示し た関係に基づき評価結果を出力する 6 7を出力する。 図 1 8の各条件では、 推定 出力データ Υの代わりに評価推定出力データ ΥΗが用いられ、 (r + 1 ) εについ ては推定誤差 dの代わりに評価推定誤差 d Hが対応するものとなる。 なお、 ここで の評価動作についての詳細説明は省略する。
このように、 ソフトセンサの推論モデルの生成に用いた履歴データから評価用 事例ベースを予め生成しておき、 そのソフトセンサと並列的に設けられた評価装 置で、 ソフトセンサへ入力される入力データと同一の入力データについて評価用 事例ベースに基づき評価推定出力データや評価推定誤差を算出し、 これらを用い てソフトセンサの機能評価するようにしたので、 いずれの推論エンジンを用いた ソフトセンサであっても、 評価用事例ベースが提供しうる推定精度に基づき、 そ のソフトセンサが正しく機能しているかどうかを間接的に評価することができる。
[第 5の実施例]
第 4の実施例では、 任意の推論モデルを用いたソフトセンサについて、 別途生 成した評価用事例ベースにより推定動作を並列的に行うことにより、 運用時にソ フトセンサの機能評価を行う評価装置について説明した。 ここでは、 ソフトセン サ運用時ではなく、 ソフトセンサで用いる推論モデルを生成する際に、 そのソフ トセンサの機能評価を行う場合について説明する。
図 2 1の評価装置で用いた評価用事例べ一ス 5 1は、 ソフトセンサ 4の推論モ デルここではニューラルネットヮ一ク 4 2を生成した履歴データ 6 7を用いて、 図 2に示した事例ベース生成装置 2により生成している。 このとき、 第 1の実施 例で述べたように、 入力量子化部 2 1の出力分布条件判定手段 2 1 Aおよび連続 性条件判定手段 2 1 Bの判定に基づき、 ソフトセンサ 4で用いるニューラルネッ トワーク 4 2による対象のモデル実現性を評価することができ、 図 2の事例べ一 ス生成装置をモデル評価装置と見なすこともできる。 この評価は、 前述と同様に 図 1 0の評価基準を参照して、 出力分布条件判定手段 2 1 Aおよび連続性条件判 定手段 2 1 Bから得られた指標、 すなわち出力分布条件充足率および連続性条件 充足率を判定するものであり、 ここでの詳細な説明は省略する。
このように、 入力量子化部 2 1において出力分布条件充足率および連続性条件 充足率を判定して、 その履歴データを用いて対象を所望の精度でモデリングでき るかどうかを評価し、 評価結果 4 0を出力するようにしたので、 評価用事例べ一 ス生成時に要求精度に基づくモデリングができない場合には、 同一履歴データで 生成したソフトセンサの任意の推論モデルでも同様の課題が生じると判断でき、 評価結果 4 0に基づき具体的な対策、 例えば入力変数選択の見直し、 計測ポイン トの見直し、 あるいは履歴デ一夕に対するノィズ除去処理の見直しなどの適切な 対策をとることができる。 なお、 本実施例では、 ニューラルネットワークを用い たソフトセンサを例として説明したが、 これに限定されるものではなく、 いずれ の推論エンジンを用いたソフトセンサであっても、 対象のモデル実現性を適切に 評価することができる。 産業上の利用可能性
以上説明したことから明らかなように、 本発明にかかるソフトセンサによれば、 推定に必要な複数の入力変数ごとに得られた入力デ一夕の組とその入力データを 入力条件として対象から得られた実際の出力データとからなる履歴データを複数 取り込み、 所望の出力許容誤差に応じて事例ベースの入力空間を量子化して複数 の単位入力空間を形成するとともに対応する単位入力空間内に各履歴データを配 置し、 1つ以上の履歴デ一夕を有する単位入力空間ごとにその単位入力空間の履 歴データを代表する事例を作成することにより生成された事例ベースと、 この事 例ベースを検索することにより、 新たな入力データの組に対応する単位入力空間 に最も位相距離が近くて事例を有する 1つ以上の単位入力空間からそれぞれ事例 を取得する事例検索部と、 新たな入力データの組に対応する出力データを推定す る出力推定部とを設け、 この出力推定部で、 事例検索部により検索された事例の 出力デ一夕から新たな入力データの組に対応する出力データを算出し推定出力デ 一夕として出力するようにしたので、 同定対象から実際に検出される出力データ をわずかな時間で、 それぞれ正確な評価値を有する推定出力デ一夕を推定するこ とができる。
また、 本発明にかかる他のソフトセンサによれば、 推定出力データに含まれる 誤差を算出する出力評価部をさらに設け、 この出力評価部で、 新たな入力データ の組に対応する単位入力空間と事例検索部で検索された事例の単位入力空間との 間の位相距離と出力許容誤差とに基づき、 出力推定部から出力された推定出力デ 一夕に含まれる誤差を算出し、 推定出力データに対応する推定誤差として出力す るようにしたので、 各推定出力データに含まれる推定誤差を明確に提示すること ができる。 .
また、 本発明にかかる他のソフトセンサによれば、 機能評価部において、 出力 評価部からの推定誤差、 出力推定部からの推定出力データ、 および対象から得ら れた真値の出力デ一夕を用いて評価するようにしたので、 ソフトセンサが正しく 機能しているかどうかを適切に評価できる。
また、 本発明にかかるソフトセンサの評価装置によれば、 ソフトセンサの推論 モデルを生成する際に用いられ、 推定に必要な複数の入力変数ごとに得られた入 力データの組とその入力デ一夕を入力条件として対象から得られた実際の出力デ 一夕とからなる履歴データを複数取り込み、 所望の出力許容誤差に応じて事例べ ースの入力空間を量子化して複数の単位入力空間を形成するとともに対応する単 位入力空間内に各履歴データを配置し、 1つ以上の履歴データを有する単位入力 空間ごとにその単位入力空間の履歴データを代表する事例を作成することにより 生成された評価用事例ベースと、 この評価用事例ベースを検索することにより、 ソフトセンサに入力される新たな入力データの組に対応する単位入力空間に最も 位相距離が近くて事例を有する 1つ以上の単位入力空間からそれぞれ事例を取得 する事例検索部と、 この事例検索部により検索された事例の出力デ一夕から新た な入力デ一夕の組に対応する出力データを算出し評価推定出力データとして出力 する出力推定部と、 新たな入力データの組に対応する単位入力空間と事例検索部 で検索された事例の単位入力空間との間の位相距離と出力許容誤差とに基づき、 出力推定部から出力された推定出力データに含まれる誤差を算出し、 評価推定誤 差として評価推定出力データごとに並列して出力する出力評価部と、 ソフトセン サを評価する機能評価部とを設け、 この機能評価部で、 出力評価部からの評価推 定誤差、 出力推定部からの評価推定出力データ、 および対象から得られた真値の 出力デ一夕を用いて評価するようにしたので、 いずれの推論モデルを用いたソフ トセンサであっても、 ソフトセンサが正しく機能しているかどうかを間接的に評 価することができる。
また、 本発明にかかる他のソフトセンサの評価装置によれば、 機能評価部を設 けて、 新たな入力データの組に対応して出力推定部で得られた評価推定出力デー 夕と対象から得られた真値の出力データとの差と、 評価推定出力データに対応す る評価推定誤差とを比較することにより、 ソフトセンサが正しく機能しているか どうかを評価するようにしたので、 評価用事例ベースが提供しうる推定精度に基 づいて、 ソフトセンサが正しく機能しているかどうかを間接的に評価することが できる。
また、 本発明にかかる他のソフトセンサの評価装置によれば、 推定に必要な複 数の入力変数ごとに得られた入力デ一夕の組とその入力デ一夕を入力条件として 対象から得られた実際の出力データとからなる履歴デ一夕を複数取り込み、 所望 'の出力許容誤差に応じて事例ベースの入力空間を量子化して複数の単位入力空間 を形成する入力量子化部と、 この入力量子化部により形成した各単位入力空間に ついて、 その単位入力空間に配置される履歴データ間の出力デ一夕のばらつきが 所望の出力許容誤差以内であるという条件を満たすか否か判断し、 この条件を満 たす単位入力空間の充足率を出力分布条件充足率として算出出力する出力分布条 件判定手段と、 この入力量子化部により形成した各単位入力空間について、 その 単位入力空間に配置される履歴デ一夕を代表する代表履歴デ一夕の出力データと、 その単位入力空間に最も位相距離が近くかつ履歴データが配置される 1つ以上の 単位入力空間の代表履歴データの出力データ平均値との差が、 位相距離に応じた 出力許容誤差以内であるという条件を満たすか否か判断し、 この条件を満たす単 位入力空間の充足率を連続性条件充足率として算出出力する連続性条件判定手段 とを設けて、 入力量子化部で、 出力分布条件充足率および連続性条件充足率に基 づき履歴データを用いて生成された推論モデルを評価するようにしたので、 いず れの推論エンジンを用いたソフ卜センサであっても、 ソフトセンサの推論モデル 生成時に対象のモデル実現性を適切に評価することができる。

Claims

請 求 の 範 囲
1 . 対象の振る舞いを示す複数の入力変数ごとに得られた入力データの組 を所定の推論モデルを用いて演算処理することにより、 その入力データの組に応 じて前記対象から実際に検出される出力データを推定し推定出力データとして出 力するソフトセンサであって、
推定に必要な複数の入力変数ごとに得られた入力データの組とその入力データ を入力条件として対象から得られた実際の出力データとからなる履歴データを複 数取り込み、 所望の出力許容誤差に応じて事例べ一スの入力空間を量子化して複 数の単位入力空間を形成するとともに対応する単位入力空間内に前記各履歴デー 夕を配置し、 1つ以上の履歴データを有する単位入力空間ごとにその単位入力空 間の履歴データを代表する事例を作成することにより生成された事例ベースと、 この事例ベースを検索することにより、 新たな入力デ一夕の組に対応する単位 入力空間に最も位相距離が近くて事例を有する 1つ以上の単位入力空間からそれ ぞれ事例を取得する事例検索部と、
この事例検索部により検索された前記事例の出力デ一夕から前記新たな入力デ 一夕の組に対応する出力データを算出し推定出力データとして出力する出力推定 部とを備えることを特徴とするソフトセンサ。
2 . 請求の範囲第 1項において、
前記新たな入力データの組に対応する単位入力空間と前記事例検索部で検索さ れた事例の単位入力空間との間の位相距離と前記出力許容誤差とに基づき、 前記 出力推定部から出力された推定出力データに含まれる誤差を算出し、 前記推定出 力データに対応する推定誤差として出力する出力評価部をさらに備えることを特 徵とするソフトセンサ。
3 . 請求の範囲第 2項において、
前記新たな入力データの組が事例のない単位入力空間に対応する場合は、 その 新たな入力データの組に対応して前記出力推定部で得られた推定出力データと対 象から得られた真値の出力データとの差と、 前記推定出力データに対応する推定 誤差とを比較する.ことにより、 ソフトセンサが正しく機能しているかどうかを評 価する機能評価部をさらに備えることを特徴とするソフトセンサ。
4. 対象の振る舞いを示す複数の入力変数ごとに得られた入力データの組 を所定の推論モデルを用いて演算処理することにより、 その入力データの組に応 じて前記対象から実際に検出される出力データを推定し推定出力データとして出 力するソフトセンサについて、 そのソフトセンサを評価するソフトセンサの評価 装置であって、
前記ソフトセンサの推論モデルを生成する際に用いられ、 推定に必要な複数の 入力変数ごとに得られた入力データの組とその入力デ一夕を入力条件として対象 から得られた実際の出力データとからなる履歴デ一夕を複数取り込み、 所望の出 力許容誤差に応じて事例ベースの入力空間を量子化して複数の単位入力空間を形 成するとともに対応する単位入力空間内に前記各履歴データを配置し、 1つ以上 の履歴デ一夕を有する単位入力空間ごとにその単位入力空間の履歴デ一夕を代表 する事例を作成することにより生成された評価用事例ベースと、
この評価用事例べ一スを検索することにより、 前記ソフトセンサに入力される 新たな入力データの組に対応する単位入力空間に最も位相距離が近くて事例を有 する 1つ以上の単位入力空間からそれぞれ事例を取得する事例検索部と、 この事例検索部により検索された前記事例の出力デ一夕から前記新たな入力デ —夕の組に対応する出力データを算出し評価推定出力データとして出力する出力 推定部と、
前記新たな入力データの組に対応する単位入力空間と前記事例検索部で検索さ れた事例の単位入力空間との間の位相距離と前記出力許容誤差とに基づき、 前記 出力推定部から出力された推定出力データに含まれる誤差を算出し、 前記評価推 定出力データに対応する評価推定誤差として出力する出力評価部と、
前記出力評価部からの評価推定誤差、 前記出力推定部からの評価推定出力デー タ、 および対象から得られた真値の出力データを用いて前記ソフトセンサが正し く機能しているかどうかを評価する機能評価部とを備えることを特徴とするソフ トセンサの評価装置。
5 . 請求の範囲第 4項において、
前記機能評価部は、 前記新たな入力データの組に対応して前記出力推定部で得 られた評価推定出力デ一夕と対象から得られた真値の出力データとの差と、 前記 評価推定出力データに対応する評価推定誤差とを比較することにより、 前記ソフ トセンサが正しく機能しているかどうかを評価することを特徴とするソフトセン サの評価装置。
6 . 対象の振る舞いを示す複数の入力変数ごとに得られた入力デ一夕の組 を所定の推論モデルを用いて演算処理することにより、 その入力データの組に応 じて前記対象から実際に検出される出力データを推定し推定出力データとして出 力するソフトセンサについて、 そのソフトセンサを評価するソフトセンサの評価 装置であって、
推定に必要な複数の入力変数ごとに得られた入力デ一夕の組とその入力デ一夕 を入力条件として対象から得られた実際の出力データとからなり、 かつ前記推論 モデル生成時に用いた履歴データを複数取り込み、 所望の出力許容誤差に応じて 事例ベースの入力空間を量子化して複数の単位入力空間を形成する入力量子化部 を備え、
この入力量子化部は、
形成した前記各単位入力空間について、 その単位入力空間に配置される履歴デ —夕間の出力データのばらつきが所望の出力許容誤差以内であるという条件を満 たすか否か判断し、 この条件を満たす単位入力空間の充足率を出力分布条件充足 率として算出出力する出力分布条件判定手段と、
形成した前記各単位入力空間について、 その単位入力空間に配置される履歴デ —夕を代表する代表履歴データの出力データと、 その単位入力空間に最も位相距 離が近くかつ履歴データが配置される 1つ以上の単位入力空間の代表履歴データ の出力データ平均値との差が、 前記位相距離に応じた出力許容誤差以内であると いう条件を満たすか否か判断し、 この条件を満たす単位入力空間の充足率を連続 性条件充足率として算出出力する連続性条件判定手段とを有し、 前記出力分布条件充足率および前記連続性条件充足率に基づき前記履歴データ を用いて生成された推論モデルによる対象のモデル実現性を評価することを特徴 とするソフトセンサの評価装置。
PCT/JP2000/004497 2000-07-06 2000-07-06 Capteur logiciel et dispositif d'evaluation correspondant WO2002006953A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US10/332,224 US7359842B1 (en) 2000-07-06 2000-07-06 Soft sensor device and device for evaluating the same
AU2000258488A AU2000258488A1 (en) 2000-07-06 2000-07-06 Soft sensor device and device for evaluating the same
DE10085478T DE10085478T1 (de) 2000-07-06 2000-07-06 Softsensor-Einrichtung sowie Einrichtung zum Bewerten derselben
CNB008198748A CN1287275C (zh) 2000-07-06 2000-07-06 软传感器装置和用于评估该装置的装置
PCT/JP2000/004497 WO2002006953A1 (fr) 2000-07-06 2000-07-06 Capteur logiciel et dispositif d'evaluation correspondant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2000/004497 WO2002006953A1 (fr) 2000-07-06 2000-07-06 Capteur logiciel et dispositif d'evaluation correspondant

Publications (1)

Publication Number Publication Date
WO2002006953A1 true WO2002006953A1 (fr) 2002-01-24

Family

ID=11736234

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/004497 WO2002006953A1 (fr) 2000-07-06 2000-07-06 Capteur logiciel et dispositif d'evaluation correspondant

Country Status (5)

Country Link
US (1) US7359842B1 (ja)
CN (1) CN1287275C (ja)
AU (1) AU2000258488A1 (ja)
DE (1) DE10085478T1 (ja)
WO (1) WO2002006953A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073031A (ja) * 2010-09-27 2012-04-12 Takano Co Ltd 入力物理量推定方法、推定装置並びに推定プログラム
JP2017126329A (ja) * 2015-12-31 2017-07-20 ダッソー システムズDassault Systemes トレーニングセットの評価
US10949425B2 (en) 2015-12-31 2021-03-16 Dassault Systemes Retrieval of outcomes of precomputed models
US10963811B2 (en) 2015-12-31 2021-03-30 Dassault Systemes Recommendations based on predictive model
US11308423B2 (en) 2015-12-31 2022-04-19 Dassault Systemes Update of a machine learning system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6030278B2 (ja) * 2006-03-16 2016-11-24 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated 電子デバイス製造システムの操作を改善する方法及び装置
US8301356B2 (en) * 2008-10-06 2012-10-30 GM Global Technology Operations LLC Engine out NOx virtual sensor using cylinder pressure sensor
DE102016201745A1 (de) * 2016-02-05 2017-08-10 Vaillant Gmbh Softsensor zur Identifikation und Regelung oder Steuerung eines Lüftungssystems
US11551077B2 (en) * 2018-06-13 2023-01-10 International Business Machines Corporation Statistics-aware weight quantization
CN115385445B (zh) * 2022-09-21 2023-04-04 南京晓庄学院 一种基于大数据的污水生化处理用软测量管理系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160662A (ja) * 1993-12-02 1995-06-23 Hitachi Ltd ニューラルネットワークの予測結果における信頼度算出方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5918200A (en) * 1992-08-31 1999-06-29 Yamatake-Honeywell Co., Ltd. State estimating apparatus
US6243696B1 (en) * 1992-11-24 2001-06-05 Pavilion Technologies, Inc. Automated method for building a model
US5831851A (en) * 1995-03-21 1998-11-03 Seagate Technology, Inc. Apparatus and method for controlling high throughput sputtering
US6879971B1 (en) * 1995-12-22 2005-04-12 Pavilion Technologies, Inc. Automated method for building a model
SG84531A1 (en) * 1999-05-20 2001-11-20 Univ Singapore Disturbance attenuation in a precision servomechanism by a frequency-separated acceleration soft sensor
US6639402B2 (en) * 2001-01-31 2003-10-28 University Of Kentucky Research Foundation Temperature, stress, and corrosive sensing apparatus utilizing harmonic response of magnetically soft sensor element (s)

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160662A (ja) * 1993-12-02 1995-06-23 Hitachi Ltd ニューラルネットワークの予測結果における信頼度算出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TSUTUI: "Data mining ni okeru hi-senkei system no modeling to sono ouyou", SYSTEM/SEIGYO/JOHO, vol. 40, no. 12, December 1996 (1996-12-01), pages 522 - 530, XP002907497 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073031A (ja) * 2010-09-27 2012-04-12 Takano Co Ltd 入力物理量推定方法、推定装置並びに推定プログラム
JP2017126329A (ja) * 2015-12-31 2017-07-20 ダッソー システムズDassault Systemes トレーニングセットの評価
US10949425B2 (en) 2015-12-31 2021-03-16 Dassault Systemes Retrieval of outcomes of precomputed models
US10963811B2 (en) 2015-12-31 2021-03-30 Dassault Systemes Recommendations based on predictive model
US11176481B2 (en) 2015-12-31 2021-11-16 Dassault Systemes Evaluation of a training set
US11308423B2 (en) 2015-12-31 2022-04-19 Dassault Systemes Update of a machine learning system

Also Published As

Publication number Publication date
AU2000258488A1 (en) 2002-01-30
CN1287275C (zh) 2006-11-29
US7359842B1 (en) 2008-04-15
CN1454348A (zh) 2003-11-05
DE10085478T1 (de) 2003-10-16

Similar Documents

Publication Publication Date Title
EP3809220B1 (en) Method and system for semi-supervised deep anomaly detection for large-scale industrial monitoring systems based on time-series data utilizing digital twin simulation data
Sikorska et al. Prognostic modelling options for remaining useful life estimation by industry
Peel Data driven prognostics using a Kalman filter ensemble of neural network models
KR102479755B1 (ko) 실시간 센싱 데이터 기반의 중전기기 예방정비 권고 시스템 및 그 방법
JPH1074188A (ja) データ学習装置およびプラント制御装置
CN114547974B (zh) 基于输入变量选择与lstm神经网络的动态软测量建模方法
JP6176979B2 (ja) プロジェクト管理支援システム
KR20170127430A (ko) 센서 오차를 검출, 분류 및/또는 완화하는 방법 및 시스템
WO2002006953A1 (fr) Capteur logiciel et dispositif d'evaluation correspondant
Verma et al. Handling imprecision in inputs using fuzzy logic to predict effort in software development
CN115114822A (zh) 基于数字孪生的水下节流阀剩余使用寿命估计方法及系统
CN115421216A (zh) 一种基于stl-arima-nar混合模型的中长期月降雨预报方法
CN118228130B (zh) 一种基于设备健康状态的监测方法、系统和存储介质
CN116861694A (zh) 一种基于人工智能的电缆温度预测方法
CN115422687A (zh) 一种滚动轴承的寿命预测方法
Aliev et al. Genetic algorithms-based fuzzy regression analysis
CN114201825A (zh) 基于组合特征的设备性能退化状态的评估方法及系统
CN117743964A (zh) 基于图数据的设备剩余使用寿命预测方法、系统及介质
Kuhi et al. Using probabilistic models for missing data prediction in network industries performance measurement systems
Idri et al. Fuzzy case-based reasoning models for software cost estimation
KR102560263B1 (ko) 모드 분해와 신경망을 이용한 전력 예측 장치
KR101151013B1 (ko) 타이어 성능 평가 방법
CN114257806A (zh) 工业相机故障预测方法、装置、计算机设备和存储介质
Alejandrino et al. Structural Health Fuzzy Classification of Bridge based on Subjective and Objective Inspections
Ingole et al. Investigation of Different Regression Models For The Predictive Maintenance of Aircraft's Engine

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2002 512799

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 008198748

Country of ref document: CN

122 Ep: pct application non-entry in european phase
RET De translation (de og part 6b)

Ref document number: 10085478

Country of ref document: DE

Date of ref document: 20031016

Kind code of ref document: P

WWE Wipo information: entry into national phase

Ref document number: 10085478

Country of ref document: DE

REG Reference to national code

Ref country code: DE

Ref legal event code: 8607