WO2019163141A1 - 状態予測装置および状態予測制御方法 - Google Patents

状態予測装置および状態予測制御方法 Download PDF

Info

Publication number
WO2019163141A1
WO2019163141A1 PCT/JP2018/007039 JP2018007039W WO2019163141A1 WO 2019163141 A1 WO2019163141 A1 WO 2019163141A1 JP 2018007039 W JP2018007039 W JP 2018007039W WO 2019163141 A1 WO2019163141 A1 WO 2019163141A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
time
learning
unit
prediction
Prior art date
Application number
PCT/JP2018/007039
Other languages
English (en)
French (fr)
Inventor
利明 上嶋
Original Assignee
株式会社日立情報通信エンジニアリング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立情報通信エンジニアリング filed Critical 株式会社日立情報通信エンジニアリング
Priority to JP2019504874A priority Critical patent/JP6670418B2/ja
Priority to EP18906994.1A priority patent/EP3605410A4/en
Priority to CN201880012012.2A priority patent/CN110431570A/zh
Priority to PCT/JP2018/007039 priority patent/WO2019163141A1/ja
Priority to US16/326,540 priority patent/US20210383250A1/en
Publication of WO2019163141A1 publication Critical patent/WO2019163141A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the present invention relates to a state prediction technique, and more particularly to a technique for predicting future measurement data based on sensor data (measurement data) output continuously from an observation sensor and predicting the state of an observation target.
  • Patent Document 1 states that “time-series data is divided into overlapping data segments of equal size, an image representing the segment data is generated for each segment, and the time-series data is used. And determining a trend associated with each image and storing each generated image and associated trend as the data set (summary excerpt). "
  • the present invention has been made in view of the above circumstances, and based on measurement data output from an observation sensor (time-series observation values related to an observation object), the state of the observation object having a plurality of operation modes is highly accurate.
  • the purpose is to provide the technology that predicts with.
  • the state prediction control apparatus which concerns on this invention will acquire the 1st sensor data obtained with the 1st observation sensor which observes the state of observation object at a predetermined time interval, and said observation
  • a learning data generation unit that generates learning data by dividing each target operation mode, classifies each of the generated predetermined number of learning data into predetermined categories, and attaches a label prepared in advance for each category
  • a clustering unit that generates supervised data and learning that inputs the predetermined number of supervised data to a learning algorithm to learn, generates a learned model of the learning algorithm, and generates representative data for each category
  • the first sensor data as a state of the observation target at a future time using the time series model, from the time series model generation unit that generates a time series model, arranged in series, and the newly acquired first sensor data
  • the state of an observation target having a plurality of operation modes can be predicted with high accuracy based on measurement data output from an observation sensor.
  • (A) is an example of label data of the first embodiment
  • (b) and (c) are examples of supervised data of the first embodiment
  • (d) and (e) are examples of the first implementation.
  • (A) And (b) is explanatory drawing for demonstrating the outline
  • A) is a graph of the waveform data example of the measurement data of the first embodiment
  • (b) is a graph of a histogram example of the measurement data of the first embodiment.
  • (A) And (b) is a graph for demonstrating the time width calculation process of 1st embodiment.
  • (A) And (b) is a graph for demonstrating the time width calculation process of 1st embodiment.
  • (A) And (b) is a graph for demonstrating the time width calculation process of 1st embodiment.
  • A) And (b) is a graph for demonstrating the time width calculation process of 1st embodiment. It is a flowchart of the prediction process of 1st embodiment.
  • sensor data obtained continuously from various observation sensors attached to various parts of the plant equipment is used to generate a time series model of changes in measurement data. Then, using the generated time series model, the measurement data at the future time is predicted, and the state of the plant equipment to be observed is predicted. Finally, it is determined whether or not there is a failure in the plant equipment based on the predicted measurement data.
  • the plant equipment changes its operation mode by the control and is automatically feedback controlled. For example, raw materials such as liquid and gas are put into a production container provided in the plant equipment by a pump or the like.
  • the inflow amount in this case is controlled from an external program, the current and voltage of the pump motor change according to the control.
  • the temperature of the production container is controlled, the temperature and the current and voltage of the heater and the cooling pump motor change.
  • Measured data obtained from these observation sensors in time series is waveform data indicating a waveform shape that changes with time. Since plant equipment is feedback-controlled between a plurality of operation modes as described above, changes in current and voltage are unsteady. Therefore, in this waveform data, a plurality of operation modes are observed unsteady, and measurement data obtained over time is also unsteady.
  • Such an event generally occurs when controlling the combination of operation modes and the time width of each operation mode including automatic feedback from an external program corresponding to the thing produced by the plant equipment.
  • measurement data time-series data obtained over time is non-stationary, which means that statistical parameters such as average and variance of measurement data are not constant or change discontinuously.
  • Unsteady time-series data is difficult to model and predict by a statistical method such as ARIMA (Auto Regressive Integrated Moving Average).
  • ARIMA Auto Regressive Integrated Moving Average
  • a time series model of an operation mode is created from measurement data obtained from an observation sensor attached to a plant device that performs such an operation, and a state is predicted by calculating a predicted value of an object. .
  • object means what is directly observed from sensor information (sensor data; measurement data) output by each of the observation sensors.
  • sensor information sensor data; measurement data
  • the observation sensor is a temperature sensor
  • the object is temperature.
  • CMOS sensor CMOS sensor
  • the part of the plant equipment to be imaged or the product of the plant equipment is the target.
  • FIG. 1 shows a hardware configuration of the state prediction apparatus according to the present embodiment.
  • the state prediction apparatus 100 includes a CPU 112, a ROM 113, a RAM 114, a file unit 115, an external interface (I / F) 116, a monitor 117, and a bus 118.
  • a CPU 112 the state prediction apparatus 100 according to the present embodiment includes a CPU 112, a ROM 113, a RAM 114, a file unit 115, an external interface (I / F) 116, a monitor 117, and a bus 118.
  • the CPU 112 performs arithmetic processing.
  • the ROM 113 and the file unit 115 function as a data storage device.
  • the ROM 113 stores a program such as a processing routine in advance.
  • the file unit 115 may be configured by an HDD, for example.
  • the monitor 117 displays the processing result.
  • the CPU 112, the ROM 113, the RAM 114, the file unit 115, the external interface 116, and the monitor 117 are connected via a bus 118 so as to be able to exchange commands and data, and function as a computer.
  • the state prediction apparatus 100 includes a number of electric system components such as a power supply device. Description is omitted.
  • the external I / F 116 is connected to an observation sensor 300 for acquiring the state information of the plant equipment to be observed by the state prediction device 100.
  • the observation sensor 300 includes, for example, a current sensor 311, a voltage sensor 312, a temperature sensor 313, a pressure sensor 314, an acceleration sensor 315, a camera 316, and the like.
  • the types of observation sensors to be connected are not limited to these.
  • the state prediction apparatus 100 creates a time-series model of measurement data in which a plurality of operation modes are observed unsteadyly, and calculates a predicted value of an object.
  • the measurement data output from the observation sensor 300 is continuously acquired, divided for each operation mode, and a time series model of the measurement data divided for each operation mode is generated.
  • the calculation of the predicted value is performed using newly acquired measurement data that is different from the measurement data used when generating the time series model.
  • FIG. 2 shows functional blocks of the state prediction apparatus 100 of the present embodiment.
  • the state prediction apparatus 100 includes a preprocessing learning unit 210 and a prediction unit 220.
  • the preprocessing learning unit 210 generates learning data from measurement data taken continuously at a predetermined time interval, inputs it into a learning algorithm and learns, and learns a model, representative data for each classification, and time series model. Generate.
  • the learning data is obtained by segmenting the measurement data for each operation mode. In the present embodiment, each operation mode is segmented with an optimum time width and used as learning data.
  • the preprocessing learning unit 210 includes a time width calculation unit 211, a learning data generation unit 212, a clustering unit 213, a learning unit 214, and a time series model generation unit 215.
  • the prediction unit 220 divides the measurement data obtained from the observation sensor 300 by the optimal time width for each operation mode, and learns models and classifications generated by the preprocessing learning unit 210. Predict and evaluate future time measurement data using each representative data and time series model.
  • the prediction unit 220 includes a time width calculation unit 221, a prediction data generation unit 222, a classification determination unit 223, a prediction value calculation unit 224, and a matching evaluation unit 225.
  • the above functions are realized by the CPU 112 loading a program stored in advance in the ROM 113 or the file unit 115 into the RAM 114 and executing it.
  • the file unit 115 or the ROM 113 stores programs and data necessary for realizing the above processing.
  • a storage unit including a label storage unit 230, a learning data set storage unit 240, a learned model storage unit 250, a representative data storage unit 260, and a time series model storage unit 270 is provided. It is done.
  • the case where these are provided in the file unit 115 will be described as an example.
  • the time width calculation unit 211 of the preprocessing learning unit 210 calculates the time width of each operation mode to be observed using the measurement data.
  • the calculated time width is a time width when the measurement data is segmented for each operation mode. For this reason, hereinafter, the calculated time width is referred to as a cutting time width.
  • every time measurement data is acquired, a histogram of measurement values is created, and a time width indicating a lump-like distribution such as a normal distribution is calculated as a cut-out time width. . Details of the calculation method will be described later. In the present embodiment, a predetermined number of data is required for processing by the clustering unit 213 described later. For this reason, the cut-out time width may be calculated sequentially after obtaining measurement data in a period that sufficiently satisfies this.
  • the learning data generation unit 212 cuts the measurement data for each operation mode and generates learning data to be input to the learning algorithm.
  • the measurement data is divided by the cut-out time width calculated by the time width calculation unit 211, and learning data is generated.
  • waveform data indicating temporal changes in measurement data is generated as learning data.
  • a histogram indicating the distribution of the frequency of occurrence of each value in the measurement data of the extraction time width may be used.
  • the waveform data indicates the order in which the values of each measurement data appear, and the histogram indicates the ratio of the values of each measurement data.
  • the clustering unit 213 When a predetermined number of learning data is collected, the clustering unit 213 generates supervised data from each learning data generated from the measurement data cut out for each operation mode.
  • each learning data is clustered (categorized, classified), and supervised data in which the learning data is associated with the classification result is generated.
  • the generated supervised data is stored in the learning data set storage unit 240.
  • the number of learning data collected when executing clustering differs depending on the type of data to be observed. At least the number of learning data that can detect one mode of operation is collected. In the case of a data type in which a single operation mode appears in a short time, for example, in the case of a data type that takes a long time to appear in a single operation mode using learning data generated from several tens of seconds of measurement data Uses learning data generated from measurement data for several tens of days. The number of collections is determined in advance according to the data type.
  • a k-means method for example, a method obtained by improving the k-means method, or the like is used.
  • the number of classifications (categories) and labels that are identification information of each category are prepared in advance and stored in the label storage unit 230.
  • label data 231 stored in the label storage unit 230 is shown in FIG.
  • the learning data is waveform data and a histogram
  • a label is prepared for each.
  • a label example when eight labels are prepared that is, when clustering into eight categories is shown.
  • clustering is performed into eight categories using the k-means method. If the operation mode is not known, clustering into eight categories set as initial values in advance as in this example is not appropriate, and as a result, a learning algorithm (deep learning net) 251 of the learning unit 214 described later is used. May not converge, or the evaluation result of the matching evaluation unit 225 may exceed a predetermined range, and relearning may be necessary. In that case, the processing returns to the processing here (clustering processing), and the number of labels (number of categories) is increased or decreased to perform clustering again. For example, the number of categories is increased to 10 and clustering is performed again on 10 categories, or the number of labels is reduced to 6 and clustering is performed again on 6 categories.
  • the clustering unit 213 appropriately allocates eight labels to each learning data.
  • the learning data with the same label is classified into one category.
  • centroid value of the histogram feature amount (frequency, average value, variance value, mode frequency, median value, etc.) corresponding to each learning data is calculated for each category (first step).
  • centroid value of the histogram feature amount frequency, average value, variance value, mode frequency, median value, etc.
  • Each of the obtained eight barycentric values is associated with a label of the category.
  • the first step and the second step are repeated until the centroid value or labeling does not change or until the change of the centroid value falls below a predetermined range.
  • the category corresponding to the label finally attached to each learning data is the classification result (clustering result) of the learning data. That is, each learning data and a set of labels attached to the learning data are supervised data and are stored in the learning data set storage unit 240.
  • FIGS. 3B and 3C a configuration example of the supervised data group stored in the learning data set storage unit 240 is shown in FIGS. 3B and 3C.
  • supervised data 241w of the waveform data shown in FIG. 3B and supervised data 241h of the histogram shown in FIG. 3C are stored as the supervised data 241.
  • an acquisition time 242w, learning data (waveform data) 243w, and a label 244w are stored in association with each other.
  • the acquisition time 242w is, for example, the first time of the extraction time width of each learning data 243w.
  • the supervised data 241h stores an acquisition time 242h, learning data (histogram data) 243h, and a label 244h in association with each other.
  • the supervised data 241 is represented by the supervised data 241, and each item is represented by the acquisition time 242, the learning data 243, and the label 244. .
  • the learning unit 214 inputs a learning data set to a predetermined learning algorithm, and generates a learned model.
  • a predetermined learning algorithm for example, deep learning is used as a predetermined learning algorithm. That is, the learning unit 214 learns the deep learning net from the learning data set that is a supervised data group.
  • the preprocessing learning unit 210 inputs a learning data set 243a composed of the learning data 243 group to the learning algorithm 251 to learn deep learning.
  • a net 252 is generated.
  • the learned deep learning net is also referred to as a learned model 252.
  • the prediction unit 220 classifies the prediction data 243b using the learned model 252, and classifies 243c. That is, a label 244 is attached to each prediction data 243b.
  • FIG. 5 is a diagram for explaining an example of the learned deep learning net 252.
  • the learning unit 214 aligns a learning data set 243a composed of learning data 243 obtained from measurement data cut out with a cut-out time width, for example, with a preset time width, Input to the data input window 251.
  • a cut-out time width for example, with a preset time width
  • the time widths of the data are equalized by adding data before and after the time width or repeating the data.
  • the data input to the data input window is feature-extracted in each of the convolutional layer, the Maxout layer, and the Pooling layer of the deep learning net, and input to the Fully connection layer. Then, it is output as a classification result from the combination of features in the Fully connection layer.
  • the convolution layer, the Maxout layer, and the Pooling layer may be configured such that the three layers are stacked several times.
  • the finally learned model 252 the number of hierarchies of the learned deep learning net 252, the number of nodes, the connection between each node, the weight, and the like are stored.
  • representative data for each label 244 is generated and stored in the representative data storage unit 260 in association with the label 244.
  • the representative data is obtained for each label 244 by calculating the average of the waveform data to which the label is assigned and / or the histogram. For example, in the case of waveform data, the average is calculated by superimposing waveform data with the same label and dividing by the number of waveforms.
  • FIG. 3 (d) and FIG. 3 (e) An example of the representative database 261 (261w, 261h) stored in the representative data storage unit 260 is shown in FIG. 3 (d) and FIG. 3 (e).
  • representative waveform data 263w which is representative data of waveform data
  • the representative database 261h stores a representative histogram 263h in association with the label 244h.
  • the time series model generation unit 215 arranges the labels 244 in a time series and generates a time series model.
  • the labels 244 assigned to each learning data are arranged in time series for each predetermined period (model generation unit period), and are generated as a time series model.
  • a time series model is generated by arranging the labels 244 of each learning data stored in the learning data set storage unit 240 in the order of generation of the learning data.
  • the generated time series model is stored in the time series model storage unit 270.
  • model generation unit period is predetermined according to the type of measurement data, for example, 1 hour, 1 day, or the like.
  • FIG. 6 shows an example of the time series model data 271 stored in the time series model storage unit 270.
  • the time series model data 271 stores time series model identification information (model ID) 272 that identifies the time series model 273 for each time series model 273.
  • model ID time series model identification information
  • the time series model 273 is different when the arrangement order of the labels 244 arranged in time series is different, and is given a model ID 272, respectively.
  • time series model 273 having a different arrangement order of the labels 244 is assigned a different model ID 272 as a different time series model, but the present invention is not limited to this.
  • the time series models 273 in the arrangement order of a plurality of similar labels 244 may be configured to be given the same model ID 272 as one group.
  • both waveform data and histogram are used as learning data
  • the order of both data is treated as one label order.
  • TS_1 and TS_2 of the model ID 272 have the same order of histogram label arrangement, but the label order of waveform data is different. ID272 is given.
  • the time width calculation unit 221 and the prediction data generation unit 222 of the prediction unit 220 have the same functions as the time width calculation unit 211 and the learning data generation unit 212 of the preprocessing learning unit 210, respectively.
  • the data generated by the prediction data generation unit 222 is referred to as prediction data.
  • the preprocessing learning unit 210 generates the same kind of learning data as the learning data to be generated. That is, when two types of learning data, waveform data and histogram, are generated, the prediction unit 220 generates two types of prediction data, waveform data and histogram. On the other hand, when learning data having only waveform data is generated, prediction data having only waveform data is generated.
  • the classification determination unit 223 inputs the generated prediction data to a learning algorithm, determines the classification of the prediction data, and assigns a label 244 set for the classification.
  • the learned model 252 is used at this time.
  • the prediction value calculation unit 224 when a predetermined number of pieces of prediction data with the label 244 are collected, predicts measurement data at a future time using them.
  • processing as a predicted label specifying unit is performed. That is, the labels 244 of the collected prediction data are arranged in time series and compared with the time series model 273 stored in the time series model storage unit 270, and a similar time series model 273 is specified. Then, according to the specified time series model 273, the label 244 of the prediction data for the future time is specified.
  • the predicted value calculation unit 224 calculates the representative data (waveform data and histogram) 263 stored in the representative data storage unit 260 in association with the identified label 244 as a predicted value (expected value).
  • the matching evaluation unit 225 compares the calculated predicted value with the measured data (measured data) measured at the future time, and evaluates (matches). For example, when the deviation ⁇ is known, the evaluation may be performed based on whether or not the deviation ⁇ is within the range of 3 ⁇ from the predicted value.
  • Evaluation is performed on the validity of the learned model generated by the preprocessing learning unit 210, for example.
  • the difference between the predicted value and the measured data is calculated, and if the difference is within the predetermined range, it is determined to be appropriate, and if it exceeds the predetermined range, it is determined that relearning is necessary. To do.
  • the difference between the predicted value and the actual measurement data is calculated, and if the difference exceeds a predetermined range, it is determined that there is a possibility of failure or abnormality.
  • FIG. 7 is a flowchart of the entire flow of the state prediction process of this embodiment.
  • the preprocessing learning unit 210 performs preprocessing and learning processing (step S1100).
  • the preprocessing learning unit 210 performs clustering, learning, and time series model generation processing as preprocessing and learning processing, and generates a learned model, a time series model, and representative data of each category.
  • the prediction unit 220 performs a prediction process using the latest measurement data, the learned model, the representative data, and the time series model (step S1200). Note that the preprocessing, the learning process, and the prediction process are performed independently.
  • FIG. 8 is a processing flow of preprocessing and learning processing by the preprocessing learning unit 210 of the present embodiment.
  • a learned model, representative data of each classification, and a time series model are generated.
  • This pre-processing and learning processing are executed in response to a start instruction from the user, a preset time schedule, a measurement delimiter signal, and the like. Moreover, it is performed using the measurement data when the plant equipment to be observed is in a normal state. It is assumed that the preprocessing learning unit 210 receives measurement data from the observation sensor 300 at predetermined time intervals.
  • m is a counter, which counts the number of cutout time widths TW.
  • the time width calculation unit 211 captures measurement data (step S1101), and performs the calculation process of the m-th cut time width TW (m) each time it is captured (step S1102). Until the cut-out time width TW (m) is determined (step S1103), the time width calculation unit 211 repeats the process of taking measurement data and calculating the cut-out time width TW (m). Details of the extraction time width determination process will be described later.
  • the learning data generation unit 212 When the m-th cut time width TW (m) is determined, the learning data generation unit 212 generates learning data (step S1104).
  • learning data waveform data and a histogram corresponding to the extraction time width TW (m) are extracted from the acquired measurement data. Then, the waveform data and the histogram cut out with the cut-out time width TW (m) are subjected to processing such as normalization within a predetermined data value range (dynamic range), and generated as learning data. At this time, factors such as periodic changes and seasonal variations may be removed. In addition, every time learning data is generated, the measurement data captured immediately before is discarded.
  • the preprocessing learning unit 210 repeats the above processing and collects a predetermined number of learning data.
  • the clustering unit 213 clusters the collected predetermined number of learning data (waveform data and histogram) (step S1106), and sets each as supervised data. Thereby, a set of supervised data, that is, a learning data set 243a is generated.
  • step S1110 If a predetermined number of learning data has not been collected, m is incremented by 1 (step S1110), the process returns to step S1101, and the process is repeated.
  • the learning unit 214 inputs the generated learning data set 243a to the learning algorithm 251 to learn (step S1107), and generates a learned model 252. At this time, representative data 263 of each classification is also generated.
  • the time series model generation unit 215 determines whether or not clustering of measurement data for a predetermined model generation unit period TDT has been completed (step S1108). Here, it is determined whether or not the model generation unit period TD has elapsed since the start of processing.
  • step S1108 If the model generation unit period TD has not elapsed (step S1108; No), the process returns to step S1100 and the process is repeated.
  • step S1108 when the model generation unit period TD has elapsed (step S1108; Yes), the time series model generation unit 215 generates a time series model (step S1109) and ends the process.
  • the time series model generation unit 215 extracts, for example, the arrangement order of the labels 244 in the model generation unit period TD in time series. Then, with reference to the time series model 273 already generated, the presence / absence of the time series model 273 in the same order is determined. If there is a time-series model 273 in the same arrangement order, the processing is terminated as it is. On the other hand, if there is no time series model 273 having the same arrangement order, a new model ID 272 is set, the arrangement order of the labels 244 is registered in the time series model storage unit 270 as the time series model 273, and the process is terminated.
  • the process is performed as follows. First, it is determined whether or not a time series model 273 within a predetermined similarity range is registered. If it is registered, the process ends. On the other hand, if not registered, a new model ID 272 is set, and the obtained time series model 273 is registered.
  • the measurement data is collected every ⁇ t.
  • the time when ⁇ t has elapsed from the final time when the previous (m ⁇ 1) th cut-out time width TW (m ⁇ 1) is determined is the measurement data collection start time t0.
  • n is a counter.
  • a predetermined time width is set as the extraction time width TW (m).
  • step S1301 initial processing is performed (step S1301).
  • the counter n is set to 2.
  • a histogram is created using measurement data acquired between Dt (0) and Dt (n) (step S1303).
  • the reciprocal number V (n) of the variance of the created histogram is calculated and stored (step S1304).
  • the variance is obtained by obtaining an average value of measurement data to be calculated and dividing the sum of squares of the difference between the average value and each measurement data value by the total number of data.
  • V ′ (n) and V ′′ (n) are calculated (step S1305).
  • V ′ (n) is the reciprocal of the variance of the histogram up to the measurement data Dt (n ⁇ 1) acquired once before. This is a value obtained by subtracting V (n) from V (n ⁇ 1), and V ′′ (n) is a value obtained by subtracting V ′ (n) from V ′ (n ⁇ 1).
  • step S1306 it is determined whether or not the condition that the absolute value of V ′ (n) is smaller than a predetermined threshold value Th and V ′′ (n) is negative is satisfied.
  • step S1306 determines whether or not a predetermined number of measurement data has been processed. If the predetermined number of measurement data has not been processed, n is incremented by 1 (step S1311), the process returns to step S1302, and the process is repeated.
  • step S1306 When the determination result of step S1306 satisfies the condition and when the processing of the predetermined number of measurement data is finished in step S1310, the time tn when the measurement data Dt (n) to be processed at that time is acquired is divided into time intervals. (Step S1307). Then, the period from t0 to time tn is set as a cutting time width T (m).
  • t0 is set for the next time width setting process (step S1308), and the process ends.
  • t0 is the time obtained by adding ⁇ t to the time tn.
  • the time width calculation processing by the above time width calculation unit 211 will be described with a specific example.
  • the measurement data 320 changes with time as shown in FIG.
  • the measurement data 320 is a discrete value acquired for each ⁇ t as described above.
  • FIG. 10B is a histogram 330 that graphs the frequency of each value of the measurement data 320.
  • the time width calculation unit 211 creates a histogram 330 as shown in FIG. 11B every time the measurement data 320 is acquired at a predetermined time interval ⁇ t. Then, every time the histogram 330 is created, it is determined whether or not the reciprocal V (n) of the variance takes a maximum value. Specifically, V ′ (n) and V ′′ (n) are calculated, and the condition in step S1306 is determined.
  • step S1306 the time point t1 when the reciprocal V (n) of the histogram takes the maximum value is the first cut-out time width TW (1).
  • the time width calculation unit 211 starts the determination of the second cut time width TW (2).
  • FIG. 12A shows how the measurement data 320 changes in this case. Further, FIG. 12B shows how the histogram changes.
  • t1 + ⁇ t is set to t0, and as shown in FIG. 12A, the measurement data 320 is obtained every ⁇ t from t0. And as shown in FIG.12 (b), whenever it acquires, the histogram 330 is produced and it is discriminate
  • the time width calculation unit 211 starts the determination of the third cut time width TW (3).
  • FIG. 13A shows how the measurement data 320 changes.
  • FIG. 13B shows how the histogram changes.
  • t2 + ⁇ t is set to t0, and the measurement data 320 is obtained every ⁇ t from t0 as shown in FIG. And as shown in FIG.13 (b), whenever it acquires, the histogram 330 is produced and it is discriminate
  • the time width calculation unit 211 repeats the above processing to create the Mth cut time width TW (M).
  • FIG. 14 is a processing flow of the prediction processing of this embodiment.
  • the prediction process is started in response to a start instruction from the user, a preset time schedule, a measurement delimiter signal, or the like.
  • the time width calculation unit 221 of the prediction unit 220 tries to calculate the cut-out time width (step S1202) every time measurement data is captured (step S1201), as in the learning process. Steps S1201 and S1202 are repeated until the cutting time width is determined.
  • the cutting time width calculation method is the same as the processing by the time width calculation unit 211 of the preprocessing learning unit 210.
  • the prediction data generation unit 222 When the time width calculation unit 221 determines the extraction time width (step S1203; Yes), the prediction data generation unit 222 generates prediction data (step S1204).
  • the generation method of the prediction data is basically the same as the learning data generation method by the learning data generation unit 212 of the preprocessing learning unit 210. For example, normalization processing is performed so that the value falls within a predetermined value width (dynamic range). Moreover, you may remove factors, such as a periodic change and a seasonal variation.
  • the classification determination unit 223 classifies the generated prediction data (waveform data and histogram) using the learning algorithm and the learned model (step S1205).
  • a label 244 set for the classified category is given.
  • the predicted value calculation unit 224 arranges the labels 244 of the prediction data of the respective extraction time widths classified so far in order of time. Then, the time series model (group) 273 including the arrangement order with the highest similarity is specified as the most similar time series model as compared with the stored time series model 273 (step S1206).
  • the time series model 273 whose model ID 272 is TS_4 has the highest similarity. Therefore, the time series model 273 whose model ID 272 is TS_4 is specified as the most similar time series model.
  • the time series model 273 whose model ID 272 is TS_3 includes this arrangement order and has the highest similarity. Therefore, the time series model 273 whose model ID 272 is TS_3 is specified as the most similar time series model.
  • the most similar time series model is determined only by the time series model of waveform data.
  • the predicted value calculation unit 224 uses the determined most similar time series model to predict the subsequent waveform data and histogram (step S1207).
  • subsequent labels are specified according to the determined most similar time series model.
  • representative data 263 representedative waveform data 263w and / or representative histogram 263h stored in association with the prediction label is used as a predicted value.
  • the next label 244 is Dw with respect to the waveform data. Therefore, the representative waveform data 263w stored in association with the label Dw is calculated as a predicted value.
  • the matching evaluation unit 225 compares and evaluates actual measurement data output from the subsequent observation sensor 300 and the predicted value obtained in step S1207 (step S1208).
  • the state prediction apparatus 100 acquires the first sensor data obtained by the first observation sensor 300 that observes the state of the observation target at predetermined time intervals, and A learning data generation unit 212 that generates learning data by dividing each operation mode, classifies each of the generated predetermined number of learning data into predetermined categories, attaches a label prepared in advance for each category, A clustering unit 213 that generates data and a learning unit that inputs a predetermined number of supervised data into a learning algorithm to learn, generates a learned model 252 of the learning algorithm, and generates representative data for each category 214 and a label 244 attached to the learning data by the clustering unit 213 within a predetermined model generation unit period, The time-series model generation unit 215 that generates a time-series model 273 by arranging in time series in the order of data generation, and the state of the observation target at the future time using the time-series model 273 from the newly acquired first sensor data And a prediction unit 220 that calculates a predicted value
  • the learning data is generated separately for each operation mode.
  • the learning data for the state prediction can be generated from the data divided by reflecting the above. Since a learned model, representative data, and time series model for prediction are generated from the result learned with appropriate learning data, a highly accurate predicted value can be obtained.
  • the state prediction apparatus 100 of the present embodiment may further include a time width calculation unit that calculates the time width for each operation mode as the cut-out time width using the first sensor data.
  • a time width calculation unit that calculates the time width for each operation mode as the cut-out time width using the first sensor data.
  • the state of the observation target can be accurately predicted based on the time series observation value of the physical quantity (measurement data) related to the observation target.
  • histograms may also be clustered together and learned for classification. Due to the nature of the measurement data, there is a type of measurement data in which the distribution (histogram) indicating the ratio of the values is more meaningful than the waveform (waveform data) indicating the order in which the values appear within a predetermined time width. With respect to the histogram, by performing the same processing as the waveform data, it is possible to accurately classify such types of measurement data according to their characteristics. That is, according to the present embodiment, the measurement data can be analyzed from multiple aspects.
  • the cut-out time width TW (m) is determined from the start of measurement data collection to the time when the reciprocal of the histogram dispersion value takes the maximum value.
  • the cutting time width determination method is not limited to this. For example, every time measurement data is acquired, an average value of measurement data values (measurement values) from the acquisition start time is calculated, and a time interval TW (m) between the times when the change in the average value takes an extreme value is calculated. It is good.
  • the amount of change (differentiation) of the average value of the measurement data values is calculated, and the time until the amount of change is less than a predetermined threshold is defined as the extraction time width TW (m).
  • the threshold is a value close to 0.
  • FIG. 15 shows the transition of the average value of the measurement data values when the measurement data is acquired 1000 times (1000 degrees).
  • the horizontal axis represents the frequency of the measurement data
  • the vertical axis represents the average value of the measurement data.
  • the average value changes between 1 and 50 degrees, between 351 and 400 degrees, between 451 and 500, between 651 and 700 degrees, between 800 and 851 degrees, etc. Take the value. Of each of these periods, the transition of the average value between 1 and 50 degrees, the transition of the average value between 51 and 400 degrees, the transition of the average value between 351 and 500 degrees, and between 481 and 700 degrees
  • FIGS. 16 (a) to 17 (b) An enlarged view of the transition of the average value is shown in FIGS. 16 (a) to 17 (b), respectively.
  • the vertical axis represents the average value of the measurement data
  • the horizontal axis represents the frequency (total) of the number of observations during the observation period of the graph. That is, the leftmost value (0) on the horizontal axis is 1 in FIG. 16 (a), 51 in FIG. 16 (b), 351 in FIG. 17 (a), and 351 in FIG. 17 (b). 481.
  • each measurement data from a plurality of observation sensors 300 acquired simultaneously is predicted.
  • the cutting time width is determined using specific measurement data, and the cutting time width is applied to all other measurement data.
  • the measurement data for determining the extraction time width is the main measurement data (first sensor data obtained by the first observation sensor), and the other data is the slave measurement data (second observation data obtained by the second observation sensor).
  • first sensor data obtained by the first observation sensor the measurement data for determining the extraction time width
  • second observation data obtained by the second observation sensor the measurement data for determining the extraction time width.
  • the following processing is performed using the measurement data as main measurement data and the remaining measurement data as sub measurement data.
  • the present embodiment will be described using an example in which specific measurement data is set as main measurement data and the remaining measurement data is set as sub measurement data.
  • the hardware configuration and functional blocks of the state prediction device 100 of this embodiment are the same as those of the first embodiment.
  • the present embodiment will be described focusing on the configuration different from the first embodiment.
  • the secondary measurement data 321 and 322 are also extracted with the extraction time width of the main measurement data 320, and learning data is generated. Then, a learned model is generated, and representative data and a time series model for each category (label) are generated.
  • the cutting time width is determined by the method of the first embodiment, and a state in which a label 244 is attached is shown in FIG.
  • the measurement data a is the main measurement data
  • the remaining measurement data b to e are the sub measurement data.
  • the measurement data of the sub measurement data b to e is also cut out with the cut-out time width of the main measurement data a, and learning data is generated respectively.
  • the sub-measurement data b to e have the cut-out time width regardless of the time segment (cut-out time width) unique to the measurement data It is cut out and used for subsequent processing.
  • the state of learning by the learning unit 214 of the present embodiment will be described with reference to FIG.
  • all of the learning data obtained from the main measurement data and the learning data obtained from the sub measurement data are input to the data input window, and learning is performed as in the first embodiment.
  • a learned model 252 is obtained.
  • FIG. 20 shows a processing flow of the learning process of the present embodiment.
  • the learning process of this embodiment is the same as that of the first embodiment until the cut-out time width is determined in step S1103.
  • the data used for determining the cutting time width is the main measurement data 320.
  • the learning data generation unit 212 After determining the cut-out time width, the learning data generation unit 212 generates learning data for each of the main measurement data 320 and the sub measurement data 321, 322 (step S2101). At this time, the cut time width TW (m) is determined by the main measurement data 320 by the same method as in the first embodiment. Other generation methods are the same as the learning data generation method of the first embodiment. Also in the present embodiment, waveform data and histogram learning data may be generated for each measurement data.
  • the clustering unit 213 performs clustering of learning data generated from the main measurement data 320 and clustering of the sub measurement data 321 and 322 (step S2102). .
  • the clustering of the main measurement data is the same as in the first embodiment.
  • the sub-measurement data is classified into learning data obtained by cutting out the sub-measurement data with the cut-out time width TW (m) by the same method as the main measurement data. Thereby, supervised data is generated for each measurement data.
  • the number of categories and the labels of each category are prepared in advance for each sub measurement data type.
  • the learning unit 214 inputs all of the generated learning data set 243a to the learning algorithm 251 to learn (step S2103), generates a learned model 252 and calculates representative data. To do.
  • the time series model generation unit 215 determines whether or not the model generation unit period TD has elapsed (step S1106). If it has not elapsed, the value of the counter m for calculating the extraction time width is incremented by 1 (step S1108), the process returns to step S1101, and the process is repeated.
  • the time series model generation unit 215 when the model generation unit period TD has elapsed, the time series model generation unit 215 generates the time series model 273 for the waveform data and the histogram of each of the main measurement data and the sub measurement data (step S1107), and ends the processing. To do.
  • the cut-out time width is calculated using the main measurement data as in the learning process. Thereafter, for each of the main measurement data and the sub measurement data, the waveform data and the histogram are cut out with the determined cut-out time width to generate prediction data. Then, classification is performed using each prediction data.
  • the flow of the prediction process of this embodiment will be described with reference to FIG.
  • the prediction process of this embodiment is the same as that of the first embodiment until the determination of the extraction time width in step S1203.
  • the data used for determining the cutting time width is the main measurement data 320.
  • the prediction data generation unit 222 After determining the cut-out time width, the prediction data generation unit 222 generates prediction data for each of the main measurement data 320 and the sub measurement data 321, 322 (step S2204).
  • the method for generating prediction data is the same as that in the first embodiment.
  • the classification determining unit 223 inputs all the prediction data to the deep learning net of the learned model, determines the classification of each prediction data, and identifies the label 244 to be assigned (Step S2205).
  • the classification is determined and the label 244 is specified.
  • the predicted value calculation unit 224 specifies a similar time series model for each of the main measurement data 320 and the sub measurement data 321, 322 (step S2206). Then, the waveform data and histogram of the future time are predicted (step S2207) and set as the predicted value.
  • the matching evaluation unit 225 compares actual measurement data output from the subsequent observation sensor 300 and the predicted value obtained in step S2207, and performs the same evaluation as in the first embodiment (step S1208). .
  • the above-described processing is performed on all types of measurement data using the main measurement data and the remaining measurement data as sub measurement data.
  • the main measurement data may be fixed to one or a specific group of measurement data.
  • the main measurement data it is desirable to select, for example, data in which the change in the measurement data value most closely follows the change in the operation mode among a plurality of types of measurement data.
  • the state prediction apparatus 100 also clusters the slave measurement data in the same manner as the main measurement data, and learns the model 252 and the representative data. 263 and a time series model 273 are generated.
  • the present invention is not limited to the above embodiment, and includes various modifications.
  • the above-described embodiments are for explaining the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • 100 state prediction device, 112: CPU, 113: ROM, 114: RAM, 115: file unit, 116: external interface, 117: monitor, 118: bus, 210: preprocessing learning unit, 211: time width calculation unit, 212: learning data generation unit, 213: clustering unit, 214: learning unit, 215: time series model generation unit, 220: prediction unit, 221: time width calculation unit, 222: prediction data generation unit, 223: classification determination unit, 224: prediction value calculation unit, 225: matching evaluation unit, 230: Label storage unit, 231: Label data, 240: Learning data set storage unit, 241: Supervised data, 241h: Supervised data, 241w: Supervised data, 242: Acquisition time, 242h: Acquisition time, 242w: Acquisition Time, 243: Learning data, 243a: Learning data set, 243b: Prediction data, 243c: Classification, 243w: Learning data of waveform data, 243h: Learning data of histogram, 24

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

状態予測装置100は、観測センサ300で得た計測データを、所定の時間間隔で取得し、観測対象の動作モード毎に区切り、学習データを生成する学習データ生成部212と、所定数の前記学習データを予め定めたカテゴリに分類してラベルを付し、教師有データを生成するクラスタリング部213と、教師有データを、学習アルゴリズムに入力して学習し、学習済みモデル252を生成するとともに、各カテゴリの代表データを生成する学習部214と、予め定めたモデル生成単位期間内に学習データに付されたラベル244を、当該学習データの生成順に時系列に並べ、時系列モデル273を生成する時系列モデル生成部215と、新たに取得した計測データから、時系列モデル273を用いて予測値を算出する予測部220と、を備える。

Description

状態予測装置および状態予測制御方法
 本発明は、状態予測技術に係り、特に、観測センサから継時的に出力されるセンサデータ(計測データ)に基づいて、未来の計測データを予測し、観測対象の状態を予測する技術に関する。
 観測センサから出力される計測データに基づいて観測対象の未来の状態を予測するためには、計測データの時系列モデルの作成が必要である。この時系列モデルの作成には、計測データの時間的な区切りを検出する必要がある。例えば、特許文献1には、「時系列データを、均等なサイズでオーバーラップするデータのセグメントに分割し、各々のセグメントに関し、セグメントのデータを表現する画像を生成し、時系列データを利用して、各々の画像に関連するトレンドを決定し、生成された各画像及び関連するトレンドを前記データセットとして保存する工程を含む(要約抜粋)。」技術が開示されている。
特開2017-157213号公報
 特許文献1に開示の技術では、計測データを時間的に均等なサイズのセグメントに分割している。ところが、観測対象が複数の動作モードを有し、出力される計測データが複雑に変化する場合、均等なサイズでのセグメント化は、必ずしも適切ではない。従って、状態予測の精度を高めることが難しい。
 本発明は、上記事情に鑑みてなされたもので、観測センサから出力される計測データ(観測対象に関連する時系列観測値)に基づいて、複数の動作モードを有する観測対象の状態を高い精度で予測する技術を提供することを目的とする。
 本発明は請求の範囲に記載の構成を有する。その一態様をあげるならば、本発明に係る状態予測制御装置は、観測対象の状態を観測する第一の観測センサで得た第一のセンサデータを、所定の時間間隔で取得し、前記観測対象の動作モード毎に区切り、学習データを生成する学習データ生成部と、生成した所定数の前記学習データそれぞれを予め定めたカテゴリに分類し、前記カテゴリ毎に予め用意されたラベルを付し、教師有データを生成するクラスタリング部と、前記所定数の教師有データを、学習アルゴリズムに入力して学習し、当該学習アルゴリズムの学習済みモデルを生成するとともに、前記カテゴリそれぞれの代表データを生成する学習部と、予め定めたモデル生成単位期間内に前記クラスタリング部で前記学習データに付された前記ラベルを、当該学習データの生成順に時系列に並べ、時系列モデルを生成する時系列モデル生成部と、新たに取得した第一のセンサデータから、前記時系列モデルを用いて未来時刻の前記観測対象の状態として前記第一のセンサデータの予測値を算出する予測部と、を備える。
 本発明によれば、観測センサから出力される計測データに基づいて、複数の動作モードを有する観測対象の状態を高い精度で予測できる。なお、上記した以外の課題、解決手段は以下の実施形態により明らかにされる。
第一の実施形態の状態予測装置のハードウェア構成図である。 第一の実施形態の状態予測装置の機能ブロック図である。 (a)は、第一の実施形態のラベルデータ例を、(b)および(c)は、第一の実施形態の教師有データ例を、(d)および(e)は、第一の実施形態の代表データベース例を、それぞれ説明するための説明図である。 (a)および(b)は、第一の実施形態の学習の概要を説明するための説明図である。 第一の実施形態のディープラーニングの概要を説明するための説明図である。 第一の実施形態の時系列モデルデータ例を説明するための説明図である。 第一の実施形態の状態予測処理のフローチャートである。 第一の実施形態の前処理と学習処理のフローチャートである。 第一の実施形態の時間幅算出処理のフローチャートである。 (a)は、第一の実施形態の計測データの波形データ例の、(b)は、第一の実施形態の計測データのヒストグラム例の、それぞれグラフである。 (a)および(b)は、第一の実施形態の時間幅算出処理を説明するためのグラフである。 (a)および(b)は、第一の実施形態の時間幅算出処理を説明するためのグラフである。 (a)および(b)は、第一の実施形態の時間幅算出処理を説明するためのグラフである。 第一の実施形態の予測処理のフローチャートである。 第一の実施形態の変形例を説明するためのグラフである。 (a)および(b)は、第一の実施形態の変形例を説明するためのグラフである。 (a)および(b)は、第一の実施形態の変形例を説明するためのグラフである。 第二の実施形態の各計測データの切出時間幅を説明するための説明図である。 第二の実施形態のディープラーニングの概要を説明するための説明図である。 第二の実施形態の学習処理のフローチャートである。 第二の実施形態の予測処理のフローチャートである。
 <<第一の実施形態>>
 以下、本発明の好適な実施形態を、図面を参照しながら詳細に説明する。以下では、プラント機器を観測対象とする場合を例にあげて説明する。
 本実施形態では、プラント機器の様々な部位に取り付けられた各種の観測センサから継時的に得られるセンサデータ(計測データ)を用い、計測データの変化の時系列モデルを生成する。そして、生成した時系列モデルを用いて、未来時刻の計測データを予測し、観測対象であるプラント機器の状態予測を行う。また、最終的には、予測した計測データに基づき、プラント機器の故障等の有無を判別する。
 プラント機器は、制御により動作モードが変化し、自動的にフィードバック制御がなされる。例えば、プラント機器が備える生産容器には、液体や気体等の原材料がポンプ等により投入される。この場合の流入量を外部のプログラムから制御すると、制御に応じてポンプ用モータの電流、電圧が変化する。また、生産容器の温度を制御すると、温度およびヒーターや冷却用ポンプモータの電流、電圧が変化する。
 このようなプラント機器の各部位の状態を観測するため、プラント機器の各部位には、電流、電圧や温度等を検出する各種センサ(観測センサ)が取り付けられる。
 これらの観測センサから時系列に得られる計測データは、時間的に変化する波形形状を示す波形データである。プラント機器は、上述のように複数の動作モード間でフィードバック制御がなされるため、電流や電圧の変化は、非定常である。従って、この波形データにおいては、複数の動作モードが非定常に観測され、継時的に得られる計測データも非定常となる。
 プラント機器が生産するモノに対応して外部のプログラムから動作モードの組み合わせや各動作モードの時間幅を自動的なフィードバックを含めて制御する場合に、このような事象は一般的に発生する。
 なお、継時的に得られる計測データ(時系列データ)が非定常であるとは、計測データの平均や分散といった統計的なパラメータが一定ではないことや、不連続に変化することを意味する。
 非定常な時系列データは、ARIMA(Auto Regressive Integrated Moving Average)等の統計的な手法によりモデル化し、予測することが困難である。本実施形態では、このような動作を行うプラント機器に取り付けられた観測センサから得られる計測データから動作モードの時系列モデルを作成し、対象物の予測値を算出することにより、状態を予測する。
 ここで、「対象物」とは、観測センサのそれぞれが出力したセンサ情報(センサデータ;計測データ)から直接観測されるものを意味する。例えば、観測センサが温度センサの場合は、対象物は温度である。電流センサの場合は、電流、電圧センサの場合は、電圧、カメラ(CMOSセンサ)である場合は、撮影対象のプラント機器の部位そのものもしくはプラント機器の生産物が対象物である。
 [ハードウェア構成]
 図1に本実施形態に係る状態予測装置のハードウェア構成を示す。図1に示すように本実施形態に係る状態予測装置100は、CPU112と、ROM113と、RAM114と、ファイルユニット115と、外部インタフェース(I/F)116と、モニタ117と、バス118と、を備える。
 CPU112は、演算処理を行う。ROM113およびファイルユニット115は、データ記憶装置として機能する。ROM113には、処理ルーチン等のプログラムが予め記憶される。なお、ファイルユニット115は、例えば、HDDにより構成されてもよい。モニタ117は、処理結果を表示する。CPU112とROM113とRAM114とファイルユニット115と、外部インタフェース116と、モニタ117とは、バス118によりコマンドやデータを授受可能に接続され、コンピュータとして機能する。
 なお、本実施形態に係る状態予測装置100には、以上の構成の他に、電源装置等、多数の電気系の構成要素が含まれているが、周知または一般的なものであるため詳細な説明を省略する。
 また、外部I/F116には、状態予測装置100が観測対象とするプラント機器の状態情報を取得するための観測センサ300が接続される。観測センサ300には、例えば、電流センサ311、電圧センサ312、温度センサ313、圧力センサ314、加速度センサ315、カメラ316等がある。接続される観測センサの種類は、これらに限定されない。
 上述のように、本実施形態の状態予測装置100は、複数の動作モードが非定常に観測される計測データの時系列モデルを作成し、対象物の予測値を算出する。
 時系列モデルの作成にあたっては、観測センサ300から出力される計測データを継続的に取得し、動作モード毎に区切り、動作モード毎に区切られた計測データの時系列モデルを生成する。また、予測値の算出は、時系列モデルの生成時に用いた計測データとは異なる、新たに取得した計測データを用いて行う。以下、これを実現する本実施形態の状態予測装置100の機能構成を説明する。
 [機能ブロック]
 本実施形態の状態予測装置100の機能ブロックを、図2に示す。上記機能を実現するため、本実施形態の状態予測装置100は、前処理学習部210と、予測部220と、を備える。
 前処理学習部210は、所定の時間間隔で継時的に取り込んだ計測データから学習データを生成し、学習アルゴリズムに入力して学習し、学習済みモデル、分類毎の代表データおよび時系列モデルを生成する。学習データは、計測データを動作モード毎に区切り、セグメント化したものである。本実施形態では、動作モード毎に、それぞれ最適な時間幅でセグメント化し、学習データとする。
 これを実現するため、前処理学習部210は、時間幅算出部211と、学習データ生成部212と、クラスタリング部213と、学習部214と、時系列モデル生成部215と、を備える。
 また、予測部220は、前処理学習部210と同様に、観測センサ300から得た計測データを、動作モード毎に最適な時間幅で区切り、前処理学習部210が生成した学習済みモデル、分類毎の代表データおよび時系列モデルを用いて未来時刻の計測データを予測、評価する。
 これを実現するため、予測部220は、時間幅算出部221と、予測用データ生成部222と、分類決定部223と、予測値算出部224と、マッチング評価部225と、を備える。
 上記各機能は、ROM113やファイルユニット115に予め記憶されたプログラムをCPU112がRAM114にロードして実行することにより実現される。
 また、ファイルユニット115またはROM113には、上記処理を実現するために必要なプログラムおよびデータが記憶される。本実施形態では、例えば、ラベル記憶部230と、学習データセット記憶部240と、学習済みモデル記憶部250と、代表データ記憶部260と、時系列モデル記憶部270と、の各記憶部が設けられる。以下、これらがファイルユニット115に設けられる場合を例にあげて説明する。
 [前処理学習部]
 まず、前処理学習部210および予測部220の各部について、詳細を説明する。
 前処理学習部210の時間幅算出部211は、計測データを用いて、観測対象の各動作モードの時間幅を算出する。算出される時間幅は、計測データを動作モード毎にセグメント化する際の時間幅である。このため、以下、算出される時間幅を切出時間幅と呼ぶ。
 本実施形態では、計測データを取得する毎に、計測値のヒストグラムを作成し、その分布が、例えば、正規分布等の一塊の山状の分布を示す時間幅を、切出時間幅として算出する。算出手法の詳細は、後述する。なお、本実施形態では、後述のクラスタリング部213の処理のため、所定数のデータを必要とする。このため、これを十分満たす期間の計測データを取得後、順次、切出時間幅を算出してもよい。
 学習データ生成部212は、計測データを動作モード毎に切り取り、学習アルゴリズムに入力する学習データを生成する。本実施形態では、時間幅算出部211が算出した切出時間幅で計測データを区切り、学習データを生成する。本実施形態では、学習データとして、計測データの時間的な変化を示す波形データを生成する。なお、さらに、切出時間幅の計測データの、各値の発生頻度の分布を示すヒストグラム(ヒストグラム)を用いてもよい。波形データは、各計測データの値が現れる順序を示し、ヒストグラムは、各計測データの値の割合を示す。
 クラスタリング部213は、所定数の学習データが収集されると、動作モード毎に切出した計測データから生成した各学習データから、教師有データを生成する。本実施形態では、予め定めた手法に従って、各学習データをクラスタリング(カテゴライズ、分類)し、学習データと分類結果とを対応づけた教師有データを生成する。生成された教師有データは、学習データセット記憶部240に記憶する。
 クラスタリングを実行する際に収集する学習データの数(上述の所定数)は、観測するデータ種で異なる。少なくとも、一通りの動作モードを検出可能な数の学習データを収集する。一通りの動作モードが短時間で現れるデータ種の場合は、例えば、数十秒分の計測データから生成された学習データを用い、一通りの動作モードが現れるのに長時間かかるデータ種の場合は、数十日分の計測データから生成された学習データを用いる。収集数は、データ種に応じて、予め定めておく。
 クラスタリングには、例えば、k-means法、k-means法を改良した方法等を用いる。分類(カテゴリ)数、各カテゴリの識別情報であるラベルは、予め用意し、ラベル記憶部230に記憶しておく。
 ラベル記憶部230に記憶されるラベルデータ231例を図3(a)に示す。学習データが波形データとヒストグラムとの場合、それぞれについて、ラベルが用意される。ここでは、一例として、8個のラベルが用意される場合、すなわち、8つのカテゴリにクラスタリングする場合のラベル例を示す。
 ここで、k-means法を用い、8つのカテゴリにクラスタリングする場合を例にあげて説明する。なお、動作モードが既知でない場合には、本例のように予め初期値として定めた8つのカテゴリへのクラスタリングが適切ではなく、その結果、後に示す学習部214の学習アルゴリズム(ディープラーニングネット)251の学習が収束しなくなったり、マッチング評価部225の評価結果が所定の範囲を超えてしまい、再学習が必要となったりすることがある。その場合は、ここでの処理(クラスタリング処理)に戻り、ラベル数(カテゴリ数)を増減し、クラスタリングし直す。例えば、カテゴリ数を10に増やし、10のカテゴリにクラスタリングをし直したり、ラベル数を6に減らし、6のカテゴリにクラスタリングし直したりする。
 まず、クラスタリング部213は、各学習データに、8個のラベルを適当に割り振る。同じラベルを付された学習データは、1つのカテゴリに分類されたということである。
 次に、カテゴリ毎に、各学習データに対応するヒストグラム特徴量(度数、平均値、分散値、最頻値の度数、中央値等)の重心値を計算する(第一のステップ)。得られた8つの重心値に、それぞれ、当該カテゴリのラベルを対応づける。
 その後、各学習データのヒストグラム特徴量について、それぞれ、8個の重心値との距離を計算し、最も近い重心値に対応づけられているラベルを付け直す(第二のステップ)。
 第一のステップと第二のステップとを、重心値やラベル付が変化しなくなるまで、あるいは、重心値の変化が所定範囲以下になるまで、繰り返す。最終的に各学習データに付されたラベルに対応するカテゴリが、当該学習データの分類結果(クラスタリング結果)である。すなわち、各学習データと、当該学習データに付されたラベルの組が、教師有データであり、学習データセット記憶部240に記憶される。
 このとき、学習データセット記憶部240に格納される教師有データ群の構成例を、図3(b)および図3(c)に示す。本実施形態では、教師有データ241として、図3(b)に示す波形データの教師有データ241wと、図3(c)に示す、ヒストグラムの教師有データ241hとがそれぞれ記憶される。
 教師有データ241wは、取得時刻242wと、学習データ(波形データ)243wと、ラベル244wと、が対応づけて記憶される。取得時刻242wは、例えば、各学習データ243wの切出時間幅の最初の時刻等とする。また、教師有データ241hは、それぞれ、取得時刻242hと、学習データ(ヒストグラムデータ)243hと、ラベル244hと、が対応づけて記憶される。
 なお、以下、教師有データ241wと教師有データ241hとを、区別する必要がない場合は、教師有データ241で、また、各項目も、取得時刻242、学習データ243、ラベル244、で代表する。他のデータについても、同様とする。
 学習部214は、学習用データセットを、予め定めた学習アルゴリズムに入力し、学習済みモデルを生成する。本実施形態では、予め定めた学習アルゴリズムとして、例えば、ディープラーニングを用いる。すなわち、学習部214は、教師有データ群である学習用データセットによりディープラーニングネットを学習する。
 本実施形態では、図4(a)に示すように、前処理学習部210において、学習データ243群で構成される学習データセット243aを、学習アルゴリズム251に入力することにより、学習済みのディープラーニングネット252を生成する。以下、学習済みのディープラーニングネットを学習済みモデル252とも呼ぶ。そして、図4(b)に示すように、予測部220において、その学習済みモデル252を用いて、予測用データ243bを分類243cする。すなわち、各予測用データ243bに、ラベル244を付す。
 ここで、本実施形態の学習部214が生成する学習済みのディープラーニングネット252の一例を説明する。図5は、学習済みのディープラーニングネット252の一例を説明するための図である。
 本図に示すように、学習部214は、例えば、切出時間幅で切出した計測データから得た学習データ243群で構成される学習データセット243aを、予め設定した時間幅に揃え、学習アルゴリズム251のデータ入力ウィンドウに入力する。なお、データの時間幅は、時間幅前後のデータを付け加えたり、データを繰り返したり等により、長さを揃える。
 図5に示すように、データ入力ウィンドウに入力されたデータは、ディープラーニングネットの畳み込み層、Maxout層、Pooling層の各層で特徴抽出され、Fullyconnection層に入力される。そして、Fullyconnection層で特徴の組合せから分類結果として出力される。なお、畳み込み層、Maxout層、Pooling層は、その3つ組の階層を何回か重ねる構成としてもよい。
 本実施形態では、最終的に学習済みモデル252として、学習済みのディープラーニングネット252の階層数、ノード数、各ノード間のつながり、重み等が記憶される。
 また、学習部214の学習後、または、クラスタリング部213によるクラスタリング後、ラベル244毎の代表データを生成し、ラベル244に対応づけて、代表データ記憶部260に記憶する。代表データは、ラベル244毎に、当該ラベルが付与された波形データおよび/またはヒストグラムの平均を算出することにより得る。平均は、例えば、波形データの場合、同じラベルが付与された波形データを重ね合わせて、波形数で割ることにより算出される。
 代表データ記憶部260に記憶される代表データベース261(261w、261h)の例を図3(d)および図3(e)に示す。代表データベース261wでは、各ラベル244wに対応づけて、波形データの代表データである代表波形データ263wが記憶される。また、代表データベース261hでは、同様に、ラベル244hに対応づけて、代表ヒストグラム263hが記憶される。
 時系列モデル生成部215は、各ラベル244を、時系列に並べ、時系列モデルを生成する。本実施形態では、所定期間(モデル生成単位期間)毎に、各学習データに付与されたラベル244を時系列に並べ、時系列モデルとして生成する。本実施形態では、学習データセット記憶部240に記憶される、各学習データのラベル244を、当該学習データの生成順に並べることにより、時系列モデルを生成する。また、生成した時系列モデルは、時系列モデル記憶部270に記憶する。
 なお、モデル生成単位期間は、例えば、1時間、1日等、計測データの種類に応じて予め定められる。
 時系列モデル記憶部270に格納される時系列モデルデータ271の例を図6に示す。時系列モデルデータ271は、時系列モデル273毎に、時系列モデル273を識別する時系列モデル識別情報(モデルID)272が対応づけて記憶される。時系列モデル273は、時系列に並べられたラベル244の並び順が異なると異なるものとされ、それぞれ、モデルID272が付与される。
 なお、図6に示す例では、1つでもラベル244の並び順が異なる時系列モデル273は、異なる時系列モデルとして異なるモデルID272を付与しているが、これに限定されない。複数の類似のラベル244の並び順の時系列モデル273を、1つのグループとして、同じモデルID272を付与するよう構成してもよい。
 また、学習データとして、波形データとヒストグラムとの両方を用いる場合、両データの並び順を併せて、1つのラベルの並び順として扱う。例えば、図5の例では、モデルID272のTS_1とTS_2とは、ヒストグラムのラベルの並び順は同じであるが、波形データのラベル並び順が異なるため、これらは、異なるラベル並び順として、異なるモデルID272が付与される。
 [予測部]
 次に、予測部220の各構成について説明する。予測部220の時間幅算出部221と、予測用データ生成部222とは、それぞれ、前処理学習部210の時間幅算出部211と、学習データ生成部212と同様の機能を有する。ただし、予測用データ生成部222が生成するデータを、予測用データと呼ぶ。
 予測部220では、前処理学習部210が、生成する学習データと同種の学習データを生成する。すなわち、波形データとヒストグラムの2種の学習データが生成される場合、予測部220は、波形データとヒストグラムとの2種の予測用データを生成する。一方、波形データのみの学習データが生成される場合は、波形データのみの予測用データを生成する。
 分類決定部223は、生成された予測用データを、学習アルゴリズムに入力し、当該予測用データの分類を決定し、当該分類に設定されたラベル244を付与する。本実施形態では、このとき、学習済みモデル252を用いる。
 予測値算出部224は、ラベル244を付与された予測用データが所定数、収集されると、それらを用いて、未来時刻の計測データを予測する。本実施形態では、まず、予測ラベル特定部としての処理を行う。すなわち、収集された予測用データのラベル244を、時系列に並べ、時系列モデル記憶部270に記憶される時系列モデル273と比較し、類似の時系列モデル273を特定する。そして、特定された時系列モデル273に従って、未来時刻の予測用データのラベル244を特定する。
 そして、予測値算出部224は、特定されたラベル244に対応づけて、代表データ記憶部260に記憶される代表データ(波形データおよびヒストグラム)263を、予測値(期待値)として算出する。
 マッチング評価部225は、算出された予測値と、当該未来時刻の実測された計測データ(実測データ)とを比較し、評価(マッチング)する。評価は、例えば、偏差σがわかっている場合、予測値からの3σの範囲に入っているか否かで評価を行ってもよい。
 評価は、例えば、前処理学習部210が生成した学習済みモデルの妥当性について行う。評価においては、予測値と実測データとの差異を算出し、差異が所定の範囲内に収まっていれば、妥当と判断し、所定の範囲を超えている場合、再学習の必要あり、と判断する。
 なお、学習済みモデルの妥当性ではなく、故障または異常の発生の有無を判断してもよい。例えば、予測値と実測データとの差異を算出し、差異が所定の範囲内を超えている場合、故障または異常発生の可能性有り、と判断する。
 [状態予測処理]
 次に、本実施形態の状態予測装置100による状態予測処理の流れを説明する。図7は、本実施形態の状態予測処理の全体の流れのフローである。
 本図に示すように、まず、前処理学習部210が、前処理と学習処理を行う(ステップS1100)。ここでは、前処理学習部210は、前処理と学習処理として、クラスタリング、学習、時系列モデル生成処理を行い、学習済みモデル、時系列モデル、各カテゴリの代表データの生成を行う。その後、予測部220が、最新の計測データと学習済みモデル、代表データおよび時系列モデルを用いて予測処理を行う(ステップS1200)。なお、前処理と学習処理と、予測処理とは、独立して行われる。
 以下、前処理と学習処理と、予測処理と、について、それぞれ、詳細を説明する。ここでは、波形データとヒストグラムとの学習データを生成する場合を例にあげて説明する。
 [前処理と学習処理]
 図8は、本実施形態の前処理学習部210による前処理と学習処理との処理フローである。本実施形態では、前処理および学習処理において、学習済みモデルと、各分類の代表データと、時系列モデルとを生成する。この前処理および学習処理は、ユーザからの開始の指示や予め設定されたタイムスケジュールや計測の区切り信号などを契機に実行される。また、観測対象のプラント機器が正常な状態の時の計測データを用いて実行される。前処理学習部210は、所定の時間間隔で、観測センサ300から計測データを受信するものとする。ここで、mは、カウンタであり、切出時間幅TWの個数をカウントする。
 まず、前処理学習部210は、カウンタmを初期化(m=1)する(ステップS1100)。
 時間幅算出部211は、計測データを取り込み(ステップS1101)、取り込むごとに、m番目の切出時間幅TW(m)の算出処理を行う(ステップS1102)。切出時間幅TW(m)が決定されるまで(ステップS1103)、時間幅算出部211は、計測データの取り込みおよび切出時間幅TW(m)の算出処理を繰り返す。切出時間幅決定処理の詳細は、後述する。
 m番目の切出時間幅TW(m)が決定したら、学習データ生成部212は、学習データを生成する(ステップS1104)。ここでは、まず、取り込んだ計測データから切出時間幅TW(m)分の波形データとヒストグラムとを切り出す。そして、切出時間幅TW(m)で切り出した波形データおよびヒストグラムに対し、所定のデータ値の範囲(ダイナミックレンジ)に収める正規化等の処理を施し、学習データとして生成する。なお、このとき、周期的な変化、季節変動等の要因を除去してもよい。なお、学習データを生成する毎に、直前までに取り込んだ計測データは破棄する。
 前処理学習部210は、以上の処理を繰り返し、所定数の学習データを収集する。所定数の学習データが生成されたら(ステップS1105)、クラスタリング部213は、収集した所定数の学習データ(波形データおよびヒストグラム)を、クラスタリングし(ステップS1106)、それぞれを、教師有データとする。これにより、教師有データのセット、すなわち、学習データセット243aが生成される。
 なお、所定数の学習データが未収集の場合、mを1インクリメントし(ステップS1110)、ステップS1101へ戻り、処理を繰り返す。
 学習部214は、生成された学習データセット243aを、学習アルゴリズム251に入力して学習させ(ステップS1107)、学習済みモデル252を生成する。このとき、各分類の代表データ263も生成する。
 ここで、時系列モデル生成部215は、予め定めたモデル生成単位期間TDT分の計測データのクラスタリングを終えたか否かを判別する(ステップS1108)。ここでは、処理開始からモデル生成単位期間TDが経過したか否かを判別する。
 モデル生成単位期間TDを経過していない場合(ステップS1108;No)は、ステップS1100へ戻り、処理を繰り返す。
 一方、モデル生成単位期間TDを経過した場合(ステップS1108;Yes)、時系列モデル生成部215は、時系列モデルを生成し(ステップS1109)、処理を終了する。
 時系列モデル生成部215は、例えば、モデル生成単位期間TDのラベル244の並び順を時系列に抽出する。そして、既に生成された時系列モデル273を参照し、同じ並び順の時系列モデル273の有無を判別する。同じ並び順の時系列モデル273が有る場合は、そのまま処理を終了する。一方、同じ並び順の時系列モデル273が無い場合は、新たに、モデルID272を設定し、ラベル244の並び順を時系列モデル273として時系列モデル記憶部270に登録し、処理を終了する。
 なお、所定の類似度のラベル244の並び順に、同じモデルID272を付与するグループ管理の場合は、以下の通りに行う。まず、予め定めた類似度の範囲内の時系列モデル273が登録されているか否かを判別する。そして、登録されている場合は、そのまま処理を終了する。一方、未登録の場合は、新たにモデルID272を設定し、得られた時系列モデル273を登録する。
 [時間幅算出処理]
 次に、上記S1102の時間幅算出処理の流れを、図9に従って説明する。ここでは、ステップS1101の計測データの取り込み処理も含めて説明する。本実施形態では、計測データを得る毎に、当該計測データ値毎の頻度を示すヒストグラムを作成する。そして、そのヒストグラムが、一塊の山状の分布に近い分布を示す期間を1つの動作モード期間とし、波形データおよびヒストグラムを切り取る切出時間幅TW(m)とする。具体的には、計測データの収集開始からヒストグラムの分散値の逆数が極大値を取る時刻までを、切出時間幅TW(m)とする。
 ここでは、計測データは、Δt毎に収集されるものとする。また、前回(m-1回目)の切出時間幅TW(m-1)を決定した際の、最終時刻からΔtを経過した時刻を、計測データの収集開始時刻t0とする。nは、カウンタである。また、N個の計測データを収集しても、切出時間幅TW(m)が決定されない場合、予め定めた時間幅を切出時間幅TW(m)とする。
 まず、初期処理を行う(ステップS1301)。ここでは、時刻t0の計測データDt(0)と、時刻t1(t1=t0+Δt)の計測データDt(1)とを取得し、例えば、RAM114等に、記憶する。そして、カウンタnを2とする。
 次に、時刻tn(tn=t0+Δt・n)の計測データDt(n)を取得する(ステップS1302)。
 Dt(0)からDt(n)までの間に取得した計測データを用いてヒストグラムを作成する(ステップS1303)。
 そして、作成したヒストグラムの分散の逆数V(n)を算出し、記憶する(ステップS1304)。なお、分散は、算出対象の計測データの平均値を求め、その平均値と各計測データの値との差の二乗和を全データ数で除算することにより得られる。
 そして、V’(n)とV”(n)とを算出する(ステップS1305)。V’(n)は、1回前に取得した計測データDt(n-1)までのヒストグラムの分散の逆数V(n-1)からV(n)を減算した値である。また、V”(n)は、V’(n-1)からV’(n)を減算した値である。
 そして、V’(n)の絶対値が予め定めた閾値Thより小さく、かつ、V”(n)が負であるという条件を満たすか否かを判別する(ステップS1306)。
 ステップS1306の判別結果が条件を満たさない場合、所定数の計測データを処理したか否を判別する(ステップS1310)。所定数の計測データの処理を終えていない場合は、nを1増加させ(ステップS1311)、ステップS1302へ戻り、処理を繰り返す。
 ステップS1306の判別結果が条件を満たす場合、および、ステップS1310において、所定数の計測データの処理を終えている場合、その時点の処理対象の計測データDt(n)を取得した時刻tnを時間区切りとする(ステップS1307)。そして、t0から時刻tnまでを切出時間幅T(m)とする。
 そして、次の時間幅設定処理のために、t0を設定し(ステップS1308)、処理を終了する。ここでは、t0は、時刻tnに、Δtを加算した時刻とする。
 以上の時間幅算出部211による時間幅算出処理を、具体例で説明する。例えば、計測データ320が、図10(a)に示すように時間的に変化するものとする。なお、計測データ320は、上述のようにΔt毎に取得される離散値である。また、図10(b)は、計測データ320の各値の頻度をグラフ化したヒストグラム330である。
 時間幅算出部211は、図11(a)に示すように、所定の時間間隔Δtで、計測データ320を取得する毎に、図11(b)に示すように、ヒストグラム330を作成する。そして、ヒストグラム330を作成する毎に、その分散の逆数V(n)が極大値を取るか否かを判別する。具体的には、V’(n)、V”(n)を算出し、ステップS1306の条件を判断する。
 ステップS1306の条件を満たす、すなわち、ヒストグラムの分散の逆数V(n)が極大値を取った時点t1までを、1番目の切出時間幅TW(1)とする。
 そして、t1にΔtを加えた時刻、すなわち、1番目の切出時間幅TW(1)の最後の計測データ320の次の計測データ320を取得する時刻を、次の処理ループのデータの収集開始時刻t0とする。そして、新たに、計測データ320の収集およびヒストグラム330の作成を開始する。これは、2番目の切出時間幅TW(2)を決定するための処理である。
 時間幅算出部211は、2番目の切出時間幅TW(2)の判定を開始する。この場合の計測データ320の変化の様子を図12(a)に示す。また、ヒストグラムの変化の様子を図12(b)に示す。
 この場合も、t1+Δtをt0とし、図12(a)に示すように、t0からΔt毎に計測データ320を取得する。そして、図12(b)に示すように、取得する毎に、ヒストグラム330を作成し、その都度、分散の逆数V(n)が極大値を取るか否かを判別する。そして、極大値をとった時点t2までを、2番目の切出時間幅TW(2)とする。
 そして、t2にΔtを加えた時刻、すなわち、2番目の切出時間幅TW(2)の最後の計測データ320の次の計測データ320を取得する時刻をt0とし、新たに、計測データ320の収集およびヒストグラムの作成を開始する。これは、3番目の切出時間幅TW(3)を決定するための処理である。
 時間幅算出部211は、3番目の切出時間幅TW(3)の判定を開始する。この場合、の計測データ320の変化の様子を図13(a)に示す。また、ヒストグラムの変化の様子を図13(b)に示す。
 この場合も、t2+Δtをt0とし、図13(a)に示すように、t0からΔt毎に計測データ320を取得する。そして、図13(b)に示すように、取得する毎に、ヒストグラム330を作成し、その都度、分散の逆数V(n)が極大値を取るか否かを判別する。そして、極大値を取る時点t3までを、3番目の切出時間幅TW(3)と決定する。
 時間幅算出部211は、以上の処理を、繰り返し、M番目の切出時間幅TW(M)まで作成する。
 [予測処理]
 次に、予測部220による、予測処理の流れを説明する。図14は、本実施形態の予測処理の処理フローである。予測処理は、ユーザからの開始指示や予め設定されたタイムスケジュールや計測の区切り信号などを契機に開始される。
 予測部220の時間幅算出部221は、学習処理同様、計測データを取り込むごとに(ステップS1201)、切出時間幅の算出を試みる(ステップS1202)。切出時間幅を決定するまで、ステップS1201およびS1202を繰り返す。切出時間幅の算出手法は、前処理学習部210の時間幅算出部211による処理と同様である。
 時間幅算出部221が切出時間幅を決定したら(ステップS1203;Yes)、予測用データ生成部222は、予測用データを生成する(ステップS1204)。予測用データの生成手法は、基本的に前処理学習部210の学習データ生成部212による学習データ生成手法と同様である。例えば、所定の値の幅(ダイナミックレンジ)に値が収まるよう、正規化処理を行う。また、周期的な変化、季節変動等の要因を除去してもよい。
 次に、分類決定部223は、生成された予測用データ(波形データおよびヒストグラム)を、学習アルゴリズムと学習済みモデルとを用いて分類する(ステップS1205)。ここでは、分類されたカテゴリに設定されているラベル244を付与する。
 その後、予測値算出部224は、それまでに分類した各切出時間幅の予測用データのラベル244を、時刻順に並べる。そして、記憶されている時系列モデル273と比較し、最も類似度の高い並び順を含む時系列モデル(グループ)273を、最類似時系列モデルとして特定する(ステップS1206)。
 例えば、波形データの予測用データから得た、ラベル244の並び順がAw、Bw、Cwであり、ヒストグラムの予測用データから得たラベル244の並び順がEh、Bh、Chである場合、図6に示す時系列モデルデータ271では、モデルID272がTS_4の時系列モデル273が最も類似度が高い。従って、モデルID272がTS_4の時系列モデル273が、最類似時系列モデルとして特定される。
 また、波形データの予測用データから得た、ラベル244の並び順がBw、Dw、Awであり、ヒストグラムの予測用データから得たラベル244の並び順がAh、Ah,Ahである場合、図6に示す時系列モデルデータ271では、モデルID272がTS_3の時系列モデル273が、この並び順を含み、最も類似度が高い。従って、モデルID272がTS_3の時系列モデル273が、最類似時系列モデルとして特定される。
 なお、学習データおよび予測用データとして、波形データのみを用いる場合は、波形データの時系列モデルのみで最類似時系列モデルを決定する。
 そして、予測値算出部224は、決定した最類似時系列モデルを用い、以降の波形データおよびヒストグラムを予測する(ステップS1207)。ここでは、決定した最類似時系列モデルに従って、以降のラベル(予測ラベル)を特定する。そして、その予測ラベルに対応づけて記憶される代表データ263(代表波形データ263wおよび/または代表ヒストグラム263h)を、予測値とする。
 例えば、最類似時系列モデルが、図6に示すモデルIDTS_4の時系列モデル273である上記の例の場合、波形データに関し、次のラベル244は、Dwである。従って、ラベルDwに対応づけて記憶される代表波形データ263wが予測値として算出される。
 その後、マッチング評価部225は、以降の観測センサ300から出力される実際の計測データと、ステップS1207で得た予測値とを比較し、評価する(ステップS1208)。
 以上説明したように、本実施形態の状態予測装置100は、観測対象の状態を観測する第一の観測センサ300で得た第一のセンサデータを、所定の時間間隔で取得し、観測対象の動作モード毎に区切り、学習データを生成する学習データ生成部212と、生成した所定数の前記学習データそれぞれを予め定めたカテゴリに分類し、カテゴリ毎に予め用意されたラベルを付し、教師有データを生成するクラスタリング部213と、所定数の教師有データを、学習アルゴリズムに入力して学習し、当該学習アルゴリズムの学習済みモデル252を生成するとともに、前記カテゴリそれぞれの代表データを生成する学習部214と、予め定めたモデル生成単位期間内にクラスタリング部213で学習データに付されたラベル244を、当該学習データの生成順に時系列に並べ、時系列モデル273を生成する時系列モデル生成部215と、新たに取得した第一のセンサデータから、時系列モデル273を用いて未来時刻の観測対象の状態として第一のセンサデータの予測値を算出する予測部220と、を備える。
 このため、本実施形態によれば、観測対象が複数の動作モードを有し、計測データが複雑に変化する場合であっても、動作モード毎に区切って学習データを生成するため、適切に状態を反映して区切られたデータから状態予測のための学習データを生成できる。適切な学習データで学習された結果から予測のための学習済みモデル、代表データおよび時系列モデルが生成されるため、精度の高い予測値を得ることができる。
 また、本実施形態の状態予測装置100は、第一のセンサデータを用いて動作モード毎の時間幅を切出時間幅として算出する時間幅算出部をさらに備えてもよい。時間幅算出部を備えることにより、本実施形態の状態予測装置100は、実際の計測データから動作モードの区切りを検出できる。このため、より高い精度で、動作モードを検出でき、検出結果に従って、計測データを区切ることができる。従って、より精度の良い予測値を得ることができる。
 このように、本実施形態によれば、観測対象物に関連する物理量(計測データ)の時系列観測値に基づいて、観測対象物の状態を精度よく予測できる。
 また、本実施形態では、ヒストグラムについても、併せてクラスタリングし、学習させて分類してもよい。計測データには、その性質により、所定の時間幅内の、値が現れる順序を示す波形(波形データ)より、値の割合を示す分布(ヒストグラム)に意味があるタイプの計測データがある。ヒストグラムについても、波形データ同様の処理を行うことで、このようなタイプの計測データについても、その特徴に応じて、的確に分類できる。すなわち、本実施形態によれば、多面的に計測データを解析できる。
 <変形例>
 なお、上記実施形態では、時間幅算出処理において、計測データの収集開始から、ヒストグラムの分散値の逆数が極大値を取る時刻までを、切出時間幅TW(m)に決定している。しかしながら、切出時間幅の決定手法は、これに限定されない。例えば、計測データを取得する毎に、取得開始時刻からの計測データ値(計測値)の平均値を算出し、平均値の変化が極値を取る時刻間を、切出時間幅TW(m)としてもよい。
 この場合、具体的には、計測データ値の平均値の変化量(微分)を算出し、変化量が予め定めた閾値未満となる時刻までを、切出時間幅TW(m)とする。なお、閾値は、0に近い値とする。
 例えば、計測データを、1000回取得した場合(1000度数)の、計測データ値の平均値の推移を図15に示す。本グラフにおいて、横軸は、計測データの度数、縦軸は、計測データの平均値である。
 本図に示すように、1から50度数の間、351~400度数の間、451~500の間、651~700度数の間、800~851度数の間等に、平均値の変化は、極値を取る。これらの各期間のうち、1から50度数の間の平均値の推移、51~400度数の間の平均値の推移、351~500度数の間の平均値の推移、481~700度数の間の平均値の推移の拡大図を、それぞれ、図16(a)~図17(b)に示す。各図において、縦軸は、計測データの平均値であり、横軸は、グラフの観測期間における観測数の度数(累計)である。すなわち、横軸の最左値(0)は、図16(a)においては、1、図16(b)においては、51、図17(a)においては、351、図17(b)においては、481である。
 本変形例では、計測データを得る毎に、時刻t0からその時点までの各計測データの平均値を算出し平均値の推移とする。1回前に算出した平均値と差を算出する。その差がこれらの図に示すように、略0に近い場合、極値を取るものとして、時間区切りとする。
 <<第二の実施形態>>
 次に、本発明の第二の実施形態を説明する。本実施形態では、同時に取得される複数の観測センサ300からの計測データそれぞれを予測する。ただし、切出時間幅は、特定の計測データを用いて決定し、その切出時間幅を、他の全ての計測データに適用する。
 以後、切出時間幅を決定する計測データを主計測データ(第一の観測センサで得た第一のセンサデータ)、その他のデータを、従計測データ(第二の観測センサで得た第二のセンサデータを含む)と呼び、本実施形態を説明する。例えば、第一の実施形態の図10(a)の例では、320が主計測データであり、その他の321および322が従計測データである。
 なお、本実施形態では、複数の計測データ全てについて、それぞれ、当該計測データを主計測データとし、残りの計測データを従計測データとして、以下の処理を行う。以下、特定の計測データを主計測データとし、残りの計測データを従計測データとする場合を例に、本実施形態を説明する。
 本実施形態の状態予測装置100のハードウェア構成および機能ブロックは、第一の実施形態と同様である。以下、本実施形態について、第一の実施形態と異なる構成に主眼をおいて説明する。
 ただし、本実施形態では、主計測データ320以外に、従計測データ321、322についても、主計測データ320の切出時間幅で切出し、学習データを生成する。そして、それぞれ、学習済みモデルを生成し、各カテゴリ(ラベル)毎の代表データおよび時系列モデルを生成する。
 本実施形態の概要を、図18を用いて説明する。各計測データa~eについて、それぞれ、第一の実施形態の手法で切出時間幅を決定し、それぞれ、ラベル244を付した状態を図18に示す。
 ここで、計測データaを主計測データとし、残りの計測データb~eを従計測データとする。本実施形態では、例えば、主計測データを計測データaとした場合、主計測データaの切出時間幅で、従計測データb~eの計測データも切り出し、それぞれ、学習データを生成する。
 例えば、主計測データaのラベルa2が付された切出時間幅について、従計測データb~eは、その計測データ固有の時間区切り(切出時間幅)に関わらず、この切出時間幅で切出され、その後の処理に用いられる。
 本実施形態の学習部214による学習の様子を、図19を用いて説明する。本実施形態では、主計測データから得た学習データと、従計測データから得た学習データとを、全て、データ入力ウィンドウに入力し、第一の実施形態同様、学習を行う。そして、最終的に学習済みモデル252を得る。
 図20に、本実施形態の学習処理の処理フローを示す。本実施形態の学習処理については、ステップS1103の、切出時間幅の決定までは、第一の実施形態と同様である。ただし、切出時間幅の決定に用いるデータは、主計測データ320である。
 切出時間幅を決定した後、学習データ生成部212は、主計測データ320および従計測データ321、322それぞれの、学習データを生成する(ステップS2101)。このとき、切出時間幅TW(m)には、第一の実施形態同様の手法で、主計測データ320で決定したものを用いる。その他の生成手法は、第一の実施形態の学習データ生成手法と同様である。本実施形態においても、計測データそれぞれについて、波形データおよびヒストグラムの学習データを生成してもよい。
 その後、所定量の学習データが蓄積されたら(ステップS1105)、クラスタリング部213は、主計測データ320から生成した学習データのクラスタリングと、従計測データ321、322のクラスタリングと、を行う(ステップS2102)。主計測データのクラスタリングは、第一の実施形態と同様である。
 一方、従計測データについては、従計測データを、切出時間幅TW(m)で切り取った学習データを、主計測データ同様の手法で、それぞれ、分類する。これにより、各計測データについて、教師有データを生成する。なお、カテゴリ数、各カテゴリのラベルは、従計測データ種毎に、予め用意する。
 そして、学習部214は、図19に示すように、生成された学習データセット243a全てを学習アルゴリズム251に入力して学習させ(ステップS2103)、学習済みモデル252を生成するとともに、代表データを算出する。
 以後、本実施形態においても、時系列モデル生成部215が、モデル生成単位期間TDが経過したか否かを判別する(ステップS1106)。そして、未経過の場合、切出時間幅を算出するカウンタmの値を1インクリメントし(ステップS1108)、ステップS1101へ戻り、処理を繰り返す。
 一方、モデル生成単位期間TDが経過した場合、時系列モデル生成部215は、主計測データおよび従計測データそれぞれの波形データおよびヒストグラムについて、時系列モデル273を生成し(ステップS1107)、処理を終了する。
 また、予測処理においても、学習処理同様、主計測データを用いて切出時間幅を算出する。その後、主計測データおよび従計測データそれぞれについて、波形データおよびヒストグラムを決定した切出時間幅で切り取り、予測用データを生成する。そして、それぞれの予測用データを用いて、分類し、予測を行う。
 本実施形態の予測処理の流れを、図21を用いて説明する。本実施形態の予測処理も、ステップS1203の切出時間幅の決定までは、第一の実施形態と同様である。ただし、切出時間幅の決定に用いるデータは、主計測データ320である。
 切出時間幅を決定した後、予測用データ生成部222は、主計測データ320および従計測データ321、322それぞれの、予測用データを生成する(ステップS2204)。予測用データの生成手法は、第一の実施形態と同様である。
 その後、分類決定部223は、第一の実施形態と同様に、全ての予測用データを学習済みモデルのディープラーニングネットに入力し、各予測用データの分類を決定し、付与するラベル244を特定する(ステップS2205)。ここでは、主計測データ320および従計測データ321、322それぞれから生成した予測用データについて、分類の決定およびラベル244の特定を行う。
 その後、第一の実施形態同様、予測値算出部224は、主計測データ320、従計測データ321、322それぞれについて、類似時系列モデルを特定する(ステップS2206)。そして、未来時刻の波形データおよびヒストグラムを予測し(ステップS2207)、予測値とする。
 そして、マッチング評価部225は、以降の観測センサ300から出力される実際の計測データと、ステップS2207で得た予測値とを比較し、第一の実施形態と同様の評価を行う(ステップS1208)。
 上述したように、本実施形態では、全ての種類の計測データについて、それぞれを主計測データ、残りの計測データを従計測データとして、上記処理を行う。その結果に応じ、以降、主計測データを1つ、または、特定のグループの計測データに固定してもよい。主計測データは、複数の種類の計測データの中で、例えば、計測データ値の変化が、最も動作モードの変化に追従するデータを選択することが望ましい。
 以上説明したように、本実施形態の状態予測装置100は、第一の実施形態の構成に加え、さらに、従計測データについても、主計測データと同様にクラスタリングし、学習済みモデル252、代表データ263および時系列モデル273を生成する。
 このように、本実施形態によれば、第一の実施形態の効果に加え、簡易な構成で多種多様な計測データを、高精度に予測をすることができる。
 本発明は上記の実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は、本発明を分かりやすく説明するためのものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 100:状態予測装置、112:CPU、113:ROM、114:RAM、115:ファイルユニット、116:外部インタフェース、117:モニタ、118:バス、
 210:前処理学習部、211:時間幅算出部、212:学習データ生成部、213:クラスタリング部、214:学習部、215:時系列モデル生成部、
 220:予測部、221:時間幅算出部、222:予測用データ生成部、223:分類決定部、224:予測値算出部、225:マッチング評価部、
 230:ラベル記憶部、231:ラベルデータ、240:学習データセット記憶部、241:教師有データ、241h:教師有データ、241w:教師有データ、242:取得時刻、242h:取得時刻、242w:取得時刻、243:学習データ、243a:学習データセット、243b:予測用データ、243c:分類、243w:波形データの学習データ、243h:ヒストグラムの学習データ、244:ラベル、244h:ラベル、244w:ラベル、250:学習済みモデル記憶部、251:学習アルゴリズム、252:学習済みモデル、260:代表データ記憶部、261:代表データベース、261w:代表データベース、261h:代表データベース、263:代表データ、263h:代表ヒストグラム、263w:代表波形データ、270:時系列モデル記憶部、271:時系列モデルデータ、272:モデルID、273:時系列モデル、
 300:観測センサ、311:電流センサ、312:電圧センサ、313:温度センサ、314:圧力センサ、315:加速度センサ、316:カメラ、320:計測データ(主計測データ)、321:従計測データ、322:従計測データ、330:ヒストグラム

Claims (8)

  1.  観測対象の状態を観測する第一の観測センサで得た第一のセンサデータを、所定の時間間隔で取得し、前記観測対象の動作モード毎に区切り、学習データを生成する学習データ生成部と、
     生成した所定数の前記学習データそれぞれを予め定めたカテゴリに分類し、前記カテゴリ毎に予め用意されたラベルを付し、教師有データを生成するクラスタリング部と、
     前記所定数の教師有データを、学習アルゴリズムに入力して学習し、当該学習アルゴリズムの学習済みモデルを生成するとともに、各前記カテゴリの代表データを生成する学習部と、
     予め定めたモデル生成単位期間内に前記クラスタリング部で前記学習データに付された前記ラベルを、当該学習データの生成順に時系列に並べ、時系列モデルを生成する時系列モデル生成部と、
     新たに取得した第一のセンサデータから、前記時系列モデルを用いて未来時刻の前記観測対象の状態として前記第一のセンサデータの予測値を算出する予測部と、を備える状態予測装置。
  2.  請求項1の状態予測装置であって、
     前記第一のセンサデータを用いて前記動作モード毎の時間幅を切出時間幅として算出する時間幅算出部をさらに備え、
     前記学習データ生成部は、前記時間幅算出部が算出した切出時間幅で前記第一のセンサデータを区切り、
     前記時間幅算出部は、前記第一のセンサデータを取得する毎に当該第一のセンサデータの値のヒストグラムを生成し、当該ヒストグラムが山状の分布を示す時間幅を、前記切出時間幅とする状態予測装置。
  3.  請求項2記載の状態予測装置であって、
     前記時間幅算出部は、前記ヒストグラムを生成する毎に、当該ヒストグラムの分散の逆数を算出し、前回の切出時間直後から当該分散の逆数が極大値を取る時刻までの期間を前記切出時間幅と算出する状態予測装置。
  4.  請求項1記載の状態予測装置であって、
     各カテゴリの前記代表データと、当該カテゴリ毎の前記ラベルとを対応づけて記憶する代表データ記憶部と、
     前記モデル生成単位期間毎に生成された前記時系列モデルであって、前記ラベルの並び順の異なる前記時系列モデルを、それぞれ時系列モデル識別情報に対応づけて記憶する時系列モデル記憶部と、をさらに備え、
     前記予測部は、
     所定の時間間隔で取得した前記第一のセンサデータを、前記動作モード毎に区切り、予測用データを生成する予測用データ生成部と、
     生成した前記予測用データを、前記学習済みモデルに入力して前記カテゴリのいずれかに分類し、当該カテゴリに設定される前記ラベルを付与する分類決定部と、
     前記ラベルが付与される毎に、当該ラベルを時系列に並べ、前記時系列モデル記憶部に記憶される前記時系列モデルの中で、最も並び順の類似度の高い時系列モデルを特定し、特定された当該時系列モデルに従って、未来時刻のラベルを予測ラベルとして特定する予測ラベル特定部と、
     特定された前記予測ラベルに対応づけて前記代表データ記憶部に記憶される前記代表データを前記第一のセンサデータの前記予測値として算出する予測値算出部と、を備える状態予測装置。
  5.  請求項2記載の状態予測装置であって、
     前記学習データ生成部は、前記観測対象の、前記第一の観測センサとは異なる状態を観測する第二の観測センサで得た第二のセンサデータを、前記第一のセンサデータを用いて算出した前記切出時間幅で区切り、前記学習データをさらに生成し、
     前記クラスタリング部は、前記第二のセンサデータから生成した前記学習データを、当該第二のセンサデータのために予め定められたカテゴリに分類し、前記カテゴリ毎に予め用意され第二のラベルを付し、当該第二のセンサデータの前記教師有データを生成し、
     前記学習部は、所定数の前記第一のセンサデータの教師有データと前記第二のセンサデータの教師有データとを前記学習アルゴリズムに入力し、前記学習済みモデルを生成し、
     前記時系列モデル生成部は、前記第二のラベルを時系列に並べ、第二の時系列モデルをさらに生成し、
     前記予測部は、新たに取得した前記第二のセンサデータから、前記第二の時系列モデルを用いて、前記未来時刻の前記観測対象の状態として、前記第二のセンサデータの予測値をさらに算出する状態予測装置。
  6.  請求項1記載の状態予測装置であって、
     前記第一のセンサデータを用いて前記動作モード毎の時間幅を切出時間幅として算出する時間幅算出部を備え、
     前記学習データ生成部は、前記時間幅算出部が算出した切出時間幅で前記第一のセンサデータを区切り、
     前記時間幅算出部は、前記第一のセンサデータを取得する毎に、当該第一のセンサデータの取得開始時刻からの値の平均値を算出し、前記平均値が極値を取る時刻間を前記切出時間幅と算出する状態予測装置。
  7.  請求項1から6のいずれか1項記載の状態予測装置であって、
     前記予測値と前記新たに取得した第一のセンサデータとを比較し、評価するマッチング評価部をさらに備える状態予測装置。
  8.  観測対象の状態を観測する第一の観測センサで得た第一のセンサデータを、所定の時間間隔で取得し、前記観測対象の動作モード毎に区切り、学習データを生成することを繰り返し、所定数の前記学習データを得る学習データ生成ステップと、
     所定数の前記学習データそれぞれを予め定めたカテゴリに分類し、前記カテゴリ毎に予め定めたラベルを付し、教師有データを生成するクラスタリングステップと、
     前記所定数の教師有データを、学習アルゴリズムに入力して学習し、当該学習アルゴリズムの学習済みモデルを生成するとともに、前記カテゴリそれぞれの代表データを生成する学習ステップと、
     予め定めたモデル生成単位期間内に前記学習データに付された前記ラベルを、当該学習データの生成順に時系列に並べ、時系列モデルを生成する時系列モデル生成ステップと、
     新たに取得した前記第一のセンサデータから、前記時系列モデルを用いて未来時刻の前記観測対象の状態として前記第一のセンサデータの予測値を算出する予測ステップと、を備える状態予測制御方法。
     
PCT/JP2018/007039 2018-02-26 2018-02-26 状態予測装置および状態予測制御方法 WO2019163141A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019504874A JP6670418B2 (ja) 2018-02-26 2018-02-26 状態予測装置および状態予測制御方法
EP18906994.1A EP3605410A4 (en) 2018-02-26 2018-02-26 DEVICE FOR PREDICTION AND CONTROL METHODS FOR PREDICTION
CN201880012012.2A CN110431570A (zh) 2018-02-26 2018-02-26 状态预测装置和状态预测控制方法
PCT/JP2018/007039 WO2019163141A1 (ja) 2018-02-26 2018-02-26 状態予測装置および状態予測制御方法
US16/326,540 US20210383250A1 (en) 2018-02-26 2018-02-26 State Prediction Apparatus and State Prediction Control Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/007039 WO2019163141A1 (ja) 2018-02-26 2018-02-26 状態予測装置および状態予測制御方法

Publications (1)

Publication Number Publication Date
WO2019163141A1 true WO2019163141A1 (ja) 2019-08-29

Family

ID=67688250

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/007039 WO2019163141A1 (ja) 2018-02-26 2018-02-26 状態予測装置および状態予測制御方法

Country Status (5)

Country Link
US (1) US20210383250A1 (ja)
EP (1) EP3605410A4 (ja)
JP (1) JP6670418B2 (ja)
CN (1) CN110431570A (ja)
WO (1) WO2019163141A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051639A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP2021051640A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP2021051638A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP2021051637A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP2021096660A (ja) * 2019-12-17 2021-06-24 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
JP2021144637A (ja) * 2020-03-13 2021-09-24 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP2022052062A (ja) * 2020-09-23 2022-04-04 株式会社島津製作所 ポンプ監視装置、真空ポンプ、ポンプ監視方法およびポンプ監視プログラム
JP7268266B2 (ja) 2021-07-30 2023-05-08 東芝デジタルエンジニアリング株式会社 事象分類装置、事象分類プログラム、故障・不良判定装置及び良・不良判定装置
JP7400855B2 (ja) 2022-03-23 2023-12-19 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP7400856B2 (ja) 2022-03-23 2023-12-19 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP7487759B2 (ja) 2022-09-28 2024-05-21 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7364431B2 (ja) * 2019-11-06 2023-10-18 ファナック株式会社 機械学習装置、予測装置、及び制御装置
JP7413011B2 (ja) * 2019-12-27 2024-01-15 キヤノンメディカルシステムズ株式会社 医用情報処理装置
JP7481897B2 (ja) * 2020-05-12 2024-05-13 株式会社東芝 監視装置、監視方法、プログラムおよびモデル訓練装置
EP4261639A4 (en) * 2020-12-08 2024-01-31 Jfe Steel Corp METHOD FOR DETERMINING A TIME SERIES SIGNAL TRIGGER CONDITION, METHOD FOR DIAGNOSIS OF AN ANOMALY IN A MONITORED INSTALLATION, AND DEVICE FOR DETERMINING A TIME SERIES SIGNAL TRIGGER CONDITION
CN115270998B (zh) * 2022-09-26 2022-12-02 乐山师范学院 时间序列的有序分类方法、装置、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145496A1 (ja) * 2010-05-20 2011-11-24 株式会社日立製作所 監視診断装置および監視診断方法
US20170147930A1 (en) * 2015-01-30 2017-05-25 Hewlett Packard Enterprise Development Lp Performance testing based on variable length segmentation and clustering of time series data
JP2017157213A (ja) 2016-02-29 2017-09-07 富士通株式会社 予測分析のための時系列のデータ・セットを生成する方法及びデータ処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162393B1 (en) * 2005-09-01 2007-01-09 Sun Microsystems, Inc. Detecting degradation of components during reliability-evaluation studies
JPWO2014042147A1 (ja) * 2012-09-12 2016-08-18 日本電気株式会社 データ集中予測装置、データ集中予測方法、及びそのプログラム
JP6109037B2 (ja) * 2013-10-23 2017-04-05 本田技研工業株式会社 時系列データ予測装置、時系列データ予測方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145496A1 (ja) * 2010-05-20 2011-11-24 株式会社日立製作所 監視診断装置および監視診断方法
US20170147930A1 (en) * 2015-01-30 2017-05-25 Hewlett Packard Enterprise Development Lp Performance testing based on variable length segmentation and clustering of time series data
JP2017157213A (ja) 2016-02-29 2017-09-07 富士通株式会社 予測分析のための時系列のデータ・セットを生成する方法及びデータ処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ARAI KENJI ET AL.: "A method for multi stream prediction based on correlation using simultaneous observation cluster group", IEICE TECHNICAL REPORT, vol. 111, no. 477, 5 March 2012 (2012-03-05), pages 183 - 190, XP009517033 *
See also references of EP3605410A4

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7230755B2 (ja) 2019-09-26 2023-03-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP2021051640A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP2021051638A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP2021051637A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP2021051639A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7243553B2 (ja) 2019-09-26 2023-03-22 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP7230754B2 (ja) 2019-09-26 2023-03-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7226226B2 (ja) 2019-09-26 2023-02-21 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP2021096660A (ja) * 2019-12-17 2021-06-24 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
JP7335154B2 (ja) 2019-12-17 2023-08-29 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
JP2021144637A (ja) * 2020-03-13 2021-09-24 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP7293156B2 (ja) 2020-03-13 2023-06-19 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP2022052062A (ja) * 2020-09-23 2022-04-04 株式会社島津製作所 ポンプ監視装置、真空ポンプ、ポンプ監視方法およびポンプ監視プログラム
JP7409269B2 (ja) 2020-09-23 2024-01-09 株式会社島津製作所 ポンプ監視装置、真空ポンプ、ポンプ監視方法およびポンプ監視プログラム
JP7268266B2 (ja) 2021-07-30 2023-05-08 東芝デジタルエンジニアリング株式会社 事象分類装置、事象分類プログラム、故障・不良判定装置及び良・不良判定装置
JP7400855B2 (ja) 2022-03-23 2023-12-19 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP7400856B2 (ja) 2022-03-23 2023-12-19 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法
JP7487759B2 (ja) 2022-09-28 2024-05-21 いすゞ自動車株式会社 モデル作成装置、データ生成装置、モデル作成方法及びデータ生成方法

Also Published As

Publication number Publication date
EP3605410A4 (en) 2020-12-02
JP6670418B2 (ja) 2020-03-18
US20210383250A1 (en) 2021-12-09
JPWO2019163141A1 (ja) 2020-02-27
CN110431570A (zh) 2019-11-08
EP3605410A1 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6670418B2 (ja) 状態予測装置および状態予測制御方法
JP5364530B2 (ja) 設備状態監視方法、監視システム及び監視プログラム
Lieber et al. Quality prediction in interlinked manufacturing processes based on supervised & unsupervised machine learning
Ramasso et al. Remaining useful life estimation by classification of predictions based on a neuro-fuzzy system and theory of belief functions
JP6624963B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR101948604B1 (ko) 센서 군집화 기반의 설비 건강 모니터링 방법 및 장치
EP3373089B1 (en) Operating state classification device
US20140046878A1 (en) Method and system for detecting sound events in a given environment
US10289884B2 (en) Image analyzer, image analysis method, computer program product, and image analysis system
EP3489827B1 (en) Discriminative hidden kalman filters for classification of streaming sensor data in condition monitoring
JP2018142097A (ja) 情報処理装置、情報処理方法及びプログラム
JP5889019B2 (ja) ラベル付加装置、ラベル付加方法及びプログラム
Sani et al. Redefining selection of features and classification algorithms for room occupancy detection
CN117131110B (zh) 一种基于关联分析的容性设备介质损耗监测方法及系统
JP2017102865A (ja) 情報処理装置、情報処理方法及びプログラム
CN116244609A (zh) 一种客流量统计方法、装置、计算机设备及存储介质
Siddalingappa et al. Anomaly detection on medical images using autoencoder and convolutional neural network
JP6812076B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム
CN111680748A (zh) 航天器状态模式的识别方法及识别装置
CN113396370A (zh) 协调型学习系统以及监视系统
Guo et al. Phase partition and online monitoring for batch process based on multiway BEAM
Riedlinger et al. Uncertainty quantification for object detection: output-and gradient-based approaches
Le et al. An energy data-driven decision support system for high-performance manufacturing industries
EP3754446A1 (en) Method and assistance system for detecting an abnormal behaviour of a device
Tanatavikorn et al. Fuzzy treatment method for outlier detection in process data

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019504874

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18906994

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018906994

Country of ref document: EP

Effective date: 20191029

NENP Non-entry into the national phase

Ref country code: DE