WO2019244295A1 - 学習装置、学習方法及びプログラム - Google Patents

学習装置、学習方法及びプログラム Download PDF

Info

Publication number
WO2019244295A1
WO2019244295A1 PCT/JP2018/023575 JP2018023575W WO2019244295A1 WO 2019244295 A1 WO2019244295 A1 WO 2019244295A1 JP 2018023575 W JP2018023575 W JP 2018023575W WO 2019244295 A1 WO2019244295 A1 WO 2019244295A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
signal
similarity
unit
waveform
Prior art date
Application number
PCT/JP2018/023575
Other languages
English (en)
French (fr)
Inventor
隆彦 増崎
督 那須
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201880094703.1A priority Critical patent/CN112334922B/zh
Priority to US17/051,440 priority patent/US11042737B2/en
Priority to PCT/JP2018/023575 priority patent/WO2019244295A1/ja
Priority to JP2019531360A priority patent/JP6644192B1/ja
Priority to TW108120616A priority patent/TW202001922A/zh
Publication of WO2019244295A1 publication Critical patent/WO2019244295A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • G06F2218/16Classification; Matching by matching signal segments

Definitions

  • the present invention relates to a learning device, a learning method, and a program.
  • Various processing systems such as a production system and a control system in a factory, that use time-series data indicating a result of sensing by a sensor are known.
  • this type of processing system it is widely performed to compare the time-series data with data to be input in a normal state to diagnose the presence or absence of an abnormality in the processing system.
  • Patent Document 1 describes a technique in which patterns are classified from the principal component scores of time-series data, and learning is terminated when the number of patterns converges.
  • a representative value of a principal component score belonging to each pattern is output as learning data used for abnormality detection.
  • the present invention has been made in view of the above circumstances, and has as its object to end learning for comparing signal waveforms at a more appropriate time.
  • a learning apparatus of the present invention includes an acquiring unit that acquires a learning signal, and a partial signal cut out from the learning signal acquired by the acquiring unit, according to a similarity indicating a degree of similarity of a waveform.
  • a learning unit that learns a reference waveform representing a waveform of a clustered partial signal by performing clustering, and a learning unit that learns from at least one of a distribution of similarity and a characteristic of each cluster including the clustered partial signal.
  • generating means for generating and outputting progress information indicating the progress of the process.
  • the reference waveform is learned from the learning signal, and the progress information is generated based on at least one of the distribution of the similarity and the characteristics of each cluster including the clustered partial signals. If such progress information is used, the learning can be terminated when learning of the reference waveform obtained by clustering according to the similarity progresses to some extent. Therefore, the learning for comparing the signal waveforms can be completed at a more appropriate time.
  • FIG. 1 is a block diagram showing a functional configuration of a learning device according to an embodiment of the present invention.
  • FIG. 7 is a diagram for describing a learning signal acquired by the acquiring unit according to the embodiment.
  • FIG. 7 is a diagram for describing learning of a reference waveform by a learning unit according to the embodiment.
  • FIG. 7 is a diagram for describing calculation of similarity by the generation unit according to the embodiment.
  • FIG. 7 is a diagram for describing a first index value according to the embodiment.
  • FIG. 7 is a diagram for describing a second index value according to the embodiment.
  • FIG. 9 is a diagram for describing a third index value according to the embodiment.
  • FIG. 7 is a diagram for describing a fourth index value according to the embodiment.
  • FIG. 7 is a diagram for describing a learning signal acquired by the acquiring unit according to the embodiment.
  • FIG. 7 is a diagram for describing learning of a reference waveform by a learning unit according to the embodiment.
  • FIG. 2 is a block diagram showing a hardware configuration of the learning device according to the embodiment.
  • FIG. 10 is a diagram for describing acquisition of a learning signal according to a modification. Flowchart showing a learning process according to a modified example
  • the learning device 10 is a device that acquires a learning signal provided from the outside and learns a representative waveform included in the learning signal.
  • the waveform learned by the learning device 10 is used to detect an abnormality by comparing with a waveform of a signal collected in a production system formed in a factory.
  • the abnormalities include, for example, that the specifications of the work flowing through the production line are out of the standard, malfunctions of the devices constituting the production line, and errors generated during the operation of the devices.
  • the abnormality is a state different from a normal state that is predetermined as assumed by an operator of the production system, and usually stops production of the product by the production system or lowers the yield.
  • a signal collected by the production system has a waveform similar to any one of the plurality of waveform patterns. Therefore, when the waveform of the input signal has a shape deviating from any of the waveform patterns, it is determined that the waveform is abnormal.
  • the learning device 10 learns a waveform pattern for determining such an abnormality.
  • a waveform pattern serving as a reference for determining abnormality is referred to as a reference waveform.
  • the learning device 10 stores, as its functions, an acquisition unit 11 for acquiring a learning signal, a learning unit 12 for learning a reference waveform from a learning signal, and various data including a result of learning.
  • Storage unit 13 a generation unit 14 that generates progress information indicating the progress of learning based on the data in the storage unit 13, an output unit 15 that outputs the progress information to the outside, and an instruction from the user regarding the execution of learning.
  • a receiving unit 16 for receiving.
  • the acquisition unit 11 acquires a plurality of learning signals. Specifically, the acquiring unit 11 repeatedly acquires a learning signal. More specifically, the acquisition unit 11 acquires an original signal provided by a user, and divides the original signal to repeatedly acquire a learning signal in ascending order of length. The acquiring unit 11 sends the acquired learning signal to the learning unit 12 every time the learning signal is acquired.
  • the original signal has the waveform of the signal to be collected when the production system is operating normally.
  • the original signal is prepared in advance by the user.
  • the acquisition unit 11 functions as a claim acquisition unit.
  • FIG. 2 schematically shows a learning signal acquired by the acquiring unit 11.
  • the original signal has a waveform 201 that rises sharply and then falls slowly, a trapezoidal waveform 202, and a waveform 203 that rises slowly and then falls sharply.
  • the acquisition unit 11 extracts and acquires the learning signal 21 from the original signal. Thereafter, the acquisition unit 11 cuts out and acquires a learning signal 22 longer than the learning signal 21 acquired for the first time. Similarly, the acquisition unit 11 cuts out and acquires a learning signal 23 longer than the learning signal 22 acquired the second time.
  • the learning signals 21 and 22 have the waveform 201 but do not have the waveforms 202 and 203.
  • the learning signal 23 has the waveforms 201 and 202 but does not have the waveform 203. Therefore, the learning signals 21 to 23 can be said to be insufficient signals as signals for learning the waveform.
  • the acquisition unit 11 acquires the learning signal 2n as the N-th signal. Since the learning signal 2n includes all of the waveforms 201, 202, and 203, it can be said that the learning signal 2n is a signal having a sufficient length for learning the waveform. Further, the acquiring unit 11 acquires the learning signal 2m as the M-th signal. If the learning signal 2m is used, the learning can be advanced more than the learning signal 2n. However, since the waveforms 201 to 203 included in the original signal are all learned from the learning signal 2n, the learning by the learning signal 2m is excessive. Can waste computing resources.
  • FIG. 2 schematically shows the learning signal, and it is preferable to learn a certain type of waveform from a plurality of waveforms, rather than from a single waveform included in the learning signal.
  • the learning unit 12 learns a reference waveform from the learning signal every time the learning signal is obtained by the obtaining unit 11. Specifically, the learning unit 12 clusters the partial signals cut out from the learning signal according to the degree of similarity of the waveform, and learns a reference waveform representing the waveform of the clustered partial signal.
  • the learning unit 12 functions as a learning unit of the claims.
  • the learning unit 12 divides the learning signal into a learning partial signal for learning a reference waveform and a trial signal processed by a generating unit 14 described later. Specifically, the learning unit 12 divides the learning signal equally.
  • the present invention is not limited to this, and the method of dividing the learning signal is arbitrary.
  • the learning unit 12 generates the partial signal 32 by cutting out a series of learning values from the learning partial signal every time the window 31 is slid.
  • the partial signal 32 is treated as a vector having the learning values of the extracted sequence as elements.
  • the learning unit 12 clusters the plurality of partial signals using the degree of similarity of the waveform as an index.
  • a plurality of partial signals are clustered into groups G1, G2, and G3.
  • the learning unit 12 performs clustering according to a distance between signals as vectors.
  • the distance between signals as a vector can be obtained by calculating the sum of the square errors of the components constituting the vector and obtaining the square root of the sum. Details of the clustering will be described later.
  • the groups G1, G2, and G3 obtained as a result of the clustering performed by the learning unit 12 each include partial signals having waveforms similar to each other. Groups G1, G2, G3 correspond to clusters. Then, the learning unit 12 determines a reference waveform representing the waveform of the partial signal included in each group.
  • the reference waveform may be a waveform corresponding to an average of partial signals included in each group, may be any partial signal selected from each group, or may be a partial signal at the center of a cluster. Is also good.
  • the reference waveform A corresponding to the group G1, the reference waveform B corresponding to the group G2, and the reference waveform C corresponding to the group G3 are learned.
  • the learning unit 12 stores data indicating the trial signal divided from the learning signal, the learned reference waveform, and the partial signal clustered into each group in the storage unit 13.
  • the generation unit 14 reads the data stored in the storage unit 13 and indicates the progress of learning of the reference waveform by at least one of the distribution of the similarity and the characteristics of each cluster including the clustered partial signals. Generate and output progress information. Specifically, the generation unit 14 calculates an index value for the reference waveform, generates and outputs progress information from the index value.
  • the generation unit 14 functions as a generation unit of the claims.
  • the generation unit 14 includes a similarity analysis unit 141 that calculates a first index value, a cluster analysis unit 142 that calculates a second index value, a reference waveform analysis unit 143 that calculates a third index value, and a fourth index value And a progress information generation unit 145 that generates progress information from the index value.
  • the similarity analysis unit 141 calculates the similarity between the reference waveform and the trial signal, and analyzes the distribution of the similarity to calculate the first index value.
  • the similarity indicates the degree of similarity of the waveforms, but may be different from the distance between the signals described above.
  • the similarity is a value within the range from zero to one, and the similarity is 1 when the waveforms match.
  • the similarity is calculated by normalizing the sum of the square errors of the respective sampling values of the two signals. For example, assuming that the sum of the square errors is E, the similarity D is calculated by the following equation (1).
  • FIG. 4 shows an outline of a method of calculating the similarity from the trial signal.
  • the calculation of the similarity is performed in the same manner as the calculation of the similarity for detecting the abnormality after the completion of the learning.
  • the calculation of the similarity by the similarity analysis unit 141 is an arithmetic process of trying to calculate the similarity in order to confirm the progress of the learning before the learning is completed.
  • the similarity analysis unit 141 generates the partial signal 42 by sliding the window 41 and cutting out a series of trial values from the trial signal.
  • the partial signal 42 is handled as a vector similarly to the partial signal 32 in FIG.
  • the similarity analysis unit 141 calculates the similarity between each of the partial signals 42 and all the reference waveforms.
  • the similarity analysis unit 141 employs the maximum similarity among the similarities calculated for each of the partial signals 42 as the similarity between the partial signal 42 and the reference waveform. This similarity indicates the degree of similarity between the partial signal 42 and the reference waveform closest to the partial signal 42 among the plurality of reference waveforms.
  • the similarity analysis unit 141 calculates the similarity every time the learning unit 12 learns the reference waveform, and generates a distribution of the similarity.
  • FIG. 5 shows learning signals having different lengths and a frequency distribution of similarities generated from the learning signals. As shown in FIG. 5, when the learning signal is relatively short, the learning of the reference waveform is insufficient, and a relatively low similarity is often calculated. When the learning signal becomes long and the reference waveform is learned to some extent, a relatively high degree of similarity is calculated. When the learning is sufficiently advanced, the distribution is stabilized, and the shape of the distribution is maintained.
  • Similarity analysis section 141 outputs a value relating to the distribution of frequency with respect to the magnitude of similarity as a first index value.
  • the first index value is a characteristic amount of this distribution, for example, a center of gravity or a variance.
  • FIG. 5 shows the centroids X11, X12, and X13 of the distribution. As can be seen from FIG. 5, the amount of change from the center of gravity X11 to the center of gravity X12 is large, but the amount of change from the center of gravity X12 to the center of gravity X13 is small. Therefore, the center of gravity of the distribution is an index value indicating the progress of learning.
  • the progress of the learning is determined from the relationship between the first index value derived from the previous learning signal and the first index value derived from the current learning signal with respect to the similarity distribution. For example, the progress is determined based on the difference or ratio between the first index values derived twice in the previous and current times.
  • the cluster analysis unit 142 and the reference waveform analysis unit 143 calculate an index value indicating the characteristics of each cluster including the clustered partial signals.
  • the cluster analysis unit 142 calculates a value related to the number of partial signals clustered into each group as a second index value indicating the presence or absence of a unique waveform learned by the learning unit 12.
  • FIG. 6 shows learning signals having different lengths and the number of partial signals cut out from the learning signals and clustered, which belong to each group. As shown in FIG. 6, when the learning signal is relatively short, the learning of the reference waveform is insufficient, and there is a group G3 including only one partial signal. Such a group corresponds to a unique waveform included in the learning signal. In other words, if there is a unique waveform, it can be said that learning is insufficient. When the learning signal becomes longer and the reference waveform is learned to some extent, the number of partial signals belonging to group G3 increases.
  • the cluster analysis unit 142 outputs, as a second index value, the number of groups that satisfy the condition that the number of partial signals is smaller than the threshold.
  • the threshold value is 3, for example.
  • the second index value is a value indicating the progress of learning.
  • the second index value may be another value related to the number of partial signals clustered in each group.
  • the second index value may be a ratio of the number of groups including the number of partial signals smaller than the threshold to the number of all groups. Also, if the learning progresses sufficiently, the number of groups satisfying the condition is considered to be very small and stable.
  • the progress of the learning may be determined from the relationship between the second index value derived from the previous learning signal and the second index value derived from the current learning signal. For example, the progress is determined from the difference or ratio between the second index values learned twice in the previous time and the current time.
  • the reference waveform analyzer 143 calculates the third index value from the distribution of the plurality of reference waveforms. Specifically, the reference waveform analysis unit 143 calculates a third index value related to the distribution of the feature amount extracted from each of the plurality of reference waveforms.
  • FIG. 7 shows learning signals having different lengths and a result of principal component analysis of a reference waveform learned from the learning signal. In FIG. 7, the first principal component and the second principal component extracted as the feature amount from the reference waveform are shown as coordinate axes for easy understanding of the description.
  • the third index value may be, for example, a statistical value represented by the average and the variance of the distribution of the feature amount, or may be a vector value representing the distribution itself of the feature amount. In the example shown in FIG. 7, a six-dimensional vector value indicating three points distributed on a two-dimensional plane may be used. Further, the progress of learning may be determined from the relationship between the third index value derived from the previous learning signal and the third index value derived from the current learning signal. For example, the progress status is determined from the difference or ratio between the third index value derived twice in the previous time and this time. As the difference between the third index values, for example, the total sum of the movement amounts of the respective points in the example shown in FIG. 3 can be adopted.
  • the waveform number analysis unit 144 calculates a fourth index value relating to the number of learned reference waveforms.
  • FIG. 8 shows a relationship between learning signals having different lengths and the number of reference waveforms learned from the learning signals. As can be seen from FIG. 8, when the learning signal is relatively short, the learning of the reference waveform is insufficient, and the number of learned reference waveforms is small. When the learning signal becomes longer and the reference waveform is learned to some extent, the number of newly learned reference waveforms decreases, and the number of reference waveforms does not increase significantly. Therefore, the value related to the number of reference waveforms is an index indicating the progress of learning.
  • the number-of-waveforms analyzer 144 may use the number of learned reference waveforms as it is as the fourth index value, or may use a value obtained by processing the number of reference waveforms as the fourth index value. Then, the progress of the learning may be determined from the relationship between the fourth index value derived from the previous learning signal and the fourth index value derived from the current learning signal. More specifically, the progress may be determined from the difference or ratio between the fourth index value learned in the last time and the fourth index value learned in the current time.
  • the progress information generation unit 145 calculates an integrated index value obtained by integrating the first index value, the second index value, the third index value, and the fourth index value. Specifically, the progress information generation unit 145 obtains an integrated index value by normalizing these index values and calculating an average. Then, the progress information generation unit 145 outputs information on the integrated index value to the output unit 15 as progress information. Further, the progress information generation unit 145 determines whether or not to continue learning based on the integrated index value, and outputs progress information indicating continuation or stop of learning to the acquisition unit 11. The progress information indicating the stop of the learning stops the learning by stopping the acquisition of a new learning signal by the acquiring unit 11.
  • the output unit 15 outputs the progress information generated by the progress information generation unit 145 to the outside of the learning device 10. Specifically, the output unit 15 presents the progress information to the user by displaying the progress information on a display screen.
  • the progress information output by the output unit 15 may be information indicating the value of the integrated index value, or information generated based on the integrated index value and indicating whether learning is sufficient or not. Is also good.
  • the receiving unit 16 receives a learning stop instruction input by the user.
  • the receiving unit 16 notifies the receiving unit 11 of the received stop instruction.
  • This stop instruction stops the learning by stopping the acquisition of a new learning signal by the acquiring unit 11.
  • the learning device 10 includes a processor 91, a main storage unit 92, an auxiliary storage unit 93, an input unit 94, an output unit 15, a communication unit 96, Having.
  • the main storage unit 92, the auxiliary storage unit 93, the input unit 94, the output unit 95, and the communication unit 96 are all connected to the processor 91 via the internal bus 97.
  • the processor 91 includes a CPU (Central Processing Unit).
  • the processor 91 realizes various functions of the learning device 10 by executing the program P1 stored in the auxiliary storage unit 93, and executes processing described below.
  • the main storage unit 92 includes a RAM (Random Access Memory).
  • the main storage unit 92 is loaded with the program P1 from the auxiliary storage unit 93.
  • the main storage unit 92 is used as a work area of the processor 91.
  • the auxiliary storage unit 93 includes a nonvolatile memory represented by an electrically erasable programmable read-only memory (EEPROM) and a hard disk drive (HDD).
  • the auxiliary storage unit 93 stores various data used for the processing of the processor 91 in addition to the program P1.
  • the auxiliary storage unit 93 supplies data used by the processor 91 to the processor 91 in accordance with an instruction from the processor 91, and stores the data supplied from the processor 91.
  • one program P1 is shown as a representative in FIG. 9, the auxiliary storage unit 93 may store a plurality of programs, and the main storage unit 92 may be loaded with a plurality of programs. You may.
  • the input unit 94 includes input devices such as input keys and a pointing device.
  • the input unit 94 acquires information input by a user of the learning device 10 and notifies the processor 91 of the acquired information.
  • the output unit 95 includes an output device represented by an LCD (Liquid Crystal Display) and a speaker.
  • the output unit 95 presents various information to the user according to the instruction of the processor 91.
  • the communication unit 96 includes a network interface circuit for communicating with an external device. Communication unit 96 receives a signal from the outside and outputs data indicated by the signal to processor 91. The communication unit 96 transmits a signal indicating data output from the processor 91 to an external device.
  • the processor 91 implements the acquisition unit 11, the learning unit 12, and the generation unit 14. At least one of the main storage unit 92 and the auxiliary storage unit 93 implements the storage unit 13.
  • the output unit 95 implements the output unit 15.
  • the input unit 94 implements the receiving unit 16.
  • the communication unit 96 may implement the acquisition unit 11 in addition to the processor 91.
  • the learning process illustrated in FIG. 10 is started when a user activates a specific application installed in the learning device 10.
  • the acquisition unit 11 acquires an original signal (Step S1). Specifically, the acquiring unit 11 acquires the original signal by prompting the user to input the original signal or by requesting the user for an address of data including the original signal.
  • the acquisition unit 11 determines the length of the newly acquired learning signal by dividing the original signal, and acquires the learning signal (step S2). For example, when step S2 is first executed, the acquiring unit 11 acquires the first learning signal shown in FIG.
  • Step S3 corresponds to a learning step in the claims.
  • the learning unit 12 learns the reference waveform by clustering the partial signals cut out from the learning signal. This clustering includes a two-stage clustering. Here, the details of the clustering will be described with reference to FIGS.
  • FIG. 11 shows an outline of the first-stage clustering.
  • the learning unit 12 groups partial signals having a short section cut out from the learning signal into clusters. Specifically, as shown in FIG. 11, the learning unit 12 obtains a partial sequence 112 as a partial signal which is cut out every time the window 111 is slid with respect to the learning signal. If the distance D from one of the subsequences 112 to the subsequent subsequence 112 is smaller than a predetermined threshold ⁇ , the learning unit 12 clusters these subsequences 112 into one cluster, and furthermore, The distance D to the succeeding partial row 112 is calculated.
  • the learning unit 12 clusters the subsequence 112 into a new cluster, and calculates the distance D to the subsequent subsequence 112. By repeating this procedure, the learning unit 12 clusters the sub-strings 112 that are adjacent in the time direction and have a short distance.
  • FIG. 12 shows an outline of the second stage clustering.
  • the learning unit 12 obtains a sample subsequence 121 representing each cluster by averaging the subsequences 112 belonging to each of the clusters created in the first stage. Further, the learning unit 12 sorts the sample subsequences 121 according to the average value. Then, the learning unit 12 performs the clustering of the sample subsequence 121 in the same procedure as the first-stage clustering. The learning unit 12 creates a reference waveform 122 by averaging the sample subsequences 121 belonging to each cluster.
  • the learning unit 12 holds the cluster obtained as a result of the first-stage clustering as trained intermediate data, and outputs an unlearned portion of the learning signal that has not yet been subjected to the first-stage clustering. Perform the first stage clustering. Thereafter, the learning unit 12 executes the second-stage clustering based on the results of the first-stage clustering of both the previous time and the current time.
  • the subsequences 112 generated from the unlearned portions are temporally adjacent to each other, and the learned portion and the unlearned portion are only adjacent to one another on the time axis. For this reason, it is possible to obtain substantially the same result as when all the first-stage clustering is executed again. Further, since most of the first-stage clustering can be omitted, the amount of calculation can be reduced.
  • the generation unit 14 calculates a first index value, a second index value, a third index value, and a fourth index value (step S4), and calculates an integrated index value (step S4).
  • Step S5 the generation unit 14 calculates the centroid of the similarity distribution as a first index value, counts the number of groups satisfying the condition as a second index value, and calculates the distribution of the feature amount extracted from the reference waveform. The average value is calculated as a third index value, and the number of reference waveforms is counted as a fourth index value. Then, the generation unit 14 calculates the integrated index value by normalizing the magnitudes of these four index values to be within the range of zero to one and then calculating the average value.
  • step S6 determines whether or not there is a previously calculated integrated index value. Specifically, the generation unit 14 determines whether there is an integrated index value calculated before the integrated index value calculated in step S5.
  • Step S6 is executed for the first time, and when it is determined that there is no previous integrated index value (Step S6; No), the learning device 10 repeats the processing of Step S2 and subsequent steps. Thus, the reference waveform is learned for the new learning signal, and the integrated index value is calculated again.
  • Step S6 when it is determined that there is a previous integrated index value (Step S6; Yes), the generation unit 14 determines whether the difference between the previous integrated index value and the current integrated index value is smaller than a threshold (Step S7).
  • the threshold value may be a predetermined value or may be changed by the user.
  • step S7 If the determination in step S7 is affirmative (step S7; Yes), the generation unit 14 outputs progress information indicating that learning is insufficient and learning is continued (step S8).
  • Step S8 corresponds to a step of generating a claim. Specifically, the generation unit 14 outputs progress information indicating that learning is insufficient to the output unit 15 and outputs progress information indicating that learning is continued to the acquisition unit 11.
  • the receiving unit 16 determines whether or not an instruction to end the learning has been received from the user (Step S9).
  • the learning device 10 repeats the processing from step S2.
  • the acquiring unit 11 acquires a new learning signal, and learning of the reference waveform continues.
  • Step S9 when it is determined that the end instruction has been received (Step S9; Yes), the learning device 10 ends the learning process. Thus, the learning of the reference waveform ends.
  • step S10 corresponds to a claim generating step. Specifically, the generation unit 14 outputs progress information indicating that learning is sufficient to the output unit 15 and outputs progress information indicating that learning is stopped to the acquisition unit 11. Thereby, the acquisition of a new learning signal by the acquisition unit 11 stops, and the learning process ends.
  • the reference waveform is learned from the learning signal, and the progress information is obtained based on at least one of the distribution of the similarity and the characteristics of each cluster including the clustered partial signals. Generated. By utilizing the distribution of similarity and the characteristics of each cluster, more accurate progress information can be obtained. By using such progress information, learning of a reference waveform obtained by clustering according to similarity can be achieved. Learning can be terminated at a certain point in time. Therefore, the learning for comparing the signal waveforms can be completed at a more appropriate time.
  • the learning device 10 has generated the progress information from the index value regarding the distribution of the similarity calculated for the trial signal.
  • the distribution of the similarity calculated for the trial signal is an appropriate measure of the progress of the learning. For this reason, the progress information can accurately represent the progress of the learning.
  • the learning device 10 has generated progress information from an index value relating to the number of partial signals clustered into each group during learning.
  • the number of partial signals clustered into each group can be an appropriate measure of the progress of learning. For this reason, the progress information can accurately represent the progress of the learning.
  • the learning device 10 has generated the progress information from the index values related to the distribution of the feature amounts extracted from each of the plurality of reference waveforms. Such a distribution of the feature amount can be said to be an appropriate measure indicating the progress of the learning. For this reason, the progress information can accurately represent the progress of the learning.
  • the learning device 10 has generated progress information from an index value relating to the number of learned reference waveforms.
  • the number of such reference waveforms can be said to be an appropriate measure of the progress of learning. For this reason, the progress information can accurately represent the progress of the learning.
  • the learning device 10 obtains an integrated index value from a plurality of index values and generates progress information from the integrated index value.
  • the progress information can more accurately represent the progress of the learning than when any one index value is used.
  • the acquisition unit 11 divides a portion of the original signal corresponding to a section obtained by adding an unlearned section adjacent to the previously divided section to generate a new learning signal.
  • the method of dividing the original signal is not limited to this, and is arbitrary.
  • the original signal is divided in advance into non-overlapping sections PR1 to PR8, the signal of the section PR1 is acquired as a learning signal for the first time, and By adding the signal to the learning signal, the learning signal may be acquired in the shortest order.
  • the acquisition unit 11 may determine the length of the newly acquired learning signal according to the signal waveform.
  • the learning signals 22 and 23 partially include the waveforms 201 and 202, and it is considered that learning of the reference waveform may be inefficient.
  • the acquisition unit 11 may divide the original signal in a section where the value is zero, and acquire the learning signals 22a and 23a including all the waveforms 201 and 202. .
  • the acquisition unit 11 acquires the learning signal by dividing the original signal
  • the invention is not limited to this.
  • the acquisition unit 11 may acquire the learning signal by requesting the learning signal to the outside after it is determined that the learning is to be continued.
  • the invention is not limited to this. Any of a plurality of learning signals prepared in advance by the acquisition unit 11 may be selected each time the learning unit 12 repeats learning.
  • the learning signals that are repeatedly acquired may or may not overlap.
  • the scale for clustering is not limited to this and is arbitrary.
  • the clustering of the partial signals may be performed on the same scale as the similarity calculated by the similarity analyzer 141.
  • the similarity calculated by the similarity analysis unit 141 may be a scale representing the distance.
  • the similarity is a value in the range of zero to one and becomes one when the waveforms match, but the present invention is not limited to this. What is necessary is just to show the degree of similarity of the waveform. Specifically, a similarity in which the value becomes smaller as the waveforms are more similar may be used. For example, a similarity that is a value within a range from zero to one and becomes zero when the waveforms match may be used. Further, the range of the similarity may be arbitrarily changed. For example, for one waveform and another waveform, the sum of the square errors of each sampling value may be used as the similarity.
  • the learning unit 12 may execute the clustering of the partial signals by a k-means method or a Gaussian mixture model (GMM; Gaussian Mixture Model).
  • GMM Gaussian Mixture Model
  • the learning state is determined according to the determination result as to whether or not the difference between the integrated index values is smaller than the threshold, but the present invention is not limited to this.
  • the learning state may be determined by determining whether the ratio of the integrated index value is within a predetermined error range from 1. Further, the learning state may be determined based on the relationship between the current integrated index value and the previous integrated index value by a method different from the determination based on the difference and the ratio.
  • the learning process performed by the learning device 10 is not limited to the process illustrated in FIG.
  • the learning device 10 may execute a learning process illustrated in FIG.
  • the acquisition unit 11 acquires a learning signal (Step S11), and the learning unit 12 learns a reference waveform from the learning signal (Step S3).
  • the generation unit 14 calculates a first index value, a second index value, a third index value, and a fourth index value (Step S4), and selects a representative index value (Step S12).
  • the representative index value is any one index value selected from the calculated four index values.
  • the representative index value may be selected by the user, or may be selected according to the values of the four calculated index values. For example, the maximum or minimum index value may be selected as the representative index value.
  • the generation unit 14 outputs information indicating the selected representative index value as progress information (Step S13). Thereby, the user can recognize the progress of the learning.
  • the receiving unit 16 determines whether an end instruction has been received (step S9). If it is determined that the end instruction has been received (step S9; Yes), the learning process ends, and learning of the reference waveform stops.
  • Step S9 when it is determined that the end instruction has not been received (Step S9; No), the acquiring unit 11 adds a new signal to the learning signal and acquires a learning signal longer than the previous time (Step S14). After that, the learning device 10 repeats the processing from step S3.
  • the user can stop the learning at an arbitrary timing while checking the progress information.
  • the present invention is not limited to this. For example, if the index value is larger than the first threshold value, the learning progress degree is “low”. If the index value is smaller than the first threshold value and larger than the second threshold value, the learning progress degree is “medium”. If the value is smaller than the second threshold value, the learning progress degree is determined to be “high”, and progress information indicating which of the plurality of stages the learning progress degree belongs to may be generated. The number of steps may be arbitrarily changed.
  • the functions of the learning device 10 can be realized by dedicated hardware or an ordinary computer system.
  • the program P1 executed by the processor 91 is stored in a non-transitory computer-readable recording medium and distributed, and the program P1 is installed in a computer, thereby configuring an apparatus that executes the above-described processing. be able to.
  • a recording medium include a flexible disk, a CD-ROM (Compact Disc-Only Memory), a DVD (Digital Versatile Disc), and an MO (Magneto-Optical Disc).
  • the program P1 may be stored in a disk device of a server device on a communication network represented by the Internet, and may be superimposed on a carrier wave and downloaded to a computer, for example.
  • the above-described processing can also be achieved by starting and executing the program P1 while transferring the program P1 via the communication network.
  • the above-described processing can also be achieved by causing all or a part of the program P1 to be executed on a server device and executing the program while the computer transmits and receives information regarding the processing via a communication network.
  • the means for realizing the functions of the learning device 10 is not limited to software, and a part or all of the means may be realized by dedicated hardware including a circuit.
  • the present invention is suitable for learning a signal waveform.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

学習装置(10)は、取得部(11)と学習部(12)と生成部(14)とを備える。取得部(11)は、学習信号を取得する。学習部(12)は、取得部(11)によって取得された学習信号から切り出される部分信号を、波形が類似する度合いを示す類似度に応じてクラスタリングして、クラスタリングされた部分信号の波形を表す基準波形を学習する。生成部(14)は、類似度の分布と、クラスタリングされた部分信号を含む各クラスタの特性と、の少なくとも一方により、学習部(12)による学習の進捗状況を示す進捗情報を生成して出力する。

Description

学習装置、学習方法及びプログラム
 本発明は、学習装置、学習方法及びプログラムに関する。
 工場における生産システム及び制御システムのように、センサによるセンシング結果を示す時系列データを利用する種々の処理システムが知られている。この種の処理システムでは、時系列データを正常時に入力されるべきデータと比較することで処理システムにおける異常の有無を診断することが広く行われている。
 正常時に入力されるべきデータは、典型的なパターンを示すデータとして、異常が生じなかったときに収集された時系列データから予め学習しておく必要がある。ここで、典型的なパターンの学習が不十分であれば、異常の診断の精度が低下してしまう。一方、学習を過剰に続けると、学習のための計算リソースを浪費してしまう。そこで、学習を適当な時点で打ち切る技術が提案されている(例えば、特許文献1を参照)。
 特許文献1には、時系列データの主成分得点からパターンの分類を行い、パターン数が収束したときに、学習を終了する技術について記載されている。この技術では、各パターンに属する主成分得点の代表値が、異常検知に用いられる学習データとして出力される。
特開2009-135649号公報
 異常の検知をする際に、信号波形を比較することがあり、このような比較をするためには波形を学習する必要がある。ここで、学習の際にパターン数が収束した場合であっても、パターン数がある程度の範囲内で固定されたまま、信号波形の比較により異常を検知するための波形の学習が進むことがある。そのため、パターン数に応じて学習を終了する特許文献1の技術では、信号波形を比較するための学習が不適当な時点で終了するおそれがある。
 本発明は、上記の事情に鑑みてなされたものであり、信号波形を比較するための学習をより適当な時点で終了することを目的とする。
 上記目的を達成するため、本発明の学習装置は、学習信号を取得する取得手段と、取得手段によって取得された学習信号から切り出される部分信号を、波形が類似する度合いを示す類似度に応じてクラスタリングして、クラスタリングされた部分信号の波形を表す基準波形を学習する学習手段と、類似度の分布と、クラスタリングされた部分信号を含む各クラスタの特性と、の少なくとも一方により、学習手段による学習の進捗状況を示す進捗情報を生成して出力する生成手段と、を備える。
 本発明によれば、学習信号から基準波形が学習されて、類似度の分布と、クラスタリングされた部分信号を含む各クラスタの特性と、の少なくとも一方により進捗情報が生成される。このような進捗情報を利用すれば、類似度に応じたクラスタリングにより得る基準波形の学習がある程度進んだ時点で学習を打ち切ることができる。したがって、信号波形を比較するための学習をより適当な時点で終了することができる。
本発明の実施の形態に係る学習装置の機能的な構成を示すブロック図 実施の形態に係る取得部によって取得される学習信号について説明するための図 実施の形態に係る学習部による基準波形の学習について説明するための図 実施の形態に係る生成部による類似度の算出について説明するための図 実施の形態に係る第1指標値について説明するための図 実施の形態に係る第2指標値について説明するための図 実施の形態に係る第3指標値について説明するための図 実施の形態に係る第4指標値について説明するための図 実施の形態に係る学習装置のハードウェア構成を示すブロック図 実施の形態に係る学習処理を示すフローチャート 実施の形態に係る第1段階のクラスタリングについて説明するための図 実施の形態に係る第2段階のクラスタリングについて説明するための図 変形例に係る原信号の分割について説明するための図 変形例に係る学習信号の取得について説明するための図 変形例に係る学習処理を示すフローチャート
 以下、本発明の実施の形態に係る学習装置10について、図面を参照しつつ詳細に説明する。
 実施の形態.
 本実施の形態に係る学習装置10は、外部から提供された学習信号を取得して、この学習信号に含まれる代表的な波形を学習する装置である。学習装置10によって学習された波形は、工場に形成される生産システムにおいて収集される信号の波形と比較して異常を検知するために利用される。
 ここで、異常は、例えば、生産ラインに流れるワークの仕様が規格外であること、生産ラインを構成する装置の不具合、及びこの装置の稼働中に生じたエラーを含む。異常は、生産システムの運営者が想定するものとして予め定められる正常な状態とは異なる状態であって、通常は、生産システムによる製品の生産を停止させ、又は歩留まりを低下させる。生産システムの稼働時において、この生産システムにて収集される信号は、複数の波形パターンのいずれか1つと類似する波形を有する。このため、入力信号の波形がいずれの波形パターンからも乖離する形状である場合には、異常であると判定される。学習装置10は、このような異常の判定をするための波形パターンを学習する。以下では、異常の判定をするための基準となる波形パターンを、基準波形という。
 学習装置10は、図1に示されるように、その機能として、学習信号を取得する取得部11と、学習信号から基準波形を学習する学習部12と、学習の結果を含む種々のデータを記憶する記憶部13と、記憶部13のデータに基づいて学習の進捗状況を示す進捗情報を生成する生成部14と、進捗情報を外部に出力する出力部15と、ユーザから学習の実行に関する指示を受け付ける受付部16と、を有する。
 取得部11は、複数の学習信号を取得する。詳細には、取得部11は、学習信号を繰り返し取得する。より詳細には、取得部11は、ユーザから提供される原信号を取得して、この原信号を分割することで、長さが短い順に学習信号を繰り返し取得する。取得部11は、学習信号を取得する度に、取得した学習信号を学習部12に送出する。原信号は、生産システムが正常に稼働しているときに収集されるべき信号の波形を有する。原信号は、ユーザによって予め用意される。取得部11は、請求項の取得手段として機能する。
 図2には、取得部11によって取得される学習信号が模式的に示されている。図2上部に示されるように、原信号は、急峻に立ち上がってから緩やかに下がる波形201と、台形状の波形202と、緩やかに立ち上がってから急峻に下がる波形203と、を有している。取得部11は、この原信号から、学習信号21を切り出して取得する。その後、取得部11は、1回目に取得した学習信号21より長い学習信号22を切り出して取得する。同様に、取得部11は、2回目に取得した学習信号22より長い学習信号23を切り出して取得する。
 学習信号21,22は、波形201を有するが、波形202,203を有しない。また、学習信号23は、波形201,202を有するが、波形203を有しない。このため、学習信号21~23は、波形を学習するための信号としては不十分な信号といえる。
 取得部11は、N回目の信号として、学習信号2nを取得する。学習信号2nは、波形201,202,203をいずれも含むため、波形を学習するために十分な長さの信号といえる。さらに、取得部11は、M回目の信号として、学習信号2mを取得する。学習信号2mを用いれば、学習信号2nよりも学習を進めることができるが、原信号に含まれる波形201~203はいずれも学習信号2nから学習されるため、学習信号2mによる学習は過剰であり、計算リソースを浪費する可能性がある。
 ただし、図2は学習信号を模式的に示しており、ある類型の波形を、学習信号に含まれる単一の波形から学習するよりも、複数の波形から学習することが望ましい。
 図1に戻り、学習部12は、取得部11によって学習信号が取得される度に、この学習信号から基準波形を学習する。詳細には、学習部12は、学習信号から切り出される部分信号を、波形が類似する度合いに応じてクラスタリングして、クラスタリングされた部分信号の波形を表す基準波形を学習する。学習部12は、請求項の学習手段として機能する。
 ここで、学習部12による基準波形の学習の概要について、図3を用いて説明する。図3上部に示されるように、学習部12は、学習信号を、基準波形を学習するための学習部分信号と、後述の生成部14によって処理される試行信号と、に分割する。詳細には、学習部12は、学習信号を等分する。ただし、これには限定されず、学習信号を分割する手法は任意である。
 学習部12は、ウィンドウ31をスライディングさせる度に、学習部分信号から学習値の系列を切り出すことにより部分信号32を生成する。部分信号32は、切り出された系列の学習値を要素とするベクトルとして扱われる。そして、学習部12は、複数の部分信号を、波形が類似する度合いを指標としてクラスタリングする。この例では結果として複数の部分信号がグループG1,G2,G3にクラスタリングされている。詳細には、学習部12は、ベクトルとしての信号間の距離に応じたクラスタリングを実行する。ベクトルとしての信号間の距離は、ベクトルを構成する各成分の自乗誤差の総和を算出し、この総和の平方根として得ることができる。クラスタリングの詳細については後述する。
 学習部12によってクラスタリングされた結果できたグループG1,G2,G3はそれぞれ、互いに類似する波形の部分信号を含む。グループG1,G2,G3は、クラスタに相当する。そして、学習部12は、各グループに含まれる部分信号の波形を表す基準波形を決定する。基準波形は、各グループに含まれる部分信号の平均に相当する波形であってもよいし、各グループから選択されたいずれかの部分信号であってもよいし、クラスタ中心の部分信号であってもよい。図3の例では、グループG1に対応する基準波形Aと、グループG2に対応する基準波形Bと、グループG3に対応する基準波形Cと、が学習される。
 図1に戻り、学習部12は、学習信号から分割された試行信号、学習した基準波形、及び各グループにクラスタリングされた部分信号、を示すデータを記憶部13に格納する。
 生成部14は、記憶部13に記憶されるデータを読み出して、類似度の分布と、クラスタリングされた部分信号を含む各クラスタの特性と、の少なくとも一方により、基準波形の学習の進捗状況を示す進捗情報を生成して出力する。詳細には、生成部14は、基準波形に関する指標値を算出し、この指標値から進捗情報を生成して出力する。生成部14は、請求項の生成手段として機能する。生成部14は、第1指標値を算出する類似度解析部141と、第2指標値を算出するクラスタ解析部142と、第3指標値を算出する基準波形解析部143と、第4指標値を算出する波形数解析部144と、指標値から進捗情報を生成する進捗情報生成部145と、を有する。
 類似度解析部141は、基準波形と試行信号との類似度を算出し、この類似度の分布を解析することで、第1指標値を算出する。ここで、類似度は、波形が類似する度合いを示すが、上述の信号間の距離とは異なってもよい。類似度は、ゼロから1までの範囲内の値であって、波形が一致する場合には類似度が1となる。類似度は、2つの信号の各サンプリング値の自乗誤差の総和を正規化することで算出される。例えば、自乗誤差の総和をEとして、類似度Dは、以下の式(1)により算出される。
 D=1/(1+E) ・・・(1)
 図4には、試行信号から類似度を算出する手法の概要が示されている。この類似度の算出は、学習の終了後に異常を検知するための類似度の算出と同様に行われる。類似度解析部141による類似度の算出は、学習が終了する前に、この学習の進捗状況を確認するために類似度の算出を試行する演算処理である。
 詳細には、類似度解析部141は、ウィンドウ41をスライディングさせて試行信号から試行値の系列を切り出すことにより部分信号42を生成する。部分信号42は、図3の部分信号32と同様にベクトルとして扱われる。そして、類似度解析部141は、部分信号42それぞれについて、すべての基準波形との類似度を算出する。類似度解析部141は、部分信号42それぞれについて算出された類似度のうち、最大の類似度を、部分信号42と基準波形との類似度として採用する。この類似度は、部分信号42と、複数の基準波形のうち部分信号42の最近傍の基準波形とが類似する度合いを示す。
 類似度解析部141は、学習部12が基準波形を学習する度に、類似度を算出して類似度の分布を生成する。図5には、長さが異なる学習信号と、この学習信号から生成される類似度の度数分布と、が示されている。図5に示されるように、学習信号が比較的短い場合には、基準波形の学習が不十分であって、比較的低い類似度が多く算出される。学習信号が長くなり基準波形がある程度学習されると、比較的高い類似度が多く算出される。そして、学習が十分に進むと、この分布が安定して、分布の形状が維持されるようになる。
 類似度解析部141は、類似度の大きさに対する頻度の分布に関する値を、第1指標値として出力する。第1指標値は、この分布の特徴量であって、例えば、重心或いは分散である。図5には、分布の重心X11,X12,X13が示されている。図5からわかるように、重心X11から重心X12への変化量は大きいが、重心X12から重心X13への変化量は小さい。そのため、分布の重心は、学習の進捗状況を示す指標値となる。詳細には、類似度の分布に関して前回の学習信号から導出される第1指標値と、今回の学習信号から導出される第1指標値と、の関係から学習の進捗状況が判断される。例えば、前回と今回の2回で導出された第1指標値の差又は比から進捗状況が判断される。
 図1に戻り、クラスタ解析部142及び基準波形解析部143は、クラスタリングされた部分信号を含む各クラスタの特性を示す指標値を算出する。
 クラスタ解析部142は、各グループにクラスタリングされた部分信号の数に関する値を、学習部12によって学習された特異な波形の有無を表す第2指標値として算出する。図6には、長さが異なる学習信号と、この学習信号から切り出されてクラスタリングされた部分信号の、各グループに属する数と、が示されている。図6に示されるように、学習信号が比較的短い場合には、基準波形の学習が不十分であって、部分信号を1つだけ含むグループG3がある。このようなグループは、学習信号に含まれる特異な波形に対応している。換言すると、特異な波形がある場合には、学習が不十分であるといえる。学習信号が長くなり基準波形がある程度学習されると、グループG3に属する部分信号の数が多くなる。
 クラスタ解析部142は、閾値より小さい個数の部分信号を含むという条件を満たすグループの数を、第2指標値として出力する。閾値は、例えば3である。図6からわかるように、学習が進むと、条件を満たすグループの数は、減少する。そのため、第2指標値は、学習の進捗状況を示す値となる。ただし、第2指標値は、各グループにクラスタリングされた部分信号の数に関する他の値であってもよい。例えば、第2指標値は、閾値より小さい個数の部分信号を含むグループの数の、全グループの数に対する比率であってもよい。また、学習が十分に進むと、条件を満たすグループの数は、非常に少なくなって安定すると考えられる。そこで、前回の学習信号から導出される第2指標値と、今回の学習信号から導出される第2指標値と、の関係から学習の進捗状況が判断されてもよい。例えば、前回と今回の2回で学習された第2指標値の差又は比から進捗状況が判断される。
 図1に戻り、基準波形解析部143は、複数の基準波形の分布から第3指標値を算出する。詳細には、基準波形解析部143は、複数の基準波形それぞれから抽出した特徴量の分布に関する第3指標値を算出する。図7には、長さが異なる学習信号と、この学習信号から学習された基準波形を主成分分析した結果と、が示されている。図7では、説明の理解を容易にするため、基準波形から特徴量として抽出された第1主成分と第2主成分とを座標軸として示している。
 図7からわかるように、学習信号が比較的短い状態から長くなると、2次元平面状に分布する特徴量が大きく変動する。図7中、黒い点は、今回の学習信号から学習された基準波形の特徴量を示し、白抜きの点は、前回の学習信号から学習された基準波形の特徴量を示す。学習が進み、学習信号がある程度長い状態からさらに長くなると、2次元平面上に分布する特徴量が移動するが、その移動量は徐々に小さくなる。そのため、このような特徴量に関する値は、学習の進捗状況を示す指標となる。
 第3指標値は、例えば、特徴量の分布の平均及び分散に代表される統計値であってもよいし、特徴量の分布そのものを表すベクトル値であってもよい。図7に示される例では、2次元平面上に分布する3つの点を示す6次元のベクトル値であってもよい。また、前回の学習信号から導出される第3指標値と今回の学習信号から導出される第3指標値との関係から学習の進捗状況が判断されてもよい。例えば、前回と今回の2回で導出された第3指標値の差又は比から進捗状況が判断される。第3指標値の差としては、例えば、図3に示される例における各点の移動量の総和を採用することができる。
 図1に戻り、波形数解析部144は、学習された基準波形の数に関する第4指標値を算出する。図8には、長さが異なる学習信号と、この学習信号から学習された基準波形の数と、の関係が示されている。図8からわかるように、学習信号が比較的短い場合には、基準波形の学習が不十分であって、学習される基準波形の数が少ない。学習信号が長くなり基準波形がある程度学習されると、新たに学習される基準波形は少なくなり、基準波形の数が大きく増えることはなくなっていく。そのため、基準波形の数に関する値は、学習の進捗状況を示す指標となる。
 波形数解析部144は、学習された基準波形の数をそのまま第4指標値としてもよいし、基準波形の数を加工した値を第4指標値としてもよい。そして、前回の学習信号から導出される第4指標値と、今回の学習信号から導出される第4指標値と、の関係から学習の進捗状況が判断されてもよい。詳細には、前回と今回の2回で学習された第4指標値の差又は比から進捗状況が判断されてもよい。
 図1に戻り、進捗情報生成部145は、第1指標値、第2指標値、第3指標値及び第4指標値を統合した統合指標値を算出する。詳細には、進捗情報生成部145は、これらの指標値を正規化して平均を算出することで統合指標値を得る。そして、進捗情報生成部145は、統合指標値に関する情報を、進捗情報として出力部15に出力する。また、進捗情報生成部145は、統合指標値に基づいて学習を継続するか否かを決定し、学習の継続又は停止を示す進捗情報を取得部11に出力する。学習の停止を示す進捗情報は、取得部11による新たな学習信号の取得を停止させることにより、学習を停止させる。
 出力部15は、進捗情報生成部145によって生成された進捗情報を、学習装置10の外部に出力する。詳細には、出力部15は、進捗情報を表示画面に表示することによりユーザに提示する。出力部15によって出力される進捗情報は、統合指標値の値を示す情報であってもよいし、統合指標値に基づいて生成される、学習が十分であるか否かを示す情報であってもよい。
 受付部16は、ユーザによって入力される学習の停止指示を受け付ける。受付部16は、受け付けた停止指示を取得部11に通知する。この停止指示は、取得部11による新たな学習信号の取得を停止させることにより、学習を停止させる。
 学習装置10は、そのハードウェア構成として、図9に示されるように、プロセッサ91と、主記憶部92と、補助記憶部93と、入力部94と、出力部15と、通信部96と、を有する。主記憶部92、補助記憶部93、入力部94、出力部95及び通信部96はいずれも、内部バス97を介してプロセッサ91に接続される。
 プロセッサ91は、CPU(Central Processing Unit)を含む。プロセッサ91は、補助記憶部93に記憶されるプログラムP1を実行することにより、学習装置10の種々の機能を実現して、後述の処理を実行する。
 主記憶部92は、RAM(Random Access Memory)を含む。主記憶部92には、補助記憶部93からプログラムP1がロードされる。そして、主記憶部92は、プロセッサ91の作業領域として用いられる。
 補助記憶部93は、EEPROM(Electrically Erasable Programmable Read-Only Memory)及びHDD(Hard Disk Drive)に代表される不揮発性メモリを含む。補助記憶部93は、プログラムP1の他に、プロセッサ91の処理に用いられる種々のデータを記憶する。補助記憶部93は、プロセッサ91の指示に従って、プロセッサ91によって利用されるデータをプロセッサ91に供給し、プロセッサ91から供給されたデータを記憶する。なお、図9では、1つのプログラムP1が代表的に示されているが、補助記憶部93は、複数のプログラムを記憶してもよいし、主記憶部92には、複数のプログラムがロードされてもよい。
 入力部94は、入力キー及びポインティングデバイスに代表される入力デバイスを含む。入力部94は、学習装置10のユーザによって入力された情報を取得して、取得した情報をプロセッサ91に通知する。
 出力部95は、LCD(Liquid Crystal Display)及びスピーカに代表される出力デバイスを含む。出力部95は、プロセッサ91の指示に従って、種々の情報をユーザに提示する。
 通信部96は、外部の装置と通信するためのネットワークインタフェース回路を含む。通信部96は、外部から信号を受信して、この信号により示されるデータをプロセッサ91へ出力する。また、通信部96は、プロセッサ91から出力されたデータを示す信号を外部の装置へ送信する。
 図9に示されるハードウェア構成が協働することにより、学習装置10の上述の機能が実現される。詳細には、プロセッサ91が、取得部11、学習部12及び生成部14を実現する。主記憶部92及び補助記憶部93の少なくとも一方が、記憶部13を実現する。出力部95が、出力部15を実現する。入力部94が、受付部16を実現する。ただし、取得部11が学習装置10の外部から通信により学習信号を取得する場合には、プロセッサ91に加えて通信部96が、取得部11を実現してもよい。
 続いて、学習装置10によって実行される学習処理について、図10~12を用いて説明する。図10に示される学習処理は、学習装置10にインストールされた特定のアプリケーションをユーザが起動することで開始される。
 学習処理では、取得部11は、原信号を取得する(ステップS1)。具体的には、取得部11は、原信号の入力をユーザに促すことにより、又は、原信号を含むデータのアドレスをユーザに対して要求することにより、原信号を取得する。
 次に、取得部11は、原信号の分割により新たに取得する学習信号の長さを決定して、学習信号を取得する(ステップS2)。例えば、最初にステップS2が実行されたときには、取得部11は、図2に示された1回目の学習信号を取得する。
 次に、学習部12は、学習信号から基準波形を学習する(ステップS3)。ステップS3は、請求項の学習ステップに対応する。具体的には、学習部12は、学習信号から切り出した部分信号のクラスタリングにより、基準波形を学習する。このクラスタリングは、2段階のクラスタリングを含む。ここで、クラスタリングの詳細について図11,12を用いて説明する。
 図11には、第1段階のクラスタリングの概要について示されている。第1段階のクラスタリングでは、学習部12は、学習信号から切り出される区間が近い部分信号をクラスタにまとめる。具体的には、学習部12は、図11に示されるように、学習信号に対してウィンドウ111をスライディングさせるたびに切り出される部分信号としての部分列112を得る。そして、学習部12は、一の部分列112に対して、後続する部分列112との距離Dが予め規定された閾値εより小さければ、これら部分列112を1つのクラスタにクラスタリングして、さらに後続する部分列112との距離Dを算出する。後続する部分列112の距離Dが閾値εより大きい場合、学習部12は、この部分列112を新たなクラスタにクラスタリングして、さらに後続する部分列112との距離Dを算出する。この手順を繰り返すことにより、学習部12は、時間方向に隣接して距離が近い部分列112同士がクラスタリングされる。
 図12には、第2段階のクラスタリングの概要について示されている。第2段階のクラスタリングでは、学習部12は、第1段階で作成されたクラスタ各々に属する部分列112を平均することで、各クラスタを代表する標本部分列121を得る。また、学習部12は、標本部分列121の平均値の大きさでソートする。そして、学習部12は、第1段階のクラスタリングと同様の手順で、標本部分列121のクラスタリングを実行する。学習部12は、各クラスタに属する標本部分列121を平均することで、基準波形122を作成する。
 図3に示されるように、繰り返し取得される学習信号の一部が前回の学習信号に相当する場合においては、前回の学習信号について実行された第1段階のクラスタリングの結果を流用することができる。そこで、学習部12は、第1段階のクラスタリングの結果として得たクラスタを学習済みの中間データとして保持しておいて、学習信号のうち、未だ第1段階のクラスタリングを実行していない未学習部分について第1段階のクラスタリングを実行する。その後、学習部12は、前回と今回の双方の第1段階のクラスタリングの結果から第2段階のクラスタリングを実行する。未学習部分から生成した部分列112同士は時間的に隣接していて、学習済みの部分と未学習部分とは時間軸上で隣接するのは1箇所のみである。このため、第1段階のクラスタリングすべてを再度実行する場合とほぼ同様の結果を得ることができる。また、第1段階のクラスタリングの大部分を省略することができるため、計算量を軽減することができる。
 図10に戻り、ステップS3に続いて、生成部14は、第1指標値、第2指標値、第3指標値及び第4指標値を算出し(ステップS4)、統合指標値を算出する(ステップS5)。具体的には、生成部14は、類似度の分布の重心を第1指標値として算出し、条件を満たすグループの数を第2指標値として計数し、基準波形から抽出した特徴量の分布の平均値を第3指標値として算出し、基準波形の数を第4指標値として計数する。そして、生成部14は、これら4つの指標値の大きさをゼロから1の範囲内に正規化してから平均値を演算することにより、統合指標値を算出する。
 次に、生成部14は、前回算出された統合指標値があるか否かを判定する(ステップS6)。具体的には、生成部14は、ステップS5で算出した統合指標値より前に算出された統合指標値があるかを判定する。
 ステップS6が初めて実行され、前回の統合指標値がないと判定された場合(ステップS6;No)、学習装置10は、ステップS2以降の処理を繰り返す。これにより、新たな学習信号について基準波形が学習されて統合指標値が再度算出される。
 一方、前回の統合指標値があると判定された場合(ステップS6;Yes)、生成部14は、前回と今回の統合指標値の差が閾値より小さいか否かを判定する(ステップS7)。閾値は、予め規定された値であってもよいし、ユーザによって変更されてもよい。
 ステップS7の判定が肯定された場合(ステップS7;Yes)、生成部14は、学習が不十分であり、学習を継続することを示す進捗情報を出力する(ステップS8)。ステップS8は、請求項の生成ステップに対応する。具体的には、生成部14は、学習が不十分である旨を示す進捗情報を出力部15に出力し、学習を継続することを示す進捗情報を取得部11に出力する。
 次に、受付部16は、学習を終了する旨の指示をユーザから受け付けたか否かを判定する(ステップS9)。終了指示を受け付けていないと判定された場合(ステップS9;No)、学習装置10は、ステップS2以降の処理を繰り返す。これにより、取得部11が新たな学習信号を取得して、基準波形の学習が継続する。
 一方、終了指示を受け付けたと判定された場合(ステップS9;Yes)、学習装置10は、学習処理を終了する。これにより、基準波形の学習が終了する。
 ステップS7の判定が否定された場合(ステップS7;No)、生成部14は、学習が十分であり学習を停止することを示す進捗情報を生成して出力する(ステップS10)。ステップS10は、請求項の生成ステップに対応する。具体的には、生成部14は、学習が十分である旨を示す進捗情報を出力部15に出力し、学習を停止することを示す進捗情報を取得部11に出力する。これにより、取得部11による新たな学習信号の取得が停止して、学習処理が終了する。
 以上、説明したように、学習装置10によれば、学習信号から基準波形が学習されて、類似度の分布と、クラスタリングされた部分信号を含む各クラスタの特性と、の少なくとも一方により進捗情報が生成される。類似度の分布と各クラスタの特性を活用することにより、より高精度な進捗情報を得ることができ、このような進捗情報を利用すれば、類似度に応じたクラスタリングにより得る基準波形の学習がある程度進んだ時点で学習を打ち切ることができる。したがって、信号波形を比較するための学習をより適当な時点で終了することができる。
 また、学習装置10は、試行信号について算出された類似度の分布に関する指標値から進捗情報を生成した。試行信号について算出される類似度の分布は、学習の進捗を表す適当な尺度といえる。このため、進捗情報は、学習の進捗状況を正確に表すことができる。
 また、学習装置10は、学習の際に各グループにクラスタリングされた部分信号の数に関する指標値から進捗情報を生成した。各グループにクラスタリングされる部分信号の数は、学習の進捗を表す適当な尺度といえる。このため、進捗情報は、学習の進捗状況を正確に表すことができる。
 また、学習装置10は、複数の基準波形それぞれから抽出される特徴量の分布に関する指標値から進捗情報を生成した。このような特徴量の分布は、学習の進捗を表す適当な尺度といえる。このため、進捗情報は、学習の進捗状況を正確に表すことができる。
 また、学習装置10は、学習された基準波形の数に関する指標値から進捗情報を生成した。このような基準波形の数は、学習の進捗を表す適当な尺度といえる。このため、進捗情報は、学習の進捗状況を正確に表すことができる。
 また、学習装置10は、複数の指標値から統合指標値を得て、この統合指標値から進捗情報を生成した。これにより、進捗情報は、いずれか1つの指標値を用いる場合よりも学習の進捗状況を正確に表すことができる。
 以上、本発明の実施の形態について説明したが、本発明は上記実施の形態によって限定されるものではない。
 例えば、取得部11は、図2に示されるように、原信号のうち、前回分割した区間に対して隣接する未学習の区間を追加した区間に相当する部分を分割することで、新たな学習信号を取得したが、原信号を分割する手法はこれには限定されず、任意である。例えば、図13に示されるように、予め原信号を、互いに重複しない区間PR1~PR8に分割しておいて、初回は区間PR1の信号を学習信号として取得し、次回以降は分割された区間の信号を学習信号に追加することで、短い順に学習信号を取得してもよい。
 また、取得部11は、新たに取得する学習信号の長さを、信号波形に応じて決定してもよい。例えば、図2に示される例では、学習信号22,23は、波形201,202を途中まで含んでおり、基準波形の学習が非効率になり得ると考えられる。これに対して、取得部11は、図14に示されるように、値がゼロとなる区間で原信号を分割して、波形201,202をすべて含む学習信号22a,23aを取得してもよい。
 また、取得部11が原信号を分割することで学習信号を取得する例を説明したが、これには限定されない。例えば、取得部11は、学習を継続することが決定された後に、外部に学習信号を要求することで学習信号を取得してもよい。
 また、取得部11が繰り返し学習信号を取得する例を説明したが、これには限定されない。取得部11が取得することで予め用意された複数の学習信号のいずれかを、学習部12が学習を反復する度に選択してもよい。
 また、繰り返し取得される学習信号は、重複していてもよいし、重複していなくてもよい。
 また、部分信号のクラスタリングでは、波形が類似する度合いを示す尺度として距離を採用した。しかしながら、クラスタリングのための尺度はこれに限定されず任意である。例えば、類似度解析部141によって算出される類似度と同様の尺度で部分信号のクラスタリングを実行してもよい。また、類似度解析部141によって算出される類似度は、距離を表す尺度であってもよい。
 また、上記実施の形態では、類似度が、ゼロから1の範囲内の値であって、波形が一致するときに1となる例について説明したが、これには限定されず、類似度は、波形が類似する度合いを示すものであればよい。具体的には、波形が類似するほど値が小さくなる類似度を用いてもよい。例えば、ゼロから1の範囲内の値であって、波形が一致するときにゼロとなる類似度を用いてもよい。さらに、類似度の範囲を任意に変更してもよい。例えば、一の波形と他の波形について、各サンプリング値の自乗誤差の総和を類似度としてもよい。
 また、学習部12が2段階のクラスタリングを実行する例について説明したが、これには限定されない。例えば、学習部12は、k平均法又は混合ガウスモデル(GMM; Gaussian Mixture Model)によって部分信号のクラスタリングを実行してもよい。
 また、上述の学習処理では、統合指標値の差が閾値より小さいか否かの判定結果に応じて学習状況が判断されたが、これには限定されない。例えば、学習がある程度進むと、統合指標値の比は1に収束すると考えられる。そこで、統合指標値の比が1から予め規定された誤差の範囲内にあるか否かを判定することで学習状況を判断してもよい。また、差及び比に基づく判断とは異なる手法で、今回の統合指標値と前回以前の統合指標値との関係に基づいて学習状況を判断してもよい。
 また、学習装置10によって実行される学習処理は、図10に示されたものに限定されない。例えば、学習装置10は、図15に示される学習処理を実行してもよい。この学習処理では、取得部11が学習信号を取得し(ステップS11)、学習部12が学習信号から基準波形を学習する(ステップS3)。次に、生成部14が、第1指標値、第2指標値、第3指標値及び第4指標値を算出し(ステップS4)、代表指標値を選択する(ステップS12)。
 代表指標値は、算出された4つの指標値から選択されるいずれか1つの指標値である。代表指標値は、ユーザによって選択されてもよいし、算出された4つの指標値の値に応じて選択されてもよい。例えば、最大又は最小の指標値が代表指標値として選択されてもよい。
 次に、生成部14は、選択した代表指標値を示す情報を進捗情報として出力する(ステップS13)。これにより、ユーザは、学習の進捗状況を認識することができる。
 次に、受付部16は、終了指示を受け付けたか否かを判定する(ステップS9)。終了指示を受け付けたと判定された場合(ステップS9;Yes)、学習処理が終了して、基準波形の学習が停止する。
 一方、終了指示を受け付けていないと判定された場合(ステップS9;No)、取得部11は、学習信号に新たな信号を追加して、前回より長い学習信号を取得する(ステップS14)。その後、学習装置10は、ステップS3以降の処理を繰り返す。
 図15に示される学習処理によれば、ユーザは、進捗情報を確認しながら任意のタイミングで学習を停止させることができる。
 また、4つの指標値を統合する例と、いずれか1つの指標値が選択される例と、について説明したが、これには限定されない。4つの指標値のうち任意の組み合わせの指標値を採用してもよい。また、上述の4つの指標値とは異なる5つ目の指標値をさらに組み合わせてもよい。
 また、進捗情報が、学習が十分か否かを示す例について説明したが、これには限定されない。例えば、指標値が第1閾値より大きければ学習の進捗度合いが「低」であって、指標値が第1閾値より小さく第2閾値より大きければ学習の進捗度合いが「中」であって、指標値が第2閾値より小さければ学習の進捗度合いが「高」であるとして、学習の進捗度合いが複数の段階のいずれに属するかを示す進捗情報が生成されてもよい。この段階の数は、任意に変更してもよい。
 また、学習装置10の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。
 例えば、プロセッサ91によって実行されるプログラムP1を、コンピュータ読み取り可能な非一時的な記録媒体に格納して配布し、そのプログラムP1をコンピュータにインストールすることにより、上述の処理を実行する装置を構成することができる。このような記録媒体としては、例えばフレキシブルディスク、CD-ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto-Optical Disc)が考えられる。
 また、プログラムP1をインターネットに代表される通信ネットワーク上のサーバ装置が有するディスク装置に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロードするようにしてもよい。
 また、通信ネットワークを介してプログラムP1を転送しながら起動実行することによっても、上述の処理を達成することができる。
 さらに、プログラムP1の全部又は一部をサーバ装置上で実行させ、その処理に関する情報をコンピュータが通信ネットワークを介して送受信しながらプログラムを実行することによっても、上述の処理を達成することができる。
 なお、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロードしてもよい。
 また、学習装置10の機能を実現する手段は、ソフトウェアに限られず、その一部又は全部を、回路を含む専用のハードウェアによって実現してもよい。
 本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施の形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
 本発明は、信号波形の学習に適している。
 10 学習装置、 11 取得部、 12 学習部、 13 記憶部、 14 生成部、 141 類似度解析部、 142 クラスタ解析部、 143 基準波形解析部、 144 波形数解析部、 145 進捗情報生成部、 15 出力部、 16 受付部、 16 通信部、 21,22,22a,23,23a,2n,2m 学習信号、 201~203 波形、 31,41 ウィンドウ、 32,42 部分信号、 91 プロセッサ、 92 主記憶部、 93 補助記憶部、 94 入力部、 95 出力部、 96 通信部、 97 内部バス、 111 ウィンドウ、 112 部分列、 121 標本部分列、 122 基準波形、 P1 プログラム。

Claims (13)

  1.  学習信号を取得する取得手段と、
     前記取得手段によって取得された前記学習信号から切り出される部分信号を、波形が類似する度合いを示す類似度に応じてクラスタリングして、クラスタリングされた前記部分信号の波形を表す基準波形を学習する学習手段と、
     前記類似度の分布と、クラスタリングされた前記部分信号を含む各クラスタの特性と、の少なくとも一方により、前記学習手段による学習の進捗状況を示す進捗情報を生成して出力する生成手段と、
     を備える学習装置。
  2.  前記学習信号は、学習部分信号と試行信号とを含み、
     前記学習手段は、前記学習部分信号から前記基準波形を学習し、
     前記生成手段は、前記試行信号から切り出される複数の部分信号それぞれと前記基準波形とが類似する度合いを示す前記類似度を算出し、前記類似度の分布により前記進捗情報を生成する、
     請求項1に記載の学習装置。
  3.  前記生成手段は、前記類似度の大きさに対する頻度の分布により前記進捗情報を生成する、
     請求項2に記載の学習装置。
  4.  前記生成手段は、クラスタリングされた前記部分信号を含む各クラスタの特性により前記進捗情報を生成する、
     請求項1に記載の学習装置。
  5.  前記生成手段は、クラスタリングされた前記部分信号の数により前記進捗情報を生成する、
     請求項4に記載の学習装置。
  6.  前記取得手段は、前記学習信号を繰り返し取得し、
     前記生成手段は、前記学習手段によって前記基準波形が繰り返し学習されたときの各クラスタの特性の変化により前記進捗情報を生成する、
     請求項4に記載の学習装置。
  7.  前記取得手段は、複数の前記学習信号を取得し、
     前記生成手段は、一の前記学習信号から前記学習手段によって前記基準波形が学習されたときの、前記類似度の分布と各クラスタの特性との少なくとも一方に関する指標値と、他の前記学習信号から前記学習手段によって前記基準波形が学習されたときの前記指標値と、の関係に基づいて前記進捗情報を生成する、
     請求項1に記載の学習装置。
  8.  前記生成手段は、前記指標値の差が閾値を下回ったときに、前記基準波形の学習が十分になされたことを示す前記進捗情報を生成する、
     請求項7に記載の学習装置。
  9.  前記取得手段は、取得した一の前記学習信号の波形に応じた長さの前記学習信号を次に取得することで、前記学習信号を繰り返し取得する、
     請求項7又は8に記載の学習装置。
  10.  前記取得手段は、取得した一の前記学習信号より長い前記学習信号を次に取得することで、前記学習信号を繰り返し取得する、
     請求項7から9のいずれか一項に記載の学習装置。
  11.  前記生成手段は、前記基準波形の学習を継続するか否かを示す前記進捗情報を生成して出力し、
     前記取得手段は、前記進捗情報が学習を継続することを示す場合に、新たな学習信号を取得し、
     前記学習手段は、前記新たな学習信号から前記基準波形を学習する、
     請求項1から10のいずれか一項に記載の学習装置。
  12.  学習信号から切り出される部分信号を、波形が類似する度合いを示す類似度に応じてクラスタリングして、クラスタリングされた前記部分信号の波形を表す基準波形を学習する学習ステップと、
     前記類似度の分布と、クラスタリングされた前記部分信号を含む各クラスタの特性と、の少なくとも一方により、学習の進捗状況を示す進捗情報を生成して出力する生成ステップと、
     を含む学習方法。
  13.  コンピュータに、
     学習信号から切り出される部分信号を、波形が類似する度合いを示す類似度に応じてクラスタリングして、クラスタリングされた前記部分信号の波形を表す基準波形を学習し、
     前記類似度の分布と、クラスタリングされた前記部分信号を含む各クラスタの特性と、の少なくとも一方により、学習の進捗状況を示す進捗情報を生成して出力する、
     ことを実行させるためのプログラム。
PCT/JP2018/023575 2018-06-21 2018-06-21 学習装置、学習方法及びプログラム WO2019244295A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201880094703.1A CN112334922B (zh) 2018-06-21 2018-06-21 学习装置、学习方法及程序
US17/051,440 US11042737B2 (en) 2018-06-21 2018-06-21 Learning device, learning method and program
PCT/JP2018/023575 WO2019244295A1 (ja) 2018-06-21 2018-06-21 学習装置、学習方法及びプログラム
JP2019531360A JP6644192B1 (ja) 2018-06-21 2018-06-21 学習装置、学習方法及びプログラム
TW108120616A TW202001922A (zh) 2018-06-21 2019-06-14 學習裝置、學習方法及程式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023575 WO2019244295A1 (ja) 2018-06-21 2018-06-21 学習装置、学習方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2019244295A1 true WO2019244295A1 (ja) 2019-12-26

Family

ID=68982813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023575 WO2019244295A1 (ja) 2018-06-21 2018-06-21 学習装置、学習方法及びプログラム

Country Status (5)

Country Link
US (1) US11042737B2 (ja)
JP (1) JP6644192B1 (ja)
CN (1) CN112334922B (ja)
TW (1) TW202001922A (ja)
WO (1) WO2019244295A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230446A (ja) * 1993-12-22 1995-08-29 Toshiba Corp パターン抽出方法及び装置
JP2009135649A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp データ処理装置及びデータ処理方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3056324B2 (ja) * 1992-04-01 2000-06-26 株式会社日立製作所 学習/想起方法および装置
JP4121808B2 (ja) 2002-08-29 2008-07-23 三菱電機株式会社 辞書圧縮装置
US8001074B2 (en) * 2008-01-31 2011-08-16 Quest Software, Inc. Fuzzy-learning-based extraction of time-series behavior
JP5301310B2 (ja) * 2009-02-17 2013-09-25 株式会社日立製作所 異常検知方法及び異常検知システム
JP5441554B2 (ja) 2009-08-03 2014-03-12 三菱電機株式会社 時系列データ類似判定装置、時系列データ類似判定プログラム、記録媒体及び時系列データ類似判定方法
WO2014184928A1 (ja) 2013-05-16 2014-11-20 株式会社日立製作所 検出装置、検出方法、および記録媒体
CN107545228B (zh) * 2016-11-07 2023-08-04 北京交通大学 基于小波变换的电气化铁路运行工况识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230446A (ja) * 1993-12-22 1995-08-29 Toshiba Corp パターン抽出方法及び装置
JP2009135649A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp データ処理装置及びデータ処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2019244295A1 (ja) 2020-07-09
US11042737B2 (en) 2021-06-22
CN112334922A (zh) 2021-02-05
CN112334922B (zh) 2022-05-10
JP6644192B1 (ja) 2020-02-12
US20210089768A1 (en) 2021-03-25
TW202001922A (zh) 2020-01-01

Similar Documents

Publication Publication Date Title
Raffel et al. MIR_EVAL: A Transparent Implementation of Common MIR Metrics.
US10496730B2 (en) Factor analysis device, factor analysis method, and factor analysis program
EP3136297A1 (en) System and method for determining information and outliers from sensor data
US20200397346A1 (en) Annotation method, annotation device, storage medium, and identification system
US20190310927A1 (en) Information processing apparatus and information processing method
JP6636214B1 (ja) 診断装置、診断方法及びプログラム
JP6828807B2 (ja) データ解析装置、データ解析方法およびデータ解析プログラム
KR102031843B1 (ko) 가상의 센서 데이터를 생성하는 방법 및 장치
US20220237407A1 (en) Storage medium, estimation method, and information processing device, relearning program, and relearning method
KR101852527B1 (ko) 기계학습 기반의 동적 시뮬레이션 파라미터 교정 방법
KR101522385B1 (ko) 반도체 제조 공정에서의 이상 감지 방법, 장치 및 기록매체
JP7282915B2 (ja) パラメータ化されたバッチラン監視を用いた品質インジケータによる技術装置の制御
US10043276B2 (en) Image processing method, image processing apparatus, robot apparatus, program, and recording medium
JP7173168B2 (ja) 異常検知装置、システム、方法及びプログラム
JP6644192B1 (ja) 学習装置、学習方法及びプログラム
JP7331940B2 (ja) 学習装置、推定装置、学習方法および学習プログラム
JP7251955B2 (ja) 検出装置及び機械学習方法
CN112262354B (zh) 诊断装置、诊断方法及记录介质
WO2019176322A1 (ja) 多変量時系列データの同期方法および多変量時系列データ処理装置
JP2015085437A (ja) 判定装置、判定方法、および判定プログラム
JP2020139914A (ja) 物質構造分析装置、方法及びプログラム
US20230086261A1 (en) Clustering device, clustering method, and clustering program
US11915143B2 (en) Image determination device, image determination method, and non-transitory computer readable medium storing program
JP7348945B2 (ja) 情報処理方法、および、情報処理システム
US11353860B2 (en) Data analysis device, system, method, and recording medium storing program

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019531360

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18923265

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18923265

Country of ref document: EP

Kind code of ref document: A1