WO2020137227A1 - 分類装置、分類システム、分類方法及び記憶媒体 - Google Patents

分類装置、分類システム、分類方法及び記憶媒体 Download PDF

Info

Publication number
WO2020137227A1
WO2020137227A1 PCT/JP2019/044697 JP2019044697W WO2020137227A1 WO 2020137227 A1 WO2020137227 A1 WO 2020137227A1 JP 2019044697 W JP2019044697 W JP 2019044697W WO 2020137227 A1 WO2020137227 A1 WO 2020137227A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
teacher
area
classification
evaluation
Prior art date
Application number
PCT/JP2019/044697
Other languages
English (en)
French (fr)
Inventor
根本 亮
Original Assignee
沖電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 沖電気工業株式会社 filed Critical 沖電気工業株式会社
Publication of WO2020137227A1 publication Critical patent/WO2020137227A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Definitions

  • the present invention relates to a classification device, a classification system, a classification method, and a storage medium.
  • JP, 2014-137389 A JP, 2005-079110, A JP, 2011-133780, A JP, 2017-151872, A
  • the above-mentioned analysis and classification technologies can analyze and classify time series data, but in recent years, there has been a strong demand for higher accuracy in analysis and classification. Further, at the same time as the above request, in order to avoid an increase in processing time and a burden on the processing device, it is required to further suppress the processing amount (processing data amount) in the processing for analysis and classification as described above. Has been.
  • an object of the present invention is to further suppress the increase in the processing amount and further improve the accuracy of classification, which is new and
  • An object of the present invention is to provide an improved classification device, classification system, classification method, and storage medium.
  • a classification device for classifying time series data into an intended first class, wherein the time series represented in at least a frequency domain or a time domain.
  • a processing unit for acquiring non-negative evaluation data of a predetermined data area from data, and a teacher generated by performing non-negative matrix factorization on the non-negative first teacher data corresponding to the predetermined data area.
  • a storage unit for storing a coefficient matrix and a classification model parameter generated based on the first class associated with the first teacher data, and a non-negative matrix factor for the first teacher data
  • a feature extraction unit that generates an evaluation coefficient matrix from the evaluation data, based on the teacher basis matrix generated by performing decomposition, Based on the classification model parameters, the calculated evaluation coefficient matrix, a classification unit for classifying into the first class, and a region specifying unit for specifying the predetermined data region, the region specifying unit,
  • Each non-negative second teacher data associated with each of the first classes is divided in the frequency domain or the time domain, and based on the observation matrix of each second teacher data for each divided area.
  • a non-negative third teacher associated with each undesired second class by calculating a first evaluation index indicating the degree of separation between the first classes for each of the divided regions.
  • the data is divided in the frequency domain or the time domain, and the degree of separation between the second classes of the divided areas is calculated based on the observation matrix of the third teacher data of the divided areas.
  • the second evaluation index shown is calculated, and the first area is identified by extracting the divided area in which the first evaluation index is higher than a preset first threshold value, and the first area is identified.
  • 2 evaluation index is higher than a preset second threshold value
  • the second region is specified by extracting the divided region, and based on the specified first and second regions,
  • a classification device is provided that identifies the predetermined data area.
  • a classification device that classifies time-series data into a desired first class and a classification device that acquires the time-series data.
  • the classification device corresponds to the processing unit that acquires non-negative evaluation data of a predetermined data region from the time series data represented in at least the frequency domain or the time domain, and the predetermined data region.
  • the non-negative first teacher data is generated based on the teacher coefficient matrix generated by performing non-negative matrix factorization, and the first class associated with the first teacher data.
  • the specifying unit divides each non-negative second teacher data associated with each of the first classes in a frequency domain or a time domain, and divides each second teacher data of each of the divided areas.
  • a first evaluation index indicating the degree of separation between the first classes for each of the divided regions is calculated, and each non-negative value associated with each of the second classes not intended
  • the third teacher data is divided in the frequency domain or the time domain, and based on the observation matrix of the respective third teacher data for each divided area, the second class between the divided areas is divided.
  • a second evaluation index indicating the degree of separation of the first area, and the first area is identified by extracting the divided area in which the first evaluation index is higher than a preset first threshold value.
  • the second area is specified by extracting the divided area in which the second evaluation index is higher than a preset second threshold value, and the specified first and second areas
  • a classification system is provided for identifying the predetermined data area based on
  • a classification method for classifying time series data into an intended first class which is expressed in at least a frequency domain or a time domain. It is generated by acquiring non-negative evaluation data of a predetermined data area from the time series data and performing non-negative matrix factorization on the non-negative first teacher data corresponding to the predetermined data area. Storing a training coefficient matrix, a classification model parameter generated based on the first class associated with the first training data, and a non-negative matrix for the first training data. Generating an evaluation coefficient matrix from the evaluation data based on a teacher basis matrix generated by performing factorization, and calculating the calculated evaluation coefficient matrix based on the classification model parameter.
  • Classifying into a class and identifying the predetermined data area wherein identifying the predetermined data area is performed by each non-negative second teacher associated with each of the first classes.
  • the data is divided in the frequency domain or the time domain, and the degree of separation between the first classes of the divided regions is calculated based on the observation matrix of the second teacher data of the divided regions.
  • the first evaluation index shown is calculated, each of the non-negative third teacher data associated with each of the second classes not intended is divided in the frequency domain or the time domain, and A second evaluation index indicating the degree of separation between the second classes for each of the divided regions is calculated based on the observation matrix of each of the third teacher data, and the first evaluation index is set in advance.
  • a classification method comprises identifying a second region by extracting the identified region and identifying the predetermined data region based on the identified first and second regions.
  • a program for classifying time-series data into a desired first class including at least a frequency domain or a time domain.
  • a function of acquiring non-negative evaluation data of a predetermined data area from the time-series data expressed in (3) and non-negative matrix factorization of the non-negative first teacher data corresponding to the predetermined data area A teacher coefficient matrix generated by the above, and a function of storing a classification model parameter generated based on the first class associated with the first teacher data; and Based on the teacher basis matrix generated by performing non-negative matrix factorization, the function of generating an evaluation coefficient matrix from the evaluation data, the calculated evaluation coefficient matrix, based on the classification model parameters,
  • a non-negative value associated with each of the first classes is provided.
  • a first evaluation index indicating the degree of separation between classes is calculated, and each non-negative third teacher data associated with each second target class is divided in the frequency domain or the time domain, A second evaluation index indicating a degree of separation between the second classes for each of the divided regions is calculated based on an observation matrix of the third teacher data for each of the divided regions, and the first evaluation index is calculated.
  • the first threshold is specified by extracting the divided area in which the evaluation index of is higher than the first threshold set in advance, and the second threshold in which the second evaluation index is set in advance.
  • a second area is identified by extracting the divided area that is higher than the first area, and the predetermined data area is identified based on the identified first and second areas.
  • a computer-readable storage medium in which a program is recorded is provided.
  • a technique that uses non-negative matrix factorization to analyze and classify data such as acoustic signals which is one example of continuously generated time-series data such as signals obtained by sensing, as described above. Is being studied.
  • the technology as described above is an effective means for analyzing and classifying time series data.
  • data to be analyzed and classified even in the case of various kinds of actually existing time series data that are not suitable data, it is strongly required to further improve the accuracy of classification. ..
  • various time-series data that actually exist as described above are often data in which various parameters are combined in a complicated manner, the processing time is long when processing such time-series data. There has been a marked increase in the tendency of increasing the load on the processing apparatus.
  • the present inventor has created an embodiment of the present invention capable of further improving the accuracy of classification while further suppressing an increase in processing amount.
  • embodiments of the present invention will be sequentially described in detail.
  • the time-series data acquired from the sensor is obtained by, for example, collecting a tapping sound when hitting a measurement target (such as concrete) with a hitting tool such as a hammer. It may be an acoustic signal that has been recorded. Further, in the following description, as an example, the information processing device is divided into two classes (first target class) indicating whether the measurement target object is normal or abnormal based on the acoustic signal. An example having a function of automatically classifying will be described, but the present invention is not limited to such an example.
  • time/frequency/amplitude data For time series data from the sensor, a power spectrum obtained by Fourier transform, a spectrogram obtained by short-time Fourier transform, a scatogram obtained by wavelet transform, etc., time, frequency, Data representing the relationship between amplitudes is generically called time/frequency/amplitude data. That is, the time/frequency/amplitude data can be said to be data expressed in at least the frequency domain or the time domain, and can be expressed as data indicating the amplitude value in the frequency domain and the time domain, for example.
  • the data to be classified is called evaluation data, and before classifying the evaluation data, the data for making a model necessary for classification in correspondence with the accurate label (class) is prepared in advance.
  • the correct label is a label indicating the class to which each observation vector included in the teacher observation matrix (non-negative teacher data) obtained by converting the teacher data belongs.
  • a basis matrix and a coefficient matrix obtained by performing non-negative matrix factorization decomposition on a teacher observation matrix obtained by converting teacher data are referred to as a teacher basis matrix and a teacher coefficient matrix, respectively.
  • a basis matrix and a coefficient matrix obtained by performing non-negative value matrix factorization of the evaluation observation matrix (non-negative evaluation data) obtained by converting the evaluation data are the evaluation basis matrix and the evaluation matrix, respectively. It is called a coefficient matrix.
  • FIG. 1 is an explanatory diagram showing an example of a schematic configuration of an information processing system 10 according to the present embodiment.
  • the information processing system 10 acquires, for example, time-series data (acoustic data) of tapping sound with respect to a measurement target, and based on the acquired time-series data, whether the measurement target is normal or abnormal. It is a classification system that classifies whether there is, that is, classifies. As shown in FIG. 1, the information processing system 10 according to the present embodiment mainly includes a sensor 100 for acquiring the time series data and an information processing device (classification device) 200 that performs classification. The outline of each device included in the information processing system 10 will be described below.
  • the sensor 100 detects a change in the state of the observation target as a physical change, and outputs the detected time series data to the information processing device 200.
  • the sensor 100 may be an acoustic sensor such as a microphone that acquires ambient sound as an acoustic signal, an acceleration sensor that acquires acceleration data, a temperature sensor that acquires temperature data, or the like. It is not particularly limited as long as it can acquire the series data.
  • the information processing device 200 is a device that analyzes and classifies the time-series data output from the sensor 100. More specifically, the information processing apparatus 200 uses the time-series data (teacher data) that is continuously generated such as the signal obtained by the sensor 100 to generate a classification model parameter for classifying into a plurality of classes. It has a function as a device and a function as a classification device for classifying time series data (evaluation data) into a plurality of classes.
  • the information processing device 200 can be a cloud 200a, an IoT gateway 200b, an edge terminal 200c, or the like. The detailed configuration of these information processing devices 200 will be described later.
  • the information processing system 10 may include at least one information processing device 200 such as the cloud 200a, the IoT gateway 200b, and the edge terminal 200c.
  • FIG. 2 is a block diagram for explaining a configuration example of the information processing device 200 according to the embodiment of the present invention.
  • the information processing apparatus 200 includes a data acquisition unit 202, an operation unit 204, a processing unit 210, a teacher data processing unit 220, a parameter generation unit 222, a storage unit 224, and a feature extraction unit 226. , A classification unit 228, and an output unit 230.
  • Each functional unit of the information processing device 200 will be described below.
  • the data acquisition unit 202 acquires the time-series data expressed in at least the frequency domain or the time domain from the sensor 100, and outputs the acquired time-series data to the processing unit 210 described below.
  • the operation unit 204 receives user input and outputs the input information to the processing unit 210.
  • the user may operate the operation unit 204 to input information indicating whether to acquire the teacher data or the evaluation data.
  • the user may operate the operation unit 204 to input information indicating the class (correct answer label) corresponding to the time-series data currently acquired by the data acquisition unit 202.
  • the operation unit 204 may be realized by, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, a dial, or the like.
  • the processing unit 210 acquires teacher data for classification model parameter generation processing and evaluation data for classification processing based on the time-series data acquired by the data acquisition unit 202.
  • the processing unit 210 functions as a conversion unit 212, an associating unit 214, a data dividing unit 216, and a separation degree evaluating unit (area specifying unit) 218. Have. The functions of the processing unit 210 will be described below.
  • the conversion unit 212 performs Fourier transform, short-time Fourier transform, or wavelet transform on the time-series data (teacher data and evaluation data) from the data acquisition unit 202 to obtain time/frequency/amplitude data (specifically, , A non-negative observation matrix containing non-negative observation vectors (eg, data transformed into a frequency domain representation).
  • time/frequency/amplitude data may be a power spectrum, a spectrogram, or a scalogram.
  • the conversion unit 212 may perform time-frequency/amplitude data by performing a Fourier transform or the like on the time-series data of the region (target region) specified by the separation degree evaluation unit 218 described later.
  • the class to be classified in the processing of the teacher data processing unit 220 or the feature extraction unit 226 described later by using the data represented in the frequency domain such as the power spectrum, spectrogram, scalogram, etc., the class to be classified in the processing of the teacher data processing unit 220 or the feature extraction unit 226 described later.
  • the features of can be extracted with higher accuracy.
  • the associating unit 214 associates the time-series data (teacher data) from the data acquisition unit 202 with the correct answer label (class) input by the user via the operation unit 204. Then, the time series data associated with the correct answer label is converted by the conversion unit 212 described above and output to the teacher data processing unit 220 described below.
  • the data division unit 216 divides the time/frequency/amplitude data relating to the teacher data or the evaluation data generated by the conversion in the conversion unit 212 in the frequency domain or the time domain.
  • the data dividing unit 216 can divide the data according to a division rule (a number of divisions, a size of an area, or the like) predetermined by the user, and the user can apply the division rule. By changing to, it becomes possible to extract the features of the class to be classified with higher accuracy or classify with higher accuracy.
  • the degree-of-separation evaluation unit 218 evaluates the degree-of-separation indicating the class classification ability in each area divided by the data division unit 216.
  • the index indicating the degree of separation for example, an intra-class/inter-class variance ratio, a Mahalanobis distance, a class classification correct answer rate, or the like can be used.
  • the degree-of-separation evaluation unit 218 evaluates the degree-of-separation (first evaluation index) of the target class (first class) for each of the regions divided by the data division unit 216 to determine the degree of separation.
  • Area (first area) is extracted, the degree of separation (second evaluation index) of a class (second class) other than the target is evaluated, and the area with high degree of separation (second area) is determined.
  • the target area (predetermined area) from which the teacher data and the evaluation data are acquired is specified based on the extracted areas. More specifically, the degree-of-separation evaluation unit 218 acquires teacher data and evaluation data, for example, by removing an area having a high degree of separation of a non-target class from an area having a high degree of separation of a target class. Identify the target area. That is, in the present embodiment, the classification parameter is not generated using the entire teacher data, and the classification is not performed using the entire evaluation data.
  • the classification parameter is generated using the teacher data of the target area having a high target class separation and the non-target class separation not high, and further the classification parameter is generated using the evaluation data of the target area.
  • teacher data of the target area and the time/frequency/amplitude data of the evaluation data specified by the separation degree evaluation unit 218 are output to the teacher data processing unit 220 and the feature extraction unit 226, respectively, which will be described later.
  • the processing unit 210 requires processing such as processing for subtracting an offset value from the time series data before conversion by the conversion unit 212 and frequency filtering processing for the converted time/frequency/amplitude data. You may go accordingly. The details of the operation of the processing unit 210 will be described later.
  • the teacher data processing unit 220 converts the time/frequency/amplitude data (non-negative first teacher data) (specifically, the teacher observation matrix) of the target region specified by the separability evaluation unit 218 received from the processing unit 210. On the other hand, a non-negative matrix factorization is performed to generate a teacher basis matrix and a teacher coefficient matrix (details will be described later). Then, the teacher data processing unit 220 associates the generated teacher base matrix with the correct answer label (class) and outputs the teacher basis matrix to the parameter generation unit 222 and the storage unit 224 described later. The details of the operation of the teacher data processing unit 220 will be described later.
  • the parameter generation unit 222 generates a classification model parameter for classifying the time series data into a target class based on the above-mentioned teacher coefficient matrix and correct answer label.
  • the classification model parameter generated by the parameter generation unit 222 may be a parameter according to a classification model in the classification unit 228 described later.
  • the classification model parameter when the classification unit 228 determines the threshold may be the threshold.
  • the classification model parameter when the classifying unit 228 makes a linear discrimination may be a coefficient of a linear discriminant function that determines a class boundary
  • the classification model parameter when the classifying unit 228 makes a quadratic discrimination is a class model parameter. It may be a coefficient of a quadratic discriminant function that determines the boundary.
  • the parameter generation unit 222 outputs the classification model parameter generated as described above to the storage unit 224 and stores it.
  • the storage unit 224 stores programs and parameters for causing each functional unit of the information processing device 200 to function.
  • the storage unit 224 stores a teacher base matrix generated by the teacher data processing unit 220 performing non-negative matrix factorization on the time/frequency/amplitude data (non-negative first teacher data) of the target region.
  • the classification model parameters generated by the parameter generation unit 222 are stored in the storage unit 224.
  • the feature extraction unit 226 generates an evaluation coefficient matrix from the time/frequency/amplitude data (non-negative evaluation data) of the target region output by the processing unit 210, based on the teacher basis matrix stored in the storage unit 224, The generated evaluation coefficient matrix is output to the classification unit 228 described later. The details of the operation of the feature extraction unit 226 will be described later.
  • the classification unit 228 classifies the evaluation coefficient matrix into a target class based on the classification model parameters stored in the storage unit 224.
  • the classification unit 228 can perform classification based on a classification model parameter according to the classification model using, for example, a coefficient vector included in the evaluation coefficient matrix as a feature vector and using various classification models.
  • the classification unit 228 can perform classification by using a classification model based on, for example, threshold determination, linear determination, quadratic determination, SVM (Support Vector Machine), or the like.
  • the output unit 230 outputs the classification result of the classification unit 228.
  • the output unit 230 can be, for example, a display device such as a display that displays the classification result, or a speaker that outputs the classification result by voice.
  • FIG. 3 is an explanatory diagram schematically showing a processing example of the NMF according to the present embodiment
  • FIG. 4 is a schematic diagram for explaining dimension reduction.
  • a non-negative observation matrix including a non-negative observation vector can be obtained by the conversion of the conversion unit 212 described above.
  • the observation matrix is a matrix in which one or a plurality of observation vectors obtained from one target section are arranged. Further, in the following description, as described above, the observation matrix acquired as the teacher data may be referred to as a teacher observation matrix, and the observation matrix acquired as the evaluation data may be referred to as an evaluation observation matrix to be distinguished.
  • Non-negative matrix factorization is an algorithm that decomposes one non-negative matrix Y into two non-negative matrices W and H (for example, WH).
  • NMF Non-negative matrix factorization
  • the latent element (feature) of the original non-negative matrix Y can be clarified.
  • a method for iteratively obtaining an approximate solution so that an error between Y and WH is a local optimum solution by providing an initial value is proposed.
  • Non-Patent Documents 1 and 2 above Note that the local optimum solution generally changes depending on the initial value.
  • a non-negative observation matrix Y (teacher observation matrix or evaluation observation matrix) is decomposed into a product of a non-negative coefficient matrix W and a non-negative basis matrix H by NMF.
  • the observation matrix Y is composed of, for example, the m-dimensional observation vector y as a row vector, and the rows are the number n of the target sections in the time-series data. It is a matrix with n rows and m columns.
  • the basis matrix H according to the present embodiment is obtained by applying NMF to the observation matrix Y, and the decomposed m-dimensional basis vector h becomes a row vector, and k is composed of as many rows as the number k of basis vectors. It is a matrix with rows and m columns.
  • the coefficient matrix W is, for example, a matrix of n rows and k columns configured by the number n of observation vectors and the row vector of the k-dimensional coefficient vector w.
  • the coefficient vector w is a row vector indicating a weighted value indicating how many components of each basis vector included in the basis matrix H are included in a certain observation vector.
  • the basis matrix and the coefficient matrix obtained by decomposing the teacher observation matrix Y L are the teacher basis matrix H L and the teacher coefficient matrix W L , respectively.
  • the teacher data processing unit 220 described above applies NMF to each class of correct labels associated with the teacher observation matrix Y L to obtain a teacher basis matrix H L and a teacher coefficient matrix W L. be able to.
  • the teacher data processing unit 220 first sets a data set (observation vector or observation matrix) Y C1 , Y C2 ,..., Y of each class (c1, c2,..., CN) of the teacher observation matrix Y L. Apply NMF per CN .
  • the coefficient matrix generated from the teacher observation matrix Y L based on the teacher basis matrix H L is the teacher coefficient matrix W L
  • the relationship of the teacher basis matrix H L can be expressed by the following mathematical expression (2).
  • the teacher data processing unit 220 may generate the teacher coefficient matrix W L based on, for example, a pseudo inverse matrix of the teacher base matrix (Moore-Penrose pseudo inverse matrix).
  • the pseudo inverse matrix H L + of the teacher basis matrix H L is a k ⁇ m matrix, and generally k ⁇ m, so the pseudo inverse matrix H L + can be expressed by the following mathematical expression (3).
  • the teacher coefficient matrix W L can be expressed by the following mathematical expression (4) using the pseudo inverse matrix H L + obtained by the mathematical expression (3).
  • NMF generally has a large amplitude, and it is easy to generate rules that have characteristics that correspond to data that occurs frequently. Therefore, when applying NMF to all data sets at once, if there is data with small amplitude or low frequency of occurrence depending on the class, it may be difficult to generate a base having features corresponding to the data of that class. is there. Therefore, in the present embodiment, by applying the NMF for each class, a base having a feature corresponding to data with a small amplitude or data with a low appearance frequency is easily generated, and the classification accuracy can be further improved. it can. In this embodiment, NMF may be collectively applied to a plurality of classes or data sets of all classes.
  • the teacher data processing unit 220 described above associates the generated teacher basis matrix H L with the correct answer label (class) associated by the association unit 214, and causes the parameter generation unit 222 and the storage unit 224 to perform the association. Output.
  • the above-described feature extraction unit 226 generates the evaluation coefficient matrix W T from the evaluation observation matrix Y T of the evaluation data based on the teacher basis matrix H L stored in the storage unit 224. ..
  • the basis matrix obtained by decomposing the evaluation observation matrix Y T and the coefficient matrix are the evaluation basis matrix H T and the teacher coefficient matrix W T , respectively.
  • an example of generating the evaluation coefficient matrix W T by the feature extraction unit 226 will be described.
  • the relationship between the teacher basis matrix H L , the evaluation observation matrix Y T, and the evaluation coefficient matrix W T can be expressed by the following Expression (5) based on the above Expression (1).
  • the evaluation coefficient matrix W T can be expressed by the following formula (6) using the pseudo inverse matrix H L + obtained by the same method as the formula (3).
  • the feature extraction unit 226 outputs the evaluation coefficient matrix W T generated as described above to the classification unit 228, and the classification unit 228 stores the evaluation coefficient matrix W T in the storage unit 224. Classify based on the stored classification model parameters.
  • the classification is performed by using the coefficient vector indicating the weight for the basis matrix as the feature vector, rather than the direct classification based on the magnitude of the power of the specific frequency, for example.
  • the accuracy can be improved.
  • the classification process is performed by using the evaluation coefficient matrix W T generated from the evaluation data.
  • the dimension of the feature vector in the processing is reduced, and the processing amount of the classification processing can be suppressed.
  • the evaluation data G20 which is a power spectrum can be represented by the sum of the product of the basis vector G21 and the coefficient W 1 and the product of the basis vector G22 and the coefficient W 2. ..
  • the dimension of the coefficient vector is 2. Therefore, as described above, since the dimension number of the coefficient vector is smaller than the dimension of the evaluation data G20, the dimension of the feature vector in the classification processing is reduced by performing the classification processing using the evaluation coefficient matrix W T. The processing amount of the classification processing can be suppressed.
  • NMF for the NMF, as described above, in general, it is easy to select the amplitude value or the basis with a high appearance frequency. Therefore, when NMF is applied to the entire time/frequency/amplitude data, for example, a base with a low class separation ability and a large amplitude is selected, and a base with a high class separation capacity and a small amplitude is selected depending on the data. It may be lost. In such a case, since the separation accuracy may decrease, there is a limit to the improvement of the classification accuracy.
  • FIG. 5 is a schematic diagram showing an example in which NMF is applied to the entire time/frequency/amplitude data.
  • the spectrograms G61 and G62 shown in FIG. 5 are spectrograms showing the characteristics of class 1 and class 2, respectively. Furthermore, in the spectrograms G61 and G62, the darkness of black indicates the magnitude of the amplitude.
  • the magnitude of the amplitude in the region R1 where the amplitude is large appears commonly in the spectrogram G61 showing the features of class 1 and the spectrogram G62 showing the features of class 2, and is not a feature effective for classification. Make it not exist.
  • the magnitudes of the amplitudes in the regions R2 and R3 having the small amplitudes are effective features for class 1 and class 2.
  • the bases G611 and G621 corresponding to the region R1 having a large amplitude are selected, and the amplitudes showing the characteristics effective for class 1 and class 2 classification are selected. Small bases of may not be selected.
  • the coefficient G613 obtained from the spectrogram G61 and the coefficient G623 obtained from the spectrogram G62 are the same, which makes it difficult to accurately classify the class 1 and the class 2.
  • NMF is partially applied only in the time domain and frequency domain effective for class classification.
  • FIG. 6 is a schematic diagram showing an example in which NMF is applied to the time/frequency/amplitude data portion.
  • the spectrograms G71 and G72 shown in FIG. 6 are spectrograms showing the characteristics of class 1 and class 2, respectively, similarly to the spectrograms G61 and G62 shown in FIG.
  • the bases G711 and G721 corresponding to the region R2 and the bases G712 and G722 corresponding to the region R3 are selected. ..
  • the coefficient G713 and the coefficient G714 obtained from the spectrogram G71 are greatly different from the coefficient G723 and the coefficient 724 obtained from the spectrogram G72, and the class 1 and the class 2 can be easily classified. That is, the accuracy of classification can be further improved by partially applying NMF only to the time domain and frequency domain effective for class classification. Further, in the present embodiment, since NMF may be applied only to the region R4, it is possible to further reduce the processing amount.
  • tapping data is generally data for a limited time zone, and it is sufficient to perform analysis according to the purpose by limiting it to a part of the time zone or frequency zone where a predetermined amplitude appears in the time/frequency/amplitude data. May be.
  • tapping data is generally data for a limited time zone, and it is sufficient to perform analysis according to the purpose by limiting it to a part of the time zone or frequency zone where a predetermined amplitude appears in the time/frequency/amplitude data. May be.
  • even for data such as vibration noise of a machine that outputs sound in a specific frequency band, it may be sufficient to perform analysis according to the purpose by limiting the frequency band.
  • the NMF is partially applied after excluding the region. That is, in the present embodiment, by applying the NMF only to a region where the target class separation is high and the non-target class separation is not high, the characteristics of the non-target class are disturbed.
  • the feature of the desired class to be classified can be extracted with higher accuracy, or can be classified into the target class with higher accuracy. As a result, in this embodiment, the accuracy of classification can be further improved.
  • since it is sufficient to limit the area and apply the NMF it is possible to further suppress the processing amount.
  • the target class classification is classified into, for example, two classes (classes related to the state of the measurement target (machine)) indicating whether the measurement target is normal or abnormal. That is.
  • class classification other than the purpose for example, a class relating to individual difference of the measurement target (machine) or a class relating to environment difference in which the measurement target (machine) is installed is classified. That is, in the present embodiment, by partially applying the NMF as described above, for example, the influence of the individual difference or the environmental difference of the measurement target is further suppressed, and the target measurement target is normal. It is possible to highly accurately extract the feature of the class indicating whether the class is present or abnormal.
  • FIG. 7 is an explanatory diagram showing an example of data division according to the present embodiment, and more specifically, an example of data division by the data division unit 216 and acquisition of teacher data and evaluation data by the separation degree evaluation unit 218. It is an explanatory view shown. 8 and 9 are explanatory diagrams showing an example of acquisition of teacher data and evaluation data according to this embodiment.
  • the data division unit 216 for example, the area A0 (in FIGS. 8 and 9) of the time/frequency/amplitude data (observation matrix of the non-negative second teacher data) obtained from the teacher data. (Corresponding to the region R80), the data is divided into four regions A1, A2, A3 and A4. The number of divisions by the data division unit 216 may be an arbitrary number of 2 or more.
  • the intra-class/inter-class variance ratio is calculated as the degree of separation.
  • the within-class variance ⁇ w 2 and the between-class variance ⁇ B 2 can be expressed by the following formulas (7) and (8).
  • n is the total number of data
  • n i is the number of class i data
  • x is a feature vector
  • mi is the average of the feature vector of class i
  • m is the total feature amount. It is the average of the vectors.
  • the index indicating the degree of separation is not limited to the above, and for example, the Mahalanobis distance or the like can be used.
  • the degree-of-separation evaluation unit 218 calculates the degree of separation for the target class as described above in each of the four areas A1, A2, A3, and A4. Further, the separation degree evaluation unit 218, for example, the area (first area) in which the value of the separation degree calculated from the four areas A1, A2, A3, and A4 is equal to or greater than a preset threshold L 1 (first threshold). ) Extract R10 (see FIG. 8).
  • the separability evaluation unit 218, for example, the areas A1, A2, A3 of the time/frequency/amplitude data (observation matrix of the non-negative third teacher data) obtained from the divided teacher data, For A4, the degree of separation (second evaluation index) for the non-target class (second class) is calculated. Further, the degree-of-separation evaluation unit 218, for example, the area (second area) in which the value of the degree of separation calculated from the four areas A1, A2, A3, and A4 is equal to or greater than a preset threshold L 2 (second threshold). ) Extract R12 (see FIG. 8).
  • the number of non-purpose classes may be two or more, and in this case, the degree-of-separation evaluation unit 218 determines, for example, for each of the divided non-purpose classes of the areas A1, A2, A3, and A4. Is calculated, and a region R14 (see FIG. 9) in which the value of the separation calculated from the four regions A1, A2, A3, and A4 is equal to or larger than a preset threshold L 3 is extracted.
  • the separation degree evaluation unit 218 identifies the target area (predetermined area) to which the NMF is applied based on the extracted areas R10, R12, and R14.
  • the degree-of-separation evaluation unit 218 specifies the target region to which NMF is applied, based on any of the sum, difference, or product of the extracted regions R10, R12, and R14.
  • the separation degree evaluation unit 218 identifies the region G810 to which NMF is applied by removing the region R12 having a threshold value L 2 or more from the region R10 having a threshold value L 1 or more. ..
  • the non-target class was two, as shown in FIG.
  • the region G820 to which NMF is applied is specified by removing the region R14 of. That is, in the present embodiment, by selecting an area in which the degree of separation of the target class is high and the degree of separation of the non-target class is not high, the target area effective for the classification of the target class is selected. Can be found efficiently.
  • the NMF to the target region obtained by removing the region having the high degree of separation of the non-target class from the region having the high degree of separation of the target class. It is possible to obtain a feature quantity that has a degree and is effective for more accurate classification.
  • the degree-of-separation evaluation unit 218 uses the data in the time domain/frequency domain in the target area to which the NMF specified as described above is applied as teacher data (teacher of the non-negative first teacher data). Observation matrix). Further, the degree-of-separation evaluation unit 218 identifies the time domain/frequency domain identified as described above as a data domain (target domain) for obtaining the evaluation data, and the corresponding time/frequency/amplitude of the data domain. The data is acquired as evaluation data (evaluation observation matrix of non-negative evaluation data).
  • the class classification correct answer rate may be used as the degree of separation.
  • the separability evaluation unit 218 applies NMF to each of the divided data as shown in FIG. 7, and acquires a base matrix and a coefficient matrix in a plurality of ranks.
  • the time/frequency/amplitude data may be converted into a one-dimensional column vector in order to apply NMF.
  • the basis matrices H C1,A1 , H C1,A2 , H C1,A3 , H C1,A4 , and the coefficient matrix are calculated from the plurality of time/frequency/amplitude data regions A1, A2, A3, A4 belonging to the class C1.
  • W C1,A1 , W C1,A2 , W C1,A3 , W C1,A4 can be obtained, respectively.
  • the rank indicating the number of decomposed bases ranges from 1 to the number of dimensions of the original data.
  • the classification accuracy rate of the class C1 or the class C2 is used as the index indicating the degree of separation of the class C1 or the class C2.
  • Data Y C1 of the original class C1, A0, data Y C2 class C2, the A0 applying H C1-C2, pseudo-inverse H C1-C2 of A1, A1 +, the coefficient matrix W C1 of each class, A0 , WC2, A0 can be represented by the following mathematical formulas (10) and (11).
  • the separation degree evaluation unit 218 classifies the coefficient matrices W C1,A0 , W C2,A0 as the feature vectors of the class C1 and the class C2, respectively, and calculates the classification accuracy rate.
  • the classification method performed by the separation degree evaluation unit 218 may be the same as the classification method performed by the classification unit 228, for example.
  • the data dividing unit 216 may further recursively divide the data in each of the four areas A1, A2, A3, and A4 shown in FIG. For example, the area A1 shown in FIG. 7 may be divided into four areas A11, A12, A13, and A14. Further, the separation degree evaluation unit 218 calculates the separation degree for each of the divided data and the data obtained by combining the divided data. The above recursive division may be repeated until the time domain/frequency domain becomes the minimum unit, or until the size of the divided data reaches a predetermined value.
  • the present invention is not limited to this example.
  • the degree of separation in a part or all of the time domain/frequency domain may be evaluated, or the time domain/frequency domain having a high degree of separation may be extracted by another method.
  • FIG. 10 is a flowchart showing an operation example of this embodiment in the learning phase
  • FIG. 11 is a flowchart showing an operation example of this embodiment in the classification phase.
  • the learning phase includes, for example, a plurality of steps from step S101 to step S125. The details of each step included in the learning phase will be described below.
  • Step S101 The data acquisition unit 202 acquires time-series data from the sensor 100.
  • the processing unit 210 may perform processing of subtracting an offset value from the acquired time series data.
  • the processing unit 210 may perform frequency filtering processing or the like on the time/frequency/amplitude data converted in step S107 described later. By doing so, it is possible to further improve the accuracy of the time/frequency/amplitude data that is the target of NMF and the effectiveness of the feature amount effective for classification.
  • Step S103 Subsequently, the associating unit 214 associates the time-series data acquired in step S101 with the correct label (target class and non-target class) input by the user via the operation unit 204.
  • Step S105 The processing section 210 determines whether or not the acquisition of the time series data used in the learning phase has been completed. For example, the determination may be performed based on, for example, the input of the operation unit 204. Then, if the acquisition of the time-series data used in the learning phase has not been completed, the process returns to step S101. On the other hand, when the acquisition of the time series data used in the learning phase has been completed, the process proceeds to step S107.
  • Step S107 ⁇ The conversion unit 212 converts the time-series data acquired in step S103 into time/frequency/amplitude data.
  • Step S109 Subsequently, the data division unit 216 divides the time/frequency/amplitude data acquired in step S107 in the time domain and the frequency domain.
  • the degree-of-separation evaluation unit 218 evaluates the degree-of-separation of the target class for each area divided by the data division unit 216 in step S109.
  • the degree-of-separation evaluation unit 218 extracts an area having a high degree of separation evaluated in step S111 from the plurality of areas divided in step S109.
  • the separation degree evaluation unit 218 evaluates the separation degree of the non-target class for each of the areas divided by the data division unit 216 in step S109.
  • the degree-of-separation evaluation unit 218 extracts the area having a high degree of separation evaluated in step S115 from the plurality of areas divided in step S109.
  • the degree-of-separation evaluation unit 218 identifies the target area by excluding the area with high degree of separation of the non-target class extracted in step S117 from the area with high degree of separation of the target class extracted in step S113. To do.
  • the teacher data processing unit 220 acquires the time/frequency/amplitude data (teacher observation matrix of teacher data) of the target region specified in step S119.
  • the teacher data processing unit 220 acquires the teacher base matrix and the teacher coefficient matrix by applying NMF to the time/frequency/amplitude data (teacher observation matrix of the teacher data) of the target area acquired in step S121.
  • the parameter generation unit 222 generates a classification model parameter based on the teacher coefficient matrix acquired in step S123 and the correct answer label (target class) associated in step S103.
  • the classification phase includes, for example, a plurality of steps from step S201 to step S215. The details of each step included in the classification phase will be described below.
  • Step S201 The data acquisition unit 202 acquires time series data.
  • the processing unit 210 may perform processing of subtracting an offset value from the acquired time series data.
  • the processing unit 210 may perform frequency filtering processing or the like on the time/frequency/amplitude data converted in step S107 described later. By doing so, the accuracy of the time/frequency/amplitude data that is the target of NMF and the accuracy of classification can be further improved.
  • Step S203 The conversion unit 212 converts the time series data acquired in step S201 into time/frequency/amplitude data.
  • Step S205 Subsequently, the data division unit 216 divides the time/frequency/amplitude data acquired in step S203 in the time domain and the frequency domain.
  • the separability evaluation unit 218 identifies the same region as the target region identified in step S119 of the learning phase described with reference to FIG. 10, from the time/frequency/amplitude data divided in step S205. ..
  • Step S209 Further, the feature extraction unit 226 acquires time/frequency/amplitude data (evaluation observation matrix of evaluation data) of the target region specified in step S207.
  • the feature extraction unit 226 extracts the time/frequency/amplitude data (evaluation observation matrix of the evaluation data) of the target region acquired in step S209 based on the teacher basis matrix acquired in step S123 of the learning phase described above. Generate an evaluation coefficient matrix.
  • the classification unit 228 classifies the evaluation coefficient matrix generated in step S211 based on the classification model parameters generated in step S125 of the learning phase described above.
  • Step S215 Finally, the output unit 230 outputs the classification result in step S213.
  • the NMF is partially applied after excluding the effective time domain and frequency domain. That is, according to the present embodiment, by applying the NMF only to a region where the target class separation is high and the non-target class separation is not high, the characteristics of the non-target class are disturbed. Without extracting the features that are effective for classification of the target class that you want to classify with higher accuracy (in other words, it becomes easier to select the basis that is effective for classification of the target class), and more accurate for the target class. Can be classified into. As a result, in this embodiment, the accuracy of classification can be further improved. In addition, in the present embodiment, since it is sufficient to limit the area and apply the NMF, it is possible to further suppress the processing amount.
  • the embodiment of the present invention is not limited to the above example, and may be classified into, for example, three or more classes, and the time series data of the vibration of the measurement object (for example, machine tool etc.). Based on the above, the state and ability of the measurement object may be classified into a plurality of classes.
  • the target time-series data is not particularly limited, and may be image data that changes with time, data such as environmental temperature and flow rate, and electrical data that changes with time.
  • Data for example, voltage value, current value, etc.
  • motion data of measurement object for example, building, machine, person, ball, moving body (automobile), etc.
  • various biological information obtained from human body for example, pulse, heartbeat, body temperature, brain wave, etc.
  • the embodiments of the present invention can be applied to various machines, human diagnosis, and the like.
  • FIG. 12 is an explanatory diagram showing a hardware configuration example of the information processing apparatus 1000 according to the embodiment of the present invention.
  • the information processing apparatus 1000 includes a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, an input device 1004, and an output device 1005.
  • the storage device 1006 and the communication device 1007 are provided.
  • the CPU 1001 functions as an arithmetic processing unit and a control unit, and controls overall operations in the information processing apparatus 1000 according to various programs. Further, the CPU 1001 may be a microprocessor.
  • the ROM 1002 stores programs used by the CPU 1001 and calculation parameters.
  • the RAM 1003 temporarily stores a program used in the execution of the CPU 1001 and parameters that appropriately change in the execution. These are mutually connected by a host bus composed of a CPU bus and the like.
  • the functions of, for example, the processing unit 210, the teacher data processing unit 220, the parameter generation unit 222, the feature extraction unit 226, the classification unit 228 and the like are realized mainly by the cooperation of the CPU 1001, the ROM 1002, the RAM 1003, and the software.
  • the input device 1004 includes an input unit such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever for inputting information by a user, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 1001. Etc.
  • an input unit such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever for inputting information by a user
  • an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 1001. Etc.
  • the user of the information processing apparatus 1000 can input various data to the information processing apparatus 1000 and instruct the processing operation.
  • the input device 1004 corresponds to the operation unit 204.
  • the output device 1005 includes, for example, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, and a display device such as a lamp. Further, the output device 1005 includes an audio output device such as a speaker and headphones. For example, the display device displays a captured image, a generated image, or the like. On the other hand, the voice output device converts voice data and the like into voice and outputs the voice. The output device 1005 corresponds to the output unit 230.
  • LCD liquid crystal display
  • OLED Organic Light Emitting Diode
  • the storage device 1006 is a device for storing data.
  • the storage device 1006 may include a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded in the storage medium, and the like.
  • the storage device 1006 stores programs executed by the CPU 1001 and various data.
  • the storage device 1006 corresponds to the storage unit 224.
  • the communication device 1007 is, for example, a communication interface including a communication device for connecting to a communication network.
  • the communication device 1007 may include a wireless LAN (Local Area Network) compatible communication device, an LTE (Long Term Evolution) compatible communication device, a wire communication device that performs wired communication, or a Bluetooth (registered trademark) communication device.
  • a wireless LAN Local Area Network
  • LTE Long Term Evolution
  • wire communication device that performs wired communication
  • Bluetooth registered trademark
  • the present invention is not limited to this example.
  • the device that acquires the teacher data and the evaluation data may be different devices, and the teacher data and the correct answer label may be stored in the storage unit 224 in advance. That is, in the above-described embodiment, an example has been described in which the information processing device 200 has a function as a parameter generation device that generates a classification model parameter and a function as a classification device that classifies time-series data into a plurality of classes.
  • the present invention is not limited to such an example.
  • the parameter generation device that performs the generation process of the classification model parameter and the classification device that performs the classification process using the classification model parameter generated by the parameter generation device may be provided as different devices. Good.
  • the above-described embodiment is, for example, a program for causing a computer to function as the information processing apparatus 200 according to the present embodiment (for performing the classification method according to the present embodiment), and a non-transitory program in which the program is recorded. It may include a tangible medium. That is, a program for causing a computer to function as the information processing device 200 may be provided, and a computer-readable storage medium recording the program may also be provided. Further, the program may be distributed via a communication line (including wireless communication) such as the Internet.
  • a communication line including wireless communication
  • processing steps in the operation (classification method) of the present embodiment do not necessarily have to be executed in time series in the order described in the flowchart.
  • the processing steps may be executed in an order different from the order described as the flowchart or may be executed in parallel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

【課題】処理量の増加をより抑制しつつ、分類の精度をより向上させることが可能な分類装置、分類システム、分類方法及び記憶媒体を提供する。 【解決手段】時系列データから、所定のデータ領域の非負の評価データを取得する処理部と、前記所定のデータ領域に対応する非負の第1の教師データから生成された教師係数行列、及び、前記第1の教師データに対応付けられた第1のクラスに基づいて生成された分類モデルパラメータを格納する記憶部と、前記第1の教師データから生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する分類部と、前記所定のデータ領域を特定する領域特定部とを備える分類装置を提供する。

Description

分類装置、分類システム、分類方法及び記憶媒体
 本発明は、分類装置、分類システム、分類方法及び記憶媒体に関する。
 従来、センシングにより得られた信号等の連続的に発生する時系列データの一例である音響信号等のデータを解析、分類するために、非負値行列因子分解を用いる技術が研究されている(下記特許文献1~4、下記非特許文献1,2)。
特開2014-137389号公報 特開2015-079110号公報 特開2011-133780号公報 特開2017-151872号公報
Lee, H. S. Seung, "Learning the parts of objects by nonnegative matrix factorization," Nature,(英国), Oct. 1999, vol.401 pp.788-791. Lee, H. S. Seung, "Algorithms for non-negative matrix factorization," Advances in neural information processing systems, Dec. 2001, pp.556-562.
 上述のような解析、分類のための技術は、時系列データを解析、分類することができるが、近年、解析、分類する精度をより高めることが強く求められるようになってきている。さらに上述のような要求と同時に、処理時間の増加及び処理装置の負担を避けるために、上述のような解析、分類のための処理において、処理量(処理データ量)をより抑制することが求められている。
 そこで、本発明は、上記状況に鑑みてなされたものであり、本発明の目的とするところは、処理量の増加をより抑制しつつ、分類の精度をより向上させることが可能な、新規且つ改良された分類装置、分類システム、分類方法及び記憶媒体を提供することにある。
 上記課題を解決するために、本発明のある観点によれば、時系列データを目的とする第1のクラスに分類する分類装置であって、少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得する処理部と、前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納する記憶部と、前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、
 算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する分類部と、前記所定のデータ領域を特定する領域特定部とを備え、前記領域特定部は、前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定する、分類装置が提供される。
 また、上記課題を解決するために、本発明の別の観点によれば、時系列データを目的とする第1のクラスに分類する分類装置と、前記時系列データを取得するセンサとを含む分類システムであって、前記分類装置は、少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得する処理部と、前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納する記憶部と、前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する分類部と、前記所定のデータ領域を特定する領域特定部とを有し、前記領域特定部は、前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定する、分類システムが提供される。
 上記課題を解決するために、本発明の更なる別の観点によれば、時系列データを目的とする第1のクラスに分類する分類方法であって、少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得することと、前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納することと、前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成することと、算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類することと、前記所定のデータ領域を特定することとを含み、前記所定のデータ領域を特定することは、前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定することを有する、分類方法が提供される。
 上記課題を解決するために、本発明の更なる別の観点によれば、時系列データを目的とする第1のクラスに分類するためのプログラムであって、コンピュータに、少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得する機能と、前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納する機能と、前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する機能と、算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する機能と、前記所定のデータ領域を特定する機能とを実現させ、前記所定のデータ領域を特定する機能においては、前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定することを実施する、プログラムを記録した、コンピュータに読み取り可能な記憶媒体が提供される。
 以上説明したように本発明によれば、処理量の増加をより抑制しつつ、分類の精度をより向上させることができる。
本発明の実施形態に係る情報処理システム10の概略的な構成の一例を示す説明図である。 本発明の実施形態に係る情報処理装置200の構成例を説明するためのブロック図である。 本発明の実施形態に係るNMFの処理例を模式的に示す説明図である。 NMFによる次元の削減を説明するための模式図である。 時間・周波数・振幅データの全体に対してNMFを適用した例を示す模式図である。 時間・周波数・振幅データの部分に対してNMFを適用した例を示す模式図である。 本発明の実施形態に係るデータ分割の例を示す説明図である。 本発明の実施形態に係る教師データと評価データの取得の例を示す説明図(その1)である。 本発明の実施形態に係る教師データと評価データの取得の例を示す説明図(その2)である。 学習フェーズにおける本発明の実施形態の動作例を示すフローチャート図である。 分類フェーズにおける本発明の実施形態の動作例を示すフローチャート図である。 ハードウェア構成例を示す説明図である。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 <<背景>>
 まず、本発明に係る実施形態を説明する前に、本発明者が本発明に係る実施形態を創作するに至る背景について説明する。
 先に説明したように、従来、センシングにより得られた信号等の連続的に発生する時系列データの一例である音響信号等のデータを解析、分類するために、非負値行列因子分解を用いる技術が研究されている。
 上述のような技術は、時系列データを解析、分類する際に有効な手段である。しかしながら、近年、解析、分類するデータとしては、好適なデータとは言えない現実に存在する様々な時系列データであっても、分類する精度をより高めることが強く求められるようになってきている。また、上述のような現実に存在する様々な時系列データは、様々なパラメータが複雑に組み合わされたデータであることが多いことから、このような時系列データを処理する際に、処理時間が増加し、且つ、処理装置の負担が増加する傾向が顕著に表れるようになってきていた。
 そこで、本発明者は、上述の状況を鑑みて、処理量の増加をより抑制しつつ、分類の精度をより向上させることが可能な、本発明の実施形態を創作するに至った。以下、このような本発明の実施形態を順次詳細に説明する。
 <<実施形態>>
 以下に説明する実施形態においては、センサから取得される時系列データは、例えば、測定対象物(例えばコンクリート等)に対してハンマー等の打具で打撃した際の打音を収音して得られた音響信号であってもよい。さらに、以下の説明においては、一例として、情報処理装置が、当該音響信号に基づいて当該測定対象物が正常であるか異常であるかを示す2つのクラス(目的とする第1のクラス)に自動的に分類する機能を有する例について説明するが、本発明は係る例に限定されるものではない。
 また、以下の説明においては、センサからの時系列データに対する、フーリエ変換によって得られたパワースペクトル、短時間フーリエ変換によって得られたスペクトログラムや、ウェーブレット変換によって得られたスカトログラム等、時間、周波数、振幅の関係を表したデータを総称して、時間・周波数・振幅データと呼ぶ。すなわち、当該時間・周波数・振幅データは、少なくとも周波数領域又は時間領域において表現されたデータであると言え、例えば、周波数領域、及び時間領域における振幅の値を示すデータとして表現されることができる。
 また、以下の説明においては、分類の対象となるデータを評価データと呼び、評価データを分類する前に、事前に正確ラベル(クラス)と対応させて分類に必要なモデルを作るためのデータを教師データと呼ぶ。そして、上記正解ラベルは、教師データを変換して得られた教師観測行列(非負の教師データ)に含まれる各観測ベクトルが属するクラスを示すラベルのことをいう。加えて、以下の説明においては、教師データを変換して得られた教師観測行列を非負値行列因子分解分解して得られる基底行列及び係数行列を、それぞれ教師基底行列、教師係数行列と呼ぶ。さらに、以下の説明においては、評価データを変換して得られた評価観測行列(非負の評価データ)を非負値行列因子分解分解して得られる基底行列及び係数行列を、それぞれ評価基底行列、評価係数行列と呼ぶ。
 <情報処理システム10の概略構成>
 まずは、図1を参照して、本発明の実施形態に係る情報処理システム(分類システム)10の概略構成を説明する。図1は、本実施形態に係る情報処理システム10の概略的な構成の一例を示す説明図である。
 本実施形態に係る情報処理システム10は、例えば、測定対象物に対する打音の時系列データ(音響データ)を取得し、取得した時系列データに基づき、当該測定対象物が正常であるか異常であるかをクラス分け、すなわち分類を行う分類システムである。図1に示すように、本実施形態に係る情報処理システム10は、上記時系列データを取得するためのセンサ100と、分類を行う情報処理装置(分類装置)200とを主に含む。以下に、情報処理システム10に含まれる各装置の概要について説明する。
 (センサ100)
 センサ100は、観測対象の状態の変化を物理的な変化として検出し、検出した時系列データを情報処理装置200に出力する。例えば、センサ100は、周辺の音を音響信号として取得するマイクロフォン等の音響センサであってもよく、加速度データを取得する加速度センサや、温度データを取得する温度センサ等であってもよく、時系列データを取得できるものであれば特に限定されるものではない。
 (情報処理装置200)
 情報処理装置200は、センサ100から出力された時系列データを解析して分類する装置である。詳細には、情報処理装置200は、センサ100により得られる信号等の連続的に発生する時系列データ(教師データ)を用いて、複数のクラスに分類するための分類モデルパラメータを生成するパラメータ生成装置としての機能と、時系列データ(評価データ)を複数のクラスに分類する分類装置としての機能とを有する。例えば、図1に示すように、情報処理装置200は、クラウド200a、IoTゲートウェイ200b、エッジ端末200c等であることができる。これら情報処理装置200の詳細構成については後述する。なお、本実施形態に係る情報処理システム10は、クラウド200a、IoTゲートウェイ200b、エッジ端末200c等のような情報処理装置200を少なくとも1つ含んでいればよい。
 <情報処理装置200の詳細構成>
 以上、本発明の実施形態に係る情報処理システム10の概略構成を説明した。次に、図2を参照して、本発明の実施形態に係る情報処理装置200の一例の詳細構成を説明する。図2は、本発明の実施形態に係る情報処理装置200の構成例を説明するためのブロック図である。図2に示すように、本実施形態に係る情報処理装置200は、データ取得部202、操作部204、処理部210、教師データ処理部220、パラメータ生成部222、記憶部224、特徴抽出部226、分類部228、及び出力部230を主に有する。以下に情報処理装置200の有する各機能部について説明する。
 (データ取得部202)
 データ取得部202は、センサ100から、少なくとも周波数領域又は時間領域において表現された時系列データを取得し、後述する処理部210に取得した時系列データを出力する。
 (操作部204)
 操作部204は、ユーザの入力を受け付け、入力情報を処理部210に出力する。例えば、ユーザは、操作部204を操作して、教師データを取得するか、又は、評価データを取得するかを示す情報を入力してもよい。さらに、ユーザは、操作部204を操作して、データ取得部202により現在取得されている時系列データに対応するクラス(正解ラベル)を示す情報を入力してもよい。なお、操作部204は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー、又はダイヤル等により実現されてもよい。
 (処理部210)
 処理部210は、データ取得部202により取得された時系列データに基づいて、分類モデルパラメータ生成処理のための教師データ、及び、分類処理のための評価データを取得する。詳細には、図2に示すように、本実施形態に係る処理部210は、変換部212、対応付け部214、データ分割部216、及び、分離度評価部(領域特定部)218としての機能を有する。以下に、処理部210の各機能について説明する。
 ~変換部212~
 変換部212は、データ取得部202からの時系列データ(教師データ及び評価データ)に対して、フーリエ変換、短時間フーリエ変換、又は、ウェーブレット変換を行い、時間・周波数・振幅データ(詳細には、非負の観測ベクトル(例えば、周波数領域表現に変換されたデータ)を含む非負の観測行列)を生成する。例えば、先に説明したように、時間・周波数・振幅データは、パワースペクトル、スペクトログラム、又は、スカログラムであってもよい。また、変換部212は、後述する分離度評価部218によって特定された領域(対象領域)の時系列データに対して、フーリエ変換等を行い、時間・周波数・振幅データを生成してもよい。本実施形態においては、パワースペクトル、スペクトログラム、スカログラム等のような周波数領域等で表現されるデータを用いることにより、後述の教師データ処理部220、又は特徴抽出部226等の処理において、分類したいクラスの特徴をより高精度に抽出することができる。
 ~対応付け部214~
 対応付け部214は、データ取得部202からの時系列データ(教師データ)と、操作部204を介してユーザにより入力される正解ラベル(クラス)とを、対応付ける。そして、当該正解ラベルに紐づけられた時系列データは、上述の変換部212によって変換され、後述する教師データ処理部220に出力される。
 ~データ分割部216~
 データ分割部216は、変換部212での変換により生成した教師データ又は評価データに係る時間・周波数・振幅データを、周波数領域、又は時間領域において分割する。なお、データ分割部216は、予めユーザによって決められた分割のルール(いくつに分割するか、どの程度の大きさの領域に分割するか等)に従って分割することができ、ユーザは分割ルールを好適に変更することにより、分類したいクラスの特徴をより高精度に抽出したり、より高精度に分類したりすることが可能となる。
 ~分離度評価部218~
 分離度評価部218は、データ分割部216により分割された各領域でのクラスの分類能力を示す分離度を評価する。分離度を示す指標としては、例えば、クラス内・クラス間分散比、マハラノビス距離、又は、クラスの分類正解率等を用いることができる。詳細には、分離度評価部218は、データ分割部216により分割された領域ごとに、目的とするクラス(第1のクラス)の分離度(第1の評価指標)を評価して、分離度の高い領域(第1の領域)を抽出し、目的外のクラス(第2のクラス)の分離度(第2の評価指標)を評価して、分離度の高い領域(第2の領域)を抽出し、抽出したこれら領域に基づいて、教師データ及び評価データを取得する対象領域(所定の領域)を特定する。より具体的には、分離度評価部218は、例えば、目的のクラスの分離度の高い領域から、目的外のクラスの分離度の高い領域を除去することにより、教師データ及び評価データを取得する対象領域を特定する。すなわち、本実施形態においては、教師データの全体を用いて分類パラメータを生成し、且つ、評価データの全体を用いて分類を行うのではない。本実施形態においては、目的のクラス分離度が高く、且つ、目的外のクラス分離度が高くない対象領域の教師データ用いて分類パラメータを生成し、さらに、当該対象領域の評価データを用いて分類を行うことにより、目的外のクラスの特徴に邪魔されることなく、分類したい目的のクラスの特徴をより高精度に抽出したり、目的のクラスにより高精度に分類したりすることができる。
 さらに、分離度評価部218によって特定された対象領域の教師データ及び評価データの時間・周波数・振幅データは、後述する教師データ処理部220及び特徴抽出部226にそれぞれ出力される。
 なお、処理部210は、上述の処理に加えて、変換部212による変換前の時系列データからオフセット値を引く処理、変換後の時間・周波数・振幅データに対する周波数フィルタリング処理等の処理を必要に応じて行ってもよい。また、処理部210の動作の詳細については、後述する。
 (教師データ処理部220)
 教師データ処理部220は、処理部210から受け取った分離度評価部218によって特定された対象領域の時間・周波数・振幅データ(非負の第1の教師データ)(詳細には、教師観測行列)に対して、非負値行列因子分解を行うことにより、教師基底行列及び教師係数行列を生成する(詳細については後述する)。そして、教師データ処理部220は、生成した教師基底行列を正解ラベル(クラス)と対応付けて、後述するパラメータ生成部222及び記憶部224に出力する。なお、教師データ処理部220の動作の詳細については後述する。
 (パラメータ生成部222)
 パラメータ生成部222は、上述の教師係数行列及び正解ラベルに基づいて、時系列データを目的のクラスに分類するための分類モデルパラメータを生成する。パラメータ生成部222が生成する分類モデルパラメータは、後述する分類部228における分類モデルに応じたパラメータであってもよい。例えば、分類部228が閾値判別を行う場合の分類モデルパラメータは閾値であってもよい。また、分類部228が線形判別を行う場合の分類モデルパラメータはクラスの境界を決定する線形判別関数の係数であってもよく、分類部228が二次判別を行う場合の分類モデルパラメータはクラスの境界を決定する二次判別関数の係数であってもよい。パラメータ生成部222は、上記のようにして生成した分類モデルパラメータを、記憶部224に出力し、格納させる。
 (記憶部224)
 記憶部224は、情報処理装置200の各機能部が機能するためのプログラムやパラメータを格納する。例えば、記憶部224は、教師データ処理部220が対象領域の時間・周波数・振幅データ(非負の第1の教師データ)に対して非負値行列因子分解を行うことで生成された教師基底行列と、パラメータ生成部222により生成された分類モデルパラメータとを格納する。
 (特徴抽出部226)
 特徴抽出部226は、記憶部224に格納された教師基底行列に基づいて、処理部210により出力された対象領域の時間・周波数・振幅データ(非負の評価データ)から評価係数行列を生成し、生成した評価係数行列を後述する分類部228に出力する。なお、特徴抽出部226の動作の詳細については後述する。
 (分類部228)
 分類部228は、上記評価係数行列を、記憶部224に格納された分類モデルパラメータに基づいて、目的とするクラスに分類する。分類部228は、例えば、評価係数行列に含まれる係数ベクトルを特徴ベクトルとし、様々な分類モデルを用いて、当該分類モデルに応じた分類モデルパラメータに基づいた分類を行うことが可能である。具体的には、分類部228は、例えば、閾値判別、線形判別、二次判別、又はSVM(Support Vector Machine)等に基づく分類モデルを用いて、分類することができる。
 (出力部230)
 出力部230は、分類部228による分類結果を出力する。出力部230は、例えば分類結果を表示するディスプレイ等の表示装置、又は分類結果を音声出力するスピーカ等であることができる。
 <概要>
 以上、本発明の実施形態に係る情報処理装置200の詳細構成を説明した。続いて、本実施形態に係る動作例を説明する前に、図3及び図4を参照して、本実施形態の概要について説明する。図3は、本実施形態に係るNMFの処理例を模式的に示す説明図であり、図4は、次元の削減を説明するための模式図である。
 (非負値行列因子分解)
 本実施形態においては、上述した変換部212の変換によって、非負の観測ベクトル(周波数領域表現に変換されたデータ)を含む非負の観測行列を得ることができる。当該観測行列は、1の対象区間から得られる観測ベクトルを、1又は複数並べた行列である。また、以下の説明では、先に説明したように、教師データとして取得される観測行列を教師観測行列と呼び、評価データとして取得される観測行列を評価観測行列と呼んで区別する場合がある。
 ところで、非負値行列因子分解(Non-negative Matrix Factorization、以下、NMFと呼ぶ)は、1の非負行列Yを2つの非負行列W、Hの積(例えばWH)に分解するアルゴリズムである。1の非負行列Yを2つの非負行列W、Hに分解することにより、元の非負行列Yの持つ潜在的要素(特徴)を明確にすることができる。そして、2つの非負行列W、Hを解析的に求めることは困難であるため、初期値を与えてYとWHの誤差が局所最適解になるよう、反復的に近似解を求める手法が提案されている(例えば、上記非特許文献1、2等)。なお、一般に、局所最適解は初期値に依存して変化する。
 図3に示すように、NMFにより、例えば、非負の観測行列Y(教師観測行列、又は評価観測行列)は、非負の係数行列W、及び非負の基底行列Hの積に分解される。
 さらに、図3に示すように、本実施形態に係る観測行列Yは、例えば、m次元の観測ベクトルyが行ベクトルとなって、時系列データにおける対象区間の数nだけの行で構成されたn行m列の行列である。
 本実施形態に係る基底行列Hは、例えば、観測行列YにNMFを適用し、分解されたm次元の基底ベクトルhが行ベクトルとなって、基底ベクトルの数kだけの行で構成されたk行m列の行列である。
 本実施形態に係る係数行列Wは、例えば、k次元の係数ベクトルwが行ベクトルとなって、観測ベクトルの数nだけの行で構成されたn行k列の行列である。ここで係数ベクトルwは、ある観測ベクトルにおいて、基底行列Hに含まれる各基底ベクトルの成分がどれだけ含まれるか、という加重値を示す行ベクトルである。
 図3に示すように、上記の行列においては、以下の数式(1)の関係がある。
Figure JPOXMLDOC01-appb-M000001
 なお、先に説明したように、教師観測行列Yを分解して得られる基底行列、及び係数行列は、それぞれ教師基底行列H、教師係数行列Wとなる。
 本実施形態においては、上述した教師データ処理部220により、教師観測行列Yに対応付けられた正解ラベルのクラスごとにNMFを適用して、教師基底行列H、教師係数行列Wを得ることができる。
 例えば、教師データ処理部220は、まず教師観測行列Yの各クラス(c1,c2,・・・,cN)のデータセット(観測ベクトル又は観測行列)YC1,YC2,・・・,YCNごとにNMFを適用する。教師データ処理部220は、データセットYC1,YC2,・・・,YCNのそれぞれが分解されて得られたベクトルまたは行列HC1,HC2,・・・,HCNにより、教師基底行列H={HC1,HC2,・・・,HCN}を生成する。
 そして、教師基底行列Hに基づいて、教師観測行列Yから生成される係数行列を教師係数行列Wとすると、数式(1)より、教師観測行列Y、教師係数行列W、及び教師基底行列Hの関係は、以下の数式(2)で表わすことができる。
Figure JPOXMLDOC01-appb-M000002
 上記数式(2)より、教師係数行列Wを得るためには、教師基底行列Hの逆行列を用いる必要がある。しかし、教師基底行列Hは、一般に正則行列とは限らないため、逆行列を持たない場合がある。そこで、教師データ処理部220は、例えば教師基底行列の疑似逆行列(ムーア‐ペンローズの疑似逆行列)に基づいて、教師係数行列Wを生成してもよい。教師基底行列Hの疑似逆行列H は、k×mの行列であり、一般にk<mであるため、擬似逆行列H は、以下の数式(3)で表すことができる。
Figure JPOXMLDOC01-appb-M000003
 上記数式(3)で得られた疑似逆行列H を用いて、教師係数行列Wは以下の数式(4)で表すことができる。
Figure JPOXMLDOC01-appb-M000004
 NMFは、一般に振幅が大きく、頻出する度合が大きいデータに対応する特徴を持つ規定が生成されやすい。従って、全てのデータセットに対して一括でNMFを適用する際、クラスによって振幅の小さいデータや出現回数の低いデータがあると、そのクラスのデータに対応した特徴を持つ基底が生成され難い場合がある。そこで、本実施形態においては、クラスごとにNMFを適用することにより、振幅の小さいデータや、出現回数の低いデータに対応した特徴を持つ基底も生成されやすくなり、分類精度をより向上させることができる。なお、本実施形態においては、複数のクラス、又は全てのクラスのデータセットに対して一括でNMFが適用されてもよい。
 なお、上述した教師データ処理部220は、生成した教師基底行列Hを、上記対応付け部214により対応付けられた正解ラベル(クラス)と紐づけて、上記パラメータ生成部222及び記憶部224に出力する。
 次に、本実施形態においては、上述した特徴抽出部226は、記憶部224に格納された教師基底行列Hに基づいて、評価データの評価観測行列Yから評価係数行列Wを生成する。なお、先に説明したように、評価観測行列Yを分解して得られる基底行列、及び係数行列は、それぞれ評価基底行列H、教師係数行列Wとなる。以下、特徴抽出部226による評価係数行列Wの生成例について説明する。
 上記数式(1)に基づいて、教師基底行列H、評価観測行列Y及び評価係数行列Wの関係は、以下の数式(5)によって示すことができる。
Figure JPOXMLDOC01-appb-M000005
 上記数式(3)と同様の方法で得られた疑似逆行列H を用いて、評価係数行列Wは、以下の数式(6)で示すことができる。
Figure JPOXMLDOC01-appb-M000006
 そして、本実施形態においては、特徴抽出部226は、上述のようにして生成した評価係数行列Wを分類部228に出力し、分類部228は、評価係数行列Wを、記憶部224に格納された分類モデルパラメータに基づいて分類する。
 本実施形態においては、以上のように、基底行列に対する重みを示す係数ベクトルを特徴ベクトルとして用いて分類することで、例えば特定周波数のパワーの大きさに基づいて直接的に分類するよりも、分類精度を向上させることができる。
 また、本実施形態においては、評価データ(時系列データ)自体を用いて分類処理を行った場合に比べ、評価データから生成される評価係数行列Wを用いて分類処理を行うことにより、分類処理における特徴ベクトルの次元が削減され、分類処理の処理量を抑制することができる。
 例えば、図4に示すように、NMFにより、パワースペクトルである評価データG20は、基底ベクトルG21及び係数Wの積と、基底ベクトルG22及び係数Wの積と、の和で表わすことができる。図4の例において、評価データG20を特徴ベクトルとして分類処理を行う場合には、評価データG20における周波数分解能に応じた次元での処理が必要となる。一方、図4の例において、係数ベクトルの次元は2である。従って、上述したように、評価データG20の次元よりも係数ベクトルの次元数の方が小さいため、評価係数行列Wを用いて分類処理を行うことで、分類処理における特徴ベクトルの次元が削減され、分類処理の処理量を抑制することができる。
 (対象領域)
 しかしながら、NMFを用いることにより、分類処理の処理量を抑制できるものの、スペクトログラムやスカログラムは、時間と周波数の2軸を有するデータであることから、スペクトログラム等に対してNMFを適用した場合、処理量の抑制に限界がある場合がある。
 また、NMFは、先に説明したように、一般に、振幅の値や、出現頻度が高い基底が選ばれやすい。従って、時間・周波数・振幅データの全体に対してNMFを適用すると、データによっては、例えば、クラスの分離能力が低く振幅の大きな基底が選ばれ、クラスの分離能力が高く振幅の小さな基底が選ばれてしまうことがある。このような場合、分離精度が低下する場合も存在することから、分類の精度の向上には限界があることがあった。
 分類の精度の限界が存在する場合があることを、図5を参照して説明する。図5は、時間・周波数・振幅データの全体に対してNMFを適用した例を示す模式図である。なお、図5に示すスペクトログラムG61、G62は、それぞれクラス1、クラス2の特徴を示すスペクトログラムである。さらに、スペクトログラムG61、G62においては、黒色の濃さが振幅の大きさを示している。
 図5に示す例においては、振幅の大きい領域R1における振幅の大きさは、クラス1の特徴を示すスペクトログラムG61、及びクラス2の特徴を示すスペクトログラムG62に共通して現れ、分類に有効な特徴ではないものとする。一方、図15に示す例においては、振幅の小さい領域R2、及び領域R3における振幅の大きさは、クラス1、及びクラス2の分類に有効な特徴であるものとする。
 しかしながら、スペクトログラムG61、G62のデータ全体に対してNMFを適用してしまうと、振幅の大きい領域R1に対応する基底G611、G621が選択され、クラス1とクラス2の分類に有効な特徴を示す振幅の小さな基底は選択されない場合がある。このような場合、スペクトログラムG61から得られる係数G613、及びスペクトログラムG62から得られる係数G623が同一となり、クラス1とクラス2とを精度よく分類することが難しくなる。
 そこで、本実施形態においては、分類の精度をより向上させるために、クラス分類に有効な時間領域と周波数領域に限定して部分的にNMFを適用する。このような適用例について、図6を参照して説明する。図6は、時間・周波数・振幅データの部分に対してNMFを適用した例を示す模式図である。
 図6に示すスペクトログラムG71、G72は、図5に示したスペクトログラムG61、G62と同様に、それぞれクラス1、クラス2の特徴を示すスペクトログラムである。図6に示すように、スペクトログラムG71、G72の領域R4に限定して部分的にNMFを適用すると、領域R2に対応する基底G711、G721と、領域R3に対応する基底G712、G722が選択される。その結果、スペクトログラムG71から得られる係数G713、及び係数G714と、スペクトログラムG72から得られる係数G723、及び係数724とが大きく異なり、容易にクラス1とクラス2を分類することができる。すなわち、クラス分類に有効な時間領域と周波数領域に限定して部分的にNMFを適用することにより、分類の精度をより向上させることができる。また、本実施形態においては、領域R4に限定してNMFを適用すればよいため、処理量の抑制をさらに進めることもできる。
 例えば、一般に打音データは限られた時間帯のデータであり、時間・周波数・振幅データにおいて所定の振幅が現れる一部の時間帯や周波数帯に限定して目的に応じた分析を行えば十分である場合がある。また、特定の周波数帯の音を出力する機械の振動音等のデータであっても、その周波数帯に限定して目的に応じた分析を行えば十分であることがある。
 さらに、本実施形態においては、分類の精度をより向上させるために、目的とするクラス分類に有効な時間領域と周波数領域に限定するだけでなく、目的外のクラス分類に有効な時間領域と周波数領域を除外した上で部分的にNMFを適用する。すなわち、本実施形態においては、目的のクラス分離度が高く、且つ、目的外のクラス分離度が高くない領域に限定してNMFを適用することにより、目的外のクラスの特徴に邪魔されることなく、分類したい目的のクラスの特徴をより高精度に抽出したり、目的のクラスに、より高精度に分類したりすることができる。その結果、本実施形態においては、分類の精度をより向上させることができる。加えて、本実施形態においては、領域を限定してNMFを適用すればよいため、処理量の抑制をさらに進めることもできる。
 なお、以下の説明においては、目的とするクラス分類とは、例えば、測定対象物が正常であるか異常であるかを示す2つのクラス(測定対象物(機械)の状態に関するクラス)に分類することである。また、目的外のクラス分類としては、例えば、測定対象物(機械)の個体差に関するクラス、又は、測定対象物(機械)が設置された環境差に関するクラスについて分類することである。すなわち、本実施形態においては、上述のように部分的にNMFを適用することにより、例えば、測定対象物の個体差や環境差異による影響をより抑えて、目的とする当該測定対象物が正常であるか異常であるかを示すクラスの特徴を高精度に抽出することができる。
 (分離度)
 そして、本実施形態においては、目的のクラス分類の分離度及び目的外クラス分類の分離度に基づいて、NMFを適用する領域(対象領域)の限定を行うこととなる。図7から図9を参照して、本実施形態に係るNMFを適用する対象領域の限定について説明する。図7は、本実施形態に係るデータ分割の例を示す説明図であって、詳細には、データ分割部216によるデータ分割と、分離度評価部218による教師データと評価データの取得の例を示す説明図である。また、図8及び図9は、本実施形態に係る教師データと評価データの取得の例を示す説明図である。
 データ分割部216は、図7に示すように、例えば、教師データから得られた時間・周波数・振幅データ(非負の第2の教師データの観測行列)の領域A0(図8及び図9においては領域R80に対応する)において、4つの領域A1、A2、A3、A4にデータを分割する。データ分割部216による分割数は、2以上の任意の数であってもよい。
 そして、分離度評価部218は、例えば、分割された各領域A1、A2、A3、A4に対して、目的とするクラス(第1のクラス)のクラス間の分離度(第1の評価指数)として、クラス内・クラス間分散比を分離度として算出する。まずは、クラス内分散σw 2、及びクラス間分散σB 2は、以下の数式(7)、数式(8)によって示すことができる。
Figure JPOXMLDOC01-appb-M000007
 ただし、上記数式(7)、(8)において、nは全データ数、nはクラスiのデータ数、xは特徴ベクトル、mはクラスiの特徴量ベクトルの平均、mは全特徴量ベクトルの平均である。上記クラス内分散σw 2、及びクラス間分散σB 2を用いて、クラス内・クラス間分散比Jは以下の数式(9)によって示される。
Figure JPOXMLDOC01-appb-M000008
 上記のクラス内・クラス間分散比Jが大きい程、分離度が大きく、良い特徴量であると考えることができる。なお、分離度を示す指標は、上記に限定されず、例えばマハラノビス距離等を用いることもできる。
 分離度評価部218は、例えば、4つの領域A1、A2、A3、A4でそれぞれ上述したように目的クラスについての分離度を算出する。さらに、分離度評価部218は、例えば、4つの領域A1、A2、A3、A4から算出した分離度の値が予め設定された閾値L(第1の閾値)以上の領域(第1の領域)R10(図8 参照)を抽出する。
 上述と同様に、分離度評価部218は、例えば、分割された教師データから得られた時間・周波数・振幅データ(非負の第3の教師データの観測行列)の各領域A1、A2、A3、A4に対して、目的外クラス(第2のクラス)についての分離度(第2の評価指標)を算出する。さらに、分離度評価部218は、例えば、4つの領域A1、A2、A3、A4から算出した分離度の値が予め設定された閾値L(第2の閾値)以上の領域(第2の領域)R12(図8 参照)を抽出する。なお、目的外クラスについては、2つ以上であってもよく、この場合、分離度評価部218は、例えば、分割された各領域A1、A2、A3、A4に対して他の目的外クラスについての分離度を算出し、4つの領域A1、A2、A3、A4から算出した分離度の値が予め設定された閾値L以上の領域R14(図9 参照)を抽出することとなる。
 さらに、分離度評価部218は、抽出した領域R10、R12、R14に基づいて、NMFを適用する対象領域(所定の領域)を特定する。例えば、分離度評価部218は、抽出した領域R10、R12、R14の和、差、積のうちのいずれかに基づいて、NMFを適用する対象領域を特定する。具体的には、図8に示すように、分離度評価部218は、閾値L以上の領域R10から、閾値L以上の領域R12を除去することにより、NMFを適用する領域G810を特定する。また、目的外クラスが2つであった場合には、図9に示すように、分離度評価部218は、閾値L以上の領域R10から、閾値L以上の領域R12及び閾値L以上の領域R14を除去することにより、NMFを適用する領域G820を特定する。すなわち、本実施形態においては、目的とするクラスの分離度の高い領域であり、且つ、目的外のクラスの分離度の高くない領域を選択することにより、目的のクラスの分類に有効な対象領域を効率よく見つけ出すことができる。
 そして、本実施形態においては、上述したように、目的のクラスの分離度の高い領域から目的外のクラスの分離度が高い領域を除去した対象領域に、NMFを適用することにより、より高い分離度を持つ、より精度の高い分類に有効な特徴量を得ることができる。
 そして、分離度評価部218は、学習フェーズにおいて、上述のように特定されたNMFを適用する対象領域での時間領域・周波数領域でのデータを教師用データ(非負の第1の教師データの教師観測行列)として取得する。さらに、分離度評価部218は、上述のように特定した時間領域・周波数領域を、評価データを取得するためのデータ領域(対象領域)として特定し、対応する当該データ領域の時間・周波数・振幅データを、評価用データ(非負の評価データの評価観測行列)として取得する。
 また、本実施形態においては、分離度としてクラス分類正解率を用いてもよい。詳細には、分離度評価部218は、図7に示すような分割されたそれぞれのデータに対して、NMFを適用し、ある複数のランクでの基底行列及び係数行列を取得する。なお、時間・周波数・振幅データは、NMFを適用するために、1次元の列ベクトルに変換されてもよい。
 以下の例では、クラスC1とクラスC2の2つのクラスが存在する場合について説明する。まず、クラスC1に属する複数の時間・周波数・振幅データの領域A1、A2、A3、A4から、基底行列HC1,A1、HC1,A2、HC1,A3、HC1,A4、及び係数行列WC1,A1、WC1,A2、WC1,A3、WC1,A4、をそれぞれ得ることができる。続いて、クラスC2に属する複数の時間・周波数・振幅データの領域A1、A2、A3、A4から、同様に基底行列HC2,A1、HC2,A2、HC2,A3、HC2,A4、及び係数行列WC2,A1、WC2,A2、WC2,A3、WC2,A4、をそれぞれ得ることができる。なお、分解される基底の数を示すランクは、1から元のデータの次元数までの範囲である。
 そして、ここでは、先に説明したように、クラスC1又はクラスC2の分離度を示す指標として、クラスC1又はクラスC2の分類正解率が用いられる。まず、分離度評価部218は、クラスC1、C2のそれぞれから得られた基底HC1,A1、HC2,A1を組み合わせた共通の基底HC1‐C2,A1={HC1,A1,HC2,A1}を算出する。元のクラスC1のデータYC1,A0、クラスC2のデータYC2,A0にHC1―C2,A1の擬似逆行列HC1―C2,A1 をかけることにより、各クラスの係数行列WC1,A0、WC2,A0は、以下の数式(10)、(11)により示すことができる。
Figure JPOXMLDOC01-appb-M000009
 分離度評価部218は、係数行列WC1,A0、WC2,A0を、それぞれクラスC1、クラスC2の特徴ベクトルとして、分類して、分類正解率を算出する。ここで分離度評価部218が行う分類の方式は、例えば分類部228の分類方式と同様であってもよい。
 また、データ分割部216は、図7に示す4つの領域A1、A2、A3、A4のそれぞれにおいて、さらに再帰的にデータを分割してもよい。例えば、図7に示す領域A1は、4つの領域A11、A12、A13、A14に分割されてもよい。また、分離度評価部218は、分割されたデータや、分割されたデータを組み合わせたデータに対して、それぞれ分離度を算出することとなる。上記の再帰的な分割は、時間領域・周波数領域が最小の単位になるまで分割されるか、あるいは分割されたデータの大きさが所定の値となるまで、繰り返されてもよい。
 なお、上述の説明では、分離度が高い時間領域・周波数領域を効率よく抽出するために、再帰的に分割する例を説明したが、本発明は係る例に限定されない。例えば、一部、あるいは全ての時間領域・周波数領域の分離度を評価してもよいし、他の方法で分離度の高い時間領域・周波数領域を抽出してもよい。
 <動作例>
 以上、本実施形態の概要について説明した。続いて、本実施形態の動作(分類方法)の例について、学習フェーズと分類フェーズとに分けて、それぞれ図10、11を参照して説明する。図10は、学習フェーズにおける本実施形態の動作例を示すフローチャート図であり、図11は、分類フェーズにおける本実施形態の動作例を示すフローチャート図である。
 (学習フェーズの動作例)
 次に、本実施形態に係る学習フェーズの動作例の詳細について説明する。図10に示すように、当該学習フェーズには、例えば、ステップS101からステップS125までの複数のステップが含まれている。以下に、学習フェーズに含まれる各ステップの詳細を説明する。
 ~ステップS101~
 データ取得部202は、センサ100から時系列データを取得する。この際、処理部210は、取得した時系列データからオフセット値を引く処理を行ってもよい。もしくは、処理部210は、後述するステップS107で変換された時間・周波数・振幅データに対する周波数フィルタリング処理等を行ってもよい。このようにすることで、NMFの対象となる時間・周波数・振幅データの精度や、分類に有効な特徴量の有効性をより高めることができる。
 ~ステップS103~
 続いて、対応付け部214は、ステップS101で取得された時系列データと、操作部204を介してユーザにより入力される正解ラベル(目的クラス及び目的外クラス)とを対応付ける。
 ~ステップS105~
 処理部210は、学習フェーズに用いられる時系列データの取得が終了したか否かの判定を行う。例えば、当該判定は、例えば操作部204の入力に基づいて行われてもよい。そして、学習フェーズに用いられる時系列データの取得が終了していない場合には、処理はステップS101に戻る。一方、学習フェーズに用いられる時系列データの取得が終了している場合には、処理はステップS107へ進む。
 ~ステップS107~
 変換部212は、ステップS103で取得した時系列データを時間・周波数・振幅データに変換する。
 ~ステップS109~
 続いて、データ分割部216は、時間領域、及び周波数領域で、ステップS107で取得した時間・周波数・振幅データを分割する。
 ~ステップS111~
 次に、分離度評価部218は、ステップS109でデータ分割部216により分割された領域ごとに、目的のクラスの分離度を評価する。
 ~ステップS113~
 分離度評価部218は、ステップS109で分割された複数の領域の中から、ステップS111で評価した分離度の高い領域を抽出する。
 ~ステップS115~
 続いて、分離度評価部218は、ステップS109でデータ分割部216により分割された領域ごとに、目的外のクラスの分離度を評価する。
 ~ステップS117~
 分離度評価部218は、ステップS109で分割された複数の領域の中から、ステップS115で評価した分離度の高い領域を抽出する。
 ~ステップS119~
 分離度評価部218は、ステップS113で抽出された目的のクラスの分離度の高い領域から、ステップS117で抽出された目的外のクラスの分離度の高い領域を除外することにより、対象領域を特定する。
 ~ステップS121~
 教師データ処理部220は、ステップS119で特定された対象領域の時間・周波数・振幅データ(教師データの教師観測行列)を取得する。
 ~ステップS123~
 教師データ処理部220は、ステップS121で取得された対象領域の時間・周波数・振幅データ(教師データの教師観測行列)にNMFを適用して、教師基底行列と教師係数行列とを取得する。
 ~ステップS125~
 さらに、パラメータ生成部222は、ステップS123で取得された教師係数行列と、ステップS103で対応付けられた正解ラベル(目的クラス)とに基づいて、分類モデルパラメータを生成する。
 以上、学習フェーズにおける本実施形態の動作例を説明した。続いて、学習フェーズで生成された分類モデルパラメータを用いた、分類フェーズにおける本実施形態の動作例について、図11を参照して説明する。
 (分類フェーズの動作例)
 次に、分類フェーズの動作例の詳細について説明する。図11に示すように、本実施形態に係る分類フェーズには、例えば、ステップS201からステップS215までの複数のステップが含まれている。以下に、分類フェーズに含まれる各ステップの詳細を説明する。
 ~ステップS201~
 データ取得部202は、時系列データを取得する。この際、処理部210は、取得した時系列データからオフセット値を引く処理を行ってもよい。もしくは、処理部210は、後述するステップS107で変換された時間・周波数・振幅データに対する周波数フィルタリング処理等を行ってもよい。このようにすることで、NMFの対象となる時間・周波数・振幅データの精度や、分類の精度をより高めることができる。
 ~ステップS203~
 変換部212は、ステップS201で取得した時系列データを時間・周波数・振幅データに変換する。
 ~ステップS205~
 続いて、データ分割部216は、時間領域、及び周波数領域で、ステップS203で取得した時間・周波数・振幅データを分割する。
 ~ステップS207~
 続いて、分離度評価部218は、ステップS205で分割された時間・周波数・振幅データから、図10を参照して説明した学習フェーズのステップS119で特定された対象領域と同一の領域を特定する。
 ~ステップS209~
 さらに、特徴抽出部226は、ステップS207で特定された対象領域の時間・周波数・振幅データ(評価データの評価観測行列)を取得する。
 ~ステップS211~
 続いて、特徴抽出部226は、上述した学習フェーズのステップS123で取得された教師基底行列に基づいて、ステップS209で取得した対象領域の時間・周波数・振幅データ(評価データの評価観測行列)から評価係数行列を生成する。
 ~ステップS213~
 続いて、分類部228は、上述した学習フェーズのステップS125で生成された分類モデルパラメータに基づいて、ステップS211で生成した評価係数行列を分類する。
 ~ステップS215~
 最後に、出力部230は、ステップS213における分類結果を出力する。
 <<まとめ>>
 以上説明したように、本発明の実施形態においては、分類の精度をより向上させるために、目的とするクラス分類に有効な時間領域と周波数領域に限定するだけでなく、目的外のクラス分類に有効な時間領域と周波数領域を除外した上で部分的にNMFを適用する。すなわち、本実施形態によれば、目的のクラス分離度が高く、且つ、目的外のクラス分離度が高くない領域に限定してNMFを適用することにより、目的外のクラスの特徴に邪魔されることなく、分類したい目的のクラスの分類に有効な特徴をより高精度に抽出したり(言い換えると、目的のクラスの分類に有効な基底が選択されやすくなる)、目的のクラスに、より高精度に分類したりすることができる。その結果、本実施形態においては、分類の精度をより向上させることができる。加えて、本実施形態においては、領域を限定してNMFを適用すればよいため、処理量の抑制をさらに進めることもできる。
 また、上述した実施形態においては、測定対象物(例えばコンクリート等)に対してハンマー等の打具で打撃した際の打音を収音して得られた音響信号(時系列データ)に基づいて、当該測定対象物が正常であるか異常であるかを示す2つのクラス(目的とする第1のクラス)に分類する例について説明した。しかしながら、本発明の実施形態は、上述の例に限定されるものではなく、例えば、3つ以上のクラスに分類してもよく、測定対象物(例えば、工作機械等)の振動の時系列データに基づいて、当該測定対象物の状態や能力を複数のクラスに分類してもよい。また、本発明の実施形態は、対象となる時系列データは特に限定されるものではなく、時間とともに変化する画像データ、環境温度、流量等のデータであってもよく、時間とともに変化する電気的なデータ(例えば、電圧値、電流値等)、測定対象物(例えば、建築物、機械、人、ボール、移動体(自動車)等)のモーションデータ、人間等の身体から得られる各種の生体情報(例えば、脈拍、心拍、体温、脳波等)であってもよい。すなわち、本発明の実施形態は、様々な機械や、人間の診断等に適用することが可能である。
 <<ハードウェア構成>>
 以上、本発明の実施形態を説明した。上述した前処理、教師データ処理、パラメータ生成処理、特徴抽出処理、分類処理などの情報処理は、ソフトウェアと、情報処理装置200のハードウェアとの協働により実現される。以下では、本発明の実施形態に係る情報処理装置200である情報処理装置200のハードウェア構成例として、情報処理装置1000のハードウェア構成例について説明する。
 図12は、本発明の実施形態に係る情報処理装置1000のハードウェア構成例を示す説明図である。図12に示すように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、通信装置1007とを備える。
 CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータ等を格納する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、例えば、処理部210、教師データ処理部220、パラメータ生成部222、特徴抽出部226、分類部228等の機能が実現される。
 入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置1004は、操作部204に対応する。
 出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置及びランプなどの表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。なお、出力装置1005は、出力部230に対応する。
 ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。なお、ストレージ装置1006は、記憶部224に対応する。
 通信装置1007は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置1007は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。
 <<補足>>
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、教師データと、評価データとを同一の装置(情報処理装置200)が取得する例を説明したが、本発明は係る例に限定されない。例えば、教師データと評価データを取得する装置は別々の装置であってもよいし、教師データや正解ラベルは、予め記憶部224に格納されていてもよい。すなわち、上述の実施形態では、情報処理装置200が、分類モデルパラメータを生成するパラメータ生成装置としての機能と、時系列データを複数のクラスに分類する分類装置としての機能とを有する例を説明したが、本発明は係る例に限定されない。例えば、本実施形態においては、分類モデルパラメータの生成処理を行うパラメータ生成装置と、パラメータ生成装置で生成された分類モデルパラメータを用いて分類処理を行う分類装置とが、異なる装置として設けられてもよい。
 また、上述の実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置200として機能させるため(本実施形態に係る分類方法を実施するため)のプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。すなわち、コンピュータを情報処理装置200として機能させるためのプログラムも提供され得るし、当該プログラムを記録した、コンピュータに読み取り可能な記憶媒体も提供され得る。また、プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
 また、本実施形態の動作(分類方法)における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、本実施形態においては、処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。
 10  情報処理システム
 100  センサ
 200、1000  情報処理装置
 200a  クラウド
 200b  IoTゲートウェイ
 200c  エッジ端末
 202  データ取得部
 204  操作部
 210  処理部
 212  変換部
 214  対応付け部
 216  データ分割部
 218  分離度評価部
 220  教師データ処理部
 222  パラメータ生成部
 224  記憶部
 226  特徴抽出部
 228  分類部
 230  出力部
 1001  CPU
 1002  ROM
 1003  RAM
 1004  入力装置
 1005  出力装置
 1006  ストレージ装置
 1007  通信装置

Claims (4)

  1.  時系列データを目的とする第1のクラスに分類する分類装置であって、
     少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得する処理部と、
     前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納する記憶部と、
     前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、
     算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する分類部と、
     前記所定のデータ領域を特定する領域特定部と、
     を備え、
     前記領域特定部は、
     前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、
     目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、
     前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、
     前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、
     特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定する、
     分類装置。
  2.  時系列データを目的とする第1のクラスに分類する分類装置と、
     前記時系列データを取得するセンサと、
     を含む分類システムであって、
     前記分類装置は、
     少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得する処理部と、
     前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納する記憶部と、
     前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、
     算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する分類部と、
     前記所定のデータ領域を特定する領域特定部と、
     を有し、
     前記領域特定部は、
     前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、
     目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、
     前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、
     前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、
     特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定する、
     分類システム。
  3.  時系列データを目的とする第1のクラスに分類する分類方法であって、
     少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得することと、
     前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納することと、
     前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成することと、
     算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類することと、
     前記所定のデータ領域を特定することと、
     を含み、
     前記所定のデータ領域を特定することは、
     前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、
     目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、
     前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、
     前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、
     特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定する、
     ことを有する、
     分類方法。
  4.  時系列データを目的とする第1のクラスに分類するためのプログラムであって、
     コンピュータに、
     少なくとも周波数領域又は時間領域において表現された前記時系列データから、所定のデータ領域の非負の評価データを取得する機能と、
     前記所定のデータ領域に対応する非負の第1の教師データに対して非負値行列因子分解を行うことで生成された教師係数行列、及び、前記第1の教師データに対応付けられた前記第1のクラスに基づいて生成された分類モデルパラメータを格納する機能と、
     前記第1の教師データに対して非負値行列因子分解を行うことで生成された教師基底行列に基づいて、前記評価データから評価係数行列を生成する機能と、
     算出された前記評価係数行列を、前記分類モデルパラメータに基づいて、前記第1のクラスに分類する機能と、
     前記所定のデータ領域を特定する機能と、
     を実現させ、
     前記所定のデータ領域を特定する機能においては、
     前記第1のクラスのそれぞれに対応付けられた非負の各第2の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第2の教師データの観測行列に基づいて、前記分割された領域ごとの前記第1のクラス間の分離度を示す第1の評価指標を算出し、
     目的としない第2のクラスのそれぞれに対応付けられた非負の各第3の教師データを、周波数領域又は時間領域においてそれぞれ分割し、
     分割された領域ごとの前記各第3の教師データの観測行列に基づいて、前記分割された領域ごとの前記第2のクラス間の分離度を示す第2の評価指標を算出し、
     前記第1の評価指標が予め設定された第1の閾値よりも高い、前記分割された領域を抽出することにより、第1の領域を特定し、
     前記第2の評価指標が予め設定された第2の閾値よりも高い、前記分割された領域を抽出することにより、第2の領域を特定し、
     特定した前記第1及び第2の領域に基づいて、前記所定のデータ領域を特定する、
     ことを実施する、
     プログラムを記録した、コンピュータに読み取り可能な記憶媒体。
PCT/JP2019/044697 2018-12-27 2019-11-14 分類装置、分類システム、分類方法及び記憶媒体 WO2020137227A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018246147A JP7263770B2 (ja) 2018-12-27 2018-12-27 分類装置、分類システム、分類方法及びプログラム
JP2018-246147 2018-12-27

Publications (1)

Publication Number Publication Date
WO2020137227A1 true WO2020137227A1 (ja) 2020-07-02

Family

ID=71126411

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/044697 WO2020137227A1 (ja) 2018-12-27 2019-11-14 分類装置、分類システム、分類方法及び記憶媒体

Country Status (2)

Country Link
JP (1) JP7263770B2 (ja)
WO (1) WO2020137227A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115915456A (zh) * 2022-11-08 2023-04-04 南京邮电大学 基于wifi6的变电站数据上传方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151872A (ja) * 2016-02-26 2017-08-31 沖電気工業株式会社 分類装置、分類方法、プログラム、及びパラメータ生成装置
WO2018051841A1 (ja) * 2016-09-16 2018-03-22 日本電信電話株式会社 モデル学習装置、その方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151872A (ja) * 2016-02-26 2017-08-31 沖電気工業株式会社 分類装置、分類方法、プログラム、及びパラメータ生成装置
WO2018051841A1 (ja) * 2016-09-16 2018-03-22 日本電信電話株式会社 モデル学習装置、その方法、及びプログラム

Also Published As

Publication number Publication date
JP7263770B2 (ja) 2023-04-25
JP2020107138A (ja) 2020-07-09

Similar Documents

Publication Publication Date Title
JP6766374B2 (ja) 分類装置、分類方法、プログラム、及びパラメータ生成装置
EP3047475B1 (en) System and method for evaluating a cognitive load on a user corresponding to a stimulus
CN103294199B (zh) 一种基于脸部肌音信号的无声信息识别系统
KR101724939B1 (ko) 뇌파를 이용한 사용자 의도 예측 시스템 및 그 방법
JP2020126021A (ja) 異常音検知装置および異常音検知方法
Li et al. High-resolution time-frequency analysis of EEG signals using multiscale radial basis functions
CN110367976B (zh) 脑电波信号检测方法、相关设备和存储介质
CN106991409B (zh) 一种运动想象脑电信号特征提取与分类系统及方法
KR20120122617A (ko) 움직임을 상상하는 뇌파 분류 방법 및 그 장치
CN110414306B (zh) 一种基于meanshift算法和SVM的婴儿异常行为检测方法
Pfister et al. Robustifying independent component analysis by adjusting for group-wise stationary noise
Akbari et al. Recognizing seizure using Poincaré plot of EEG signals and graphical features in DWT domain
Esfahanian et al. On contour-based classification of dolphin whistles by type
Sharma et al. Trbaggboost: An ensemble-based transfer learning method applied to Indian Sign Language recognition
CN112037929A (zh) 基于多模态机器学习的分类方法、在线新冠肺炎预警模型训练方法及预警方法
WO2020137227A1 (ja) 分類装置、分類システム、分類方法及び記憶媒体
JP6747447B2 (ja) 信号検知装置、信号検知方法、および信号検知プログラム
Anil Kumar et al. Performance analysis of blind source separation using canonical correlation
Longstaff et al. The influence of motor system degradation on the control of handwriting movements: A dynamical systems analysis
CN107894837A (zh) 动态情感分析模型样本处理方法及装置
CN109993132B (zh) 一种基于脑电信号的图形识别生成方法及系统
Railis et al. Energy profile analysis of Zynq-7000 programmable SoC for embedded medical processing: Study on ECG arrhythmia detection
KR101141936B1 (ko) 광류장 기반의 손 이미지 영역 검출 방법 및 그 검출 방법에 의한 손동작 인식 방법
JP6573399B2 (ja) 音象徴語の感覚関連性分布図生成装置
JP2012181607A (ja) 感覚データ識別装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19901749

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19901749

Country of ref document: EP

Kind code of ref document: A1