JP2021135357A - Classification system, information processing device, classification method and program - Google Patents

Classification system, information processing device, classification method and program Download PDF

Info

Publication number
JP2021135357A
JP2021135357A JP2020030510A JP2020030510A JP2021135357A JP 2021135357 A JP2021135357 A JP 2021135357A JP 2020030510 A JP2020030510 A JP 2020030510A JP 2020030510 A JP2020030510 A JP 2020030510A JP 2021135357 A JP2021135357 A JP 2021135357A
Authority
JP
Japan
Prior art keywords
classification
processing means
feature
time
submatrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020030510A
Other languages
Japanese (ja)
Other versions
JP7467979B2 (en
Inventor
晋也 平田
Shinya Hirata
晋也 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2020030510A priority Critical patent/JP7467979B2/en
Publication of JP2021135357A publication Critical patent/JP2021135357A/en
Application granted granted Critical
Publication of JP7467979B2 publication Critical patent/JP7467979B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)

Abstract

To provide a classification system capable of appropriately performing feature analysis processing even in the case of suppressing the capacity of a storage area, an information processing device, a classification method and a program.SOLUTION: A classification system performs feature extraction and class classification based on a time frequency analysis. The classification system includes: a learning part including time frequency analysis processing means for converting a time waveform showing time-series amplitude of a known signal having a known signal source into data showing time-series frequency and signal strength, feature analysis processing means for using classification matrix operation to the data to generate a feature amount and a feature extraction parameter, and learning processing means for estimating a classification parameter from the feature amount; and a classification part including feature extraction processing means for calculating a feature amount of an unknown signal having an unknown signal source with reference to the feature extraction parameter, and classification processing means for estimating a signal source of the unknown signal from the feature amount of the unknown signal with reference to the classification parameter.SELECTED DRAWING: Figure 1

Description

本発明は、時間周波数分析に基づく特徴抽出と信号源のクラス分類とを行う分類システム、情報処理装置、分類方法、およびその方法をコンピュータに実行させるためのプログラムに関する。 The present invention relates to a classification system, an information processing apparatus, a classification method for performing feature extraction based on time-frequency analysis and classification of signal sources, and a program for causing a computer to execute the classification method.

従来、複数の信号源から出力される音響信号を、信号源に対応して分類する種々の方法が提案されている(例えば、非特許文献1参照)。例えば、複数の信号源からの音響信号を分類する分類システムは、音響信号の時間波形に対して時間周波数分析処理を行う。そして、分類システムは、分析結果として得られる行列データに対して行列演算を用いて特徴分析処理を行い、時間波形に含まれる特徴量を取得する。 Conventionally, various methods have been proposed for classifying acoustic signals output from a plurality of signal sources according to the signal sources (see, for example, Non-Patent Document 1). For example, a classification system that classifies acoustic signals from a plurality of signal sources performs time-frequency analysis processing on the time waveform of the acoustic signal. Then, the classification system performs feature analysis processing on the matrix data obtained as the analysis result by using matrix calculation, and acquires the feature amount included in the time waveform.

Keigo Kimura, Yuzuru Tanaka, and Mineichi Kudo, “A Fast Hierarchical Alternating Least Squares Algorithm for Orthogonal Nonnegative Matrix Factorization”, JMLR 39(2014), pp.129-141Keigo Kimura, Yuzuru Tanaka, and Mineichi Kudo, “A Fast Hierarchical Alternating Least Squares Algorithm for Orthogonal Nonnegative Matrix Factorization”, JMLR 39 (2014), pp.129-141

しかしながら、従来の分類システムでは、特徴分析処理で行列演算を行う際に用いられる行列データと、行列演算によって得られる演算結果である行列データとの双方の行列データを格納できる記憶領域が必要である。特に、分類能力を向上させるためには、データサイズの大きい行列データを扱う必要があり、その分だけ大きな容量の記憶領域が必要となる。記憶領域の容量が小さい場合には、行列演算に必要な行列データを記憶領域に格納することができず、特徴分析処理が中断されてしまうため、特徴分析処理を適切に行うことが困難である。 However, the conventional classification system requires a storage area that can store both the matrix data used when performing the matrix operation in the feature analysis process and the matrix data that is the operation result obtained by the matrix operation. .. In particular, in order to improve the classification ability, it is necessary to handle matrix data having a large data size, and a storage area having a correspondingly large capacity is required. When the capacity of the storage area is small, the matrix data required for the matrix operation cannot be stored in the storage area, and the feature analysis process is interrupted. Therefore, it is difficult to properly perform the feature analysis process. ..

そこで、記憶領域の容量を抑制した場合でも、特徴分析処理を適切に行うことができる分類システム、情報処理装置、分類方法およびプログラムが望まれている。 Therefore, there is a demand for a classification system, an information processing device, a classification method, and a program that can appropriately perform feature analysis processing even when the capacity of the storage area is suppressed.

本発明に係る分類システムは、時間周波数分析に基づく特徴抽出とクラス分類とを行う分類システムであって、信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理手段と、前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成する特徴分析処理手段と、前記特徴量から分類パラメータを推定する学習処理手段とを有する学習部と、前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算する特徴抽出処理手段と、前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する分類処理手段とを有する分類部とを備えたものである。 The classification system according to the present invention is a classification system that performs feature extraction and classification based on time-frequency analysis, and obtains a time waveform indicating the time-series amplitude of a known signal whose signal source is known, and a time-series frequency. And the time-frequency analysis processing means that converts the data into data indicating the signal strength, the feature analysis processing means that generates the feature amount and the feature extraction parameter by using the partial matrix calculation on the data, and the classification parameter is estimated from the feature amount. With reference to the learning unit having the learning processing means to be used, the feature extraction processing means for calculating the feature amount of the unknown signal whose signal source is unknown by referring to the feature extraction parameter, and the classification parameter with reference to the unknown signal. It is provided with a classification unit having a classification processing means for estimating a signal source of the unknown signal from a feature amount.

本発明に係る情報処理装置は、時間周波数分析に基づく特徴抽出とクラス分類とを行う情報処理装置であって、信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理手段と、前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成する特徴分析処理手段と、前記特徴量から分類パラメータを推定する学習処理手段と、前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算する特徴抽出処理手段と、前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する分類処理手段とを備えたものである。 The information processing device according to the present invention is an information processing device that performs feature extraction and classification based on time-frequency analysis, and obtains a time-series time waveform indicating the time-series amplitude of a known signal whose signal source is known. Time-frequency analysis processing means that converts the data into data indicating the frequency and signal strength of The learning processing means for estimating the above, the feature extraction processing means for calculating the feature amount of the unknown signal whose signal source is unknown by referring to the feature extraction parameter, and the classification parameter with reference to the feature amount of the unknown signal. It is provided with a classification processing means for estimating the signal source of the unknown signal.

本発明に係る分類方法は、時間周波数分析に基づく特徴抽出とクラス分類とを行う分類方法であって、信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換し、前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成し、前記特徴量から分類パラメータを推定し、前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算し、前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定するものである。 The classification method according to the present invention is a classification method in which feature extraction and classification are performed based on time-frequency analysis, and a time waveform indicating the time-series amplitude of a known signal whose signal source is known is a time-series frequency. And the data indicating the signal strength, the feature quantity and the feature extraction parameter are generated for the data by using the submatrix calculation, the classification parameter is estimated from the feature quantity, the feature extraction parameter is referred to, and the signal is used. The feature amount of the unknown signal whose source is unknown is calculated, the classification parameter is referred to, and the signal source of the unknown signal is estimated from the feature amount of the unknown signal.

本発明に係るプログラムは、時間周波数分析に基づく特徴抽出とクラス分類とを行うコンピュータを、信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理手段、前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成する特徴分析処理手段、前記特徴量から分類パラメータを推定する学習処理手段、前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算する特徴抽出処理手段、前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する分類処理手段として機能させるためのものである。 The program according to the present invention uses a computer that performs feature extraction and classification based on time-frequency analysis, a time waveform showing the time-series amplitude of a known signal whose signal source is known, and a time-series frequency and signal strength. A time-frequency analysis processing means for converting into the data to be shown, a feature analysis processing means for generating a feature amount and a feature extraction parameter from the data by using a partial matrix calculation, a learning processing means for estimating a classification parameter from the feature amount, the above. A feature extraction processing means that calculates the feature amount of an unknown signal whose signal source is unknown by referring to the feature extraction parameter, and a classification that estimates the signal source of the unknown signal from the feature amount of the unknown signal by referring to the classification parameter. It is intended to function as a processing means.

本発明によれば、特徴分析処理の際に、部分行列演算を用いることにより、演算の際に使用される記憶領域が行列演算を用いた場合よりも小さくできるため、記憶領域の容量を抑制した場合でも、特徴分析処理を適切に行うことができる。 According to the present invention, by using the submatrix operation in the feature analysis process, the storage area used in the operation can be made smaller than that in the case of using the matrix operation, so that the capacity of the storage area is suppressed. Even in this case, the feature analysis process can be appropriately performed.

実施の形態1に係る分類システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the classification system which concerns on Embodiment 1. FIG. 図1の学習部の構成の一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the structure of the learning part of FIG. 図1の学習部の構成の他の例を示すハードウェア構成図である。It is a hardware block diagram which shows another example of the structure of the learning part of FIG. 従来の分類システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the conventional classification system. 時間周波数分析処理手段による時間周波数分析処理の結果の一例を示す概略図である。It is a schematic diagram which shows an example of the result of the time frequency analysis processing by the time frequency analysis processing means. 特徴分析処理手段による特徴分析処理の結果の一例を示す概略図である。It is a schematic diagram which shows an example of the result of the feature analysis processing by the feature analysis processing means. 学習処理手段による学習処理の結果の一例を示す概略図である。It is a schematic diagram which shows an example of the result of the learning processing by a learning processing means. 行列の和演算処理について説明するための概略図である。It is the schematic for demonstrating the sum operation processing of a matrix. 行列の積演算処理について説明するための概略図である。It is the schematic for demonstrating the product operation process of a matrix. 主記憶領域の不足によって生じる第1の課題について説明するための概略図である。It is the schematic for demonstrating the 1st problem caused by lack of a main storage area. 主記憶領域の不足によって生じる第2の課題について説明するための概略図である。It is the schematic for demonstrating the 2nd problem caused by lack of a main storage area. 部分行列について説明するための概略図である。It is the schematic for demonstrating a submatrix. 部分行列を用いた和演算処理について説明するための概略図である。It is a schematic diagram for demonstrating sum arithmetic processing using a submatrix. 図13の部分行列和演算手段の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the submatrix sum calculation means of FIG. 部分行列を用いた和演算処理の主記憶領域および補助記憶領域の様子の一例を示す概略図である。It is a schematic diagram which shows an example of the state of the main storage area and the auxiliary storage area of the sum operation processing using a submatrix. 部分行列を用いた積演算処理について説明するための概略図である。It is a schematic diagram for demonstrating the product operation processing using a submatrix. 図16の部分行列積演算手段の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the partial matrix product calculation means of FIG. 部分行列を用いた積演算処理の主記憶領域および補助記憶領域の様子の一例を示す概略図である。It is a schematic diagram which shows an example of the state of the main storage area and the auxiliary storage area of the product operation processing using a submatrix.

以下、本発明の実施の形態について、図面を参照して説明する。本発明は、以下の実施の形態に限定されるものではなく、本発明の主旨を逸脱しない範囲で種々に変形することが可能である。また、各図において、同一の符号を付したものは、同一のまたはこれに相当するものであり、これは明細書の全文において共通している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments, and can be variously modified without departing from the gist of the present invention. Further, in each figure, those having the same reference numerals are the same or equivalent thereof, which are common in the entire text of the specification.

実施の形態1.
本実施の形態1に係る分類システムについて説明する。なお、以下で説明する図1のような分類システムの構成は、補助記憶装置に読み込まれた特徴分析処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この特徴分析処理プログラムは、CD−ROM(Compact Disc-Read Only Memory)等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。
Embodiment 1.
The classification system according to the first embodiment will be described. The configuration of the classification system as shown in FIG. 1 described below is realized by executing the feature analysis processing program read into the auxiliary storage device on a computer (for example, a personal computer or the like). Further, this feature analysis processing program is stored in an information storage medium such as a CD-ROM (Compact Disc-Read Only Memory), or is distributed via a network such as the Internet and installed in a computer.

[分類システム1の構成]
本実施の形態1に係る分類システム1について説明する。図1は、本実施の形態1に係る分類システムの構成の一例を示すブロック図である。図1に示すように、本実施の形態1に係る分類システム1は、学習部10および分類部20を備えている。学習部10および分類部20は、例えば、それぞれ別体の装置に設けられている。なお、これに限られず、学習部10および分類部20は、例えば情報処理装置のような1つの装置に設けられてもよい。
[Configuration of classification system 1]
The classification system 1 according to the first embodiment will be described. FIG. 1 is a block diagram showing an example of the configuration of the classification system according to the first embodiment. As shown in FIG. 1, the classification system 1 according to the first embodiment includes a learning unit 10 and a classification unit 20. The learning unit 10 and the classification unit 20 are provided in separate devices, for example. Not limited to this, the learning unit 10 and the classification unit 20 may be provided in one device such as an information processing device.

(学習部10)
学習部10は、時間周波数分析処理手段11、特徴分析処理手段12、学習処理手段13および記憶手段14を有している。学習部10は、過去に収録されたN個の音響信号の時間波形L101−n(n=1,・・・,N)が入力される。時間波形は、分類対象の信号について時系列の振幅を示す波形である。音響信号の時間波形L101−nは、既知のC種類の信号源のいずれかから放射された信号であることが予め分かっているものとする。ここでは、この既知の信号源の種類をラベルと呼び、時間波形L101−nは、ラベルcの信号源の信号であると表す(cは、1,・・・,Cのうち、いずれかの種類を示す)。
(Learning Department 10)
The learning unit 10 has a time-frequency analysis processing means 11, a feature analysis processing means 12, a learning processing means 13, and a storage means 14. The learning unit 10 inputs the time waveform L101-n (n = 1, ..., N) of N acoustic signals recorded in the past. The time waveform is a waveform showing the amplitude of the time series for the signal to be classified. It is assumed that the time waveform L101-n of the acoustic signal is a signal radiated from any of the known C types of signal sources in advance. Here, the type of this known signal source is referred to as a label, and the time waveform L101-n is represented as a signal of the signal source of the label c (c is any one of 1, ..., C). Indicates the type).

時間周波数分析処理手段11は、時間波形L101−nが入力され、時間波形L101−nを時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理を行い、その処理結果として時間周波数分析結果を出力する。時間周波数分析処理の代表例として、例えば、短時間Fourier(フーリエ)変換などがある。この場合の時間周波数分析結果は、ベクトルデータまたは行列データである。 The time frequency analysis processing means 11 receives the time waveform L101-n, performs a time frequency analysis process of converting the time waveform L101-n into data indicating a time series frequency and a signal strength, and performs a time frequency analysis process as a result of the process. Output the result. A typical example of the time-frequency analysis process is a short-time Fourier transform. The time-frequency analysis result in this case is vector data or matrix data.

特徴分析処理手段12は、N個の時間周波数分析結果が入力され、行列演算を用いて特徴分析処理を行う。そして、特徴分析処理手段12は、学習処理手段13に供給する特徴量および各時間波形L101−nのラベルと、特徴抽出処理手段22に供給する特徴抽出パラメータとを生成し、生成した特徴量、ラベルおよび特徴量抽出パラメータを出力する。 The feature analysis processing means 12 inputs N time-frequency analysis results and performs feature analysis processing using matrix calculation. Then, the feature analysis processing means 12 generates a feature amount to be supplied to the learning processing means 13, a label of each time waveform L101-n, and a feature extraction parameter to be supplied to the feature extraction processing means 22, and the generated feature amount, Output label and feature extraction parameters.

特徴分析処理手段12に対する入力は、N個の時間周波数分析結果を並べたものであり、行列データまたはテンソルデータとなる。また、特徴分析処理の代表例として、例えば、非負値行列因子分解(NMF:Nonnegative Matrix Factorization)、または非負値テンソル分解(NTF:Nonnegative Tensor Factorization)などがある。本実施の形態1において、特徴分析処理手段12は、行列演算として部分行列演算を用いることによって特徴分析処理を行う。部分行列演算を用いた特徴分析処理の詳細については、後述する。 The input to the feature analysis processing means 12 is an arrangement of N time-frequency analysis results, and becomes matrix data or tensor data. Further, as a typical example of the feature analysis process, there are, for example, non-negative matrix factorization (NMF) or non-negative tensor factorization (NTF). In the first embodiment, the feature analysis processing means 12 performs the feature analysis process by using the submatrix operation as the matrix operation. The details of the feature analysis process using the submatrix operation will be described later.

学習処理手段13は、特徴量と各時間波形L101−nのラベルとが入力され、分類処理手段23に供給する分類パラメータを特徴量の分布から推定し、推定した分類パラメータを出力する。 The learning processing means 13 inputs the feature amount and the label of each time waveform L101-n, estimates the classification parameter to be supplied to the classification processing means 23 from the distribution of the feature amount, and outputs the estimated classification parameter.

記憶手段14は、主記憶領域14aおよび補助記憶領域14bを有している。主記憶領域14aは、各種の処理を行う際に、必要なデータを一時的に格納する領域である。主記憶領域14aには、例えば、特徴分析処理手段12で部分行列演算を行う際に、処理に必要な行列データ等が補助記憶領域14bから読み出されて格納される。補助記憶領域14bは、各種データを記憶する領域であり、必要に応じてデータの読み出しおよび書き込みが行われる。補助記憶領域14bは、例えば、特徴分析処理手段12で部分行列演算を行う際の、行列データが記憶されている。 The storage means 14 has a main storage area 14a and an auxiliary storage area 14b. The main storage area 14a is an area for temporarily storing necessary data when performing various processes. In the main storage area 14a, for example, when the feature analysis processing means 12 performs a submatrix operation, matrix data or the like necessary for the processing is read from the auxiliary storage area 14b and stored. The auxiliary storage area 14b is an area for storing various types of data, and data is read and written as necessary. The auxiliary storage area 14b stores, for example, matrix data when the feature analysis processing means 12 performs a submatrix operation.

(分類部20)
分類部20は、時間周波数分析処理手段21、特徴抽出処理手段22および分類処理手段23を有している。分類部20は、時間波形C101が入力される。時間波形C101は、時間波形L101−nと異なり、C種類の信号源のいずれから放射された信号であるかは未知である。分類部20は、この未知の信号のラベルを推定する。
(Classification unit 20)
The classification unit 20 has a time-frequency analysis processing means 21, a feature extraction processing means 22, and a classification processing means 23. The time waveform C101 is input to the classification unit 20. Unlike the time waveform L101-n, the time waveform C101 is unknown from which of the C types of signal sources the signal is radiated. The classification unit 20 estimates the label of this unknown signal.

時間周波数分析処理手段21は、時間周波数分析処理手段11と同様の構成であり、時間波形C101に対して時間周波数分析処理を行い、その処理結果として時間周波数分析結果を出力する。 The time-frequency analysis processing means 21 has the same configuration as the time-frequency analysis processing means 11, performs time-frequency analysis processing on the time waveform C101, and outputs the time-frequency analysis result as the processing result.

特徴抽出処理手段22は、特徴分析処理手段12から供給された特徴抽出パラメータを参照し、時間周波数分析結果から特徴量を計算する。そして、特徴抽出処理手段22は、計算した特徴量を出力する。 The feature extraction processing means 22 refers to the feature extraction parameters supplied from the feature analysis processing means 12, and calculates the feature amount from the time-frequency analysis result. Then, the feature extraction processing means 22 outputs the calculated feature amount.

分類処理手段23は、学習処理手段13から供給された分類パラメータを参照し、未知の時間波形C101についての特徴量から、未知の時間波形のラベルcを推定する。そして、分類処理手段23は、推定したラベルcである推定ラベルC102を出力する。 The classification processing means 23 refers to the classification parameters supplied from the learning processing means 13, and estimates the label c of the unknown time waveform from the feature amount of the unknown time waveform C101. Then, the classification processing means 23 outputs the estimated label C102, which is the estimated label c.

なお、図示しないが、分類部20は、学習部10と同様に、主記憶領域および補助記憶領域を有する記憶手段が設けられている。 Although not shown, the classification unit 20 is provided with a storage means having a main storage area and an auxiliary storage area, similarly to the learning unit 10.

このような分類システム1における学習部10および分類部20は、ソフトウェアを実行することにより各種機能を実現するマイクロコンピュータなどの演算装置、もしくは各種機能に対応する回路デバイスなどのハードウェア等で構成されている。 The learning unit 10 and the classification unit 20 in such a classification system 1 are composed of an arithmetic unit such as a microcomputer that realizes various functions by executing software, or hardware such as a circuit device corresponding to various functions. ing.

図2は、図1の学習部の構成の一例を示すハードウェア構成図である。学習部10の各種機能がハードウェアで実行される場合、図1の学習部10は、図2に示すように、処理回路31で構成される。図1の学習部10において、時間周波数分析処理手段11、特徴分析処理手段12、学習処理手段13および記憶手段14の各機能は、処理回路31により実現される。 FIG. 2 is a hardware configuration diagram showing an example of the configuration of the learning unit of FIG. When various functions of the learning unit 10 are executed by hardware, the learning unit 10 of FIG. 1 is composed of a processing circuit 31 as shown in FIG. In the learning unit 10 of FIG. 1, each function of the time-frequency analysis processing means 11, the feature analysis processing means 12, the learning processing means 13, and the storage means 14 is realized by the processing circuit 31.

各機能がハードウェアで実行される場合、処理回路31は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。学習部10は、時間周波数分析処理手段11、特徴分析処理手段12、学習処理手段13および記憶手段14の各部の機能それぞれを処理回路31で実現してもよいし、各部の機能を1つの処理回路31で実現してもよい。 When each function is executed by hardware, the processing circuit 31 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate). Array), or a combination of these. The learning unit 10 may realize the functions of each part of the time-frequency analysis processing means 11, the feature analysis processing means 12, the learning processing means 13 and the storage means 14 by the processing circuit 31, or the functions of each part may be processed by one. It may be realized by the circuit 31.

図3は、図1の学習部の構成の他の例を示すハードウェア構成図である。学習部10の各種機能がソフトウェアで実行される場合、図1の学習部10は、図3に示すように、プロセッサ41およびメモリ42で構成される。学習部10において、時間周波数分析処理手段11、特徴分析処理手段12、学習処理手段13および記憶手段14の各機能は、プロセッサ41およびメモリ42により実現される。 FIG. 3 is a hardware configuration diagram showing another example of the configuration of the learning unit of FIG. When various functions of the learning unit 10 are executed by software, the learning unit 10 of FIG. 1 is composed of a processor 41 and a memory 42 as shown in FIG. In the learning unit 10, each function of the time-frequency analysis processing means 11, the feature analysis processing means 12, the learning processing means 13, and the storage means 14 is realized by the processor 41 and the memory 42.

各機能がソフトウェアで実行される場合、学習部10において、時間周波数分析処理手段11、特徴分析処理手段12、学習処理手段13および記憶手段14の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアおよびファームウェアは、プログラムとして記述され、メモリ42に格納される。プロセッサ41は、メモリ42に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。 When each function is executed by software, in the learning unit 10, the functions of the time-frequency analysis processing means 11, the feature analysis processing means 12, the learning processing means 13 and the storage means 14 are software, firmware, or software and firmware. It is realized by the combination. The software and firmware are written as a program and stored in the memory 42. The processor 41 realizes the functions of each part by reading and executing the program stored in the memory 42.

メモリ42として、例えば、RAM(Random Access Memory)、ROM、フラッシュメモリ、EPROM(Erasable and Programmable ROM)およびEEPROM(Electrically Erasable and Programmable ROM)等の不揮発性または揮発性の半導体メモリ等が用いられる。また、メモリ42として、例えば、磁気ディスク、フレキシブルディスク、光ディスク、CD、MD(Mini Disc)およびDVD(Digital Versatile Disc)等の着脱可能な記録媒体が用いられてもよい。 As the memory 42, for example, a non-volatile or volatile semiconductor memory such as RAM (Random Access Memory), ROM, flash memory, EPROM (Erasable and Programmable ROM) and EEPROM (Electrically Erasable and Programmable ROM) is used. Further, as the memory 42, for example, a removable recording medium such as a magnetic disk, a flexible disk, an optical disk, a CD, an MD (Mini Disc), and a DVD (Digital Versatile Disc) may be used.

このように、学習部10は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって、上述した各機能を実現することができる。なお、分類部20についても、学習部10と同様に、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって、分類部20が有する各機能を実現することができる。 In this way, the learning unit 10 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof. As with the learning unit 10, the classification unit 20 can also realize each function of the classification unit 20 by hardware, software, firmware, or a combination thereof.

[分類システム1の動作]
本実施の形態1に係る分類システム1の動作について説明する。ここではまず、本実施の形態1に係る分類システム1の動作の理解を容易とするため、従来の分類システムの構成および動作について説明する。
[Operation of classification system 1]
The operation of the classification system 1 according to the first embodiment will be described. Here, first, in order to facilitate understanding of the operation of the classification system 1 according to the first embodiment, the configuration and operation of the conventional classification system will be described.

(従来の分類システム100の構成)
図4は、従来の分類システムの構成の一例を示すブロック図である。図4に示すように、従来の分類システム100は、学習部110および分類部120を備えている。
(Configuration of conventional classification system 100)
FIG. 4 is a block diagram showing an example of the configuration of a conventional classification system. As shown in FIG. 4, the conventional classification system 100 includes a learning unit 110 and a classification unit 120.

学習部110は、時間周波数分析処理手段111、特徴分析処理手段112および学習処理手段113を有している。学習部110は、本実施の形態1に係る分類システム1における学習部10と同様に、過去に収録されたN個の音響信号の時間波形L101−n(n=1,・・・,N)が入力される。 The learning unit 110 has a time-frequency analysis processing means 111, a feature analysis processing means 112, and a learning processing means 113. Similar to the learning unit 10 in the classification system 1 according to the first embodiment, the learning unit 110 has a time waveform L101-n (n = 1, ..., N) of N acoustic signals recorded in the past. Is entered.

時間周波数分析処理手段111は、時間周波数分析処理手段11と同様に、時間波形L101−nが入力され、時間波形L101−nに対して時間周波数分析処理を行い、その処理結果として時間周波数分析結果を出力する。 Similar to the time frequency analysis processing means 11, the time frequency analysis processing means 111 receives the time waveform L101-n, performs the time frequency analysis processing on the time waveform L101-n, and results in the time frequency analysis as the processing result. Is output.

特徴分析処理手段112は、N個の時間周波数分析結果が入力され、行列演算を用いて特徴分析処理を行う。そして、特徴分析処理手段112は、学習処理手段113に供給する特徴量および各時間波形L101−nのラベルと、特徴抽出処理手段122に供給する特徴抽出パラメータとを生成し、生成した特徴量、ラベルおよび特徴量抽出パラメータを出力する。 The feature analysis processing means 112 receives N time-frequency analysis results and performs feature analysis processing using matrix calculation. Then, the feature analysis processing means 112 generates a feature amount to be supplied to the learning processing means 113, a label of each time waveform L101-n, and a feature extraction parameter to be supplied to the feature extraction processing means 122, and the generated feature amount, Output label and feature extraction parameters.

学習処理手段113は、学習処理手段13と同様に、特徴量と各時間波形L101−nのラベルとが入力され、分類処理手段123に供給する分類パラメータを特徴量の分布から推定し、推定した分類パラメータを出力する。 Similar to the learning processing means 13, the learning processing means 113 inputs the feature amount and the label of each time waveform L101-n, and estimates and estimates the classification parameters supplied to the classification processing means 123 from the distribution of the feature amount. Output the classification parameter.

分類部120は、時間周波数分析処理手段121、特徴抽出処理手段122および分類処理手段123を有している。分類部120は、本実施の形態1に係る分類システム1における分類部20と同様に、時間波形C101が入力され、入力された時間波形C101に基づき、信号のラベルを推定する。 The classification unit 120 has a time-frequency analysis processing means 121, a feature extraction processing means 122, and a classification processing means 123. Similar to the classification unit 20 in the classification system 1 according to the first embodiment, the classification unit 120 inputs the time waveform C101 and estimates the label of the signal based on the input time waveform C101.

時間周波数分析処理手段121は、時間周波数分析処理手段111と同様の構成であり、時間波形C101に対して時間周波数分析処理を行い、その処理結果として時間周波数分析結果を出力する。 The time-frequency analysis processing means 121 has the same configuration as the time-frequency analysis processing means 111, performs time-frequency analysis processing on the time waveform C101, and outputs the time-frequency analysis result as the processing result.

特徴抽出処理手段122は、特徴抽出処理手段22と同様に、特徴分析処理手段112から供給された特徴抽出パラメータを参照し、時間周波数分析結果から特徴量を計算する。そして、特徴抽出処理手段122は、計算した特徴量を出力する。 Similar to the feature extraction processing means 22, the feature extraction processing means 122 refers to the feature extraction parameters supplied from the feature analysis processing means 112, and calculates the feature amount from the time-frequency analysis result. Then, the feature extraction processing means 122 outputs the calculated feature amount.

分類処理手段123は、分類処理手段23と同様に、学習処理手段113から供給された分類パラメータを参照し、未知の時間波形C101についての特徴量から、未知の時間波形のラベルcを推定する。そして、分類処理手段123は、推定したラベルcである推定ラベルC102を出力する。 Similar to the classification processing means 23, the classification processing means 123 refers to the classification parameters supplied from the learning processing means 113, and estimates the label c of the unknown time waveform from the feature amount of the unknown time waveform C101. Then, the classification processing means 123 outputs the estimated label C102, which is the estimated label c.

(従来の分類システム100の動作)
図5は、時間周波数分析処理手段による時間周波数分析処理の結果の一例を示す概略図である。図6は、特徴分析処理手段による特徴分析処理の結果の一例を示す概略図である。図7は、学習処理手段による学習処理の結果の一例を示す概略図である。図5〜図7に、時間周波数分析結果201、特徴抽出パラメータ202、特徴量203の分布、および分類パラメータ204のイメージを示す。図5〜図7において、時間周波数分析結果201は、ラベル毎に複数のデータがあるものとしている。また、図5〜図7では、信号源の種類がC=4である場合を例示している。
(Operation of the conventional classification system 100)
FIG. 5 is a schematic view showing an example of the result of the time frequency analysis processing by the time frequency analysis processing means. FIG. 6 is a schematic view showing an example of the result of the feature analysis processing by the feature analysis processing means. FIG. 7 is a schematic diagram showing an example of the result of learning processing by the learning processing means. 5 to 7 show images of the time-frequency analysis result 201, the feature extraction parameter 202, the distribution of the feature amount 203, and the classification parameter 204. In FIGS. 5 to 7, it is assumed that the time-frequency analysis result 201 has a plurality of data for each label. Further, FIGS. 5 to 7 illustrate a case where the type of signal source is C = 4.

図5および図6に示すように、特徴抽出パラメータ202は、M個のベクトル形式であり、時間周波数分析結果201に含まれる共通的な周波数成分を分解することによって得られる。なお、図6では、特徴抽出パラメータ202のベクトルの数がM=2である場合が例示されている。 As shown in FIGS. 5 and 6, the feature extraction parameter 202 is in the form of M vectors and is obtained by decomposing the common frequency components included in the time-frequency analysis result 201. Note that FIG. 6 illustrates a case where the number of vectors of the feature extraction parameter 202 is M = 2.

特徴量203の分布は、特徴抽出パラメータ202が適切に得られていれば、図7に示すようにラベル毎に群が形成される。特徴量203の分布の軸の数は、特徴抽出パラメータ202のベクトルの数と同じM個である。特徴量203は、各々の時間周波数分析結果201に対して、特徴抽出パラメータ202の周波数成分が含まれる程度を表している。 As for the distribution of the feature amount 203, if the feature extraction parameter 202 is properly obtained, a group is formed for each label as shown in FIG. 7. The number of axes of the distribution of the feature amount 203 is M, which is the same as the number of vectors of the feature extraction parameter 202. The feature amount 203 represents the degree to which the frequency component of the feature extraction parameter 202 is included in each time-frequency analysis result 201.

図5〜図7において、ラベル#1の時間周波数分析結果201を例に説明する。ラベル#1の時間周波数分析結果201は、特徴抽出パラメータ202のうち、1番目の周波数成分は含まれていないが、2番目の周波数成分が含まれている。よって、図7の特徴量203の分布を見ると、ラベル#1の特徴量は、特徴1の値は小さく、特徴2の値は大きい座標に点がプロットされている。図7に示すように、分類パラメータ204は、特徴量203の分布において、ラベル毎の境界線を表すパラメータである。 In FIGS. 5 to 7, the time frequency analysis result 201 of label # 1 will be described as an example. The time-frequency analysis result 201 of label # 1 does not include the first frequency component of the feature extraction parameter 202, but contains the second frequency component. Therefore, looking at the distribution of the feature amount 203 in FIG. 7, as for the feature amount of the label # 1, the value of the feature 1 is small and the value of the feature 2 is large. As shown in FIG. 7, the classification parameter 204 is a parameter representing a boundary line for each label in the distribution of the feature amount 203.

このように動作する従来の分類システム100において、特徴分析処理手段112は、上述したように、時間周波数分析結果から特徴抽出パラメータおよび特徴量を計算して出力している。このとき、特徴分析処理手段112は、行列データまたはテンソルデータである時間周波数分析結果に対して、行列の和および行列の積のうち少なくとも一方の行列演算を用いて各種の計算を行う。 In the conventional classification system 100 that operates in this way, the feature analysis processing means 112 calculates and outputs the feature extraction parameter and the feature amount from the time-frequency analysis result as described above. At this time, the feature analysis processing means 112 performs various calculations on the time-frequency analysis result, which is matrix data or tensor data, by using at least one of the matrix operations of the sum of the matrices and the product of the matrices.

図8は、行列の和演算処理について説明するための概略図である。図8に示すように、行列の和を演算する場合には、和演算部301が用いられる。和演算部301は、入力された2つの行列Aおよび行列Bを加算し、加算結果である行列C(=A+B)を出力する。 FIG. 8 is a schematic diagram for explaining the sum calculation process of the matrix. As shown in FIG. 8, when calculating the sum of matrices, the sum calculation unit 301 is used. The sum calculation unit 301 adds the two input matrices A and B, and outputs the addition result matrix C (= A + B).

図9は、行列の積演算処理について説明するための概略図である。図9に示すように、行列の積を演算する場合には、積演算部302が用いられる。積演算部302は、入力された2つの行列Aおよび行列Bを乗算し、乗算結果である行列C(=AB)を出力する。 FIG. 9 is a schematic diagram for explaining the matrix multiplication operation process. As shown in FIG. 9, the product calculation unit 302 is used when calculating the product of matrices. The product calculation unit 302 multiplies the two input matrices A and B, and outputs the matrix C (= AB) which is the multiplication result.

(従来の課題)
ところで、特徴分析処理手段112による行列演算の際には、演算結果を記憶する主記憶領域および補助記憶領域が用いられる。特徴分析処理手段112に入力された時間周波数分析結果としての行列データは、補助記憶領域に格納され、特徴分析処理の際に主記憶領域に読み込まれる。そして、特徴分析処理手段112は、主記憶領域に読み込まれた行列データに基づき特徴分析処理を行い、処理によって得られる行列データを主記憶領域に書き込む。
(Conventional issue)
By the way, in the matrix calculation by the feature analysis processing means 112, the main storage area and the auxiliary storage area for storing the calculation result are used. The matrix data as the time-frequency analysis result input to the feature analysis processing means 112 is stored in the auxiliary storage area and read into the main storage area during the feature analysis processing. Then, the feature analysis processing means 112 performs the feature analysis process based on the matrix data read into the main storage area, and writes the matrix data obtained by the process into the main storage area.

このとき、従来の特徴分析処理手段112による行列演算では、入力される行列データの行サイズおよび列サイズのうち少なくとも一方のサイズが非常に大きいため、主記憶領域の容量不足によって以下の2つの課題が生じる可能性がある。 At this time, in the matrix calculation by the conventional feature analysis processing means 112, at least one of the row size and the column size of the input matrix data is very large, so the following two problems are caused by the insufficient capacity of the main storage area. May occur.

図10は、主記憶領域の不足によって生じる第1の課題について説明するための概略図である。第1の課題は、主記憶領域の容量が不足している場合に、補助記憶領域に格納された行列データを主記憶領域に読み込むことができないことである。行列演算を行う場合、行列Aおよび行列Bの双方の行列データは、主記憶領域に読み込まれる。しかし、図10に示す例では、行列Aの行列データが補助記憶領域から主記憶領域に読み込まれた場合に、主記憶領域の残りの領域が行列Bの行列データよりも少なくなってしまい、行列Bの行列データを主記憶領域に読み込むことができない。 FIG. 10 is a schematic diagram for explaining the first problem caused by the lack of the main storage area. The first problem is that the matrix data stored in the auxiliary storage area cannot be read into the main storage area when the capacity of the main storage area is insufficient. When performing a matrix operation, the matrix data of both the matrix A and the matrix B are read into the main storage area. However, in the example shown in FIG. 10, when the matrix data of the matrix A is read from the auxiliary storage area into the main storage area, the remaining area of the main storage area becomes smaller than the matrix data of the matrix B, and the matrix. The matrix data of B cannot be read into the main storage area.

図11は、主記憶領域の不足によって生じる第2の課題について説明するための概略図である。第2の課題は、主記憶領域が不足している場合に、行列演算によって得られた行列データを主記憶領域に読み込むことができないことである。図11に示す例では、行列Aおよび行列Bのそれぞれの行列データが補助記憶領域から主記憶領域に読み込まれる。その後、行列Aおよび行列Bを用いて行列演算が行われ、行列Cが算出された場合に、主記憶領域の残りの容量が行列Cの行列データの容量よりも少なくなってしまい、行列Cの行列データを主記憶領域に読み込むことができない。 FIG. 11 is a schematic diagram for explaining the second problem caused by the lack of the main storage area. The second problem is that the matrix data obtained by the matrix operation cannot be read into the main storage area when the main storage area is insufficient. In the example shown in FIG. 11, the matrix data of the matrix A and the matrix B are read from the auxiliary storage area into the main storage area. After that, when the matrix operation is performed using the matrix A and the matrix B and the matrix C is calculated, the remaining capacity of the main storage area becomes smaller than the capacity of the matrix data of the matrix C, and the matrix C Matrix data cannot be read into the main storage area.

このように、従来の分類システム100では、特徴分析処理手段112の主記憶領域として、少なくとも、行列演算に用いられる行列データと、行列演算によって得られる行列データとの双方を格納できる領域が必要となる。すなわち、従来の分類システム100において、主記憶領域は、行列データの少なくとも3倍程度の容量が必要となる。 As described above, in the conventional classification system 100, at least an area capable of storing both the matrix data used for the matrix operation and the matrix data obtained by the matrix operation is required as the main storage area of the feature analysis processing means 112. Become. That is, in the conventional classification system 100, the main storage area needs to have a capacity of at least three times that of the matrix data.

そこで、本実施の形態1に係る分類システム1の特徴分析処理手段12では、主記憶領域14aの容量が従来必要となる容量よりも少ない場合でも、行列演算を行うことができるようにする。 Therefore, in the feature analysis processing means 12 of the classification system 1 according to the first embodiment, the matrix calculation can be performed even when the capacity of the main storage area 14a is smaller than the capacity conventionally required.

(分類システム1の特徴分析処理手段12による行列演算)
本実施の形態1に係る特徴分析処理手段12による行列演算について説明する。本実施の形態1において、特徴分析処理手段12は、従来の行列演算に代えて、部分行列演算を用いて特徴分析処理を行う。
(Matrix calculation by the feature analysis processing means 12 of the classification system 1)
The matrix operation by the feature analysis processing means 12 according to the first embodiment will be described. In the first embodiment, the feature analysis processing means 12 performs the feature analysis process by using the submatrix calculation instead of the conventional matrix calculation.

本実施の形態1において、特徴分析処理手段12は、行列データまたはテンソルデータである時間周波数分析結果に対して、「部分行列を用いた行列の和」および「部分行列を用いた行列の積」のうち少なくとも一方の行列演算を用いて各種の計算を行う。 In the first embodiment, the feature analysis processing means 12 refers to "sum of matrices using submatrix" and "product of matrix using submatrix" with respect to the time-frequency analysis result which is matrix data or tensor data. Various calculations are performed using at least one of the matrix operations.

図12は、部分行列について説明するための概略図である。図12に示すように、部分行列は、例えば、M×Nの行列Aを行方向にI分割し、列方向にJ分割したときのM×Nの行列である。このとき、i=1,・・・,Iであり、j=1,・・・,Jである。また、Mの総和がMであり、Nの総和がNである。 FIG. 12 is a schematic diagram for explaining the submatrix. As shown in FIG. 12, the submatrix is, for example, a M i × N j matrix when the M × N matrix A is I-divided in the row direction and J-divided in the column direction. At this time, i = 1, ..., I, and j = 1, ..., J. Further, a sum of M i is M, the sum of N j is N.

(部分行列を用いた行列の和演算)
まず、部分行列を用いた行列の和演算について説明する。図13は、部分行列を用いた和演算処理について説明するための概略図である。図13に示すように、部分行列を用いて行列の和演算処理を行う場合には、第1分割部221および複数の部分行列和演算手段222が用いられる。
(Multiply-accumulate matrix using submatrix)
First, the sum operation of a matrix using a submatrix will be described. FIG. 13 is a schematic diagram for explaining a sum calculation process using a submatrix. As shown in FIG. 13, when the matrix sum calculation process is performed using the submatrix, the first division unit 221 and the plurality of submatrix sum calculation means 222 are used.

第1分割部221は、入力された2つの行列Aおよび行列Bのそれぞれを、同一サイズのM×Nの部分行列Aijおよび部分行列Bij(i=1,・・・,I、j=1,・・・,J)に分割する。部分行列和演算手段222は、分割された部分行列の個数に対応して設けられている。部分行列和演算手段222は、入力された2つの部分行列Aijおよび部分行列Bijを加算し、加算結果である部分行列Cijを出力する。 The first dividing unit 221, each of the two matrices A and matrix B is input, submatrix M i × N j of the same size A ij and partial matrix B ij (i = 1, ··· , I, Divide into j = 1, ..., J). The submatrix sum calculation means 222 is provided according to the number of divided submatrixes. The submatrix sum calculation means 222 adds the two input submatrix A ij and the submatrix B ij , and outputs the submatrix C ij which is the addition result.

部分行列を用いた行列の和を演算する場合、第1分割部221は、M×Nサイズの行列Aおよび行列Bを、式(1)および式(2)に示すように、それぞれI×J個の部分行列に分割する。式(1)および式(2)において、i=1,・・・,Iであり、j=1,・・・、Jである。また、Mの総和がMであり、Nの総和がNである。部分行列Aijおよび部分行列Bijは、いずれも同じM×Nサイズの行列である。 When calculating the sum of matrices using submatrix, the first division unit 221 displays M × N size matrix A and matrix B as I × J, respectively, as shown in equations (1) and (2). Divide into submatrix. In equations (1) and (2), i = 1, ..., I, and j = 1, ..., J. Further, a sum of M i is M, the sum of N j is N. Submatrix A ij and partial matrix B ij are all matrices of the same M i × N j size.

Figure 2021135357
Figure 2021135357

Figure 2021135357
Figure 2021135357

ここで、第1分割部221は、部分行列Aijおよび部分行列Bijが行列Aおよび行列Bのうち、いずれの部分のデータを抜き出したものかを示すインデックス番号を保持し、行列Aおよび行列Bのすべてのデータを一度に主記憶領域14aに読み込むことは行わない。 Here, the first division unit 221 holds an index number indicating which part of the matrix A and the matrix B is extracted from the data of the submatrix A ij and the submatrix B ij, and the matrix A and the matrix B. Not all the data of B is read into the main storage area 14a at once.

次に、部分行列和演算手段222は、部分行列Aijおよび部分行列Bijを入力とし、部分行列Cijを出力する。この場合の入出力の対応関係が、図13の円で囲まれた部分に示されている。 Next, the submatrix sum calculation means 222 takes the submatrix A ij and the submatrix B ij as inputs, and outputs the submatrix C ij. The correspondence between input and output in this case is shown in the circled portion of FIG.

図14は、図13の部分行列和演算手段の構成の一例を示すブロック図である。図14に示すように、部分行列和演算手段222は、和演算部223を含んで構成されている。このように、部分行列の和を演算する場合には、和演算部223が用いられる。和演算部223は、入力された2つの部分行列Aijおよび部分行列Bijを加算し、加算結果である部分行列Cijを出力する。 FIG. 14 is a block diagram showing an example of the configuration of the submatrix sum calculation means of FIG. As shown in FIG. 14, the submatrix sum calculation means 222 includes a sum calculation unit 223. In this way, when calculating the sum of the submatrix, the sum calculation unit 223 is used. The sum calculation unit 223 adds the two input submatrix A ij and the submatrix B ij , and outputs the submatrix C ij which is the addition result.

図15は、部分行列を用いた和演算処理の主記憶領域および補助記憶領域の様子の一例を示す概略図である。このとき、特徴分析処理手段12は、図15に示すように、部分行列Aijおよび部分行列Bijを補助記憶領域14bから主記憶領域14aに読み込み、式(3)を用いて部分行列Cijを計算する。そして、特徴分析処理手段12は、計算結果である部分行列Cijを、主記憶領域14aから補助記憶領域14bに書き込む。 FIG. 15 is a schematic view showing an example of the state of the main storage area and the auxiliary storage area of the sum operation processing using the submatrix. At this time, as shown in FIG. 15, the feature analysis processing means 12 reads the submatrix Aij and the submatrix Bij from the auxiliary storage area 14b into the main storage area 14a, and uses the equation (3) to read the submatrix Cij. To calculate. Then, the feature analysis processing means 12 writes the submatrix Cij , which is the calculation result, from the main storage area 14a to the auxiliary storage area 14b.

Figure 2021135357
Figure 2021135357

最後に、すべてのiおよびjについての部分行列Cijの計算が行われると、式(4)に示すように、行列の和C=A+Bが得られる。 Finally, when the submatrix Cij is calculated for all i and j, the sum of the matrices C = A + B is obtained, as shown in equation (4).

Figure 2021135357
Figure 2021135357

(部分行列を用いた行列の積演算)
次に、部分行列を用いた行列の積演算について説明する。図16は、部分行列を用いた積演算処理について説明するための概略図である。図16に示すように、部分行列を用いて行列の積演算処理を行う場合には、第2分割部224および複数の部分行列積演算手段225が用いられる。
(Matrix multiplication operation using submatrix)
Next, a matrix multiplication operation using a submatrix will be described. FIG. 16 is a schematic diagram for explaining a product calculation process using a submatrix. As shown in FIG. 16, when the matrix product calculation process is performed using the submatrix, the second division unit 224 and the plurality of submatrix product calculation means 225 are used.

第2分割部224には、M×Lサイズの行列Aと、L×Nサイズの行列Bとが入力される。第2分割部224は、入力されたM×Lの行列Aを、M×Lサイズの部分行列Aik(i=1,・・・,I、k=1,・・・,K)に分割する。また、第2分割部224は、入力されたL×Nの行列Bを、L×Nサイズの部分行列Bkj(k=1,・・・,K、j=1,・・・,J)に分割する。部分行列積演算手段225は、入力された2つの部分行列Aikおよび部分行列Bkjに基づき、部分行列Cijを演算する。 An M × L size matrix A and an L × N size matrix B are input to the second division unit 224. The second dividing unit 224, a matrix A of the input M × L, M i × L k size submatrix A ik (i = 1, ··· , I, k = 1, ···, K) Divide into. Further, the second division unit 224 uses the input L × N matrix B as a submatrix B kj (k = 1, ..., K, j = 1, ..., Of L k × N j size). Divide into J). The submatrix product calculation means 225 calculates the submatrix C ij based on the two input submatrix A ik and the submatrix B jk .

部分行列を用いた行列の積を演算する場合、第2分割部224は、M×Lサイズの行列Aを、式(5)に示すように、I×K個の部分行列に分割する。また、第2分割部224は、L×Nサイズの行列Bを、式(6)に示すように、K×J個の部分行列に分割する。式(5)および式(6)において、i=1,・・・,Iであり、j=1,・・・、Jであり、k=1,・・・,Kである。また、Mの総和がMであり、Nの総和がNであり、Lの総和がLである。さらに、部分行列Aikは、M×Lサイズの行列であり、部分行列Bkjは、L×Nサイズの行列である。 When calculating the product of a matrix using a submatrix, the second division unit 224 divides the M × L size matrix A into I × K submatrixes as shown in the equation (5). Further, the second division unit 224 divides the L × N size matrix B into K × J submatrixes as shown in the equation (6). In equations (5) and (6), i = 1, ..., I, j = 1, ..., J, and k = 1, ..., K. Further, a sum of M i is M, is the sum of N j is N, the sum of L k is L. Furthermore, the partial matrix A ik is a matrix of M i × L k size, partial matrix B kj is a matrix of L k × N j size.

Figure 2021135357
Figure 2021135357

Figure 2021135357
Figure 2021135357

ここで、第2分割部224は、部分行列Aikおよび部分行列Bkjが行列Aおよび行列Bのうち、いずれの部分のデータを抜き出したものかを示すインデックス番号を保持し、行列Aおよび行列Bのすべてのデータを一度に主記憶領域14aに読み込むことは行わない。 Here, the second division unit 224 holds an index number indicating which part of the matrix A and the matrix B is extracted from the data of the submatrix A ik and the submatrix B kj, and the matrix A and the matrix B. Not all the data of B is read into the main storage area 14a at once.

次に、部分行列積演算手段225は、部分行列Aikおよび部分行列Bkjを入力とし、部分行列Cijを出力する。この場合の入出力の対応関係が、図16の円で囲まれた部分に示されている。部分行列積演算手段225は、式(7)を用いて、入力された部分行列Aikおよび部分行列Bkjから部分行列Cijを演算する。 Next, the submatrix product calculation means 225 takes the submatrix A ik and the submatrix B jk as inputs, and outputs the submatrix C ij. The correspondence between input and output in this case is shown in the circled portion of FIG. The submatrix product calculation means 225 calculates the submatrix C ij from the input submatrix A ik and the submatrix B jk using the equation (7).

Figure 2021135357
Figure 2021135357

図17は、図16の部分行列積演算手段の構成の一例を示すブロック図である。図18は、部分行列を用いた積演算処理の主記憶領域および補助記憶領域の様子の一例を示す概略図である。図17に示すように、部分行列積演算手段225は、積演算部226および和演算部227を含んで構成されている。このように、部分行列の積を演算する場合には、積演算部226および和演算部227が用いられる。 FIG. 17 is a block diagram showing an example of the configuration of the partial matrix product calculation means of FIG. FIG. 18 is a schematic view showing an example of the state of the main storage area and the auxiliary storage area of the product calculation processing using the submatrix. As shown in FIG. 17, the partial matrix product calculation means 225 includes a product calculation unit 226 and a sum calculation unit 227. In this way, when calculating the product of sub-matrix, the product calculation unit 226 and the sum calculation unit 227 are used.

積演算部226は、入力された2つの部分行列Aijおよび部分行列Bijを乗算し、乗算結果である部分行列Aijijを出力する。和演算部227は、入力された2つの部分行列を加算し、加算結果である部分行列Cijを出力する。 The product calculation unit 226 multiplies the two input submatrix A ij and the submatrix B ij , and outputs the submatrix A ij B ij which is the multiplication result. The sum calculation unit 227 adds the two input submatrixes and outputs the submatrix Cij which is the addition result.

この場合、図18に示すように、まず、部分行列Aikおよび部分行列Bkjが補助記憶領域14bから主記憶領域14aに読み込まれ、式(7)に基づき部分行列Cijが算出される。そして、算出された部分行列Cijは、主記憶領域14aから補助記憶領域14bに書き込まれる。 In this case, as shown in FIG. 18, first, the submatrix A ik and the submatrix B jk are read from the auxiliary storage area 14b into the main storage area 14a, and the submatrix C ij is calculated based on the equation (7). Then, the calculated submatrix Cij is written from the main storage area 14a to the auxiliary storage area 14b.

部分行列積演算手段225による実際の演算では、まず、部分行列積演算手段225は、出力する部分行列Cijを零行列Oで初期化する。次に、部分行列積演算手段225は、第1の積演算処理として、部分行列Aikおよび部分行列Bkjを補助記憶領域14bから主記憶領域14aに読み込み、積演算部226でAikkjを演算する。また、部分行列積演算手段225は、第2の積演算処理として、和演算部227で「Cij+Aikkj」を演算し、主記憶領域14aに読み込まれている部分行列Cijを上書きすることで更新する。すなわち、部分行列積演算手段225は、主記憶領域14aに読み込まれている部分行列Cijに対して、演算したAikkjを累加する。 In the actual calculation by the submatrix product calculation means 225, first, the submatrix product calculation means 225 initializes the output submatrix C ij with the zero matrix O. Next, the submatrix product calculation means 225 reads the submatrix A ik and the submatrix B kj from the auxiliary storage area 14b into the main storage area 14a as the first product calculation process, and the product calculation unit 226 reads A ik B kj. Is calculated. Further, the submatrix product calculation means 225 calculates "C ij + A ik B kj " in the sum calculation unit 227 as the second product calculation process, and overwrites the submatrix C ij read in the main storage area 14a. Update by doing. That is, the submatrix product calculation means 225 accumulates the calculated A ik B kj with respect to the submatrix C ij read in the main storage area 14a.

部分行列積演算手段225は、第1および第2の積演算処理をすべてのkについて繰り返し、最終的に得られた部分行列Cijを主記憶領域14aから補助記憶領域14bへ書き込む。これにより、式(7)に相当する演算が行われる。 The submatrix product calculation means 225 repeats the first and second product calculation processes for all k, and writes the finally obtained submatrix Cij from the main storage area 14a to the auxiliary storage area 14b. As a result, the operation corresponding to the equation (7) is performed.

最後に、すべてのiおよびjについての部分行列Cijの演算が終了すると、部分行列積演算手段225は、式(8)に示すように、行列の積「C=AB」を演算する。 Finally, when the calculation of the submatrix Cij for all i and j is completed, the submatrix product calculation means 225 calculates the matrix product "C = AB" as shown in the equation (8).

Figure 2021135357
Figure 2021135357

このように、本実施の形態1において、行列の和演算の際に部分行列を用いた場合には、従来の行列の和演算と同様に、行列C=A+Bが出力される。また、行列の積演算の際に部分行列を用いた場合には、従来の行列の積演算と同様に、行列C=ABが出力される。 As described above, in the first embodiment, when the submatrix is used in the matrix sum operation, the matrix C = A + B is output as in the conventional matrix sum operation. Further, when a submatrix is used in the matrix multiplication operation, the matrix C = AB is output as in the conventional matrix multiplication operation.

また、本実施の形態1では、主記憶領域14aの容量が、演算に用いられる部分行列のサイズの少なくとも3倍程度であれば、部分行列を用いた行列の和演算によって行列Cを得ることができる。さらに、主記憶領域14aの容量が、演算に用いられる部分行列のサイズの少なくとも4倍程度であれば、部分行列を用いた行列の積演算によって行列Cを得ることができる。 Further, in the first embodiment, if the capacity of the main storage area 14a is at least about three times the size of the submatrix used for the calculation, the matrix C can be obtained by the sum calculation of the matrix using the submatrix. can. Further, if the capacity of the main storage area 14a is at least about 4 times the size of the submatrix used for the calculation, the matrix C can be obtained by the matrix multiplication operation using the submatrix.

これにより、従来技術で起こり得た、行列データを主記憶領域の不足で読み込むことができないか、または計算結果の行列データを主記憶領域に保持できないといった問題を改善することができる。そして、巨大な行列データを処理できるようになるため、分類部20による分類能力を向上させることができる。 As a result, it is possible to improve the problem that the matrix data cannot be read due to the lack of the main storage area or the matrix data of the calculation result cannot be held in the main storage area, which may occur in the prior art. Then, since it becomes possible to process a huge matrix data, the classification ability by the classification unit 20 can be improved.

以上のように、本実施の形態1に係る分類システム1では、特徴分析処理の際に、部分行列演算を用いる。そのため、分類部20での分類能力の向上を目的として、学習部10で巨大な行列データを扱う場合でも、部分行列のサイズに応じた主記憶領域が設けられればよいことから、主記憶領域の容量を抑制した場合でも、行列計算を適切に行うことができる。 As described above, in the classification system 1 according to the first embodiment, the submatrix operation is used in the feature analysis process. Therefore, for the purpose of improving the classification ability of the classification unit 20, even when the learning unit 10 handles a huge matrix data, the main storage area may be provided according to the size of the submatrix. Even when the capacity is suppressed, the matrix calculation can be performed appropriately.

1 分類システム、10 学習部、11 時間周波数分析処理手段、12 特徴分析処理手段、13 学習処理手段、14 記憶手段、14a 主記憶領域、14b 補助記憶領域、20 分類部、21 時間周波数分析処理手段、22 特徴抽出処理手段、23 分類処理手段、31 処理回路、41 プロセッサ、42 メモリ、100 分類システム、110 学習部、111 時間周波数分析処理手段、112 特徴分析処理手段、113 学習処理手段、120 分類部、121 時間周波数分析処理手段、122 特徴抽出処理手段、123 分類処理手段、201 時間周波数分析結果、202 特徴抽出パラメータ、203 特徴量、204 分類パラメータ、221 第1分割部、222 部分行列和演算手段、223、227、301 和演算部、224 第2分割部、225 部分行列積演算手段、226、302 積演算部。 1 Classification system, 10 learning unit, 11-hour frequency analysis processing means, 12 feature analysis processing means, 13 learning processing means, 14 storage means, 14a main storage area, 14b auxiliary storage area, 20 classification unit, 21-hour frequency analysis processing means , 22 Feature extraction processing means, 23 Classification processing means, 31 Processing circuit, 41 Processor, 42 Memory, 100 Classification system, 110 Learning unit, 111 Time frequency analysis processing means, 112 Feature analysis processing means, 113 Learning processing means, 120 classification Unit, 121 hour frequency analysis processing means, 122 feature extraction processing means, 123 classification processing means, 201 hour frequency analysis result, 202 feature extraction parameter, 203 feature quantity, 204 classification parameter, 221 first division part, 222 partial matrix sum calculation Means, 223, 227, 301 Sum calculation unit, 224 Second division unit, 225 Partial matrix product calculation means, 226, 302 Product calculation unit.

Claims (6)

時間周波数分析に基づく特徴抽出とクラス分類とを行う分類システムであって、
信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理手段と、
前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成する特徴分析処理手段と、
前記特徴量から分類パラメータを推定する学習処理手段と
を有する学習部と、
前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算する特徴抽出処理手段と、
前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する分類処理手段と
を有する分類部と
を備えた分類システム。
A classification system that performs feature extraction and classification based on time-frequency analysis.
A time-frequency analysis processing means for converting a time waveform indicating the time-series amplitude of a known signal whose signal source is known into data indicating the time-series frequency and signal strength.
A feature analysis processing means for generating feature quantities and feature extraction parameters using submatrix operations on the data, and
A learning unit having a learning processing means for estimating classification parameters from the feature amount, and
With reference to the feature extraction parameters, a feature extraction processing means for calculating the feature amount of an unknown signal whose signal source is unknown, and
A classification system including a classification unit having a classification processing means for estimating a signal source of the unknown signal from the feature amount of the unknown signal with reference to the classification parameter.
前記特徴分析処理手段は、
前記部分行列演算として、部分行列を用いた行列の和を演算する
請求項1に記載の分類システム。
The feature analysis processing means is
The classification system according to claim 1, wherein the sum of matrices using a submatrix is calculated as the submatrix operation.
前記特徴分析処理手段は、
前記部分行列演算として、部分行列を用いた行列の積を演算する
請求項1または2に記載の分類システム。
The feature analysis processing means is
The classification system according to claim 1 or 2, wherein as the submatrix operation, the product of matrices using a submatrix is calculated.
時間周波数分析に基づく特徴抽出とクラス分類とを行う情報処理装置であって、
信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理手段と、
前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成する特徴分析処理手段と、
前記特徴量から分類パラメータを推定する学習処理手段と、
前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算する特徴抽出処理手段と、
前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する分類処理手段と
を備えた情報処理装置。
An information processing device that performs feature extraction and classification based on time-frequency analysis.
A time-frequency analysis processing means for converting a time waveform indicating the time-series amplitude of a known signal whose signal source is known into data indicating the time-series frequency and signal strength.
A feature analysis processing means for generating feature quantities and feature extraction parameters using submatrix operations on the data, and
A learning processing means for estimating classification parameters from the features, and
With reference to the feature extraction parameters, a feature extraction processing means for calculating the feature amount of an unknown signal whose signal source is unknown, and
An information processing device including a classification processing means for estimating a signal source of the unknown signal from the feature amount of the unknown signal with reference to the classification parameter.
時間周波数分析に基づく特徴抽出とクラス分類とを行う分類方法であって、
信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換し、
前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成し、
前記特徴量から分類パラメータを推定し、
前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算し、
前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する
分類方法。
It is a classification method that performs feature extraction and classification based on time-frequency analysis.
A time waveform showing the time-series amplitude of a known signal whose signal source is known is converted into data showing the time-series frequency and signal strength.
Feature quantities and feature extraction parameters are generated for the data using submatrix operations.
The classification parameters are estimated from the features, and the classification parameters are estimated.
With reference to the feature extraction parameters, the feature amount of an unknown signal whose signal source is unknown is calculated.
A classification method for estimating the signal source of the unknown signal from the feature amount of the unknown signal with reference to the classification parameter.
時間周波数分析に基づく特徴抽出とクラス分類とを行うコンピュータを、
信号源が既知である既知信号の時系列の振幅を示す時間波形を、時系列の周波数および信号強度を示すデータに変換する時間周波数分析処理手段、
前記データに対して部分行列演算を用いて特徴量および特徴抽出パラメータを生成する特徴分析処理手段、
前記特徴量から分類パラメータを推定する学習処理手段、
前記特徴抽出パラメータを参照し、信号源が未知である未知信号の特徴量を計算する特徴抽出処理手段、
前記分類パラメータを参照し、前記未知信号の特徴量から前記未知信号の信号源を推定する分類処理手段
として機能させるためのプログラム。
Computers that perform feature extraction and classification based on time-frequency analysis
A time-frequency analysis processing means for converting a time waveform indicating the time-series amplitude of a known signal whose signal source is known into data indicating the time-series frequency and signal strength.
A feature analysis processing means for generating feature quantities and feature extraction parameters using submatrix operations on the data.
Learning processing means for estimating classification parameters from the features,
A feature extraction processing means for calculating a feature amount of an unknown signal whose signal source is unknown with reference to the feature extraction parameter.
A program for functioning as a classification processing means for estimating a signal source of the unknown signal from the feature amount of the unknown signal with reference to the classification parameter.
JP2020030510A 2020-02-26 2020-02-26 Classification system, information processing device, classification method, and program Active JP7467979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030510A JP7467979B2 (en) 2020-02-26 2020-02-26 Classification system, information processing device, classification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030510A JP7467979B2 (en) 2020-02-26 2020-02-26 Classification system, information processing device, classification method, and program

Publications (2)

Publication Number Publication Date
JP2021135357A true JP2021135357A (en) 2021-09-13
JP7467979B2 JP7467979B2 (en) 2024-04-16

Family

ID=77661088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030510A Active JP7467979B2 (en) 2020-02-26 2020-02-26 Classification system, information processing device, classification method, and program

Country Status (1)

Country Link
JP (1) JP7467979B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079060A (en) * 2023-10-13 2023-11-17 之江实验室 Intelligent blade classification method and system based on photosynthetic signals

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6766374B2 (en) 2016-02-26 2020-10-14 沖電気工業株式会社 Classification device, classification method, program, and parameter generator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079060A (en) * 2023-10-13 2023-11-17 之江实验室 Intelligent blade classification method and system based on photosynthetic signals
CN117079060B (en) * 2023-10-13 2024-03-12 之江实验室 Intelligent blade classification method and system based on photosynthetic signals

Also Published As

Publication number Publication date
JP7467979B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
US11164484B2 (en) Secure computation system, secure computation device, secure computation method, and program
US11373098B2 (en) Processing apparatus, learning apparatus, processing method, and nonvolatile recording medium
Bergamaschi et al. Homomorphic training of 30,000 logistic regression models
JP7067632B2 (en) Secret sigmoid function calculation system, secret logistic regression calculation system, secret sigmoid function calculation device, secret logistic regression calculation device, secret sigmoid function calculation method, secret logistic regression calculation method, program
JP2021135357A (en) Classification system, information processing device, classification method and program
JP7168639B2 (en) Computer system and data processing method
EP4231276A1 (en) Hidden decision tree test device, hidden decision tree test system, hidden decision tree test method, and program
JP6585846B2 (en) Secret calculation system, secret calculation device, secret calculation method, and program
JP7424474B2 (en) Learning device, anomaly detection device, learning method, and anomaly detection method
JP6977882B2 (en) Secret batch approximation system, secret calculator, secret batch approximation method, and program
WO2013179578A1 (en) Parallel-allocation optimization device, parallel-allocation optimization method, and computer-readable recording medium
JP7020555B2 (en) Information processing equipment, information processing methods, and programs
WO2020035997A1 (en) Tensor data calculation device, tensor data calculation method, and program
JP7205623B2 (en) Secret conjugate gradient method calculation system, secret calculation device, conjugate gradient method calculation device, secret conjugate gradient method calculation method, conjugate gradient method calculation method, and program
JP7298714B2 (en) Model learning device, speech recognition device, method thereof, and program
JP4758965B2 (en) Unitary matrix decomposition method, unitary matrix decomposition apparatus, unitary matrix decomposition program, and recording medium
Melnikov et al. The application of the branch and bound method in the problem of reconstructing the matrix of distances between DNA strings
JP6831307B2 (en) Solution calculation device, solution calculation method and solution calculation program
JPWO2019059042A1 (en) Secret readers, secret writers, their methods, and programs
US20200302917A1 (en) Method and apparatus for data augmentation using non-negative matrix factorization
JP6682105B2 (en) Fisher Exact Test Calculation Device, Method and Program
WO2020026332A1 (en) Information processing device, program, and information processing method
EP4358070A1 (en) Cumulative calculation device, cumulative calculation method, and program
US20230401263A1 (en) Secret grouping apparatus, secret grouping system, secret grouping method, and program
KR102469374B1 (en) Method for tensor decomposition with temporal dependency and apparatus therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7467979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150