JP5130934B2 - Recognition system, information processing apparatus, design apparatus, and program - Google Patents
Recognition system, information processing apparatus, design apparatus, and program Download PDFInfo
- Publication number
- JP5130934B2 JP5130934B2 JP2008029072A JP2008029072A JP5130934B2 JP 5130934 B2 JP5130934 B2 JP 5130934B2 JP 2008029072 A JP2008029072 A JP 2008029072A JP 2008029072 A JP2008029072 A JP 2008029072A JP 5130934 B2 JP5130934 B2 JP 5130934B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- learning
- learning data
- layer
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、与えられた入力値から、入力値に対応するカテゴリを表す値を所定の計算モデルにより算出して、入力値に対応するカテゴリを認識する認識システムの上記計算モデルを導出する方法、この計算モデルによってカテゴリを認識する認識システム、この方法の実施に使用される情報処理装置、設計装置、及び、プログラム等に関する。 The present invention calculates a value representing a category corresponding to an input value from a given input value using a predetermined calculation model, and derives the calculation model of the recognition system for recognizing the category corresponding to the input value, The present invention relates to a recognition system for recognizing a category by using this calculation model, an information processing apparatus used for implementing this method, a design apparatus, a program, and the like.
従来、認識行為をコンピュータ上で実現する方法としては、ニューラルネットワークやサポートベクタマシンを用いた方法が知られている(例えば、特許文献1,非特許文献1参照)。
Conventionally, a method using a neural network or a support vector machine is known as a method for realizing a recognition action on a computer (see, for example,
ニューラルネットワークは、神経細胞の機能を数式によりモデル化したものである。神経細胞は、入力信号により加わる電位が閾値を超えると、パルスを発するといった機能を有する。ニューラルネットワークでは、このような機能を、シグモイド関数等の非線形関数を用いて実現する。即ち、ニューラルネットワークでは、入力値を、非線形関数に代入して、その出力値を、次の神経細胞に対応する非線形関数に代入するといった演算を実行する。そして、認識結果に対応する出力値を、末端の非線形関数の出力値から得る。 A neural network is a model of a function of a nerve cell by a mathematical expression. A nerve cell has a function of emitting a pulse when a potential applied by an input signal exceeds a threshold value. In the neural network, such a function is realized by using a non-linear function such as a sigmoid function. That is, in the neural network, an operation is performed in which an input value is substituted into a nonlinear function and an output value is substituted into a nonlinear function corresponding to the next nerve cell. Then, an output value corresponding to the recognition result is obtained from the output value of the terminal nonlinear function.
尚、神経細胞間を結ぶ各シナプスは、異なる伝播効率を有し、認識の結果は、神経細胞間の接続関係及び各神経細胞間の伝播効率によって変化する。ニューラルネットワークにおいては、これを、非線形関数の出力値を結合荷重Wで重み付けして、次の非線形関数に代入することで、モデル化している。 In addition, each synapse which connects between nerve cells has different propagation efficiency, and the result of recognition changes with the connection relation between nerve cells, and the propagation efficiency between each nerve cell. In the neural network, this is modeled by weighting the output value of the nonlinear function with the coupling load W and substituting it into the next nonlinear function.
このようなニューラルネットワークを用いた認識システムを構築するに当たっては、まず、ニューラルネットワークの型、即ち、神経細胞に対応するユニット間の接続関係を決定する。ニューラルネットワークの型は、換言すると、結合荷重Wが未知のニューラルネットワークである。従って、次には、結合荷重Wを決定する。 In constructing a recognition system using such a neural network, first, the type of neural network, that is, the connection relationship between units corresponding to nerve cells is determined. In other words, the type of the neural network is a neural network whose connection weight W is unknown. Therefore, next, the coupling load W is determined.
具体的には、ニューラルネットワークへ入力するベクトルのサンプル、及び、当該サンプルを入力したときに得られるべき出力値の組み合わせを、学習データとして、この学習データの複数から、結合荷重Wを学習する。ニューラルネットワークとしては、階層型ネットワークが知られ、この階層型ネットワークにおける結合荷重Wの学習方法としては、バックプロパゲーション法が知られている。従来では、このような手法で、認識システムの計算モデルを導出し、当該認識システムを構築している。 Specifically, the combination load W is learned from a plurality of pieces of learning data by using, as learning data, a vector sample input to the neural network and a combination of output values to be obtained when the sample is input. As the neural network, a hierarchical network is known, and a back propagation method is known as a learning method of the connection weight W in the hierarchical network. Conventionally, a calculation model of a recognition system is derived by such a method, and the recognition system is constructed.
この他、サポートベクタマシンによる認識方法は、入力ベクトルUに対応するカテゴリを表す値yを、識別関数y1又は識別関数y2により算出し、ベクトルUに対応するカテゴリを認識するものである。 In addition, the recognition method by the support vector machine is to recognize the category corresponding to the vector U by calculating the value y representing the category corresponding to the input vector U using the discrimination function y 1 or the discrimination function y 2 .
この他、識別関数y1,y2に含まれるパラメータαs(但し、s=1,2,…,Sである。)及びパラメータβは、ベクトルUのサンプルU(s)と、当該サンプルに対応するカテゴリを表す値y(s)の組み合わせからなるS個の学習データDv(s)={U(s),y(s)}(s=1,2,…,S)に基づいて値が決定されるものである。 In addition, the parameter α s (where s = 1, 2,..., S) and the parameter β included in the discrimination functions y 1 and y 2 are included in the sample U (s) of the vector U and the sample. Based on S pieces of learning data D v (s) = {U (s), y (s)} (s = 1, 2,..., S) composed of combinations of values y (s) representing corresponding categories. The value is to be determined.
関数K(U,U(s),γ)は、カーネルと呼ばれ、ベクトルU,U(s)を写像φにより非線形変換して高次元空間に写像したときのベクトルφ(U),φ(U(s))の内積<φ(U),φ(U(s)>の算出に用いられる。このカーネルK(U,U(s),γ)としては、ガウシアンカーネルK1や多項式カーネルK2が知られている。 The function K (U, U (s), γ) is called a kernel, and the vectors φ (U), φ (when the vectors U, U (s) are nonlinearly transformed by the mapping φ and mapped to a high-dimensional space. U (s)) is used to calculate the inner product <φ (U), φ (U (s)>. The kernel K (U, U (s), γ) includes a Gaussian kernel K 1 and a polynomial kernel K. 2 is known.
尚、サポートベクタマシンの設計時には、周知のように、カテゴリの異なるサンプルを分離し、カテゴリの異なるサンプルの各グループから、最も離れた位置を通る超平面を求めるようにして、パラメータαs及びパラメータβの解を求める。
しかしながら、従来知られるニューラルネットワークの学習方法、及び、サポートベクタマシンの設計方法では、次のような問題があった。
従来知られるニューラルネットワークの学習方法としては、上述したように、バックプロパゲーション法が知られているが、バックプロパゲーション法では、学習データが示す入力値のサンプルをニューラルネットワークに入力したときの出力値と、学習データが示す出力値(教師信号)と、の二乗誤差を小さくする方向に、結合荷重Wを修正していくため、学習時に与える結合荷重Wの初期値によっては、最適解を求められない可能性があった。
However, the conventional neural network learning method and support vector machine design method have the following problems.
As described above, the back-propagation method is known as a conventionally known neural network learning method. However, in the back-propagation method, an output when a sample of input values indicated by learning data is input to the neural network is known. Since the connection load W is corrected in a direction to reduce the square error between the value and the output value (teacher signal) indicated by the learning data, an optimum solution is obtained depending on the initial value of the connection load W given during learning. There was a possibility that it was not possible.
ここで、バックプロパゲーション法による結合荷重Wの学習方法について、簡単なニューラルネットワークを例に挙げて説明する。具体的には、入力ユニットを2つ、出力ユニットを1つ、中間ユニットを2つ有する三層フィードフォワードニューラルネットワークであって、非線形関数としてシグモイド関数 Here, the learning method of the connection weight W by the back propagation method will be described by taking a simple neural network as an example. Specifically, a three-layer feedforward neural network having two input units, one output unit, and two intermediate units, and a sigmoid function as a nonlinear function
しかしながら、二乗誤差Eは、w1,…,w9の非線形関数であるため、図12(b)に示すように、この二乗誤差Eには、極小値が複数存在し、学習時におけるw1,…,w9の初期値の設定次第では、最小値ではない極小点に収束するように、学習が行われて、w1,…,w9の解が求められる可能性があった。即ち、従来手法では、結合荷重Wについて局所解しか求めることができないため、適切な結合荷重Wの解を得られない可能性があった。 However, since the square error E is a non-linear function of w1,..., W9, as shown in FIG. 12 (b), there are a plurality of minimum values in this square error E, and w1,. Depending on the setting of the initial value of w9, learning may be performed so as to converge to a minimum point that is not the minimum value, and solutions of w1,..., w9 may be obtained. That is, in the conventional method, since only a local solution can be obtained for the coupling load W, there is a possibility that an appropriate solution for the coupling load W cannot be obtained.
また、従来手法では、学習データD(s)に従って、二乗誤差Eが小さくなるように、結合荷重Wの解を求める程度であるため、この解を算出するに当たって用いた学習データD(s)以外の値を、ニューラルネットワークに入力した場合、適切な認識結果が得られるとは限らなかった。 In addition, in the conventional method, the solution of the coupling load W is determined so that the square error E is reduced according to the learning data D (s). Therefore, the learning data D (s) other than the learning data D (s) used for calculating this solution is used. When the value of is input to the neural network, an appropriate recognition result is not always obtained.
一方、サポートベクタマシンに関しては、従来、次のような問題があった。即ち、サポートベクタマシンを設計するには、サンプルU(s)を写像φにより高次元にとばしたときのサンプルφ(U(s))の集合が、カテゴリ毎の集合に、線形分離可能である必要があるため、φ(U(S))の集合が線形分離可能となるような写像φとして、演算量が膨大な量とならないような適当な写像φを設定することができない場合には、サンプルU(s)に対応する認識システムとして、サポートベクタマシンを用いた認識システムを設計することができないといった問題があった。 On the other hand, the support vector machine has the following problems. That is, to design a support vector machine, a set of samples φ (U (s)) when the samples U (s) are skipped to a higher dimension by the mapping φ can be linearly separated into sets for each category. If it is not possible to set an appropriate mapping φ such that the amount of computation does not become a huge amount as a mapping φ that enables linear separation of a set of φ (U (S)), There is a problem that a recognition system using a support vector machine cannot be designed as a recognition system corresponding to the sample U (s).
尚、識別関数y2における内積<φ(U),φ(U(s))>の演算を簡単にするためには、上述したカーネルK(U,U(s),γ)を用いることができるが、周知のように、カーネルKとして任意の関数を採ることはできないため、カーネルK(U,U(s),γ)を用いて非線形サポートベクタマシンを設計する場合でも、任意の学習データに対応した非線形サポートベクタマシンを設計することはできないといった問題があった。 In order to simplify the calculation of the inner product <φ (U), φ (U (s))> in the discrimination function y 2 , the above-described kernel K (U, U (s), γ) is used. Although, as is well known, an arbitrary function cannot be taken as the kernel K, the arbitrary learning data can be used even when a nonlinear support vector machine is designed using the kernel K (U, U (s), γ). There was a problem that it was not possible to design a non-linear support vector machine corresponding to.
また、カーネルK(U,U(s),γ)のパラメータγの値については、従来、試行錯誤により、設計者が定めていたため、このことが、最適な非線形サポートベクタマシンの設計の妨げとなっていた。 Further, the value of the parameter γ of the kernel K (U, U (s), γ) has conventionally been determined by the designer through trial and error, and this may hinder the design of the optimal nonlinear support vector machine. It was.
本発明は、こうした問題に鑑みなされたものであり、従来よりも好適な認識システムの計算モデルを導出することができるようにし、好適な認識システムを構築することができるようにすることを目的とする。 The present invention has been made in view of these problems, and an object of the present invention is to be able to derive a calculation model of a recognition system that is more suitable than before and to construct a preferable recognition system. To do.
かかる目的を達成するためになされた本発明は、入力値X={x1,…,xN1}(但し、値N1は、2以上の整数である。)から、入力値Xに対応するカテゴリを表す値yを、所定の計算モデルにより算出して、入力値Xに対応するカテゴリを認識する認識システムの上記計算モデルを、入力値XのサンプルX(s)及びこのサンプルが属するカテゴリを表す値y(s)の組合せからなる任意のS個の学習データD(s)={X(s),y(s)}(但し、s=1,…,Sである。)に基づいて、導出するモデル導出方法であって、次の手順[a]〜手順[c]を経て、認識システムの計算モデルを導出するものである。 In order to achieve this object, the present invention provides a category corresponding to the input value X from the input value X = {x1,..., XN 1 } (where the value N 1 is an integer of 2 or more). Is calculated by a predetermined calculation model, and the calculation model of the recognition system for recognizing the category corresponding to the input value X represents the sample X (s) of the input value X and the category to which this sample belongs. Based on arbitrary S pieces of learning data D (s) = {X (s), y (s)} (where s = 1,..., S) composed of combinations of values y (s). This is a model derivation method for deriving a calculation model of a recognition system through the following procedure [a] to procedure [c].
本発明のモデル導出方法では、まず、学習対象のニューラルネットワークとして、第0層をN1個の入力ユニットからなる入力層とし、第L1層を出力層とした(L1+1)層のニューラルネットワーク(但し、値L1は2以上の整数である。)を設定する。 In the model derivation method of the present invention, first, as a neural network to be learned, a (L 1 +1) layer neural network in which the 0th layer is an input layer composed of N 1 input units and the L 1 layer is an output layer. A network (however, the value L 1 is an integer of 2 or more) is set.
そして、このニューラルネットワークにおいて未知数の学習パラメータW1を、各学習データD(s)の値y(s)を教師信号として用いて、S個の学習データD(s)に基づき学習し、学習パラメータW1の解を求める(手順[a])。尚、学習パラメータW1の解は、周知のバックプロパゲーション法により求めることができる。 Then, in this neural network, an unknown number of learning parameters W 1 are learned based on the S learning data D (s) using the value y (s) of each learning data D (s) as a teacher signal. A solution of W 1 is obtained (procedure [a]). Incidentally, the solution of learning parameters W 1 is, Ru can be obtained by known back propagation method.
また、手順[a]で学習パラメータW1の解を求めた後には、当該学習パラメータW1の解を設定してなる学習後の(L1+1)層のニューラルネットワークを用いて、各学習データD(s)に対応する新たな学習データDv(s)を生成する(手順[b])。 In addition, after the solution of the learning parameter W 1 is obtained in the procedure [a], each learning data is obtained using a (L 1 +1) layer neural network after learning obtained by setting the solution of the learning parameter W 1. New learning data D v (s) corresponding to D (s) is generated (procedure [b]).
具体的には、各学習データD(s)毎に、学習データD(s)のサンプルX(s)を、学習後の(L1+1)層のニューラルネットワークへの入力値Xとして、このニューラルネットワークを構成する第(L1−1)層の出力値Z={z1,…,zN2}を求め、上記求めた出力値Zを新たなサンプルU(s)として設定し、設定した新たなサンプルU(s)、及び、学習データD(s)が示す値y(s)の組合せからなるデータDv(s)={U(s),y(s)}を、学習データD(s)に対応する新たな学習データDv(s)として生成する。但し、第(L1−1)層は、N2個(但し、値N2は2以上の整数である。)の中間ユニットからなるものとする。 Specifically, for each learning data D (s), a sample X (s) of the learning data D (s) is used as an input value X to the neural network of the (L 1 +1) layer after learning. output value Z = {z1, ..., zN 2} of the (L 1 -1) layer constituting the network seeking to set the output value Z obtained above as a new sample U (s), a new set Data D v (s) = {U (s), y (s)} consisting of a combination of the sample U (s) and the value y (s) indicated by the learning data D (s) is used as the learning data D (s). ) Is generated as new learning data D v (s) corresponding to. However, the (L 1 -1) th layer is composed of N 2 intermediate units (where the value N 2 is an integer of 2 or more).
また、手順[b]の終了後には、手順[b]で生成した各学習データDv(s)に基づき、入力値U={u1,…,uN}に対応するカテゴリを表す値yを算出する非線形サポートベクタマシンを設計する(手順[c])。但し、値Nは、入力値Uのサンプルとされる学習データDv(s)のサンプルU(s)の次元数である。 Further, after the completion of the procedure [b], a value y representing a category corresponding to the input value U = {u1,..., UN} is calculated based on each learning data D v (s) generated in the procedure [b]. A non-linear support vector machine is designed (procedure [c]). However, the value N is the number of dimensions of the sample U (s) of the learning data D v (s) that is a sample of the input value U.
非線形サポートベクタマシンは、識別関数y The non-linear support vector machine is a discriminant function y
従って、ここでは、非線形サポートベクタマシンの型、即ち、パラメータαs及びパラメータβ並びにパラメータγが未知の非線形サポートベクタマシンに、パラメータγの値を設定した後、学習データDv(s)={U(s),y(s)}(s=1,2,…,S)に基づき、パラメータαs及びパラメータβの解を求め、この解を非線形サポートベクタマシンに設定して、非線形サポートベクタマシンを設計する。 Therefore, here, after setting the value of the parameter γ in the nonlinear support vector machine type, that is, the nonlinear support vector machine in which the parameters α s, β, and γ are unknown, the learning data D v (s) = { Based on U (s), y (s)} (s = 1, 2,..., S), a solution of the parameter α s and the parameter β is obtained, and this solution is set in the nonlinear support vector machine to obtain the nonlinear support vector. Design the machine.
そして、本発明では、これらの手順[a]〜手順[c]により得られた学習パラメータW1及び非線形サポートベクタマシンを用いて、上記認識システムの計算モデルとして、次の計算モデルを導出する。 In the present invention, the following calculation model is derived as the calculation model of the recognition system using the learning parameter W 1 obtained by these steps [a] to [c] and the nonlinear support vector machine.
即ち、学習後の(L1+1)層のニューラルネットワークにおける第(L1−1)層の出力値Zを演算可能な計算モデルと、手順[c]で設計した非線形サポートベクタマシンと、を組み合わせてなる計算モデルであって、入力値Xから第(L1−1)層の出力値Zを算出し、この出力値Zを非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデルを、認識システムの計算モデルとして導出する。 That is, a combination of the calculation model capable of calculating the output value Z of the (L 1 -1) layer in the (L 1 +1) layer neural network after learning and the nonlinear support vector machine designed in step [c]. An output value Z of the (L 1 -1) -th layer is calculated from the input value X, and this output value Z is used as the input value U of the nonlinear support vector machine, and the output value of the nonlinear support vector machine A calculation model for calculating y is derived as a calculation model of the recognition system.
本発明において、このように認識システムの計算モデルを導出するのは、ニューラルネットワークを用いた認識方法では、学習パラメータW1の最適解を求められることが理論上保証されない問題がある一方で、パラメータαs及びパラメータβの最適解を求めることができる非線形サポートベクタマシンを用いた認識方法では、任意の認識対象に対して、非線形サポートベクタマシンを設計することができないといった問題があるためである。 In the present invention, the calculation model of the recognition system is derived in such a way that the recognition method using the neural network has a problem that it is not theoretically guaranteed that the optimum solution of the learning parameter W 1 can be obtained. This is because the recognition method using the nonlinear support vector machine that can obtain the optimal solution of α s and parameter β has a problem that the nonlinear support vector machine cannot be designed for an arbitrary recognition target.
非線形サポートベクタマシンは、ニューラルネットワークと比較して、学習データ以外の入力に対しても正しい認識結果を得ることができる点で優れているが、上述したように、非線形サポートベクタマシンを設計するためには、入力値UのサンプルU(s)が線形分離しやすい集合である必要があり、従来の手法では、任意の認識システムに対して、非線形サポートベクタマシンの手法を採用することができないといった問題があった。 Compared to neural networks, nonlinear support vector machines are superior in that they can obtain correct recognition results for inputs other than learning data. For example, the sample U (s) of the input value U needs to be a set that is easily linearly separated, and the conventional method cannot adopt the nonlinear support vector machine method for an arbitrary recognition system. There was a problem.
そこで、本発明では、学習データD(s)から新たな学習データDv(s)を生成して、サンプルX(s)を、線形分離しやすい値Zに置き換えることにより、サンプルX(s)によらず、非線形サポートベクタマシンを設計できるようにしたのである。 Therefore, in the present invention, new learning data D v (s) is generated from the learning data D (s), and the sample X (s) is replaced with a value Z that is easily linearly separated, thereby obtaining the sample X (s). Regardless of this, a nonlinear support vector machine can be designed.
尚、値Zが線形分離しやすいのは、ニューラルネットワークにおける出力ユニットの出力yが、それより一つ下層の第(L1−1)層の出力値Z={z1,…,zN2}の超平面からの符号付距離に対応した値を表すものとなるためである。 Incidentally, the value Z is easily linearly separable, the output y of the output unit in the neural network, the output value of it than the one lower layer first (L 1 -1) layer Z = {z1, ..., zN 2} of This is because it represents a value corresponding to the signed distance from the hyperplane.
即ち、ニューラルネットワークにおける出力ユニットの出力yは、第(L1−1)層における第i中間ユニット−出力ユニット間の結合係数をW(i)で表し、出力ユニットの閾値をW0で表したとき、次式 That is, the output y of the output unit in the neural network is expressed by W (i) representing the coupling coefficient between the i-th intermediate unit and the output unit in the (L 1 -1) layer, and the threshold value of the output unit represented by W0. ,
一方、N2次元における超平面からの符号付距離Lgは、超平面の法線ベクトルが、長さ1の法線ベクトルG={g1,…,gN2}であるとすると、次式
On the other hand, the signed distance L g from the hyperplane in the N 2 dimension is as follows, assuming that the normal vector of the hyperplane is a normal vector G = {g1,..., GN 2 } of
従って、学習データD(s)に対応する適切な学習パラメータW(i)の解が得られていれば、各サンプルX(s)をニューラルネットワークに入力したときの第(L1−1)層の出力値Zの集合は、カテゴリ毎に、超平面で線形分離可能となる。 Therefore, if an appropriate solution of the learning parameter W (i) corresponding to the learning data D (s) is obtained, the (L 1 −1) layer when each sample X (s) is input to the neural network. The set of output values Z can be linearly separated on the hyperplane for each category.
勿論、ニューラルネットワークの型は、設計者の試行錯誤により設定されるものであり、設計者が採用したニューラルネットワークの型、換言すると、ニューラルネットワークの階層数や中間ユニットの個数が適切でないとき、第(L1−1)層の出力値Zの集合は、超平面で線形分離することができない可能性がある。しかしながら、少なくとも、出力値Zの集合は、サンプルX(s)の集合よりも線形分離しやすい集合であるということができる。 Of course, the type of the neural network is set by the trial and error of the designer, and when the type of the neural network adopted by the designer, in other words, when the number of layers of the neural network or the number of intermediate units is not appropriate, There is a possibility that the set of output values Z of the (L 1 -1) layer cannot be linearly separated in the hyperplane. However, it can be said that at least the set of output values Z is a set that is more easily linearly separated than the set of samples X (s).
従って、本発明では、出力値Zに基づいて、新たな学習データDvを生成し、この学習データDvに基づき、非線形サポートベクタマシンを設計するようにしたのである。出力値Zの集合は、少なくともX(s)よりも大幅に線形分離しやすい集合であるため、写像φにより比較的簡単に、線形分離することができる。 Therefore, in the present invention, new learning data D v is generated based on the output value Z, and a nonlinear support vector machine is designed based on the learning data D v . Since the set of output values Z is a set that is much easier to linearly separate than at least X (s), linear separation can be performed relatively easily by the mapping φ.
よって、本発明によれば、サンプルX(s)の分布によらず、適切な非線形サポートベクタマシンを設計することができ、非線形サポートベクタマシンにより、従来よりも好適な認識システムの計算モデルを導出することができるのである。 Therefore, according to the present invention, an appropriate nonlinear support vector machine can be designed regardless of the distribution of the sample X (s), and a calculation model of a recognition system that is more suitable than the conventional model can be derived using the nonlinear support vector machine. It can be done.
換言すると、ニューラルネットワークでは、学習パラメータW1(結合係数)の解として、局所解しか得られないため、理論的に最適なニューラルネットワークを設計できる保証がなかったが、本発明では、パラメータαs及びパラメータβの解として大局的解を求めることができるサポートベクタマシンを用いて、認識システムの計算モデルを導出しているため、ニューラルネットワークの上記欠点をサポートベクタマシンで補完することができ、認識システムの計算モデルとして適切な計算モデルを求めることができる。 In other words, since only a local solution can be obtained as a solution of the learning parameter W 1 (coupling coefficient) in the neural network, there is no guarantee that a theoretically optimal neural network can be designed. However, in the present invention, the parameter α s Since the calculation model of the recognition system is derived using a support vector machine that can obtain a global solution as a solution of the parameter β, the above-mentioned drawbacks of the neural network can be complemented by the support vector machine. An appropriate calculation model can be obtained as a calculation model of the system.
また、ニューラルネットワークでは、学習データ以外の値が入力された場合に、必ずしも適切な認識結果を得られるとは限らないが、サポートベクタマシンでは、上述したように学習データ以外の値についても、正しい認識結果を得ることができるので、本発明の方法で導出されるサポートベクタマシンを組み込んだ計算モデルを用いれば、従来よりも、認識性能に優れた認識システムを構築することができる。 In addition, in a neural network, when a value other than learning data is input, an appropriate recognition result is not always obtained. However, in a support vector machine, as described above, values other than learning data are also correct. Since a recognition result can be obtained, it is possible to construct a recognition system that has a better recognition performance than the prior art by using a calculation model incorporating a support vector machine derived by the method of the present invention.
即ち、本発明のモデル導出方法により導出された計算モデルによって、与えられた入力値X={x1,…,xN1}から、入力値Xに対応するカテゴリを表す値yを算出し、入力値Xに対応するカテゴリを認識する認識システムを構築すれば、当該認識システムにて、従来よりも優れた認識行為を実現することができる。 That is, the value y representing the category corresponding to the input value X is calculated from the given input value X = {x1,..., XN 1 } by the calculation model derived by the model derivation method of the present invention, and the input value if build recognizing system the category corresponding to the X, in the recognition system, it is possible to achieve excellent recognition acts than before.
尚、上述の認識システムは、入力値Xに対応するカテゴリの認識結果として、入力値Xに対応するカテゴリを表す値yを出力すると共に、当該値yを算出する際に求められた非線形サポートベクタマシンを構成する符号関数への入力値pの絶対値|p|を、認識結果の確度を表す情報として出力する構成にされるとよい。このように認識システムを構成すれば、認識結果の確からしさに関する情報をも出力することができるので、確度が低い場合には、認識動作をやり直す等の行為が可能になる。 The recognition system described above outputs a value y representing a category corresponding to the input value X as a recognition result of the category corresponding to the input value X, and the nonlinear support vector obtained when calculating the value y. the absolute value of the input value p to sign function constituting the machine | p | a, have good when it is in the configuration of outputting the information indicating the accuracy of the recognition result. If the recognition system is configured in this way, it is possible to output information related to the accuracy of the recognition result. Therefore, when the accuracy is low, an action such as re-performing the recognition operation becomes possible.
また、上述のモデル導出方法において、学習データDv(s)は、次のように生成されてもよい。即ち、手順[b]では、各学習データD(s)毎に、学習データD(s)のサンプルX(s)に基づいて算出した値Zを、所定のアルゴリズムにより次元削減し、当該次元削減後の値V={v1,…,vN3}(但し、値N3は値N2より小さい2以上の整数である。)を、新たなサンプルU(s)として設定して、学習データDv(s)={U(s),y(s)}を生成してもよい。 In the model derivation method described above, the learning data D v (s) may be generated as follows. That is, in step [b], for each learning data D (s), the value Z calculated based on the sample X (s) of the learning data D (s) is reduced in dimension by a predetermined algorithm, and the dimension reduction is performed. The subsequent value V = {v1,..., VN 3 } (where the value N 3 is an integer greater than or equal to 2 smaller than the value N 2 ) is set as a new sample U (s), and the learning data D v (s) = {U (s), y (s)} may be generated.
このように学習データDv(s)を生成する場合には、認識システムの計算モデルとして、入力値Xから第(L1−1)層の出力値Zを算出し、この出力値Zを上記所定のアルゴリズムにより次元削減して、出力値Zを、N3次元の値V={v1,…,vN3}に変換し、変換後の値Vを非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデルを、導出することになる。このようにして、非線形サポートベクタマシンへの入力値Uを次元削減すれば、非線形サポートベクタマシンの設計及び認識行為に係る演算量を抑えることができる。 When the learning data D v (s) is generated in this way, the output value Z of the (L 1 −1) -th layer is calculated from the input value X as a calculation model of the recognition system, and this output value Z is calculated as above. The dimension is reduced by a predetermined algorithm, and the output value Z is converted into an N 3 dimensional value V = {v1,..., VN 3 }, and the converted value V is used as the input value U of the nonlinear support vector machine. a calculation model for calculating the output value y of the support vector machine, ing to be derived. Thus, if the input value U to the nonlinear support vector machine is reduced in dimension, the amount of calculation related to the design and recognition action of the nonlinear support vector machine can be suppressed.
具体的に、上記次元削減は、主成分分析の手法により実現することができる。即ち、手順[b]では、各学習データD(s)毎に、学習データD(s)のサンプルX(s)に基づいて算出した値Zを、主成分分析の手法により求めたN3個のN2次元ベクトルJm(但し、m=1,…,N3である。)を用いて次元削減することにより、値Zを、第m要素の値vmがベクトルJmと前記値Zとの内積<Jm,Z>で表されるN3次元の値V={v1,…,vN3}に変換し、当該次元削減後の値V={v1,…,vN3}を、新たなサンプルU(s)として設定して、学習データDv(s)={U(s),y(s)}を生成してもよい。 Specifically, the dimension reduction can be realized by a principal component analysis technique. In other words, in step [b], for each learning data D (s), N 3 values Z calculated based on the sample X (s) of the learning data D (s) are obtained by the principal component analysis technique. N 2 dimensional vector Jm (where m = 1,..., N 3 ) is used to reduce the dimension, and the inner product of the value J of the m-th element is the vector Jm and the value Z. <Jm, Z> value V = {v1, ..., vN 3} of N 3-dimensional represented by converting the value V = after the dimension reduction {v1, ..., vN 3} a new sample U (S) may be set to generate learning data D v (s) = {U (s), y (s)}.
このように学習データDv(s)を生成する場合には、認識システムの計算モデルとして、入力値Xから第(L1−1)層の出力値Zを演算し、この出力値Zを、N3個のN2次元ベクトルJmを用いて次元削減し、次元削減後の値Vを非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデルを、導出することになる。 When the learning data D v (s) is generated in this way, the output value Z of the (L 1 −1) -th layer is calculated from the input value X as a calculation model of the recognition system, and this output value Z is Using N 3 N two- dimensional vectors Jm, the dimension is reduced, and a calculation model for calculating the output value y of the nonlinear support vector machine is derived using the value V after the dimension reduction as the input value U of the nonlinear support vector machine. in particular ing.
また、非線形サポートベクタマシンにカーネルK(U,U(s),γ)を用いる場合には、学習データDvに基づいてパラメータαs及びパラメータβの解を求める前に、パラメータγを設定する必要があるが、従来の手法でパラメータγを設計すると、手間がかかるばかりでなく、必ずしも適切な値をパラメータγに設定できるとは限らないため、次のようにして、パラメータγの解を求めるとよい。 When the kernel K (U, U (s), γ) is used for the nonlinear support vector machine, the parameter γ is set before obtaining the solution of the parameter α s and the parameter β based on the learning data D v. Although it is necessary, designing the parameter γ using the conventional method is not only troublesome, but it is not always possible to set an appropriate value for the parameter γ. Therefore, a solution for the parameter γ is obtained as follows. Good.
即ち、手順[c]では、入力値Uからカテゴリを表す値yを算出する上記非線形サポートベクタマシンについて、当該非線形サポートベクタマシンを構成するカーネルK(U,U(s),γ)のパラメータγの適値を、次の手順[1]〜手順[3]により求め、当該適値をパラメータγに設定したカーネルK(U,U(s),γ)を用いて、非線形サポートベクタマシンを設計するとよい。 That is, in the procedure [c], for the nonlinear support vector machine that calculates the value y representing the category from the input value U, the parameter γ of the kernel K (U, U (s), γ) that constitutes the nonlinear support vector machine. Is determined by the following steps [1] to [3], and a non-linear support vector machine is designed using the kernel K (U, U (s), γ) in which the appropriate value is set as the parameter γ. Good.
手順[1]:学習対象のニューラルネットワークとして、第0層をN個の入力ユニットからなる入力層とし、第L2層を出力層とした(L2+1)層のニューラルネットワーク(但し、値L2は2以上の整数である。)を設定する。そして、このニューラルネットワークにおいて未知数の学習パラメータW2を、各学習データDv(s)の値y(s)を教師信号として用いて、S個の学習データDv(s)に基づき学習し、学習パラメータW2の解を求める。
Procedure [1]: a learning object of a neural network, the
手順[2]:各学習データDv(s)毎に、学習データDv(s)のサンプルU(s)を、手順[1]で求めた学習パラメータW2の解を設定してなる学習後の前記(L2+1)層のニューラルネットワークへの入力値として、このニューラルネットワークを構成する第(L2−1)層の出力値H(s)={h1(s),…,hNh(s)}を求める。但し、第(L2−1)層は、Nh個(但し、値Nhは、入力値Uの次元数Nよりも大きい整数である。)の中間ユニットからなるものとする。 Procedure [2]: learning each learning data D v (s), comprising the training data D v samples U (s) of (s), by setting the solution to the learning parameters W 2 determined in Step [1] As an input value to the later (L 2 +1) layer neural network, the output value H (s) = {h 1 (s),..., HN h of the (L 2 −1) layer constituting this neural network. (S)} is obtained. However, the (L 2 −1) -th layer is composed of N h intermediate units (where the value N h is an integer larger than the dimension number N of the input value U).
手順[3]:学習データDv(s)及び手順[2]で求めた各学習データDv(s)のサンプルU(s)に対応する値H(s)を用いて、次式 Procedure [3]: Using the learning data D v (s) and the value H (s) corresponding to the sample U (s) of each learning data D v (s) obtained in procedure [2],
このような手順[1]〜手順[3]によりパラメータγの解を求めれば、カーネルに設定すべきパラメータγの適値を計算により簡単に求めることができ、従来のように試行錯誤によりパラメータγの値を設定する場合よりも、適切な値を、パラメータγに設定することができる。 If the solution of the parameter γ is obtained by such procedure [1] to procedure [3], an appropriate value of the parameter γ to be set in the kernel can be easily obtained by calculation, and the parameter γ can be obtained by trial and error as in the past. than when setting the value, the appropriate value, Ru can be set to the parameter gamma.
尚、カーネルK(U,U(s),γ)としては、ガウシアンカーネルや、多項式カーネルを用いることができ、ガウシアンカーネルを用いる場合には、手順[3]において、Q’abを、次式で求めることになる。 As the kernel K (U, U (s), γ), a Gaussian kernel or a polynomial kernel can be used. When using the Gaussian kernel, Q′ab is expressed by the following equation in step [3]. ing to be determined in.
本発明の情報処理装置は、与えられた入力値X={x1,…,xN1}から、入力値Xに対応するカテゴリを表す値yを、所定の計算モデルにより算出して、入力値Xに対応するカテゴリを認識する認識システムの上記計算モデルの導出に用いられる情報処理装置であって、以下の取得手段、学習手段、新データ生成手段、サポートベクタマシン設計手段、及び、出力手段を備えるものである。 The information processing apparatus according to the present invention calculates a value y representing a category corresponding to the input value X from a given input value X = {x1,..., XN 1 } by using a predetermined calculation model. An information processing apparatus used for derivation of the calculation model of the recognition system for recognizing a category corresponding to the following, comprising the following acquisition means, learning means, new data generation means, support vector machine design means, and output means Is.
この情報処理装置においては、取得手段が、入力値XのサンプルX(s)及びこのサンプルが属するカテゴリを表す値y(s)の組合せからなるS個の学習データD(s)={X(s),y(s)}を取得し、学習手段が、取得手段が取得した各学習データD(s)に基づいて、上述の手順[a]により、ニューラルネットワークの学習パラメータW1の解を求める。 In this information processing apparatus, the acquisition means includes S pieces of learning data D (s) = {X ( s), y (s)}, and the learning means obtains a solution of the learning parameter W 1 of the neural network by the above-described procedure [a] based on each learning data D (s) obtained by the obtaining means. Ask.
また、新データ生成手段は、上述の手順[b]により、学習手段で求められた学習パラメータW1の解を設定してなる学習後の(L1+1)層のニューラルネットワークを用いて、取得手段が取得した各学習データD(s)に対応する新たな学習データDv(s)を生成し、サポートベクタマシン設計手段は、これら各学習データDv(s)に基づき、上述の手順[c]により、非線形サポートベクタマシンを設計する。 Further, the new data generation means is obtained by using the (L 1 +1) layer neural network after learning, in which the solution of the learning parameter W 1 obtained by the learning means is set by the procedure [b] described above. New learning data D v (s) corresponding to each learning data D (s) acquired by the means is generated, and the support vector machine designing means, based on each learning data D v (s), the above procedure [ c] to design a non-linear support vector machine.
そして、この情報処理装置においては、出力手段が、学習手段により求められた学習パラメータW1の解を表す情報、及び、サポートベクタマシン設計手段により設計された非線形サポートベクタマシンを表す情報を出力する。尚、非線形サポートベクタマシンを表す情報としては、非線形サポートベクタマシンとしての識別関数yを構成するパラメータαs及びパラメータβやカーネルのパラメータγ等の情報を挙げることができる。 In this information processing apparatus, the output means outputs information representing the solution of the learning parameter W 1 obtained by the learning means and information representing the nonlinear support vector machine designed by the support vector machine design means. . The information representing the non-linear support vector machine may include information such as the parameter α s and the parameter β constituting the discriminant function y as the non-linear support vector machine, the kernel parameter γ, and the like.
このように構成された情報処理装置を用いれば、ユーザは、情報処理装置に、学習データD(s)を与える程度で、簡単に、当該学習データD(s)に対応した認識システムの計算モデルにかかる情報を得ることができる。 If the information processing apparatus configured in this way is used, the user can easily provide the learning data D (s) to the information processing apparatus, and the calculation model of the recognition system corresponding to the learning data D (s) can be easily obtained. The information concerning can be obtained.
尚、新データ生成手段により、学習データD(s)のサンプルX(s)に基づいて算出した値Zを次元削減して、当該次元削減後の値V={v1,…,vN3}を、新たなサンプルU(s)として設定し、学習データDv(s)={U(s),y(s)}を生成する場合、出力手段は、学習手段により求められた学習パラメータW1の解を表す情報、及び、サポートベクタマシン設計手段により設計された非線形サポートベクタマシンを表す情報、並びに、値Zから前記値Vへの変換方法を表す情報を出力する構成にすることができる。 Note that the value Z calculated based on the sample X (s) of the learning data D (s) is dimension-reduced by the new data generating means, and the value V = {v1,..., VN 3 } after the dimension reduction is obtained. When the learning data D v (s) = {U (s), y (s)} is set as a new sample U (s), the output unit learns the learning parameter W 1 obtained by the learning unit. information representing the solution of, and information indicating the non-linear support vector machine designed by the support vector machine design means, and, Ru can be configured to output the information from the value Z representing the method of converting the value V .
このように構成された情報処理装置を用いれば、少ない演算量で認識行為を実現可能な認識システムの計算モデルを導出することができる。
尚、主成分分析の手法により求めたN3個のN2次元ベクトルJmを用いて、学習データD(s)のサンプルX(s)に基づいて算出した値Zを次元削減する場合、出力手段は、値Zから値Vへの変換方法を表す情報として、上記N3個のN2次元ベクトルJmを出力する構成にすることができる。
By using the information processing apparatus configured as described above, it is possible to derive a calculation model of a recognition system that can realize a recognition action with a small amount of calculation.
When the dimension Z of the value Z calculated based on the sample X (s) of the learning data D (s) is reduced using N 3 N two- dimensional vectors Jm obtained by the principal component analysis technique, output means as information indicating the conversion method from the value Z to a value V, Ru can be configured to output the N 3 pieces of N 2-dimensional vector Jm.
また、本発明の情報処理装置が備える上記取得手段、学習手段、新データ生成手段、サポートベクタマシン設計手段、及び、出力手段としての機能は、プログラムにより、コンピュータに実現させることができる。 Moreover, the acquisition unit of the information processing apparatus of the present invention is provided, the learning means, new data generation means, support vector machine design means, and, the function as the output unit, the program, Ru can be realized on the computer.
この他、本発明の設計装置は、与えられた入力値U={u1,…,uN}から、カテゴリを表す値yを算出する非線形サポートベクタマシンの設計装置であって、入力値UのサンプルU(s)及びこのサンプルが属するカテゴリを表す値y(s)の組合せからなるS個の学習データDv(s)={U(s),y(s)}(但し、s=1,…,Sである。)を取得する取得手段と、取得手段が取得したS個の学習データDv(s)に基づき、非線形サポートベクタマシンに採用するカーネルK(U,U(s),γ)のパラメータγの適値を、上述の手順[1]〜手順[3]により求める適値算出手段と、適値算出手段により求めたパラメータγの適値を設定したカーネルK(U,U(s),γ)を用いて、取得手段が取得したS個の学習データDv(s)に基づき、非線形サポートベクタマシンを設計する設計手段と、設計手段により設計された非線形サポートベクタマシンを表す情報を出力する出力手段と、を備えるものである。 In addition, design equipment of the present invention, the input value U = {u1, ..., uN } given from an apparatus for designing a nonlinear support vector machines for calculating a value y representing the category of the input value U S pieces of learning data D v (s) = {U (s), y (s)} consisting of a combination of a sample U (s) and a value y (s) representing a category to which the sample belongs (where s = 1 ,..., S)) and a kernel K (U, U (s), which is employed in the nonlinear support vector machine based on the S learning data D v (s) acquired by the acquisition unit. An appropriate value calculating means for obtaining an appropriate value of the parameter γ of γ) by the above-mentioned procedure [1] to procedure [3], and a kernel K (U, U) in which the appropriate value of the parameter γ obtained by the appropriate value calculating means is set. S learning data D v acquired by the acquiring means using (s), γ) On the basis of (s), a design means for designing a non-linear support vector machine and an output means for outputting information representing the non-linear support vector machine designed by the design means are provided.
この設計装置を用いれば、ユーザは、設計装置に学習データDv(s)を与える程度で、学習データDv(s)に好適な非線形サポートベクタマシンの情報を得ることができ、効率的に本発明の手法で、認識システムの計算モデルを導出することができる。 With this design apparatus, the user, to the extent that gives the training data D v (s) in the design system, it is possible to obtain information of the preferred nonlinear support vector machine learning data D v (s), effectively With the method of the present invention, a calculation model of the recognition system can be derived.
尚、本発明の設計装置は、カーネルK(U,U(s),γ)のパラメータγとして、ガウシアンカーネルのパラメータγの解を求める構成にすることができる。また、本発明の設計装置が備える取得手段、適値算出手段、設計手段、及び、出力手段としての機能は、プログラムにより、コンピュータに実現させることができる。 The design device of the present invention, the kernel K as a parameter (U, U (s), γ) γ, Ru can be configured to solving parameter gamma Gaussian kernel. Moreover, acquiring means for designing device comprises of the present invention, suitable value calculating means, the design unit, and the function as the output unit, the program, Ru can be realized on the computer.
以下に本発明の実施例について、図面と共に説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明が適用された第一実施例のモデル導出装置1の構成を表すブロック図である。図1に示すように、本実施例のモデル導出装置1は、周知のパーソナルコンピュータと同様、各種演算処理を行うCPU11と、ブートプログラム等を記憶するROM13と、プログラム実行時に作業領域として使用されるRAM15と、オペレーティングシステムやその他の各種プログラム・データを記憶するハードディスク装置17と、液晶ディスプレイからなる表示装置21と、キーボードやポインティングデバイス等で構成されるユーザインタフェース23と、フレキシブルディスクに対してデータ読み書き可能なドライブ装置25と、を備えた構成にされている。
FIG. 1 is a block diagram showing the configuration of a
このモデル導出装置1は、ハードディスク装置17に記録されたオペレーティングシステムにより動作し、例えば、ユーザインタフェース23を通じてプログラムの実行指令が入力されると、ユーザにより指定されたプログラムに基づいた処理を、当該オペレーティングシステムの管理下で、CPU11により実行する。
The
具体的に、モデル導出装置1は、認識システムの計算モデルを導出するためのモデル導出プログラムを、ハードディスク装置17に備えている。図2は、CPU11が、このモデル導出プログラムに従って実行するモデル導出処理を表すフローチャートである。
Specifically, the
CPU11は、ユーザインタフェース23を通じてモデル導出プログラムの実行指令が入力されると、図2に示す処理を実行し、認識システムの計算モデルとして、ニューラルネットワークと非線形サポートベクタマシンとを組み合わせてなる計算モデルの設計値を、データファイルに出力すると共に、表示装置21に出力する。
When the execution instruction of the model derivation program is input through the
図3(a)は、このモデル導出処理により導出される計算モデルの基本構成図である。本実施例では、入力値X={x1,…,xN1}(但し、N1は2以上の整数値である。)からカテゴリを表す値yを算出する認識システムの計算モデルとして、前半でニューラルネットワークにより演算を行い、後半では非線形サポートベクタマシンにより演算を行って、カテゴリを表す値yを算出する計算モデル、を導出する。尚、図3(b)は、本実施例で導出する計算モデルとの対比として、従来のニューラルネットワークで構成された認識システムの構成を表した図であり、図3(c)は、従来の非線形サポートベクタマシンで構成された認識システムの構成を表した図である。 FIG. 3A is a basic configuration diagram of a calculation model derived by this model derivation process. In this embodiment, as a calculation model of a recognition system for calculating a value y representing a category from input values X = {x1,..., XN1} (where N1 is an integer value of 2 or more), a neural network is used in the first half. In the second half, a calculation model for calculating a value y representing a category is derived by performing calculations using a nonlinear support vector machine. FIG. 3B is a diagram showing a configuration of a recognition system configured by a conventional neural network as a comparison with the calculation model derived in the present embodiment, and FIG. It is a figure showing the structure of the recognition system comprised with the nonlinear support vector machine.
図2に示すモデル導出処理を開始すると、CPU11は、まずS110にて、表示装置21に、GUI構成のファイル選択画面を表示し、ファイル選択画面を通じて、ユーザに、計算モデルのパラメータ学習に用いるデータが記録された読出対象のデータファイルを選択させる。具体的に、S110では、GUI構成のファイル選択画面に、ハードディスク装置17及びドライブ装置25に記録されたデータファイルであって、当該モデル導出プログラムに対応したデータファイルのリストを表示する。
When the model derivation process shown in FIG. 2 is started, the
そして、ファイル選択画面を通じ、読出対象のデータファイルが選択されると(S120でYes)、選択されたデータファイルを読み出し、このデータファイルの記述内容に従って、以降の処理で学習する三層フィードフォワードニューラルネットワークの入力ユニットの数N1を設定すると共に(S130)、このニューラルネットワークの中間ユニットの数N2を設定する(S140)。但し、設定するN1,N2は、2以上の整数値である。 Then, when a data file to be read is selected through the file selection screen (Yes in S120), the selected data file is read, and a three-layer feedforward neural network that learns in subsequent processing according to the description content of the data file The number N1 of network input units is set (S130), and the number N2 of intermediate units of the neural network is set (S140). However, N1 and N2 to be set are integer values of 2 or more.
また、S140の処理を終えると、読み出した上記データファイルの記述内容に従って、上記ニューラルネットワークとは別のニューラルネットワークであって、非線形サポートベクタマシンのカーネルパラメータの解を導出する際に用いるニューラルネットワークの中間ユニットの数Nhを設定し(S150)、その後、学習データの総数Sを設定する(S160)。但し、設定するNhは、N2よりも大きい2以上の整数値である。この処理を終えると、S170に移行する。 When the processing of S140 is finished, the neural network is different from the neural network according to the description content of the read data file, and the neural network used for deriving the kernel parameter solution of the nonlinear support vector machine The number Nh of intermediate units is set (S150), and then the total number S of learning data is set (S160). However, Nh to be set is an integer value of 2 or more larger than N2. When this process ends, the process proceeds to S170.
尚、図4(a)は、当該モデル導出処理で読み出されるデータファイルの構成を表した図である。図4(a)に示すように、当該モデル導出処理で読み出されるデータファイルには、入力ユニットの個数N1、中間ユニットの個数N2,Nh、学習データの総数Sについてのユーザ設定値が記述されており、S130〜S160では、この記述内容に従って、各パラメータN1,N2,Nh,Sの値を設定することになる。 FIG. 4A shows the structure of the data file read out in the model derivation process. As shown in FIG. 4A, in the data file read by the model derivation process, user set values for the number of input units N1, the number of intermediate units N2, Nh, and the total number S of learning data are described. In S130 to S160, the values of the parameters N1, N2, Nh, and S are set according to the description content.
また、当該データファイルには、学習データとして、入力値X={x1,x2,…,xN1}のサンプル及び当該サンプルが属するカテゴリを表す値y(+1又は−1)の組が、S個記述されており、S170〜S200では、この記述内容に従い、以降の処理に用いるS個の学習データD(1),D(2),…,D(S)を設定する。 Further, in the data file, as learning data, S sets of samples of the input value X = {x1, x2,..., XN1} and a value y (+1 or −1) representing the category to which the sample belongs are described. In S170 to S200, S pieces of learning data D (1), D (2),..., D (S) used for the subsequent processing are set according to the description content.
即ち、S170では、パラメータsを値1に設定し、S180では、データD(s)={X(s),y(s)}を構成するパラメータX(s)={x1(s),…,xN1(s)}に、当該データファイルで先頭からs番目に記述されたサンプルX={x1,x2,…,xN1}の値を設定し、データD(s)={X(s),y(s)}を構成するパラメータy(s)に、データファイルに記述された当該サンプルが属するカテゴリを表す値yを設定する。また、S190では、パラメータsの値を1加算し、S200では、加算後のパラメータsの値がサンプルの総数Sより大きいか否かを判断する。そして、s≦Sである場合には(S200でNo)、S180に移行し、s>Sである場合には、S210に移行する。このようにして、S170〜S200では、S個の学習データD(1),D(2),…,D(S)を設定する。
That is, the parameter s is set to the
また、S210に移行すると、CPU11は、S個の学習データD(1),…,D(S)に基づき、入力ユニットN1個、中間ユニットN2個、出力ユニット1個の三層フィードフォワードニューラルネットワークにおいて未知の学習パラメータW1={Wa(0,1),…,Wa(i,j),…,Wa(N1,N2),Wb(0),…,Wb(j),…,Wb(N2)}の解W1*を、各学習データD(s)の値y(s)を教師信号として、周知のバックプロパゲーション法により求める。
In S210, the
尚、図5(a)に示すように、パラメータWa(i,j)は、第i入力ユニット−第j中間ユニット間の結合係数に対応するパラメータであり、パラメータWb(j)は、第j中間ユニット−出力ユニット間の結合係数に対応するパラメータである。また、パラメータWa(0,j)は、第j中間ユニットの閾値に対応するパラメータであり、パラメータWb(0)は、出力ユニットの閾値に対応するパラメータである。 As shown in FIG. 5A, the parameter Wa (i, j) is a parameter corresponding to the coupling coefficient between the i-th input unit and the j-th intermediate unit, and the parameter Wb (j) is This is a parameter corresponding to the coupling coefficient between the intermediate unit and the output unit. The parameter Wa (0, j) is a parameter corresponding to the threshold value of the j-th intermediate unit, and the parameter Wb (0) is a parameter corresponding to the threshold value of the output unit.
即ち、S210では、学習パラメータW1の解W1*として、(N1・N2+N2)個の学習パラメータWa(i,j)(但し、i=0,1,…,N1、j=1,2,…,N2である。)の解Wa*(i,j)、及び、(N2+1)個の学習パラメータWb(j)(但し、j=0,1,…,N2である。)の解Wb*(j)を求める。 That is, in S210, as a solution W1 * learning parameters W1, (N1 · N2 + N2 ) number of learning parameters Wa (i, j) (where, i = 0,1, ..., N1 , j = 1,2, ..., Solution Wa * (i, j) of (N2) and solution Wb * (j of (N2 + 1) learning parameters Wb (j) (where j = 0, 1,..., N2). )
入力値をX={x1,…,xN1}とする入力ユニットN1個、中間ユニットN2個、出力ユニット1個の三層フィードフォワードニューラルネットワークの出力値yは、次式で表すことができる。但し、x0=1,z0=1である。また、関数f(x)は、非線形関数であり、本実施例では、シグモイド関数を採用する(f(x)=sig(x))。 The output value y of the three-layer feedforward neural network having N1 input units, N2 intermediate units, and one output unit with input values X = {x1,..., XN1} can be expressed by the following equation. However, x0 = 1 and z0 = 1. The function f (x) is a non-linear function, and in this embodiment, a sigmoid function is adopted (f (x) = sig (x)).
即ち、二乗誤差Eを、次式 That is, the square error E is expressed by the following equation:
また、S210での処理を終えると、CPU11は、S220に移行し、図6に示す新学習データ生成処理を実行する。図6は、CPU11が実行する新学習データ生成処理を表すフローチャートである。
When the process in S210 is completed, the
S220において、新学習データ生成処理を開始すると、CPU11は、まず、パラメータNを値N2に設定して、N=N2次元のパラメータU(s)(s=1,…,S)を生成する(S221)。また、パラメータsを値1に設定する(S222)。
When the new learning data generation process is started in S220, the
その後、S223に移行して、S210で算出した学習パラメータW1の解W1*を設定してなる三層フィードフォワードニューラルネットワークに、サンプルX(s)を入力したときの中間層の出力値Z={z1,…,zN2}を、学習データD(s)に基づき求める。 Thereafter, the process proceeds to S223, and the output value Z = {of the intermediate layer when the sample X (s) is input to the three-layer feedforward neural network in which the solution W1 * of the learning parameter W1 calculated in S210 is set. z1,..., zN2} are obtained based on the learning data D (s).
具体的には、次式に従って、中間層の出力値Zを算出する(但し、x0(s)=1とする。)。 Specifically, the output value Z of the intermediate layer is calculated according to the following equation (provided that x0 (s) = 1).
そして、s≦Sである場合には(S229でNo)、S223に移行する。このようにして、S223〜S229の処理を繰返し実行することにより、当該新学習データ生成処理では、s=1からs=Sの範囲で、各学習データD(s)から、学習データDv(s)を生成する。そして、全学習データD(s)について、新たな学習データDv(s)を生成し終えると、S229においてYesと判断し、当該新学習データ生成処理を終了する。 If s ≦ S (No in S229), the process proceeds to S223. In this way, by repeatedly executing the processing of S223 to S229, in the new learning data generation processing, from the learning data D (s) to the learning data Dv (s) in the range of s = 1 to s = S. ) Is generated. When generation of new learning data Dv (s) is completed for all learning data D (s), it is determined Yes in S229, and the new learning data generation processing ends.
また、S220において、新学習データ生成処理を終了すると、CPU11は、S230に移行し、図7に示すカーネルパラメータ設定処理を実行する。図7は、CPU11が実行するカーネルパラメータ設定処理を表すフローチャートである。
In S220, when the new learning data generation process ends, the
カーネルパラメータ設定処理を開始すると、CPU11は、入力ユニットN個、中間ユニットNh個、出力ユニット1個の三層フィードフォワードニューラルネットワークを新たな学習対象のニューラルネットワークに設定し、このニューラルネットワークにおいて未知の学習パラメータW2={Wc(0,1),…,Wc(j,k),…,Wc(N,Nh),Wd(0),…,Wd(Nh)}の解W2*を、S220で生成したS個の学習データDv(1),Dv(2),…,Dv(S)に基づき、学習データDv(s)が示す値y(s)を教師信号として、バックプロパゲーション法により求める(S231)。
When the kernel parameter setting process is started, the
尚、図5(b)に示すように、パラメータWc(j,k)は、第j入力ユニット−第k中間ユニット間の結合係数に対応するパラメータであり、パラメータWd(k)は、第k中間ユニット−出力ユニット間の結合係数に対応するパラメータである。また、パラメータWc(0,k)は、第k中間ユニットの閾値に対応するパラメータであり、パラメータWd(0)は、出力ユニットの閾値に対応するするパラメータである。 As shown in FIG. 5B, the parameter Wc (j, k) is a parameter corresponding to the coupling coefficient between the jth input unit and the kth intermediate unit, and the parameter Wd (k) is the kth This is a parameter corresponding to the coupling coefficient between the intermediate unit and the output unit. The parameter Wc (0, k) is a parameter corresponding to the threshold value of the k-th intermediate unit, and the parameter Wd (0) is a parameter corresponding to the threshold value of the output unit.
即ち、S231では、学習パラメータW2の解W2*として、(N・Nh+Nh)個の学習パラメータWc(j,k)(但し、j=0,1,…,N、k=1,2,…,Nhである。)の解Wc*(j,k)、及び、(Nh+1)個の学習パラメータWd(k)(但しk=0,1,…,Nhである。)の解Wd*(k)を求める。 That is, in S231, as the solution W2 * of learning parameters W2, (N · Nh + Nh ) number of learning parameters Wc (j, k) (however, j = 0,1, ..., N , k = 1,2, ..., Nh.) Solution Wc * (j, k) and solution Wd * (k) of (Nh + 1) learning parameters Wd (k) (where k = 0, 1,..., Nh). Ask for.
入力値をU={u1,…,uN}とする入力ユニットN個、中間ユニットNh個、出力ユニット1個の三層フィードフォワードニューラルネットワークの出力値yは、次式で表すことができる(但し、u0=1,h0=1とする。)。 The output value y of the three-layer feedforward neural network with N input units, Nh intermediate units, and one output unit with input values U = {u1,..., UN} can be expressed as , U0 = 1 and h0 = 1.)
また、S231での処理を終えると、CPU11は、パラメータsを値1に設定し(S232)、その後、S233に移行する。
また、S233に移行すると、CPU11は、S231で算出した学習パラメータW2の解W2*を設定してなる三層フィードフォワードニューラルネットワークに、サンプルU(s)を入力したときの中間層の出力値H(s)={h1(s),…,hNh(s)}を、学習データDv(s)に基づき求める。
When the process in S231 is completed, the
When the process proceeds to S233, the
具体的には、次式に従って、中間層の出力値Hを算出する(但し、u0(s)=1である。)。 Specifically, the output value H of the intermediate layer is calculated according to the following equation (provided that u0 (s) = 1).
また、S236に移行すると、CPU11は、第a行第b列の要素Qabが、H(s=a)とH(s=b)との内積<H(a),H(b)>で表されるS行S列の行列Qを算出する。
In S236, the
また、S237での処理を終えると、CPU11は、算出した解γ*をカーネルK(U,U(s),γ)のパラメータγに設定して、非線形サポートベクタマシンの設計に用いるカーネルKを、次のように設定する(S238)。
When the processing in S237 is completed, the
また、S230におけるカーネルパラメータ設定処理を終了すると、CPU11は、S240に移行し、非線形サポートベクタマシンを設計する。
具体的に、S240では、非線形サポートベクタマシンにおける未知のパラメータαs,βの解αs *,β*を、周知の技法と同様、次の拘束条件付二次最適化問題を解くことにより得る。
When the kernel parameter setting process in S230 ends, the
Specifically, in S240, the solutions α s * and β * of the unknown parameters α s and β in the nonlinear support vector machine are obtained by solving the following constrained secondary optimization problem as in the known technique. .
即ち、拘束条件 That is, restraint conditions
また、パラメータβの解β*は、ゼロでないαs *(s=1,2,…,S)に対応するU(s)、即ちサポートベクタを用いて、次式により得る。 Further, a solution β * of the parameter β is obtained by the following equation using U (s) corresponding to α s * (s = 1, 2,..., S) that is not zero, that is, a support vector.
また、この処理を終えると、CPU11は、S260に移行し、入力値X={x1,…,xi,…,xN1}から上述した中間層の出力値Z=U={u1,…,uj,…,uN}への変換式
When this process is finished, the
尚、このようにしてモデル導出装置1から出力される学習データD(1),…,D(S)に対応する計算モデルの導出結果は、認識システムの設計者により利用される。即ち、この導出結果に従って、認識システムは、入力値Xから上記ニューラルネットワークにおける出力層より1層手前の中間層の出力値Zを算出し、この出力値Zを非線形サポートベクタマシンの入力値Uとして、当該非線形サポートベクタマシンの出力値yを算出し、入力値Xに対応するカテゴリを認識する構成にされる。
Note that the calculation model derivation result corresponding to the learning data D (1),..., D (S) output from the
図8は、上述のモデル導出装置1により導出された計算モデルが搭載されてなる認識装置30の構成例を示したブロック図である。この認識装置30は、特徴抽出部31と、認識部33と、出力インタフェース35と、を備え、音声データや画像データなどの認識対象パターンが外部より入力されると、特徴抽出部31により、認識対象パターンの特徴を抽出してN1次元の特徴ベクトルを生成し、これを認識部33への入力X={x1,…,XN1}とする。
FIG. 8 is a block diagram showing a configuration example of the
また、認識部33は、特徴抽出部31より特徴ベクトルX={x1,…,XN1}が入力されると、次の認識処理を実行する。図9は、認識部33が実行する認識処理を表すフローチャートである。
Further, when the feature vector X = {x1,..., XN1} is input from the
認識処理を開始すると、認識部33は、まず入力値X={x1,…,XN1}を、N次元のベクトルU={u1,…,uN}に変換する(S310)。但し、ベクトルUの第j要素の値ujは、次の値を採る。
When the recognition process is started, the
また、この処理を終えると、認識部33は、算出したベクトルUに基づき、次式により、カテゴリを表す値yを算出する(S320)。
When this process is finished, the
そして、S320の処理を終えると、認識部33は、算出したカテゴリを表す値yを、入力パターンの認識結果として、出力インタフェース35を通じて出力する(S330)。その後、当該認識処理を終了する。尚、このようにして、認識装置30から出力されるカテゴリを表す値yは、後段の情報処理装置(図示せず)に入力され、この認識結果に対応する処理が、当該情報処理装置にて実行される。
When the process of S320 is completed, the
以上、第一実施例のモデル導出装置1及び認識装置30の構成について説明したが、本実施例では、認識システムの計算モデルとして、ニューラルネットワークと非線形サポートベクタマシンとを組み合わせた計算モデルを導出するようにした。具体的には、任意の認識対象に対して好適な計算モデルを導出するために、まずS個の各学習データD(s)が示す入力値XのサンプルX(s)及び教師信号y(s)に基づき、ニューラルネットワークを学習し、学習したニューラルネットワークにより、サンプルX(s)を、線形分離しやすい値Zに変換して、新たな学習データDv(s)を生成するようにした。そして、この学習データDv(s)に基づき、非線形サポートベクタマシンを設計することにより、サンプルをカテゴリ毎に分離可能な非線形サポートベクタマシンを求め、入力値Xに対応するカテゴリを精度よく認識可能な計算モデルを導出するようにした。
The configuration of the
従来知られるニューラルネットワークの学習方法では、学習パラメータW1の解として、局所解しか得られないため、最適なニューラルネットワークを構成することができる理論的な保証がなかったが、本実施例では、理論的に最適解を求めることが可能な非線形サポートベクタマシンを用いて計算モデルを導出しているので、学習データに基づき最適な認識システムの計算モデルを導出することができる。 In the conventionally known neural network learning method, only a local solution can be obtained as a solution of the learning parameter W1, and thus there is no theoretical guarantee that an optimal neural network can be configured. Since the calculation model is derived using a non-linear support vector machine capable of obtaining an optimal solution, an optimal recognition system calculation model can be derived based on the learning data.
また、ニューラルネットワークでは、学習データ外の入力があった場合に、これを十分正確に認識することができないが、本実施例では、非線形サポートベクタマシンを用いて計算モデルを導出しているので、学習データ外のパターン入力に対しても良好な認識結果を得ることが可能な計算モデルを導出することができる。 In addition, in the neural network, when there is an input outside the learning data, this cannot be recognized sufficiently accurately, but in this example, since a calculation model is derived using a nonlinear support vector machine, It is possible to derive a calculation model capable of obtaining a good recognition result even for pattern input outside the learning data.
また、従来の非線形サポートベクタマシンの設計方法では、サンプルX(s)が元々高い線形分離性を示さないと、好適な非線形サポートベクタマシンを設計することができないといった問題があったが、本実施例のモデル導出装置1では、入力値X(s)を線形分離しやすい値Z(s)に置換して非線形サポートベクタマシンを設計するので、従来よりも様々な認識システムに対して、非線形サポートベクタマシンの手法を採用することができる。
Further, the conventional nonlinear support vector machine design method has a problem that a suitable nonlinear support vector machine cannot be designed unless the sample X (s) originally exhibits high linear separation. In the
この他、本実施例では、非線形サポートベクタマシンに用いるカーネルのパラメータγについても学習データDv(s)に基づき学習するようにしたので、従来のように、設計者が試行錯誤によりパラメータγの値を設定する必要がなく、認識システムの設計を効率的に行うことができる。 In addition, in this embodiment, since the kernel parameter γ used in the nonlinear support vector machine is also learned based on the learning data Dv (s), the value of the parameter γ is determined by the designer through trial and error as in the past. Therefore, the recognition system can be designed efficiently.
続いて、第二実施例のモデル導出装置1及び認識装置30について説明する。第二実施例のモデル導出装置1は、CPU11が実行するモデル導出処理及び新学習データ生成処理の内容が、第一実施例のモデル導出装置1と異なる程度であり、第二実施例の認識装置30は、認識部33で実行する認識処理の内容が、第一実施例の認識装置30と異なる程度である。従って、以下では、上記異なる処理の内容を、図10及び図11を用いて説明するに留める。
Next, the
図10(a)は、第二実施例においてCPU11が実行するモデル導出処理を表したフローチャートであり、処理の後半部分を抜粋して示した図である。また、図10(b)は、第二実施例においてCPU11が実行する新学習データ生成処理を表すフローチャートである。
FIG. 10A is a flowchart showing a model derivation process executed by the
第二実施例において、CPU11は、モデル導出処理を開始すると、第一実施例と同様に、S110からS210までの処理を実行し、その後のS400にて、図10(b)に示す新学習データ生成処理を実行する。
In the second embodiment, when starting the model derivation process, the
この新学習データ生成処理を開始すると、CPU11は、まず、パラメータsを値1に設定する(S410)。その後、S210で算出した学習パラメータW1の解W1*を設定してなる三層フィードフォワードニューラルネットワークに、サンプルX(s)を入力したときの中間層の出力値Z(s)={z1(s),…,zN2(s)}を、学習データD(s)に基づき求める(S420)。
When the new learning data generation process is started, the
具体的には、次式に従って、中間層の出力値Z(s)を算出する(但し、x0(s)=1とする。)。 Specifically, the output value Z (s) of the intermediate layer is calculated according to the following equation (provided that x0 (s) = 1).
そして、s≦Sである場合には(S430でNo)、S420に移行する。このようにして、S420〜S430の処理を繰返し実行することにより、当該新学習データ生成処理では、s=1からs=Sまでの範囲において、各学習データD(s)のサンプルX(s)を入力したときの中間層の出力値Z(s)={z1(s),…,zN2(s)}を求める。 If s ≦ S (No in S430), the process proceeds to S420. In this way, by repeatedly executing the processing of S420 to S430, in the new learning data generation processing, the sample X (s) of each learning data D (s) in the range from s = 1 to s = S. The output value Z (s) = {z1 (s),..., ZN2 (s)} of the intermediate layer when.
そして、全学習データD(s)のサンプルX(s)について、対応する中間層の出力値Z(s)={z1(s),…,zN2(s)}を求め終えると、S430においてYesと判断し、S440に移行する。 When the output value Z (s) = {z1 (s),..., ZN2 (s)} of the corresponding intermediate layer is obtained for the sample X (s) of all the learning data D (s), Yes in S430. And the process proceeds to S440.
S440に移行すると、CPU11は、算出したZ(1),…,Z(S)の平均値μ={μ1,…,μN2}を、次式に従って算出する。
After shifting to S440, the
このようにしてS455での処理を終えると、CPU11は、S460に移行し、パラメータNを主軸の個数N3に設定して、N=N3次元のパラメータU(s)(s=1,…,S)を生成する(S460)。また、パラメータsを値1に設定する(S465)。
When the processing in S455 is completed in this way, the
その後、S420の処理で算出したZ(s)を、主軸J1,…,Jm,…,JN3を用いて、N3次元のベクトルV={v1,…,vm,…,vN3}に変換する(S470)。尚、このベクトルVにおける第m要素の値vmは、次式で算出される。 Thereafter, Z (s) calculated in the process of S420 is converted into an N3-dimensional vector V = {v1,..., Vm,..., VN3} using the main axes J1,. ). Note that the value vm of the m-th element in this vector V is calculated by the following equation.
そして、s≦Sである場合には(S490でNo)、S470に移行する。このようにして、S470〜S490の処理を繰返し実行することにより、当該新学習データ生成処理では、s=1からs=Sまでの範囲において、各学習データD(s)に基づいて算出したZ(s)から、学習データDv(s)を生成する。そして、全学習データD(s)について、新たな学習データDv(s)を生成し終えると、S490でYesと判断し、当該新学習データ生成処理を終了する。 If s ≦ S (No in S490), the process proceeds to S470. In this way, by repeatedly executing the processing of S470 to S490, in the new learning data generation processing, Z calculated based on each learning data D (s) in the range from s = 1 to s = S. Learning data Dv (s) is generated from (s). When generation of new learning data Dv (s) has been completed for all learning data D (s), it is determined Yes in S490, and the new learning data generation processing ends.
S400での新学習データ生成処理を終了すると、CPU11は、S500に移行し、第一実施例と同様にカーネルパラメータ設定処理を実行して、パラメータγの解γ*を求める。その後、S510に移行する。
When the new learning data generation process in S400 is completed, the
また、S510に移行すると、CPU11は、学習データDv(1),…,Dv(S)及びパラメータγの解γ*を用いて、非線形サポートベクタマシンを設計する。即ち、S240と同様にして、拘束条件付二次最適化問題を解き、非線形サポートベクタマシンにおける未知のパラメータαs,βの解αs *,β*を、求める。
In S510, the
このようにして、S510で非線形サポートベクタマシンのパラメータαs,βの解αs *,β*を算出すると、CPU11は、S520に移行し、上述のS210で算出した学習パラメータWa(i,j)の解Wa*(i,j)、即ち、中間層の出力値Zの算出に必要な学習パラメータWa(i,j)の解Wa*(i,j)、及び、ベクトルZからベクトルVへの変換に必要な主軸J1,…,JN3、S510で設計した非線形サポートベクタマシンのパラメータαs,β,γの解αs *,β*,γ*を記述したデータファイルを生成し、これを、ハードディスク装置17に書き込む。具体的に、S520では、図4(b)に示す記述に対して、更に、N3個の主軸J1,J2,…,JN3の値を記述して、データファイルを生成し、これを、ハードディスク装置17に書き込む。
In this manner, when the solutions α s * and β * of the parameters α s and β of the nonlinear support vector machine are calculated in S510, the
また、この処理を終えると、CPU11は、S530に移行し、入力値X={x1,…,xi,…,xN1}から上述したベクトルV=U={u1,…,um,…,uN}への変換式
When this process is finished, the
以上、第二実施例のモデル導出処理について説明したが、第二実施例では、この出力結果に基づき、入力値Xから上記ニューラルネットワークの出力層より1層手前の中間層の出力値Zを算出し、この出力値Zを、N3個のN2次元ベクトルJmを用いて次元削減し、次元削減後の値Vを非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデルが、認識装置30に搭載されることになる。
The model derivation process of the second embodiment has been described above. In the second embodiment, based on this output result, the output value Z of the intermediate layer one layer before the output layer of the neural network is calculated from the input value X. Then, the dimension of the output value Z is reduced using N3 N2-dimensional vectors Jm, and the output value y of the nonlinear support vector machine is calculated using the dimension-reduced value V as the input value U of the nonlinear support vector machine. The calculation model is mounted on the
続いて、この計算モデルが搭載された第二実施例の認識装置30の認識部33が実行する認識処理について説明する。図11は、第二実施例の認識部33が実行する認識処理を表すフローチャートである。
Subsequently, a recognition process executed by the
特徴抽出部31から特徴ベクトルXが入力されて、図11に示す認識処理を開始すると、認識部33は、まず入力値X={x1,…,XN1}を、N2次元のベクトルZ={z1,…,zN2}に変換する(S610)。但し、ベクトルZの第j(j=1,2,…,N2)要素の値zjは、次の値を採る。
When the feature vector X is input from the
また、この処理を終えると、認識部33は、算出したベクトルZを、次式に従い次元削減して、N次元のベクトルU={u1,…,um,…,uN}に変換する(S620)。尚、ベクトルJmは、設計段階でモデル導出装置1により算出された主軸に対応するものである。
When this processing is completed, the
そして、S630の処理を終えると、認識部33は、算出したカテゴリを表す値yを、入力パターンの認識結果として、出力インタフェース35を通じて出力する(S640)。その後、当該認識処理を終了する。
When the processing of S630 is completed, the
以上、第二実施例のモデル導出装置1及び認識装置30の動作について説明したが、本実施例によれば、ニューラルネットワークの中間層の出力値Zを次元削減するため、少ない演算量でパターン認識可能な認識システムの計算モデルを導出することができ、大変便利である。
The operation of the
尚、本発明の情報処理装置が備える取得手段は、上記実施例においてS110〜S200の処理により実現され、学習手段は、S210の処理により実現されている。また、新学習データ生成手段は、第一実施例においてS220の処理により実現され、第二実施例においてS400の処理により実現されている。 Note that the acquisition means included in the information processing apparatus of the present invention is realized by the processing of S110 to S200 in the above embodiment, and the learning means is realized by the processing of S210. Further, the new learning data generating means is realized by the process of S220 in the first embodiment, and is realized by the process of S400 in the second embodiment.
また、サポートベクタマシン設計手段は、第一実施例においてS230及びS240の処理により実現され、第二実施例においてS500及びS510の処理により実現されている。その他、出力手段は、第一実施例においてS250〜S260の処理により実現され、第二実施例においてS520〜S530の処理により実現されている。 Further, the support vector machine design means is realized by the processes of S230 and S240 in the first embodiment, and is realized by the processes of S500 and S510 in the second embodiment. In addition, an output means is implement | achieved by the process of S250-S260 in a 1st Example, and is implement | achieved by the process of S520-S530 in a 2nd Example.
この他、本発明の設計装置が備える取得手段は、第一実施例においてS220の処理により実現され、第二実施例においてS400の処理により実現されている。また、適値算出手段は、カーネルパラメータ設定処理により実現され、設計手段は、第一実施例においてS240の処理により実現され、第二実施例においてS510の処理により実現されている。 In addition, the acquisition means provided in the design apparatus of the present invention is realized by the process of S220 in the first embodiment, and is realized by the process of S400 in the second embodiment. The appropriate value calculation means is realized by the kernel parameter setting process, and the design means is realized by the process of S240 in the first embodiment, and is realized by the process of S510 in the second embodiment.
また、本発明は、上記実施例に限定されるものではなく、種々の態様を採ることができる。
例えば、上記実施例では、ガウシアンカーネルを用いた非線形サポートベクタマシンを設計するようにしたが、多項式カーネルなどの他のカーネルを用いて非線形サポートベクタマシンを設計してもよい。また、カーネルを用いずに、非線形サポートベクタマシンを設計してもよい。
Further, the present invention is not limited to the above-described embodiments, and can take various forms.
For example, in the above-described embodiment, the nonlinear support vector machine using the Gaussian kernel is designed, but the nonlinear support vector machine may be designed using another kernel such as a polynomial kernel. Further, a non-linear support vector machine may be designed without using a kernel.
カーネルを用いずに、非線形サポートベクタマシンを設計する場合には、例えば、 When designing a non-linear support vector machine without using a kernel, for example,
この他、S330,S640の処理では、カテゴリを表す値yと共に、認識結果(値y)の確度を表す情報を、出力インタフェース35を通じて出力するように、認識装置30を構成してもよい。
In addition, in the processes of S330 and S640, the
具体的に、認識結果の確度を表す情報としては、値yを算出する際にS320,S630で求められる非線形サポートベクタマシンを構成する符号関数への入力値pの絶対値|p|を、採用することができる。 Specifically, as the information representing the accuracy of the recognition result, the absolute value | p | of the input value p to the sign function constituting the nonlinear support vector machine obtained in S320 and S630 when the value y is calculated is adopted. can do.
従って、認識結果(値y)と共に、このような確度を表す情報(値|p|)を出力するように認識装置30を構成すれば、出力先の情報処理装置にて、確度を表す情報から認識処理のやり直しの要否を判断することができて、確度が低い場合には、例えば、認識対象としての音声をユーザに再度発声させることにより、認識処理をやり直すことができる。
Therefore, if the
1…モデル導出装置、11…CPU、13…ROM、15…RAM、17…ハードディスク装置、21…表示装置、23…ユーザインタフェース、25…ドライブ装置、30…認識装置、31…特徴抽出部、33…認識部、35…出力インタフェース
DESCRIPTION OF
Claims (17)
学習対象のニューラルネットワークとして、第0層をN1個の入力ユニットからなる入力層とし、第L1層を出力層とした(L1+1)層のニューラルネットワーク(但し、値L1は2以上の整数である。)を設定し、このニューラルネットワークにおいて未知数の学習パラメータW1を、前記各学習データD(s)の値y(s)を教師信号として用いて、前記S個の学習データD(s)に基づき学習し、前記学習パラメータW1の解を求める手順[a]と、
前記手順[a]で求めた学習パラメータW1の解を設定してなる学習後の前記(L1+1)層のニューラルネットワークを用いて、前記各学習データD(s)に対応する新たな学習データDv(s)を生成する手順であって、前記各学習データD(s)毎に、学習データD(s)のサンプルX(s)を、学習後の前記(L1+1)層のニューラルネットワークへの入力値Xとして、このニューラルネットワークを構成するN2個(但し、値N2は2以上の整数である。)の中間ユニットからなる第(L1−1)層の出力値Z={z1,…,zN2}を求め、前記求めた出力値Zを新たなサンプルU(s)として設定し、前記設定した新たなサンプルU(s)、及び、前記学習データD(s)が示す値y(s)の組合せからなるデータDv(s)={U(s),y(s)}を、前記学習データD(s)に対応する新たな学習データDv(s)として生成する手順[b]と、
前記手順[b]で生成した各学習データDv(s)に基づき、入力値U={u1,…,uN}(但し、値Nは、入力値Uのサンプルとされる前記学習データDv(s)のサンプルU(s)の次元数である。)に対応するカテゴリを表す値yを算出する非線形サポートベクタマシンを設計する手順[c]と、
を含み、
前記学習後の(L1+1)層のニューラルネットワークにおける第(L1−1)層の出力値Zを演算可能な計算モデルと、前記手順[c]で設計した非線形サポートベクタマシンと、を組み合わせてなる計算モデルであって、入力値Xから前記第(L1−1)層の出力値Zを算出し、この出力値Zを前記非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデル
を、前記認識システムの計算モデルとして導出するモデル導出方法
によって導出された前記計算モデルを用いて、与えられた入力値X={x1,…,xN 1 }から、前記入力値Xに対応するカテゴリを表す値yを算出し、前記入力値Xに対応するカテゴリを認識することを特徴とする認識システム。 From a given input value X = {x1,..., XN 1 } (where the value N 1 is an integer of 2 or more), a value y representing a category corresponding to the input value X is calculated in a predetermined manner. calculated by the model, the calculation model of recognizing systems the category corresponding to the input value X, the input value X of the sample X (s) and the value y representing the category to which the sample belongs (s) A method of deriving based on arbitrary S pieces of learning data D (s) = {X (s), y (s)} (where s = 1,..., S) composed of combinations. ,
As a learning target neural network, a (L 1 +1) layer neural network in which the 0th layer is an input layer composed of N 1 input units and the L 1 layer is an output layer (however, the value L 1 is 2 or more) In this neural network, an unknown number of learning parameters W 1 are used as the training signal D by using the value y (s) of each learning data D (s) as a teacher signal. A procedure [a] for learning based on (s) and obtaining a solution of the learning parameter W 1 ;
New learning corresponding to each learning data D (s) is performed using the neural network of the (L 1 +1) layer after learning obtained by setting the solution of the learning parameter W 1 obtained in the procedure [a]. A procedure for generating data D v (s), for each learning data D (s), a sample X (s) of learning data D (s) is stored in the (L 1 +1) layer after learning. As an input value X to the neural network, an output value Z of the (L 1 −1) -th layer composed of N 2 (the value N 2 is an integer of 2 or more) intermediate units constituting this neural network. = {Z1,..., ZN 2 }, the obtained output value Z is set as a new sample U (s), the set new sample U (s), and the learning data D (s) a combination of the values y (s) indicated by the data D v (s) {U (s), y ( s)} a, the procedure [b] generating said as learning data D new learning data corresponding to the (s) D v (s) ,
Based on the learning data D v (s) generated in the procedure [b], the input value U = {u1,..., UN} (where the value N is the learning data D v used as a sample of the input value U). (C is the number of dimensions of the sample U (s) in (s).) A procedure [c] for designing a nonlinear support vector machine that calculates a value y representing a category corresponding to
Including
A combination of a calculation model capable of calculating the output value Z of the (L 1 -1) layer in the neural network of the (L 1 +1) layer after learning and the nonlinear support vector machine designed in the step [c] The output model Z of the (L 1 −1) layer is calculated from the input value X, and the output value Z is used as the input value U of the nonlinear support vector machine. A model derivation method for deriving a calculation model for calculating an output value y as a calculation model of the recognition system
The value y representing the category corresponding to the input value X is calculated from the given input value X = {x1,..., XN 1 } using the calculation model derived by A recognition system characterized by recognizing a category to be performed.
前記手順[b]では、前記各学習データD(s)毎に、学習データD(s)のサンプルX(s)に基づいて算出した前記値Zを、所定のアルゴリズムにより次元削減し、当該次元削減後の値V={v1,…,vN3}(但し、値N3は値N2より小さい2以上の整数である。)を、前記新たなサンプルU(s)として設定して、前記学習データDv(s)={U(s),y(s)}を生成し、
前記認識システムの計算モデルとして、
入力値Xから前記第(L1−1)層の出力値Zを算出し、この出力値Zを前記所定のアルゴリズムにより次元削減して、前記出力値Zを、N3次元の値V={v1,…,vN3}に変換し、変換後の値Vを前記非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデルを、導出するモデル導出方法であること
を特徴とする請求項1記載の認識システム。 The model derivation method is:
In the step [b], for each learning data D (s), the value Z calculated based on the sample X (s) of the learning data D (s) is reduced in dimension by a predetermined algorithm, and the dimension The value V = {v1,..., VN 3 } after reduction (where the value N 3 is an integer of 2 or more smaller than the value N 2 ) is set as the new sample U (s), and Learning data D v (s) = {U (s), y (s)} is generated,
As a calculation model of the recognition system,
The output value Z of the (L 1 −1) -th layer is calculated from the input value X, the dimension of the output value Z is reduced by the predetermined algorithm, and the output value Z is converted into an N 3 -dimensional value V = { v1,..., vN 3 }, and a model derivation method for deriving a calculation model for calculating the output value y of the nonlinear support vector machine using the converted value V as the input value U of the nonlinear support vector machine. recognition system according to claim 1, wherein a.
前記手順[b]では、前記各学習データD(s)毎に、学習データD(s)のサンプルX(s)に基づいて算出した前記値Zを、主成分分析の手法により求めたN3個のN2次元ベクトルJm(但し、m=1,…,N3である。)を用いて次元削減することにより、前記値Zを、第m要素の値vmがベクトルJmと前記値Zとの内積<Jm,Z>で表されるN3次元の値V={v1,…,vN3}に変換し、当該次元削減後の値V={v1,…,vN3}を、前記新たなサンプルU(s)として設定して、前記学習データDv(s)={U(s),y(s)}を生成し、
前記認識システムの計算モデルとして、
入力値Xから前記第(L1−1)層の出力値Zを演算し、この出力値Zを、前記N3個のN2次元ベクトルJmを用いて次元削減し、次元削減後の値Vを前記非線形サポートベクタマシンの入力値Uとして当該非線形サポートベクタマシンの出力値yを算出する計算モデルを、導出するモデル導出方法であること
を特徴とする請求項2記載の認識システム。 The model derivation method is:
In the step [b], for each learning data D (s), the value Z calculated based on the sample X (s) of the learning data D (s) is obtained by the principal component analysis method N 3. number of N 2-dimensional vector Jm (where, m = 1, ..., a N 3.) by dimension reduction using, the value Z, the value of the m element vm is said value Z vector Jm inner product <Jm, Z> value of N 3-dimensional represented by V = {v1, ..., vN 3} is converted to a value V = after the dimension reduction {v1, ..., vN 3}, said new The learning data D v (s) = {U (s), y (s)} is set as a simple sample U (s),
As a calculation model of the recognition system,
The output value Z of the (L 1 −1) -th layer is calculated from the input value X, the output value Z is dimension-reduced using the N 3 N 2- dimensional vectors Jm, and the value V after dimension reduction is obtained. The recognition system according to claim 2, wherein the model is a model derivation method for deriving a calculation model for calculating an output value y of the nonlinear support vector machine with the input value U of the nonlinear support vector machine.
前記手順[a]では、バックプロパゲーション法により、前記学習パラメータW1の解を求めるモデル導出方法であること
を特徴とする請求項1〜請求項3のいずれかに記載の認識システム。 The model derivation method is:
4. The recognition system according to claim 1, wherein the procedure [a] is a model derivation method for obtaining a solution of the learning parameter W 1 by a back-propagation method. 5.
前記手順[c]では、入力値Uからカテゴリを表す値yを算出する前記非線形サポートベクタマシンについて、当該非線形サポートベクタマシンを構成するカーネルK(U,U(s),γ)のパラメータγの適値を、次の手順[1]〜手順[3]により求め、当該適値をパラメータγに設定したカーネルK(U,U(s),γ)を用いて、前記非線形サポートベクタマシンを設計するモデル導出方法であること
を特徴とする請求項1〜請求項4のいずれかに記載の認識システム。
[1]学習対象のニューラルネットワークとして、第0層をN個の入力ユニットからなる入力層とし、第L2層を出力層とした(L2+1)層のニューラルネットワーク(但し、値L2は2以上の整数である。)を設定し、このニューラルネットワークにおいて未知数の学習パラメータW2を、前記各学習データDv(s)の値y(s)を教師信号として用いて、前記S個の学習データDv(s)に基づき学習し、前記学習パラメータW2の解を求める。
[2]前記各学習データDv(s)毎に、学習データDv(s)のサンプルU(s)を、前記手順[1]で求めた学習パラメータW2の解を設定してなる学習後の前記(L2+1)層のニューラルネットワークへの入力値として、このニューラルネットワークを構成するNh個(但し、値Nhは、入力値Uの次元数Nよりも大きい整数である。)の中間ユニットからなる第(L2−1)層の出力値H(s)={h1(s),…,hNh(s)}を求める。
[3]前記学習データDv(s)及び前記手順[2]で求めた各学習データDv(s)のサンプルU(s)に対応する値H(s)を用いて、次式
In the procedure [c], for the nonlinear support vector machine that calculates the value y representing the category from the input value U, the parameter γ of the kernel K (U, U (s), γ) constituting the nonlinear support vector machine is changed. The nonlinear support vector machine is designed using the kernel K (U, U (s), γ) in which the appropriate value is obtained by the following procedure [1] to procedure [3] and the appropriate value is set as the parameter γ. The recognition system according to claim 1, wherein the recognition system is a model derivation method .
[1] As a learning target neural network, a (L 2 +1) layer neural network in which the 0th layer is an input layer made up of N input units and the L 2 layer is an output layer (where the value L 2 is And an unknown number of learning parameters W 2 in the neural network, the value y (s) of each learning data D v (s) as a teacher signal, and the S number of learning parameters W 2 . Learning is performed based on the learning data D v (s), and a solution of the learning parameter W 2 is obtained.
[2] Learning obtained by setting a solution of the learning parameter W 2 obtained in the procedure [1] for a sample U (s) of the learning data D v (s) for each learning data D v (s). As input values to the neural network of the later (L 2 +1) layer, N h pieces constituting the neural network (however, the value N h is an integer larger than the dimension number N of the input value U). The output value H (s) = {h1 (s),..., HN h (s)} of the (L 2 −1) -th layer consisting of the intermediate units is obtained.
[3] Using the learning data D v (s) and the value H (s) corresponding to the sample U (s) of each learning data D v (s) obtained in the procedure [2],
の前記計算モデルの導出に用いられる情報処理装置であって、
前記入力値XのサンプルX(s)及びこのサンプルが属するカテゴリを表す値y(s)の組合せからなるS個の学習データD(s)={X(s),y(s)}(但し、s=1,…,Sである。)を取得する取得手段と、
第0層がN1個の入力ユニットからなる入力層として構成され、第L1層が出力層として構成された(L1+1)層のニューラルネットワーク(但し、値L1は2以上の整数である。)において未知数の学習パラメータW1を、前記取得手段が取得した各学習データD(s)の値y(s)を教師信号として用いて、前記取得手段が取得したS個の学習データD(s)に基づき学習し、前記学習パラメータW1の解を求める学習手段と、
前記学習手段で求められた学習パラメータW1の解を設定してなる学習後の前記(L1+1)層のニューラルネットワークを用いて、前記取得手段が取得した各学習データD(s)に対応する新たな学習データDv(s)を生成するものであって、前記各学習データD(s)毎に、学習データD(s)のサンプルX(s)を、学習後の前記(L1+1)層のニューラルネットワークへの入力値Xとして、このニューラルネットワークを構成するN2個(但し、値N2は2以上の整数である。)の中間ユニットからなる第(L1−1)層の出力値Z={z1,…,zN2}を求め、前記求めた出力値Zを新たなサンプルU(s)として設定し、前記設定した新たなサンプルU(s)、及び、前記学習データD(s)が示す値y(s)の組合せからなるデータDv(s)={U(s),y(s)}を、前記学習データD(s)に対応する新たな学習データDv(s)として生成する新データ生成手段と、
前記新データ生成手段により生成された各学習データDv(s)に基づき、入力値U={u1,…,uN}(但し、値Nは、入力値Uのサンプルとされる前記学習データDv(s)のサンプルU(s)の次元数である。)に対応するカテゴリを表す値yを算出する非線形サポートベクタマシンを設計するサポートベクタマシン設計手段と、
前記学習手段により求められた学習パラメータW1の解を表す情報、及び、前記サポートベクタマシン設計手段により設計された前記非線形サポートベクタマシンを表す情報を出力する出力手段と、
を備えることを特徴とする情報処理装置。 From a given input value X = {x1,..., XN 1 } (where the value N 1 is an integer of 2 or more), a value y representing a category corresponding to the input value X is calculated in a predetermined manner. An information processing apparatus used for deriving the calculation model of a recognition system that recognizes a category corresponding to the input value X calculated by a model,
S learning data D (s) = {X (s), y (s)} consisting of a combination of the sample X (s) of the input value X and the value y (s) representing the category to which the sample belongs (provided that , S = 1,..., S.)
A (L 1 +1) layer neural network in which the 0th layer is configured as an input layer composed of N 1 input units and the L 1 layer is configured as an output layer (however, the value L 1 is an integer of 2 or more) S) learning data D acquired by the acquisition means using the unknown learning parameter W 1 as the teacher signal and the value y (s) of each learning data D (s) acquired by the acquisition means. Learning means for learning based on (s) and obtaining a solution of the learning parameter W 1 ;
Corresponding to each learning data D (s) acquired by the acquisition unit using the neural network of the (L 1 +1) layer after learning by setting the solution of the learning parameter W 1 obtained by the learning unit New learning data D v (s) to be generated, and for each learning data D (s), a sample X (s) of the learning data D (s) is converted to the (L 1 after learning). As an input value X to the neural network of the +1) layer, the (L 1 -1) th layer composed of N 2 (the value N 2 is an integer of 2 or more) intermediate units constituting this neural network. Output value Z = {z1,..., ZN 2 }, set the obtained output value Z as a new sample U (s), the set new sample U (s), and the learning data From the combination of the values y (s) indicated by D (s) Data D v (s) = that the new data generating means for generating {U (s), y ( s)} a, as the learning data D (s) corresponding to the new training data D v (s),
Based on the learning data D v (s) generated by the new data generating means, the input value U = {u1,..., UN} (where the value N is the learning data D that is a sample of the input value U). v is the number of dimensions of the sample U (s) of (s).) Support vector machine design means for designing a nonlinear support vector machine that calculates a value y representing a category corresponding to
Output means for outputting information representing the solution of the learning parameter W 1 obtained by the learning means, and information representing the nonlinear support vector machine designed by the support vector machine design means;
An information processing apparatus comprising:
前記出力手段は、前記学習手段により求められた学習パラメータW1の解を表す情報、及び、前記サポートベクタマシン設計手段により設計された前記非線形サポートベクタマシンを表す情報、並びに、前記値Zから前記値Vへの変換方法を表す情報を出力する構成にされていることを特徴とする請求項8記載の情報処理装置。 For each learning data D (s), the new data generating means reduces the value Z calculated based on the sample X (s) of the learning data D (s) by a predetermined algorithm, The value V = {v1,..., VN 3 } after reduction (where the value N 3 is an integer of 2 or more smaller than the value N 2 ) is set as the new sample U (s), and Learning data D v (s) = {U (s), y (s)} is generated,
The output means includes information representing the solution of the learning parameter W 1 obtained by the learning means, information representing the nonlinear support vector machine designed by the support vector machine design means, and the value Z 9. The information processing apparatus according to claim 8 , wherein the information processing apparatus is configured to output information indicating a conversion method to the value V.
前記出力手段は、前記値Zから前記値Vへの変換方法を表す情報として、主成分分析の手法により求めたN3個のN2次元ベクトルJmを出力する構成にされていることを特徴とする請求項9記載の情報処理装置。 It said new data generating means, wherein each training data D (s), the value Z calculated on the basis of the samples X (s) of the training data D (s), N 3 obtained by the technique of principal component analysis number of N 2-dimensional vector Jm (where, m = 1, ..., a N 3.) by dimension reduction using, the value Z, the value of the m element vm is said value Z vector Jm inner product <Jm, Z> value of N 3-dimensional represented by V = {v1, ..., vN 3} is converted to a value V = after the dimension reduction {v1, ..., vN 3}, said new Set as a simple sample U (s) to generate the learning data D v (s) = {U (s), y (s)},
The output means is configured to output N 3 N two- dimensional vectors Jm obtained by a principal component analysis method as information representing a conversion method from the value Z to the value V. The information processing apparatus according to claim 9 .
[1]学習対象のニューラルネットワークとして、第0層をN個の入力ユニットからなる入力層とし、第L2層を出力層とした(L2+1)層のニューラルネットワーク(但し、値L2は2以上の整数である。)を設定し、このニューラルネットワークにおいて未知数の学習パラメータW2を、前記各学習データDv(s)の値y(s)を教師信号として用いて、前記S個の学習データDv(s)に基づき学習し、前記学習パラメータW2の解を求める。
[2]前記各学習データDv(s)毎に、学習データDv(s)のサンプルU(s)を、前記手順[1]で求めた学習パラメータW2の解を設定してなる学習後の前記(L2+1)層のニューラルネットワークへの入力値として、このニューラルネットワークを構成するNh個(但し、値Nhは、入力値Uの次元数Nよりも大きい整数である。)の中間ユニットからなる第(L2−1)層の出力値H(s)={h1(s),…,hNh(s)}を求める。
[3]前記学習データDv(s)及び前記手順[2]で求めた各学習データDv(s)のサンプルU(s)に対応する値H(s)を用いて、次式
[1] As a learning target neural network, a (L 2 +1) layer neural network in which the 0th layer is an input layer made up of N input units and the L 2 layer is an output layer (where the value L 2 is And an unknown number of learning parameters W 2 in the neural network, the value y (s) of each learning data D v (s) as a teacher signal, and the S number of learning parameters W 2 . Learning is performed based on the learning data D v (s), and a solution of the learning parameter W 2 is obtained.
[2] Learning obtained by setting a solution of the learning parameter W 2 obtained in the procedure [1] for a sample U (s) of the learning data D v (s) for each learning data D v (s). As input values to the neural network of the later (L 2 +1) layer, N h pieces constituting the neural network (however, the value N h is an integer larger than the dimension number N of the input value U). The output value H (s) = {h1 (s),..., HN h (s)} of the (L 2 −1) -th layer consisting of the intermediate units is obtained.
[3] Using the learning data D v (s) and the value H (s) corresponding to the sample U (s) of each learning data D v (s) obtained in the procedure [2],
前記入力値UのサンプルU(s)及びこのサンプルが属するカテゴリを表す値y(s)の組合せからなるS個の学習データDv(s)={U(s),y(s)}(但し、s=1,…,Sである。)を取得する取得手段と、
前記取得手段が取得したS個の学習データDv(s)に基づき、前記非線形サポートベクタマシンに採用するカーネルK(U,U(s),γ)のパラメータγの適値を、次の手順[1]〜手順[3]により求める適値算出手段と、
前記求めたパラメータγの適値を設定したカーネルK(U,U(s),γ)を用いて、前記取得手段が取得したS個の学習データDv(s)に基づき、前記非線形サポートベクタマシンを設計する設計手段と、
前記設計手段により設計された前記非線形サポートベクタマシンを表す情報を出力する出力手段と、
を備えることを特徴とする設計装置。
[1]学習対象のニューラルネットワークとして、第0層をN個の入力ユニットからなる入力層とし、第L層を出力層とした(L+1)層のニューラルネットワーク(但し、値Lは2以上の整数である。)を設定し、このニューラルネットワークにおいて未知数の学習パラメータWを、前記各学習データDv(s)の値y(s)を教師信号として、前記S個の学習データDv(s)に基づき学習し、前記学習パラメータWの解を求める。
[2]前記各学習データDv(s)毎に、学習データDv(s)のサンプルU(s)を、前記手順[1]で求めた学習パラメータWの解を設定してなる学習後の前記(L+1)層のニューラルネットワークへの入力値として、このニューラルネットワークを構成するNh個(但し、値Nhは、入力値Uの次元数Nよりも大きい整数である。)の中間ユニットからなる第(L−1)層の出力値H(s)={h1(s),…,hNh(s)}を求める。
[3]前記学習データDv(s)及び前記手順[2]で求めた各学習データDv(s)のサンプルU(s)に対応する値H(s)を用いて、次式
S learning data D v (s) = {U (s), y (s)} () consisting of a combination of a sample U (s) of the input value U and a value y (s) representing the category to which the sample belongs. Where s = 1,..., S.)
Based on the S learning data D v (s) acquired by the acquisition means, an appropriate value of the parameter γ of the kernel K (U, U (s), γ) employed in the nonlinear support vector machine is determined by the following procedure. [1] to an appropriate value calculating means obtained by the procedure [3];
Based on the S pieces of learning data D v (s) acquired by the acquisition unit using the kernel K (U, U (s), γ) in which appropriate values of the obtained parameters γ are set, the nonlinear support vector Design means to design the machine;
Output means for outputting information representing the nonlinear support vector machine designed by the design means;
A design apparatus comprising:
[1] As a learning target neural network, a (L + 1) layer neural network in which the 0th layer is an input layer composed of N input units and the Lth layer is an output layer (where the value L is an integer of 2 or more) in a.) set the learning parameters W unknowns in this neural network, the value y (s) of the training data D v (s) as a teacher signal, the S pieces of learning data D v (s) And learning of the learning parameter W is obtained.
[2] After learning, a sample U (s) of learning data D v (s) is set for each learning data D v (s) as a solution of the learning parameter W obtained in step [1]. As an input value to the (L + 1) layer neural network, N h pieces (where the value N h is an integer larger than the dimension number N of the input value U) constituting the neural network. The output value H (s) = {h1 (s),..., HN h (s)} of the (L−1) th layer is obtained.
[3] Using the learning data D v (s) and the value H (s) corresponding to the sample U (s) of each learning data D v (s) obtained in the procedure [2],
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008029072A JP5130934B2 (en) | 2007-03-05 | 2008-02-08 | Recognition system, information processing apparatus, design apparatus, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007054725 | 2007-03-05 | ||
JP2007054725 | 2007-03-05 | ||
JP2008029072A JP5130934B2 (en) | 2007-03-05 | 2008-02-08 | Recognition system, information processing apparatus, design apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008250990A JP2008250990A (en) | 2008-10-16 |
JP5130934B2 true JP5130934B2 (en) | 2013-01-30 |
Family
ID=39975799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008029072A Expired - Fee Related JP5130934B2 (en) | 2007-03-05 | 2008-02-08 | Recognition system, information processing apparatus, design apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5130934B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5494034B2 (en) * | 2010-03-10 | 2014-05-14 | 富士電機株式会社 | Reliability evaluation apparatus, reliability evaluation program, and reliability evaluation method |
JP7061536B2 (en) * | 2018-08-09 | 2022-04-28 | 株式会社東芝 | Optimization device, simulation system and optimization method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6961719B1 (en) * | 2002-01-07 | 2005-11-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hybrid neural network and support vector machine method for optimization |
-
2008
- 2008-02-08 JP JP2008029072A patent/JP5130934B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008250990A (en) | 2008-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6844301B2 (en) | Methods and data processors to generate time series data sets for predictive analytics | |
US9508019B2 (en) | Object recognition system and an object recognition method | |
US11341424B2 (en) | Method, apparatus and system for estimating causality among observed variables | |
CN102436811B (en) | Full-sequence training of deep structures for speech recognition | |
CN103049792B (en) | Deep-neural-network distinguish pre-training | |
CN102411931B (en) | Deep belief network for large vocabulary continuous speech recognition | |
CN111344779A (en) | Training and/or determining responsive actions for natural language input using coder models | |
US20110060708A1 (en) | Information processing device, information processing method, and program | |
CN110889865B (en) | Video target tracking method based on local weighted sparse feature selection | |
CN112015868A (en) | Question-answering method based on knowledge graph completion | |
CN110929802A (en) | Information entropy-based subdivision identification model training and image identification method and device | |
US20210090552A1 (en) | Learning apparatus, speech recognition rank estimating apparatus, methods thereof, and program | |
Abdulsalam et al. | Explainable heart disease prediction using ensemble-quantum machine learning approach | |
US20210073645A1 (en) | Learning apparatus and method, and program | |
US20110060707A1 (en) | Information processing device, information processing method, and program | |
CN112926655B (en) | Image content understanding and visual question and answer VQA method, storage medium and terminal | |
JP5130934B2 (en) | Recognition system, information processing apparatus, design apparatus, and program | |
CN117151121B (en) | Multi-intention spoken language understanding method based on fluctuation threshold and segmentation | |
JP6955233B2 (en) | Predictive model creation device, predictive model creation method, and predictive model creation program | |
CN117034921B (en) | Prompt learning training method, device and medium based on user data | |
CN111582287B (en) | Image description method based on sufficient visual information and text information | |
CN110717402B (en) | Pedestrian re-identification method based on hierarchical optimization metric learning | |
KR20190118332A (en) | Electronic apparatus and control method thereof | |
CN111259860B (en) | Multi-order characteristic dynamic fusion sign language translation method based on data self-driving | |
JP4537970B2 (en) | Language model creation device, language model creation method, program thereof, and recording medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121009 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121022 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5130934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |