JP6676894B2 - Information processing apparatus, information processing method and program - Google Patents

Information processing apparatus, information processing method and program Download PDF

Info

Publication number
JP6676894B2
JP6676894B2 JP2015146086A JP2015146086A JP6676894B2 JP 6676894 B2 JP6676894 B2 JP 6676894B2 JP 2015146086 A JP2015146086 A JP 2015146086A JP 2015146086 A JP2015146086 A JP 2015146086A JP 6676894 B2 JP6676894 B2 JP 6676894B2
Authority
JP
Japan
Prior art keywords
vector
information processing
vectors
function
reference vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015146086A
Other languages
Japanese (ja)
Other versions
JP2017027411A (en
Inventor
崇之 原
崇之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015146086A priority Critical patent/JP6676894B2/en
Publication of JP2017027411A publication Critical patent/JP2017027411A/en
Application granted granted Critical
Publication of JP6676894B2 publication Critical patent/JP6676894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program.

入力ベクトルとクラスのラベルの組から構成される学習データに基づいて識別関数を構成(学習)し、未知の入力ベクトルに対して所属クラスを予測する方法が考案されている。その1つとして、サポートベクトルマシン(以下、SVMと略記)が存在する。SVMでは、学習データにおけるサンプルと識別面の間のマージンを最大化することで、高い汎化性能が得られることが知られている。また、識別関数の学習が二次計画問題となるため解の大域最適性が保証され、ニューラルネットワークのような局所解への収束の問題がない、といった利点がある。   A method has been devised in which a discriminant function is constructed (learned) based on learning data composed of a set of an input vector and a label of a class, and a class to which an unknown input vector belongs is predicted. One of them is a support vector machine (hereinafter abbreviated as SVM). In SVM, it is known that high generalization performance can be obtained by maximizing a margin between a sample and an identification plane in learning data. In addition, since learning of the discriminant function is a quadratic programming problem, global optimality of the solution is guaranteed, and there is an advantage that there is no problem of convergence to a local solution unlike a neural network.

一方、SVMでは学習によって獲得されるサポートベクトル数に比例して、識別にかかる処理時間が増加するという問題がある。そこで、SVMの識別時の計算コストを低減する技術が考案されている。例えば、学習後に識別関数をより少ない基準ベクトルを用いて近似することで、識別性能の劣化を極力抑えた上で処理時間を低減するアプローチが考案されている。   On the other hand, the SVM has a problem that the processing time required for identification increases in proportion to the number of support vectors acquired by learning. Therefore, a technique has been devised for reducing the calculation cost at the time of identifying the SVM. For example, an approach has been devised in which the discrimination function is approximated using a smaller number of reference vectors after learning, so that the deterioration of the discrimination performance is suppressed as much as possible and the processing time is reduced.

非特許文献1は、2つのサポートベクトルを統合し、新しい1つのサポートベクトルで置き換える「統合」による方法を提案している。非特許文献2は、多クラス分類のSVMに対するサポートベクトルの「削除」「射影」「統合」を行う方法を提案している。   Non-Patent Document 1 proposes a method based on “integration” in which two support vectors are integrated and replaced with a new support vector. Non-Patent Document 2 proposes a method of performing “deletion”, “projection”, and “integration” of a support vector for an SVM of a multi-class classification.

サポートベクトルの「削除」は、重みの小さいサポートベクトルが存在しない場合は識別関数を大きく変える可能性があり、識別精度の安定的な維持の点で課題がある。「射影」では、残ったサポートベクトルのすべての重みを更新するため、識別関数の近似に処理時間を要する。また、各々のサポートベクトルが特徴空間で離れている場合は射影による識別関数の変化の吸収には限界がある。「統合」は、2つのサポートベクトルのみを変更するので「射影」に対して計算コストが低く、また識別関数を大きく劣化させる可能性が低い。処理時間低減と識別精度の維持の観点で「統合」によるアプローチのバランスがよいといえる。   The “deletion” of the support vector may significantly change the discriminant function when there is no support vector with a small weight, and there is a problem in stably maintaining the discrimination accuracy. In “projection”, processing time is required for approximating the identification function because all weights of the remaining support vectors are updated. Further, when the support vectors are separated from each other in the feature space, there is a limit in absorbing a change in the discrimination function due to the projection. Since “integration” changes only two support vectors, the calculation cost is lower than that of “projection”, and the possibility that the discriminant function is significantly deteriorated is low. It can be said that the approach of "integration" has a good balance from the viewpoint of reducing the processing time and maintaining the identification accuracy.

従来技術における「統合」のアプローチは、高次元の特徴空間での重みベクトルの変化量の最小化という評価基準を使用している。しかしこの方法は、入力ベクトルの分布が考慮されておらず、近似精度の劣化を招きやすいという問題がある。   The “integration” approach in the prior art uses an evaluation criterion of minimizing the amount of change of a weight vector in a high-dimensional feature space. However, this method has a problem that the distribution of the input vector is not taken into consideration and the approximation accuracy is likely to deteriorate.

本発明は、上記に鑑みてなされたものであって、識別関数の近似精度を向上させることを目的とする。   The present invention has been made in view of the above, and has as its object to improve the approximation accuracy of a discriminant function.

上述した課題を解決し、目的を達成するために、本発明は、複数の基準ベクトルと入力ベクトルとを引数とするカーネル関数の値の和で表される識別関数を処理する情報処理装置であって、複数の前記基準ベクトルを取得する取得部と、複数の前記基準ベクトルに含まれる第1基準ベクトルおよび第2基準ベクトルを統合した統合ベクトルを生成する生成部と、前記第1基準ベクトルおよび前記第2基準ベクトルを前記統合ベクトルで置き換えた近似関数と、前記識別関数と、の間の、前記入力ベクトルの確率分布に基づく近似誤差の期待値を表す評価値を算出する評価値算出部と、前記評価値が最小となる前記第1基準ベクトルと前記第2基準ベクトルとを出力する出力制御部と、を備える。 In order to solve the above-described problem and achieve the object, the present invention is an information processing apparatus that processes an identification function represented by a sum of values of a kernel function having a plurality of reference vectors and input vectors as arguments. An acquisition unit that acquires the plurality of reference vectors; a generation unit that integrates a first reference vector and a second reference vector included in the plurality of reference vectors to generate an integrated vector; An evaluation value calculation unit that calculates an evaluation value representing an expected value of an approximation error based on a probability distribution of the input vector between an approximation function obtained by replacing a second reference vector with the integrated vector and the identification function; An output control unit that outputs the first reference vector and the second reference vector that minimize the evaluation value.

本発明によれば、識別関数の近似精度を向上させることができるという効果を奏する。   According to the present invention, there is an effect that the approximation accuracy of the identification function can be improved.

図1は、第1の実施形態にかかる情報処理装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of the information processing apparatus according to the first embodiment. 図2は、第1の実施形態における統合処理の一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of the integration processing according to the first embodiment. 図3は、第2の実施形態にかかる情報処理装置の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the information processing apparatus according to the second embodiment. 図4は、第3の実施形態にかかる情報処理装置の構成を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration of an information processing apparatus according to the third embodiment. 図5は、第4の実施形態にかかる情報処理装置の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of an information processing apparatus according to the fourth embodiment. 図6は、第4の実施形態における統合処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of the integration processing according to the fourth embodiment. 図7は、第5の実施形態にかかる情報処理装置の構成を示すブロック図である。FIG. 7 is a block diagram illustrating a configuration of an information processing apparatus according to the fifth embodiment. 図8は、第5の実施形態における識別処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the identification processing according to the fifth embodiment. 図9は、各実施形態にかかる情報処理装置のハードウェア構成例を示す説明図である。FIG. 9 is an explanatory diagram illustrating a hardware configuration example of the information processing apparatus according to each embodiment.

以下に添付図面を参照して、この発明にかかる情報処理装置、情報処理方法およびプログラムの一実施形態を詳細に説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

下記の各実施形態は、SVMに代表されるような複数の基準ベクトルと入力ベクトルを引数としたカーネル関数の和(線形和)により識別関数を示す情報を処理する情報処理装置に関する。各実施形態の情報処理装置は、入力ベクトルの確率分布に基づく識別関数の期待近似誤差を最小化するように基準ベクトルを統合する。このように、識別関数をより少ない数の基準ベクトルで構成して近似することで、処理速度を向上させることができる。各実施形態の情報処理装置は、例えば、動画などの画像からの物体検出、画像を用いた物体追跡、文字認識、および、音声認識など、リアルタイムで学習をしながらパターンを識別する識別装置(アプリケーション)に適用することができる。   The following embodiments relate to an information processing apparatus that processes information indicating a discriminant function by the sum (linear sum) of a plurality of reference vectors represented by SVM and a kernel function with an input vector as an argument. The information processing apparatus according to each embodiment integrates reference vectors so as to minimize an expected approximation error of an identification function based on a probability distribution of an input vector. As described above, the processing speed can be improved by configuring and approximating the identification function with a smaller number of reference vectors. The information processing apparatus according to each of the embodiments includes an identification apparatus (an application that identifies a pattern while learning in real time, such as object detection from an image such as a moving image, object tracking using the image, character recognition, and voice recognition. ).

(第1の実施形態)
第1の実施形態では、SVMの識別関数を対象とする例を説明する。この場合、サポートベクトルが基準ベクトルとなる。また本実施形態では、一般的なカーネル関数を使用する例を説明する。適用可能な識別方式はSVMに限られるものではない。
(First embodiment)
In the first embodiment, an example will be described in which an SVM identification function is targeted. In this case, the support vector becomes the reference vector. In this embodiment, an example in which a general kernel function is used will be described. The applicable identification method is not limited to SVM.

最初に原理を説明する。2クラス分類のSVMで学習を行うと、M個(Mは正の整数)のサポートベクトルs(i)∈R(i=1,2,・・・,M)、対応する重みα∈R(i=1,2,・・・,M)、および、オフセットb∈Rが求まり、入力ベクトルx∈Rに対する以下の(1)式に示す識別関数f(x)が得られる。Dは入力空間および特徴空間の次元数を表す。

Figure 0006676894
First, the principle will be described. When learning is performed by the SVM of the two-class classification, M (M is a positive integer) support vectors s (i) { RD (i = 1, 2,..., M) and corresponding weights α i } R (i = 1,2, ···, M), and, Motomari offset B∈R, discriminant function f shown in the following equation (1) for the input vector x∈R D (x) is obtained. D represents the number of dimensions of the input space and the feature space.
Figure 0006676894

ここでK(,)はカーネル関数(R×R→R)である。f(x)の正負で入力ベクトルxの属するクラスが予測される。(1)式に示されるように、識別関数f(x)の計算量はサポートベクトルの数Mに比例する。Mを低減したL(<M)個のサポートベクトルにより、f(x)を(2)式のように近似すれば、計算量を低減することができる。

Figure 0006676894
Here, K (,) is a kernel function ( RD × RD → R). The class to which the input vector x belongs is predicted by the sign of f (x). As shown in the equation (1), the amount of calculation of the identification function f (x) is proportional to the number M of support vectors. If f (x) is approximated by the L (<M) support vectors in which M is reduced as in equation (2), the calculation amount can be reduced.
Figure 0006676894

本実施形態では、2つのサポートベクトルを選択し、選択した2つのサポートベクトルを1つのサポートベクトルに統合することでサポートベクトル数を低減する。このような統合のアプローチは、例えば非特許文献1および2でも用いられている。非特許文献1および2では、「入力ベクトルを高次元に写像した特徴空間における重みの変化量の最小化」という基準でサポートベクトルを統合する。具体的には次の通りである。φをカーネルK(,)に対応した入力空間から特徴空間への写像とする。このとき(1)式は以下の(3)式のように書き直せる。

Figure 0006676894
In the present embodiment, the number of support vectors is reduced by selecting two support vectors and integrating the selected two support vectors into one support vector. Such an integration approach is also used in Non-Patent Documents 1 and 2, for example. In Non-Patent Documents 1 and 2, support vectors are integrated on the basis of “minimizing the amount of change in weight in a feature space in which input vectors are mapped in a high dimension”. Specifically, it is as follows. Let φ be a mapping from the input space corresponding to the kernel K (,) to the feature space. At this time, the expression (1) can be rewritten as the following expression (3).
Figure 0006676894

ここで、wは高次元の特徴空間での重みであり、以下の(4)式により表される。

Figure 0006676894
Here, w is a weight in the high-dimensional feature space, and is represented by the following equation (4).
Figure 0006676894

以下の(5)式で表される重みを定義すると、(2)式は以下の(6)式のように表せる。

Figure 0006676894
Figure 0006676894
When the weight expressed by the following equation (5) is defined, the equation (2) can be expressed as the following equation (6).
Figure 0006676894
Figure 0006676894

非特許文献1および2では、これらの重みの差分のL2ノルムであり、以下の(7)式で表されるJを評価関数としている。

Figure 0006676894
In Non-Patent Documents 1 and 2, the L2 norm of the difference between these weights is used, and J expressed by the following equation (7) is used as the evaluation function.
Figure 0006676894

一方、(3)式および(6)式から、識別関数の近似誤差は以下の(8)式で表される。この式から分かるように、(7)式を最小化しても入力ベクトルxの分布に対して近似誤差は最小化されない。ただし、近似誤差の上界は押さえられる(非特許文献2参照)。

Figure 0006676894
On the other hand, from the equations (3) and (6), the approximation error of the discriminant function is expressed by the following equation (8). As can be seen from this equation, even if equation (7) is minimized, the approximation error is not minimized for the distribution of the input vector x. However, the upper bound of the approximation error is suppressed (see Non-Patent Document 2).
Figure 0006676894

例えば、φ(x)が平均0、共分散Σの正規分布であったとすると、(8)式の期待値は以下の(9)式で表される。

Figure 0006676894
For example, if φ (x) is a normal distribution with mean 0 and covariance Σ, the expected value of Expression (8) is expressed by Expression (9) below.
Figure 0006676894

Σが単位行列でなければ、(7)式の最小化と、この期待値の最小化とは異なる。本実施形態はこの点を鑑みたものであり、入力ベクトルxの分布p(x)に対する近似誤差の期待値である以下の(10)式を最小化するように、サポートベクトルを統合する。

Figure 0006676894
If Σ is not a unit matrix, the minimization of equation (7) is different from the minimization of this expected value. In the present embodiment, in view of this point, the support vectors are integrated so as to minimize the following expression (10), which is the expected value of the approximation error for the distribution p (x) of the input vector x.
Figure 0006676894

i番目とj番目(j=1,2,・・・,M)のサポートベクトルを統合して新しいサポートベクトルsと重みαを生成するものとする。このとき、(10)式の評価関数は、以下の(11)式で表せる。以降、期待値E[]はすべてp(x)に対して算出するものとする。

Figure 0006676894
The i-th and j-th (j = 1, 2,..., M) support vectors are integrated to generate a new support vector s and weight α. At this time, the evaluation function of the expression (10) can be expressed by the following expression (11). Hereinafter, all the expected values E [] are calculated for p (x).
Figure 0006676894

J(s、α、i,j)をαで偏微分すると、以下の(12)式のように表せる。

Figure 0006676894
When J (s, α, i, j) is partially differentiated by α, it can be expressed as the following equation (12).
Figure 0006676894

極値条件からJ(s、α、i,j)を最小化するs、αは、以下の(13)式を満たす。

Figure 0006676894
S and α that minimize J (s, α, i, j) from the extreme value condition satisfy the following expression (13).
Figure 0006676894

また、J(s、α、i,j)をsで偏微分すると、以下の(14)式のように表せる。

Figure 0006676894
Further, when J (s, α, i, j) is partially differentiated with respect to s, it can be expressed as the following equation (14).
Figure 0006676894

極値条件からJ(s、α、i,j)を最小化するs、αは、以下の(15)式を満たす。

Figure 0006676894
S and α that minimize J (s, α, i, j) from the extreme value condition satisfy the following equation (15).
Figure 0006676894

(13)式および(15)式を連立させて解くことにより求められるs、αは、固定したi,jに対してJ(s、α、i,j)を最小化する。しかし、一般的なカーネル関数Kに対して(13)式および(15)式を解くことは容易ではない(特殊な場合の解法は後述する)。そこで、次のようなヒューリスティクスを用いる。まず、sをs(i)およびS(j)の線形結合で以下の(16)式のように表す。

Figure 0006676894
S and α obtained by simultaneously solving equations (13) and (15) minimize J (s, α, i, j) for fixed i, j. However, it is not easy to solve equations (13) and (15) for a general kernel function K (the solution in a special case will be described later). Therefore, the following heuristics are used. First, s is represented by a linear combination of s (i) and S (j) as in the following equation (16).
Figure 0006676894

高次元での特徴空間でのサポートベクトルはこのような線形結合となることから、入力空間においても同様の関係が近似的に成り立つと仮定する。近似精度はカーネル関数に依存する。(13)式および(15)式からαを消去して、条件式の二乗誤差を最小化するuを一次元探索で求める。このようにして求めたuから、(16)式によりsを求め、さらに(13)式からαを求める。   Since the support vector in the high-dimensional feature space is such a linear combination, it is assumed that a similar relationship is approximately established in the input space. The approximation accuracy depends on the kernel function. Α is eliminated from the expressions (13) and (15), and u that minimizes the square error of the conditional expression is obtained by a one-dimensional search. From u obtained in this manner, s is obtained from Expression (16), and α is obtained from Expression (13).

カーネル関数によっては(13)式および(15)式中の期待値が解析的に求まらない場合がある。その場合は、モンテカルロ法(例えばマルコフ連鎖モンテカルロ法)を用いてp(x)からxを複数サンプリングし、近似的に期待値を求めることができる。   Depending on the kernel function, the expected value in the expressions (13) and (15) may not be obtained analytically. In this case, the expected value can be approximately obtained by sampling a plurality of x from p (x) using a Monte Carlo method (for example, a Markov chain Monte Carlo method).

残った問題は、統合するサポートベクトルの選択、すなわち、i,jの選択である。単純には、同じクラスに属するサポートベクトルに対してすべての組み合わせを試行し、J(s、α、i,j)を最小化するi,jを求めることができる。サポートベクトルが極めて多い場合には、このような全探索では時間がかかる。このため、シミュレーティッド・アニーリング、タブーサーチ、および、遺伝的アルゴリズムに代表されるメタヒューリスティクスアルゴリズムにより最小化を行ってもよい。これにより、すべての基準ベクトルの組に対して探索を行うことを避け、識別関数の近似にかかる計算コストを低減することができる。   The remaining problem is the selection of the support vectors to be integrated, i.e., i, j. Simply, all combinations are tried for support vectors belonging to the same class, and i, j that minimizes J (s, α, i, j) can be obtained. If the number of support vectors is extremely large, such a full search takes time. For this reason, minimization may be performed by simulated annealing, tabu search, and a meta-heuristic algorithm represented by a genetic algorithm. As a result, it is possible to avoid searching for all sets of reference vectors, and to reduce the calculation cost for approximating the discriminant function.

以上の原理を元に構成される本実施形態の詳細について以下に説明する。図1は、第1の実施形態にかかる情報処理装置100の構成を示すブロック図である。   The details of the present embodiment based on the above principle will be described below. FIG. 1 is a block diagram illustrating a configuration of the information processing apparatus 100 according to the first embodiment.

図1に示すように、本実施形態の情報処理装置100は、記憶部20と、取得部101と、選択部102と、生成部103と、重み算出部104と、評価値算出部105と、出力制御部106と、を備えている。   As illustrated in FIG. 1, the information processing apparatus 100 according to the present embodiment includes a storage unit 20, an acquisition unit 101, a selection unit 102, a generation unit 103, a weight calculation unit 104, an evaluation value calculation unit 105, And an output control unit 106.

記憶部20は、処理に用いる各種情報を記憶する。例えば記憶部20は、学習により得られたサポートベクトル、重み、および、オフセットなどの、識別関数を示す情報を記憶する。記憶部20を情報処理装置100の外部に備えるように構成してもよい。記憶部20は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。   The storage unit 20 stores various information used for processing. For example, the storage unit 20 stores information indicating a discriminant function such as a support vector, a weight, and an offset obtained by learning. The storage unit 20 may be provided outside the information processing apparatus 100. The storage unit 20 can be configured by any generally used storage medium such as a hard disk drive (HDD), an optical disk, a memory card, and a random access memory (RAM).

取得部101は、処理対象とする情報を取得する。例えば取得部101は、サポートベクトルおよび重みなどの情報を記憶部20から読み出すことにより取得する。   The acquisition unit 101 acquires information to be processed. For example, the acquisition unit 101 acquires information such as a support vector and a weight by reading from the storage unit 20.

選択部102は、取得したサポートベクトルのうち処理対象とするサポートベクトルを選択する。例えば選択部102は、取得されたサポートベクトルのうち、同じクラスに属するi番目のサポートベクトル(第1基準ベクトル)と、j番目のサポートベクトル(第2基準ベクトル)を取得する。   The selection unit 102 selects a support vector to be processed from the acquired support vectors. For example, the selection unit 102 obtains an i-th support vector (first reference vector) and a j-th support vector (second reference vector) belonging to the same class among the obtained support vectors.

生成部103は、選択された複数のサポートベクトルを統合した統合ベクトルを生成する。例えば生成部103は、上述の原理に従い、i番目のサポートベクトルと、j番目のサポートベクトルとを統合した統合ベクトルsを生成する。   The generation unit 103 generates an integrated vector obtained by integrating a plurality of selected support vectors. For example, the generation unit 103 generates an integrated vector s obtained by integrating the i-th support vector and the j-th support vector according to the above-described principle.

重み算出部104は、生成された統合ベクトルsの重みを算出する。例えば重み算出部104は、上述の原理に従い、統合ベクトルsの重みαを算出する。   The weight calculator 104 calculates the weight of the generated integrated vector s. For example, the weight calculator 104 calculates the weight α of the integrated vector s according to the above principle.

評価値算出部105は、統合する前の複数のサポートベクトル(i番目のサポートベクトル、j番目のサポートベクトル)を、統合ベクトルで置き換えた識別関数である近似関数と、識別関数と、の近似誤差を表す評価値を算出する。例えば評価値算出部105は、s(i)、s(j)を、sで置き換え、α、αをαで置き換えた場合の評価関数((11)式)の値(評価関数値)を、評価値として求める。 The evaluation value calculation unit 105 calculates an approximation error between an identification function, which is an identification function obtained by replacing a plurality of support vectors (i-th support vector, j-th support vector) before integration with an integration vector, and an identification function. Is calculated. For example, the evaluation value calculation unit 105 replaces s (i) and s (j) with s, and replaces α i and α j with α, the value of the evaluation function (expression (11)) (evaluation function value). Is obtained as an evaluation value.

出力制御部106は、情報処理の結果などの各種情報を出力する。例えば出力制御部106は、評価値(評価関数値)が最小となる第1基準ベクトルと第2基準ベクトルとを出力する。   The output control unit 106 outputs various information such as a result of information processing. For example, the output control unit 106 outputs a first reference vector and a second reference vector having the smallest evaluation value (evaluation function value).

取得部101、選択部102、生成部103、重み算出部104、評価値算出部105、および、出力制御部106は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The acquisition unit 101, the selection unit 102, the generation unit 103, the weight calculation unit 104, the evaluation value calculation unit 105, and the output control unit 106 allow a processing device such as a CPU (Central Processing Unit) to execute a program. That is, it may be realized by software, by hardware such as an IC (Integrated Circuit), or by using both software and hardware.

次に、このように構成された第1の実施形態にかかる情報処理装置100によるサポートベクトルの統合処理について図2を用いて説明する。図2は、第1の実施形態における統合処理の一例を示すフローチャートである。   Next, a support vector integration process performed by the information processing apparatus 100 according to the first embodiment thus configured will be described with reference to FIG. FIG. 2 is a flowchart illustrating an example of the integration processing according to the first embodiment.

取得部101は、記憶部20からSVMの学習で得られたサポートベクトルs(i)(i=1,2,・・・,M)と、対応する重みα(i=1,2,・・・,M)を取得する(ステップS101)。 The acquisition unit 101 determines the support vector s (i) (i = 1, 2,..., M) obtained from the storage unit 20 by learning the SVM and the corresponding weight α i (i = 1, 2,. .., M) are acquired (step S101).

選択部102は、取得されたサポートベクトルから、同じクラスに属するi番目とj番目のサポートベクトルを選択する(ステップS102)。選択部102は、例えば、i=1,j=1から始めて、順にiとjをインクリメントし、s(i)およびs(j)が異なるクラスに属する場合はスキップして次の組み合わせを選択する。 The selecting unit 102 selects the i-th and j-th support vectors belonging to the same class from the acquired support vectors (step S102). The selection unit 102 starts with, for example, i = 1 and j = 1, increments i and j in order, skips when s (i) and s (j) belong to different classes, and selects the next combination. .

生成部103は、選択されたサポートベクトルs(i)およびs(j)を統合して、統合ベクトルsを生成する(ステップS103)。また重み算出部104は、生成された統合ベクトルsの重みαを算出する(ステップS104)。 The generation unit 103 integrates the selected support vectors s (i) and s (j) to generate an integrated vector s (step S103). The weight calculator 104 calculates the weight α of the generated integrated vector s (step S104).

評価値算出部105は、s(i)、s(j)を、sで置き換え、α、αをαで置き換えた場合の評価関数((11)式)の値である評価関数値を求める(ステップS105)。求めた評価関数値が、それ以前に求められた評価関数値の最小値よりも小さい場合、評価値算出部105は、統合するサポートベクトルのインデックスi,j、s、α、および、評価関数値を例えば記憶部20に記憶する。 The evaluation value calculation unit 105 calculates an evaluation function value that is a value of an evaluation function (Equation (11)) when s (i) and s (j) are replaced with s, and α i and α j are replaced with α. It is determined (step S105). When the obtained evaluation function value is smaller than the minimum value of the evaluation function values obtained before that, the evaluation value calculation unit 105 determines the indexes i, j, s, α of the support vectors to be integrated, and the evaluation function value. Is stored in the storage unit 20, for example.

選択部102は、終了判定を行う(ステップS106)。例えば選択部102は、同じクラスに属するすべてのサポートベクトルの組が選択済みであれば処理が終了したと判定する。処理が終了していない場合(ステップS106:No)、ステップS102に戻り処理が繰り返される。   The selection unit 102 makes an end determination (step S106). For example, the selection unit 102 determines that the process has been completed if all the sets of support vectors belonging to the same class have been selected. If the processing has not been completed (Step S106: No), the process returns to Step S102 and the processing is repeated.

処理が終了した場合(ステップS106:Yes)、出力制御部106は、評価関数値が最小となるサポートベクトルのインデックスi,j、s、αを出力する(ステップS107)。   When the processing is completed (Step S106: Yes), the output control unit 106 outputs the support vector indexes i, j, s, and α that minimize the evaluation function value (Step S107).

以上の処理により、入力ベクトルの分布に基づく近似誤差の期待値を最小化するサポートベクトルの統合が得られる。これにより、識別関数の近似精度を極力保った上で、識別にかかる処理時間を低減することができる。   Through the above processing, integration of the support vectors that minimizes the expected value of the approximation error based on the distribution of the input vectors is obtained. As a result, the processing time required for identification can be reduced while maintaining the approximation accuracy of the identification function as much as possible.

上記の処理では、2つのサポートベクトルを1つに統合したが、これを複数回繰り返すことでサポートベクトルの数を任意の数まで低減することができる。繰り返しに際して、統合されたサポートベクトルを統合対象に含めてもよいし、統合されたサポートベクトル以外を統合対象としてもよい。統合を繰り返す場合、サポートベクトルの組ごとの評価関数値を最初の繰り返し時に記憶しておいてもよい。これにより、2回目以降の繰り返しでは評価関数値を計算する必要がなくなり、処理を高速化できる。サポートベクトル数をB個低減する場合は、それまでに選択されていないサポートベクトルの組の中で評価関数値が最小となるものを、順次B個選択していけばよい。   In the above processing, two support vectors are integrated into one, but by repeating this multiple times, the number of support vectors can be reduced to an arbitrary number. At the time of repetition, the integrated support vector may be included in the integration target, or a non-integrated support vector may be included in the integration target. When the integration is repeated, the evaluation function value for each pair of support vectors may be stored at the first iteration. This eliminates the need to calculate the evaluation function value in the second and subsequent iterations, and can speed up the processing. In the case of reducing the number of support vectors by B, it is sufficient to sequentially select, from the set of support vectors that have not been selected until then, the number of support vectors having the smallest evaluation function value.

(変形例)
統合するサポートベクトルの最適化にメタヒューリスティクスアルゴリズム(シミュレーティッド・アニーリング、タブーサーチ、遺伝的アルゴリズム)を用いてもよい。この場合は、ステップS102において、最初の繰り返しでは、選択部102は初期値としてランダムにi,jを選択する。選択部102は、2回目以降の繰り返しでは前の繰り返し時に得られた識別関数値を用いてメタヒューリスティクスアルゴリズムに基づきi,jを選択する。このような変形例では、i,jのすべての組み合わせに対して評価関数値を求める必要がないため、サポートベクトル統合の処理の高速化ができる。
(Modification)
A meta-heuristic algorithm (simulated annealing, tabu search, genetic algorithm) may be used to optimize the support vectors to be integrated. In this case, in the first iteration in step S102, the selection unit 102 randomly selects i and j as initial values. In the second and subsequent iterations, the selection unit 102 selects i and j based on the metaheuristic algorithm using the identification function values obtained in the previous iteration. In such a modified example, since it is not necessary to obtain the evaluation function values for all combinations of i and j, the processing of support vector integration can be speeded up.

また、ステップS106による繰り返しは行わず、ステップS102でi,jを選択するときにヒューリスティックな基準を用いてもよい。α、αが小さく、s(i)、s(j)の距離が小さいときに、評価関数値((11)式)が小さくなる傾向がある。そこで、選択部102は、α、αが特定閾値以下で、かつ、距離が最小となるs(i)、s(j)(K(s(i)、s(j))が最大となるs(i)、s(j))を選択する。例えばサポートベクトル数をB個低減する場合、選択部102は、α、αが特定閾値以下で、かつ、距離が小さい組からB個の重複しないs(i)、s(j)を選択すればよい。 Further, the repetition in step S106 may not be performed, and a heuristic criterion may be used when selecting i and j in step S102. When α i and α j are small and the distance between s (i) and s (j) is small, the evaluation function value (equation (11)) tends to be small. Therefore, the selecting unit 102 determines that s (i) , s (j) (K (s (i) , s (j) )) in which α i and α j are equal to or less than the specific threshold value and the distance is minimum are maximum. S (i) and s (j) ). For example, when the number of support vectors is reduced by B, the selection unit 102 selects B non-overlapping s (i) and s (j) from a set in which α i and α j are equal to or less than a specific threshold and the distance is small. do it.

また、ステップS103で統合ベクトルを生成する際、uを一次元探索せずに、以下の(17)式に示すように、重みの比率で固定してもよい。

Figure 0006676894
When generating the integrated vector in step S103, u may be fixed at a weight ratio as shown in the following equation (17) without performing one-dimensional search for u.
Figure 0006676894

このように計算を簡略化することで識別関数の近似精度が劣化する可能性があるが、サポートベクトルの統合にかかる処理時間を低減することができる。例えば、動画の各フレームでオンライン学習する場合では、サポートベクトルを統合する処理時間もリアルタイム性に寄与する。従ってこのような高速化が意味を持つ。   Although the approximation accuracy of the discriminant function may be degraded by simplifying the calculation in this way, the processing time required for integrating the support vectors can be reduced. For example, when online learning is performed for each frame of a moving image, the processing time for integrating support vectors also contributes to real-time performance. Therefore, such high speed is significant.

以上では、2クラス分類の例を扱ったが、多クラス分類にも容易に拡張ができる。多クラス分類の場合は、クラスの数だけ識別関数が用意されるが、この各々の識別関数の近似を同様に行えばよい。   Although the example of the two-class classification has been described above, the present invention can be easily extended to the multi-class classification. In the case of multi-class classification, as many discriminating functions as the number of classes are prepared, and approximation of each discriminant function may be performed in the same manner.

(第2の実施形態)
第2の実施形態では、カーネル関数にRBF(Radial Basis Function)カーネルを使う場合を説明する。RBFカーネルは、以下の(18)式により定義される。γはパラメータである。

Figure 0006676894
(Second embodiment)
In the second embodiment, a case where an RBF (Radial Basis Function) kernel is used as a kernel function will be described. The RBF kernel is defined by the following equation (18). γ is a parameter.
Figure 0006676894

RBFカーネルを使用する場合は、期待値E[K(a,x)K(b,x)]は以下の(19)式により表される。

Figure 0006676894
When the RBF kernel is used, the expected value E [K (a, x) K (b, x)] is expressed by the following equation (19).
Figure 0006676894

入力ベクトルx∈Rの分布p(x)として一様分布を仮定すると、以下の(20)式が成り立つ。本実施形態では、一様分布に基づく期待値E[f(x)]は、領域全体に渡ったf(x)の累積値(積分値)と定義する。

Figure 0006676894
Assuming a uniform distribution as a distribution p of the input vector x∈R D (x), below it is established (20). In the present embodiment, the expected value E [f (x)] based on the uniform distribution is defined as the cumulative value (integral value) of f (x) over the entire area.
Figure 0006676894

従って、E[K(a,x)K(b,x)]は以下の(21)式で表せる。

Figure 0006676894
Therefore, E [K (a, x) K (b, x)] can be expressed by the following equation (21).
Figure 0006676894

また、入力ベクトルxの分布p(x)として平均μ、共分散Σの正規分布を仮定すると、以下の(22)式が成り立つ。

Figure 0006676894
Further, assuming a normal distribution of mean μ and covariance と し て as distribution p (x) of input vector x, the following equation (22) is established.
Figure 0006676894

従って、E[K(a,x)K(b,x)]は以下の(23)式で表せる。

Figure 0006676894
Therefore, E [K (a, x) K (b, x)] can be expressed by the following equation (23).
Figure 0006676894

いずれの場合も、E[K(a,x)K(b,x)]は、aおよびbに依存しない定数Cを用いて以下の(24)式のように表現できる。ただし、任意のp(x)に対して(24)式が成り立つわけではない。

Figure 0006676894
In any case, E [K (a, x) K (b, x)] can be expressed as in the following equation (24) using a constant C independent of a and b. However, equation (24) does not hold for any p (x).
Figure 0006676894

この結果を用いると(13)式は、以下の(25)式のように書き換えることができる。

Figure 0006676894
Using this result, equation (13) can be rewritten as equation (25) below.
Figure 0006676894

また、以下の(26)式が成り立つ。

Figure 0006676894
Also, the following equation (26) holds.
Figure 0006676894

入力ベクトルxの分布p(x)に一様分布を仮定すると、(26)式は以下の(27)式のように表せる。C’はaおよびbに依存しない定数である。

Figure 0006676894
Assuming a uniform distribution for the distribution p (x) of the input vector x, Equation (26) can be expressed as Equation (27) below. C ′ is a constant independent of a and b.
Figure 0006676894

この結果を用いると(15)式は、以下の(28)式のように書き換えることができる。

Figure 0006676894
Using this result, equation (15) can be rewritten as equation (28) below.
Figure 0006676894

ここで、uを以下の(29)式で表す。

Figure 0006676894
Here, u is represented by the following equation (29).
Figure 0006676894

このuを用いると(28)式は、以下の(30)式で表される。第1の実施形態では(16)式で人為的にsをs(i)およびs(j)の線形結合で表現したが、RBFカーネルでは自然に線形結合の表現が得られる。

Figure 0006676894
Using this u, the expression (28) is expressed by the following expression (30). In the first embodiment, s is artificially represented by the linear combination of s (i) and s (j) in Expression (16). However, the RBF kernel naturally provides a linear combination.
Figure 0006676894

(30)式を(29)式に代入してsを消去すると、以下の(31)式が得られる。

Figure 0006676894
By substituting equation (30) into equation (29) and eliminating s, the following equation (31) is obtained.
Figure 0006676894

(31)式の右辺をg(u)と置くと、uを求めることは関数g(u)の不動点を求める問題である。g’(u)<1の領域に解が存在する場合(例えば閉区間[0 1]でg’(u)<1)は、適当な初期値(例えば(17)式)から始めてu←g(u)(uへのg(u)の代入)を繰り返すことで、解を求めることができる。g’(u)<1の領域に解が存在しない場合は、ニュートン法で解くか、一次元探索により解くことができる。   Assuming that the right side of equation (31) is g (u), finding u is a problem of finding a fixed point of the function g (u). If a solution exists in the region of g ′ (u) <1 (eg, g ′ (u) <1 in the closed section [0 1]), u ← g starts from an appropriate initial value (eg, equation (17)). A solution can be obtained by repeating (u) (substitution of g (u) into u). If there is no solution in the region where g '(u) <1, it can be solved by Newton's method or by one-dimensional search.

uが求まると(30)式からsが求まり、さらに(25)式からαが求まる。このときの評価関数値は、以下の(32)式で表される。

Figure 0006676894
When u is found, s is found from equation (30), and α is found from equation (25). The evaluation function value at this time is expressed by the following equation (32).
Figure 0006676894

この評価関数値を最小化するサポートベクトルのインデックスi,jが求められる。   The index i, j of the support vector that minimizes this evaluation function value is obtained.

以上の原理を元に構成される本実施形態の詳細について以下に説明する。図3は、第2の実施形態にかかる情報処理装置200の構成を示すブロック図である。   The details of the present embodiment based on the above principle will be described below. FIG. 3 is a block diagram illustrating a configuration of an information processing apparatus 200 according to the second embodiment.

図3に示すように、本実施形態の情報処理装置200は、記憶部20と、取得部101と、選択部102と、生成部203と、重み算出部204と、評価値算出部205と、出力制御部106と、を備えている。   As illustrated in FIG. 3, the information processing device 200 according to the present embodiment includes a storage unit 20, an acquisition unit 101, a selection unit 102, a generation unit 203, a weight calculation unit 204, an evaluation value calculation unit 205, And an output control unit 106.

第2の実施形態では、生成部203、重み算出部204、および、評価値算出部205の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる情報処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。また第2の実施形態の統合処理の全体の流れは、第1の実施形態の統合処理を示す図2と同様であるため説明を省略する。以下では、第1の実施形態との相違部分を記載する。   In the second embodiment, the functions of the generation unit 203, the weight calculation unit 204, and the evaluation value calculation unit 205 are different from those of the first embodiment. Other configurations and functions are the same as those in FIG. 1 which is a block diagram of the information processing apparatus 100 according to the first embodiment. Further, the overall flow of the integration processing of the second embodiment is the same as that of FIG. 2 showing the integration processing of the first embodiment, and thus the description is omitted. In the following, differences from the first embodiment will be described.

図2のステップS103に対応する処理として、生成部203は、選択されたサポートベクトルs(i)およびs(j)を統合して、統合ベクトルsを生成する。第1の実施形態の生成部103は、例えば(13)式、(15)式および(16)式などを用いて統合ベクトルsを生成した。本実施形態の生成部203は、例えば、(30)式および(31)式などを用いて統合ベクトルsを生成する。 As processing corresponding to step S103 in FIG. 2, the generation unit 203 integrates the selected support vectors s (i) and s (j) to generate an integrated vector s. The generation unit 103 according to the first embodiment generates the integrated vector s using, for example, Expressions (13), (15), and (16). The generation unit 203 of the present embodiment generates the integrated vector s using, for example, Expressions (30) and (31).

図2のステップS104に対応する処理として、重み算出部204は、生成された統合ベクトルsの重みαを算出する。重み算出部204は、例えば(25)式を用いて重みαを算出する。   As processing corresponding to step S104 in FIG. 2, the weight calculation unit 204 calculates the weight α of the generated integrated vector s. The weight calculation unit 204 calculates the weight α using, for example, Equation (25).

図2のステップS105に対応する処理として、評価値算出部205は、s(i)、s(j)を、sで置き換え、α、αをαで置き換えた場合の評価関数((32)式)の値である評価関数値を求める。求めた評価関数値が、それ以前に求められた評価関数値の最小値よりも小さい場合、評価値算出部205は、統合するサポートベクトルのインデックスi,j、s、α、および、評価関数値を例えば記憶部20に記憶する。 As a process corresponding to step S105 in FIG. 2, the evaluation value calculation unit 205 replaces s (i) and s (j) with s, and replaces α i and α j with α. The evaluation function value which is the value of the expression is calculated. When the obtained evaluation function value is smaller than the minimum value of the evaluation function values obtained before that, the evaluation value calculation unit 205 determines the indexes i, j, s, α of the support vectors to be integrated, and the evaluation function value. Is stored in the storage unit 20, for example.

本実施形態によれば、カーネル関数にRBFカーネルを使う場合にも、入力ベクトルの分布に基づく近似誤差の期待値を最小化するサポートベクトルの統合が得られる。これにより、識別関数の近似精度を極力保った上で、識別にかかる処理時間を低減することができる。入力ベクトルの確率分布として一様分布または正規分布を用いることにより、入力ベクトルの一様性、または、入力ベクトルの偏りを反映した上で識別関数を近似することができる。   According to the present embodiment, even when the RBF kernel is used as the kernel function, integration of the support vectors that minimizes the expected value of the approximation error based on the distribution of the input vector can be obtained. As a result, the processing time required for identification can be reduced while maintaining the approximation accuracy of the identification function as much as possible. By using a uniform distribution or a normal distribution as the probability distribution of the input vector, it is possible to approximate the discriminant function while reflecting the uniformity of the input vector or the bias of the input vector.

(第3の実施形態)
第3の実施形態では、カーネル関数に指数Bhattacharyyaカーネルを使う場合を説明する。指数Bhattacharyyaカーネルは、以下の(33)式により定義される。β、γはパラメータである。なお入力ベクトルxは各要素が0以上の実数で、総和が1になるように正規化されている。指数Bhattacharyyaカーネルは、特にヒストグラム特徴を扱う場合に効果を発揮する。

Figure 0006676894
(Third embodiment)
In the third embodiment, a case will be described in which an exponential Bhattacharyya kernel is used for a kernel function. The exponent Bhattacharyya kernel is defined by the following equation (33). β and γ are parameters. Note that the input vector x is a real number in which each element is 0 or more, and is normalized so that the sum is 1. The exponential Bhattacharyya kernel is particularly effective when dealing with histogram features.
Figure 0006676894

指数Bhattacharyyaカーネルを使用する場合は、期待値E[K(a,x)K(b,x)]は以下の(34)式により表される。

Figure 0006676894
ここで、入力ベクトルxの分布として領域[0 1]内での一様分布を考える(厳密には入力ベクトルxはD次元単体上に存在するが近似をする)。このとき、以下の(35)式が成り立つ。
Figure 0006676894
When the exponential Bhattacharyya kernel is used, the expected value E [K (a, x) K (b, x)] is expressed by the following equation (34).
Figure 0006676894
Here, a uniform distribution in the region [0 1] D is considered as the distribution of the input vector x (strictly speaking, the input vector x exists on a D-dimensional simple substance but is approximated). At this time, the following equation (35) holds.
Figure 0006676894

ここでexpを二次の項までテーラー展開すると、以下の(36)式が得られる。

Figure 0006676894
Here, if exp is expanded to a second-order term by Taylor expansion, the following equation (36) is obtained.
Figure 0006676894

(34)式および(36)式より、以下の(37)式が得られる。

Figure 0006676894
From the equations (34) and (36), the following equation (37) is obtained.
Figure 0006676894

この(37)式を用いると、(13)式は以下の(38)式のように書き換えることができる。

Figure 0006676894
Using this equation (37), equation (13) can be rewritten as equation (38) below.
Figure 0006676894

また、以下の(39)式が成り立つ。

Figure 0006676894
Also, the following equation (39) holds.
Figure 0006676894

ここで、入力ベクトルxの分布として領域[0 1]内での一様分布を考え、expを二次の項までテーラー展開すると、以下の(40)式が得られる。

Figure 0006676894
Here, considering the uniform distribution in the region [0 1] D as the distribution of the input vector x, and performing the Taylor expansion of exp to a quadratic term, the following equation (40) is obtained.
Figure 0006676894

この結果を用いると、(15)式は以下の(41)式のように書き換えることができる。ただし、t=1,2,・・・,Dである。

Figure 0006676894
Using this result, equation (15) can be rewritten as equation (41) below. Here, t = 1, 2,..., D.
Figure 0006676894

(38)式および(41)式の拘束式からsおよびαを求めることができるが、これらの式を解くのは容易ではない。そこで、第1の実施形態と同じ近似解法を用いる。まず、sをs(i)およびS(j)の線形結合で以下の(42)式のように表す。

Figure 0006676894
Although s and α can be obtained from the constraint equations (38) and (41), it is not easy to solve these equations. Therefore, the same approximate solution as in the first embodiment is used. First, s is represented by a linear combination of s (i) and S (j) as in the following equation (42).
Figure 0006676894

(38)式を(41)式に代入してαを消去して、条件式の二乗誤差を最小化するuを一次元探索で求める。このようにして求めたuから、(41)式よりsを求め、さらに(38)式からαを求める。このときの評価関数値は、以下の(43)式で表される。

Figure 0006676894
The equation (38) is substituted into the equation (41) to eliminate α, and u that minimizes the square error of the conditional expression is obtained by a one-dimensional search. From u obtained in this manner, s is obtained from equation (41), and α is obtained from equation (38). The evaluation function value at this time is expressed by the following equation (43).
Figure 0006676894

以上の原理を基に構成される本実施形態の詳細について以下に説明する。図4は、第3の実施形態にかかる情報処理装置300の構成を示すブロック図である。   Details of the present embodiment based on the above principle will be described below. FIG. 4 is a block diagram illustrating a configuration of an information processing device 300 according to the third embodiment.

図4に示すように、本実施形態の情報処理装置300は、記憶部20と、取得部101と、選択部102と、生成部303と、重み算出部304と、評価値算出部305と、出力制御部106と、を備えている。   As illustrated in FIG. 4, the information processing apparatus 300 of the present embodiment includes a storage unit 20, an acquisition unit 101, a selection unit 102, a generation unit 303, a weight calculation unit 304, an evaluation value calculation unit 305, And an output control unit 106.

第3の実施形態では、生成部303、重み算出部304、および、評価値算出部305の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる情報処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。また第3の実施形態の統合処理の全体の流れは、第1の実施形態の統合処理を示す図2と同様であるため説明を省略する。以下では、第1の実施形態との相違部分を記載する。   In the third embodiment, the functions of the generation unit 303, the weight calculation unit 304, and the evaluation value calculation unit 305 are different from those of the first embodiment. Other configurations and functions are the same as those in FIG. 1 which is a block diagram of the information processing apparatus 100 according to the first embodiment. The overall flow of the integration process according to the third embodiment is the same as that in FIG. 2 showing the integration process according to the first embodiment, and thus the description is omitted. In the following, differences from the first embodiment will be described.

図2のステップS103に対応する処理として、生成部303は、選択されたサポートベクトルs(i)およびs(j)を統合して、統合ベクトルsを生成する。本実施形態の生成部303は、例えば、(42)式および(31)式などを用いて統合ベクトルsを生成する。 As processing corresponding to step S103 in FIG. 2, the generation unit 303 integrates the selected support vectors s (i) and s (j) to generate an integrated vector s. The generation unit 303 of the present embodiment generates the integrated vector s using, for example, Expressions (42) and (31).

図2のステップS104に対応する処理として、重み算出部304は、生成された統合ベクトルsの重みαを算出する。重み算出部304は、例えば(38)式を用いて重みαを算出する。   As processing corresponding to step S104 in FIG. 2, the weight calculation unit 304 calculates the weight α of the generated integrated vector s. The weight calculation unit 304 calculates the weight α using, for example, Expression (38).

図2のステップS105に対応する処理として、評価値算出部305は、s(i)、s(j)を、sで置き換え、α、αをαで置き換えた場合の評価関数((42)式)の値である評価関数値を求める。求めた評価関数値が、それ以前に求められた評価関数値の最小値よりも小さい場合、評価値算出部305は、統合するサポートベクトルのインデックスi,j、s、α、および、評価関数値を例えば記憶部20に記憶する。 As a process corresponding to step S105 in FIG. 2, the evaluation value calculation unit 305 replaces s (i) and s (j) with s and replaces α i and α j with α. The evaluation function value which is the value of the expression is calculated. When the obtained evaluation function value is smaller than the minimum value of the evaluation function values obtained before that, the evaluation value calculation unit 305 determines the indexes i, j, s, α of the support vectors to be integrated, and the evaluation function value. Is stored in the storage unit 20, for example.

本実施形態によれば、カーネル関数に指数Bhattacharyyaカーネルを使う場合にも、入力ベクトルの分布に基づく近似誤差の期待値を最小化するサポートベクトルの統合が得られる。これにより、識別関数の近似精度を極力保った上で、識別にかかる処理時間を低減することができる。   According to the present embodiment, even when the exponential Bhattacharyya kernel is used for the kernel function, integration of support vectors that minimizes the expected value of the approximation error based on the distribution of the input vector can be obtained. As a result, the processing time required for identification can be reduced while maintaining the approximation accuracy of the identification function as much as possible.

(第4の実施形態)
第4の実施形態では、学習データから入力ベクトルの分布を推定し、その推定分布に基づき識別関数の近似誤差を最小化するようにサポートベクトルを統合する例を説明する。図5は、第4の実施形態にかかる情報処理装置400の構成を示すブロック図である。
(Fourth embodiment)
In the fourth embodiment, an example will be described in which the distribution of input vectors is estimated from learning data, and the support vectors are integrated based on the estimated distribution so as to minimize the approximation error of the discriminant function. FIG. 5 is a block diagram illustrating a configuration of an information processing device 400 according to the fourth embodiment.

図5に示すように、本実施形態の情報処理装置400は、記憶部20と、推定部401と、取得部101と、選択部102と、生成部103と、重み算出部104と、評価値算出部105と、出力制御部106と、を備えている。   As shown in FIG. 5, the information processing apparatus 400 according to the present embodiment includes a storage unit 20, an estimation unit 401, an acquisition unit 101, a selection unit 102, a generation unit 103, a weight calculation unit 104, an evaluation value A calculation unit 105 and an output control unit 106 are provided.

第4の実施形態では、推定部401を追加したことが第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる情報処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。   The fourth embodiment differs from the first embodiment in that an estimation unit 401 is added. Other configurations and functions are the same as those in FIG. 1 which is a block diagram of the information processing apparatus 100 according to the first embodiment.

推定部401は、記憶部20などに記憶される学習データに含まれるN個の入力ベクトルs(i)(i=1,2,・・・,N)を基に入力ベクトル分布p(x)を推定する。推定部401による入力ベクトル分布の推定処理の詳細については後述する。 The estimating unit 401 determines an input vector distribution p (x) based on N input vectors s (i) (i = 1, 2,..., N) included in the learning data stored in the storage unit 20 or the like. Is estimated. The details of the estimation process of the input vector distribution by the estimation unit 401 will be described later.

次に、このように構成された第4の実施形態にかかる情報処理装置400によるサポートベクトルの統合処理について図6を用いて説明する。図6は、第4の実施形態における統合処理の一例を示すフローチャートである。   Next, a support vector integration process performed by the information processing apparatus 400 according to the fourth embodiment thus configured will be described with reference to FIG. FIG. 6 is a flowchart illustrating an example of the integration processing according to the fourth embodiment.

推定部401は、記憶部20から学習データを読み込み、学習データに含まれるN個の入力ベクトルs(i)(i=1,2,・・・,N)を基に入力ベクトル分布p(x)を推定する(ステップS201)。 The estimation unit 401 reads the learning data from the storage unit 20, and based on N input vectors s (i) (i = 1, 2,..., N) included in the learning data, an input vector distribution p (x ) Is estimated (step S201).

ステップS202からステップS208までは、第1の実施形態にかかる情報処理装置100におけるステップS101からステップS107までと同様の処理なので、その説明を省略する。   Steps S202 to S208 are the same as steps S101 to S107 in the information processing apparatus 100 according to the first embodiment, and a description thereof will be omitted.

次に、入力ベクトル分布の推定処理について説明する。推定部401は、例えば以下の(44)式で示される経験分布を用いることができる。ここで、δはデルタ関数である。

Figure 0006676894
Next, the process of estimating the input vector distribution will be described. The estimating unit 401 can use, for example, an empirical distribution represented by the following equation (44). Here, δ is a delta function.
Figure 0006676894

入力ベクトル分布p(x)の推定方法はこれに限られるものではない。例えば推定部401は、p(x)にパラメトリックなモデルを仮定し、最尤推定によりそのパラメータを求めてもよい。例えばp(x)に、正規分布、ラプラス分布、一様分布(領域限定)、ポアソン分布、ベータ分布、ガンマ分布、および、これらの混合分布を考えることができる。推定部401は、さらにパラメータに事前分布を仮定してMAP推定およびベイズ推定によって分布を推定してもよい。   The method of estimating the input vector distribution p (x) is not limited to this. For example, the estimating unit 401 may assume a parametric model for p (x) and obtain its parameters by maximum likelihood estimation. For example, a normal distribution, a Laplace distribution, a uniform distribution (region limited), a Poisson distribution, a beta distribution, a gamma distribution, and a mixed distribution thereof can be considered for p (x). The estimating unit 401 may further estimate the distribution by MAP estimation and Bayes estimation, assuming a prior distribution as a parameter.

別のアプローチとして、推定部401は、学習データから得られた識別関数f(x)をもとに入力ベクトル分布を推定してもよい。例えば推定部401は、以下の(45)式のようにp(x)を設定する。

Figure 0006676894
As another approach, the estimation unit 401 may estimate an input vector distribution based on a discriminant function f (x) obtained from learning data. For example, the estimating unit 401 sets p (x) as in the following equation (45).
Figure 0006676894

厳密に言えば、(45)式の分布は入力ベクトルの推定分布ではなく、近似誤差の重み付けを行うための便宜的な分布である。SVMの目的はクラス分類であり、識別境界付近の識別関数の近似精度が重要である。そこで、(45)式のようにf(x)=0となる識別境界付近に入力ベクトルが集中していると考えて近似誤差の期待値を取ることで、識別境界付近の近似精度を高めることができる。(45)式に基づく近似誤差の期待値計算は、例えばマルコフ連鎖モンテカルロ法により実施することができる。   Strictly speaking, the distribution of Expression (45) is not an estimated distribution of the input vector but a distribution for the purpose of weighting the approximation error. The purpose of the SVM is class classification, and the approximation accuracy of the identification function near the identification boundary is important. Therefore, it is considered that the input vector is concentrated near the discrimination boundary where f (x) = 0 as in the equation (45), and the expected value of the approximation error is taken to improve the approximation accuracy near the discrimination boundary. Can be. The calculation of the expected value of the approximation error based on the equation (45) can be performed by, for example, the Markov chain Monte Carlo method.

(45)式の分布は、識別境界からの距離が大きいほど、確率密度の値が小さくなる分布の例である。このような確率分布を用いることにより、識別精度への影響が大きい識別境界付近に重点を置いて識別関数を近似することが可能となる。   The distribution of Expression (45) is an example of a distribution in which the value of the probability density decreases as the distance from the identification boundary increases. By using such a probability distribution, it is possible to approximate the discriminant function with emphasis on the vicinity of the discriminating boundary that greatly affects the discriminating accuracy.

なお、本実施形態は一般的なカーネルの場合だけでなく、第2の実施形態のRBFカーネル、および、第3の実施形態の指数Bhattacharyyaカーネルの場合にも同様に適用することができる。   The present embodiment can be applied not only to a general kernel, but also to the RBF kernel of the second embodiment and the exponential Bhattacharya kernel of the third embodiment.

本実施形態によれば、学習データを基に入力ベクトルの分布を推定し、その分布に基づいた識別関数の近似誤差の期待値最小化を行うことで、識別関数の近似精度を高めることができる。また、学習データの分布を反映した上で識別関数を近似することができる。   According to the present embodiment, the estimation accuracy of the identification function can be improved by estimating the distribution of the input vector based on the learning data and minimizing the expected value of the approximation error of the identification function based on the distribution. . Further, the identification function can be approximated while reflecting the distribution of the learning data.

(第5の実施形態)
本実施形態では、基準ベクトルの統合により得られた識別関数を用いてパターン認識などを実行する識別装置として情報処理装置を実現する例を説明する。図7は、第5の実施形態にかかる情報処理装置500の構成を示すブロック図である。
(Fifth embodiment)
In the present embodiment, an example will be described in which an information processing apparatus is realized as an identification apparatus that performs pattern recognition and the like using an identification function obtained by integrating reference vectors. FIG. 7 is a block diagram illustrating a configuration of an information processing device 500 according to the fifth embodiment.

図7に示すように、本実施形態の情報処理装置500は、記憶部20と、取得部101と、選択部102と、生成部103と、重み算出部104と、評価値算出部105と、出力制御部106と、認識部501と、を備えている。   As illustrated in FIG. 7, the information processing apparatus 500 according to the present embodiment includes a storage unit 20, an acquisition unit 101, a selection unit 102, a generation unit 103, a weight calculation unit 104, an evaluation value calculation unit 105, An output control unit 106 and a recognition unit 501 are provided.

第5の実施形態では、認識部501を追加したことが第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる情報処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。   The fifth embodiment is different from the first embodiment in that a recognition unit 501 is added. Other configurations and functions are the same as those in FIG. 1 which is a block diagram of the information processing apparatus 100 according to the first embodiment.

認識部501は、第1の実施形態の方法で識別関数が近似されたSVMを用いた識別(認識)処理を実行する。例えば認識部501は、識別の対象となる特徴量ベクトルがいずれのクラスに属するかを、SVMを用いて識別する。特徴量ベクトルは、例えば、画像の特徴、文字の特徴、および、音声の特徴を表すベクトルである。このように、本実施形態の識別装置は、画像認識、文字認識、および、音声認識などの任意の識別処理に適用できる。   The recognizing unit 501 executes a recognizing (recognizing) process using the SVM whose discriminant function is approximated by the method of the first embodiment. For example, the recognizing unit 501 uses SVM to identify to which class the feature vector to be identified belongs. The feature amount vector is, for example, a vector representing a feature of an image, a feature of a character, and a feature of a sound. As described above, the identification device of the present embodiment can be applied to any identification processing such as image recognition, character recognition, and voice recognition.

次に、このように構成された第5の実施形態にかかる情報処理装置500による識別処理について図8を用いて説明する。図8は、第5の実施形態における識別処理の一例を示すフローチャートである。   Next, an identification process performed by the information processing apparatus 500 according to the fifth embodiment thus configured will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the identification processing according to the fifth embodiment.

認識部501は、識別の対象となる特徴量ベクトルを、記憶部20または外部装置などから入力する(ステップS301)。認識部501は、SVMを用いて特徴量ベクトルがいずれのクラスに属するかを識別する(ステップS302)。認識部501は、識別結果を出力し(ステップS303)、識別処理を終了する。   The recognition unit 501 inputs a feature amount vector to be identified from the storage unit 20 or an external device (step S301). The recognizing unit 501 identifies to which class the feature vector belongs using the SVM (step S302). The recognition unit 501 outputs the identification result (Step S303), and ends the identification processing.

なお、本実施形態は第1の実施形態だけでなく、第2〜第4の実施形態にも同様に適用することができる。本実施形態によれば、より少ない基準ベクトルを用いて近似された識別関数を用いることができるため、識別性能の劣化を極力抑えた上で処理時間を低減することが可能となる。   This embodiment can be applied not only to the first embodiment but also to the second to fourth embodiments. According to the present embodiment, since an identification function approximated by using a smaller number of reference vectors can be used, it is possible to reduce processing time while minimizing deterioration of identification performance.

次に、上記各実施形態にかかる情報処理装置のハードウェア構成について図9を用いて説明する。図9は、各実施形態にかかる情報処理装置のハードウェア構成例を示す説明図である。   Next, a hardware configuration of the information processing apparatus according to each of the above embodiments will be described with reference to FIG. FIG. 9 is an explanatory diagram illustrating a hardware configuration example of the information processing apparatus according to each embodiment.

各実施形態にかかる情報処理装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。   The information processing apparatus according to each embodiment communicates with a control device such as a CPU (Central Processing Unit) 51 and a storage device such as a ROM (Read Only Memory) 52 and a RAM (Random Access Memory) 53 by connecting to a network. And a bus 61 for connecting each unit.

なお、本実施形態の情報処理装置で実行されるプログラムは、ROM等に予め組み込まれて提供される。   The program executed by the information processing apparatus according to the present embodiment is provided by being incorporated in a ROM or the like in advance.

本実施形態の情報処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータ・プログラム・プロダクトとして提供するように構成してもよい。   The program executed by the information processing apparatus according to the present embodiment is a file in an installable format or an executable format in a computer such as a CD-ROM, a flexible disk (FD), a CD-R, and a DVD (Digital Versatile Disk). You may comprise so that it may be recorded on a readable recording medium and provided as a computer program product.

さらに、本実施形態の情報処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の情報処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   Furthermore, the program executed by the information processing apparatus of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the program executed by the information processing apparatus of the present embodiment may be provided or distributed via a network such as the Internet.

本実施形態の情報処理装置で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。   The program executed by the information processing apparatus according to the present embodiment has a module configuration including the above-described units. As actual hardware, the CPU (processor) reads out the program from the ROM and executes the program. Is loaded on the main storage device, and each unit is generated on the main storage device.

20 記憶部
100、200、300、400、500 情報処理装置
101 取得部
102 選択部
103、203、303 生成部
104、204、304 重み算出部
105、205、305 評価値算出部
106 出力制御部
401 推定部
501 認識部
Reference Signs List 20 storage unit 100, 200, 300, 400, 500 information processing device 101 acquisition unit 102 selection unit 103, 203, 303 generation unit 104, 204, 304 weight calculation unit 105, 205, 305 evaluation value calculation unit 106 output control unit 401 Estimation unit 501 Recognition unit

D. Nguyen, T. Ho, “An efficient method for simplifying support vector machines”, ICML, 617−624, 2005.D. Nguyen, T. Ho, “An efficient method for simplifying support vector machines”, ICML, 617-624, 2005. Z. Wang, K. Crammer, S. Vucetic, “Multi−Class Pegasos ON a Budget”, In Proc. ICML, 2010.Z. Wang, K. Crammer, S. Vucetic, "Multi-Class Pegasos ON a Budget", In Proc. ICML, 2010.

Claims (9)

複数の基準ベクトルと入力ベクトルとを引数とするカーネル関数の値の和で表される識別関数を処理する情報処理装置であって、
複数の前記基準ベクトルを取得する取得部と、
複数の前記基準ベクトルに含まれる第1基準ベクトルおよび第2基準ベクトルを統合した統合ベクトルを生成する生成部と、
前記第1基準ベクトルおよび前記第2基準ベクトルを前記統合ベクトルで置き換えた近似関数と、前記識別関数と、の間の、前記入力ベクトルの確率分布に基づく近似誤差の期待値を表す評価値を算出する評価値算出部と、
前記評価値が最小となる前記第1基準ベクトルと前記第2基準ベクトルとを出力する出力制御部と、
を備える情報処理装置。
An information processing apparatus for processing an identification function represented by a sum of values of a kernel function having a plurality of reference vectors and an input vector as arguments,
An acquisition unit that acquires a plurality of the reference vectors,
A generation unit that generates an integrated vector obtained by integrating a first reference vector and a second reference vector included in the plurality of reference vectors;
Calculating an evaluation value representing an expected value of an approximation error based on a probability distribution of the input vector between an approximation function obtained by replacing the first reference vector and the second reference vector with the integrated vector and the discrimination function. An evaluation value calculation unit to perform
An output control unit that outputs the first reference vector and the second reference vector that minimize the evaluation value;
An information processing apparatus comprising:
前記基準ベクトルは、サポートベクトルマシンの学習により得られるサポートベクトルである、
請求項1に記載の情報処理装置。
The reference vector is a support vector obtained by learning a support vector machine,
The information processing device according to claim 1.
前記入力ベクトルの確率分布は、一様分布または正規分布である、
請求項1に記載の情報処理装置。
The probability distribution of the input vector is a uniform distribution or a normal distribution,
The information processing device according to claim 1.
前記入力ベクトルの確率分布は、学習データから推定される、
請求項1に記載の情報処理装置。
The probability distribution of the input vector is estimated from learning data,
The information processing device according to claim 1.
前記入力ベクトルの確率分布は、識別境界からの距離が大きいほど確率密度の値が小さくなる分布である、
請求項1に記載の情報処理装置。
The probability distribution of the input vector is a distribution in which the value of the probability density decreases as the distance from the identification boundary increases.
The information processing device according to claim 1.
前記出力制御部は、シミュレーティッド・アニーリング、タブーサーチ、遺伝的アルゴリズムを含むメタヒューリスティクスアルゴリズムにより、前記評価値が最小となる前記第1基準ベクトルと前記第2基準ベクトルとを選択し、選択した前記第1基準ベクトルと前記第2基準ベクトルとを出力する、
請求項1に記載の情報処理装置。
The output control unit selects and selects the first reference vector and the second reference vector with the minimum evaluation value by a simulated annealing, a taboo search, and a meta-heuristic algorithm including a genetic algorithm. Outputting the first reference vector and the second reference vector;
The information processing device according to claim 1.
前記取得部は、1以上のクラスを識別する1以上の識別関数をそれぞれ取得する、
請求項1に記載の情報処理装置。
The acquisition unit acquires one or more identification functions for identifying one or more classes, respectively.
The information processing device according to claim 1.
複数の基準ベクトルと入力ベクトルとを引数とするカーネル関数の値の和で表される識別関数を処理する情報処理装置で実行される情報処理方法であって、
複数の前記基準ベクトルを取得する取得ステップと、
複数の前記基準ベクトルに含まれる第1基準ベクトルおよび第2基準ベクトルを統合した統合ベクトルを生成する生成ステップと、
前記第1基準ベクトルおよび前記第2基準ベクトルを前記統合ベクトルで置き換えた近似関数と、前記識別関数と、の間の、前記入力ベクトルの確率分布に基づく近似誤差の期待値を表す評価値を算出する評価値算出ステップと、
前記評価値が最小となる前記第1基準ベクトルと前記第2基準ベクトルとを出力する出力制御ステップと、
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus that processes an identification function represented by a sum of values of a kernel function having a plurality of reference vectors and input vectors as arguments,
An obtaining step of obtaining a plurality of the reference vectors;
A generation step of generating an integrated vector obtained by integrating a first reference vector and a second reference vector included in the plurality of reference vectors;
Calculating an evaluation value representing an expected value of an approximation error based on a probability distribution of the input vector between an approximation function obtained by replacing the first reference vector and the second reference vector with the integrated vector and the discrimination function. Evaluation value calculating step to be performed;
An output control step of outputting the first reference vector and the second reference vector that minimize the evaluation value;
An information processing method comprising:
複数の基準ベクトルと入力ベクトルとを引数とするカーネル関数の値の和で表される識別関数を処理する情報処理装置を、
複数の前記基準ベクトルを取得する取得部と、
複数の前記基準ベクトルに含まれる第1基準ベクトルおよび第2基準ベクトルを統合した統合ベクトルを生成する生成部と、
前記第1基準ベクトルおよび前記第2基準ベクトルを前記統合ベクトルで置き換えた近似関数と、前記識別関数と、の間の、前記入力ベクトルの確率分布に基づく近似誤差の期待値を表す評価値を算出する評価値算出部と、
前記評価値が最小となる前記第1基準ベクトルと前記第2基準ベクトルとを出力する出力制御部、
として機能させるためのプログラム。
An information processing apparatus that processes an identification function represented by a sum of values of a kernel function having a plurality of reference vectors and input vectors as arguments,
An acquisition unit that acquires a plurality of the reference vectors,
A generation unit that generates an integrated vector obtained by integrating a first reference vector and a second reference vector included in the plurality of reference vectors;
Calculating an evaluation value representing an expected value of an approximation error based on a probability distribution of the input vector between an approximation function obtained by replacing the first reference vector and the second reference vector with the integrated vector and the discrimination function. An evaluation value calculation unit to perform
An output control unit that outputs the first reference vector and the second reference vector that minimize the evaluation value;
Program to function as
JP2015146086A 2015-07-23 2015-07-23 Information processing apparatus, information processing method and program Active JP6676894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015146086A JP6676894B2 (en) 2015-07-23 2015-07-23 Information processing apparatus, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015146086A JP6676894B2 (en) 2015-07-23 2015-07-23 Information processing apparatus, information processing method and program

Publications (2)

Publication Number Publication Date
JP2017027411A JP2017027411A (en) 2017-02-02
JP6676894B2 true JP6676894B2 (en) 2020-04-08

Family

ID=57946594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015146086A Active JP6676894B2 (en) 2015-07-23 2015-07-23 Information processing apparatus, information processing method and program

Country Status (1)

Country Link
JP (1) JP6676894B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3980541B2 (en) * 2003-09-22 2007-09-26 日本電信電話株式会社 Distributed energy community control system, central controller, distributed controller, and control method thereof
JP5196425B2 (en) * 2008-03-07 2013-05-15 Kddi株式会社 Support vector machine relearning method
JP5216497B2 (en) * 2008-09-18 2013-06-19 Kddi株式会社 SV reduction method for multi-class SVM
JP2011113377A (en) * 2009-11-27 2011-06-09 Hitachi Ltd Distributed arithmetic device and method of controlling the same
JP5845630B2 (en) * 2011-05-24 2016-01-20 ソニー株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2017027411A (en) 2017-02-02

Similar Documents

Publication Publication Date Title
KR101868829B1 (en) Generation of weights in machine learning
KR101868830B1 (en) Weight generation in machine learning
US20210142181A1 (en) Adversarial training of machine learning models
CN110287477B (en) Entity emotion analysis method and related device
US20220027738A1 (en) Distributed synchronous training architecture using stale weights
KR101889451B1 (en) Weight benefit evaluator for training data
US11494591B2 (en) Margin based adversarial computer program
JP5795743B2 (en) Document comparison method and document comparison system based on various inter-document similarity calculation methods using adaptive weighting
JP6763426B2 (en) Information processing system, information processing method, and program
US8494994B2 (en) Fast adaptation in real-time systems
US20160125299A1 (en) Apparatus for data analysis and prediction and method thereof
JP6365032B2 (en) Data classification method, data classification program, and data classification apparatus
WO2020209860A1 (en) Leveraging lagging gradients in machine-learning model training
US20140257810A1 (en) Pattern classifier device, pattern classifying method, computer program product, learning device, and learning method
US10726349B2 (en) Calculating posterior probability of classes
JP6676894B2 (en) Information processing apparatus, information processing method and program
JP6436086B2 (en) Classification dictionary generation device, classification dictionary generation method, and program
CN110851600A (en) Text data processing method and device based on deep learning
CN112561569B (en) Dual-model-based store arrival prediction method, system, electronic equipment and storage medium
JP5486569B2 (en) Pattern identification method, pattern identification apparatus, and program
Bunse Unification of algorithms for quantification and unfolding
JP2022554126A (en) Information processing device, information processing method, and program
US20210125064A1 (en) Method and apparatus for training neural network
US20240135238A1 (en) Mitigating the influence of biased training instances without refitting
US20230206099A1 (en) Computational estimation of a characteristic of a posterior distribution

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R151 Written notification of patent or utility model registration

Ref document number: 6676894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151