JP2007213403A - モデル導出方法、モデル導出装置、及び、プログラム - Google Patents
モデル導出方法、モデル導出装置、及び、プログラム Download PDFInfo
- Publication number
- JP2007213403A JP2007213403A JP2006033880A JP2006033880A JP2007213403A JP 2007213403 A JP2007213403 A JP 2007213403A JP 2006033880 A JP2006033880 A JP 2006033880A JP 2006033880 A JP2006033880 A JP 2006033880A JP 2007213403 A JP2007213403 A JP 2007213403A
- Authority
- JP
- Japan
- Prior art keywords
- sample data
- calculation model
- model
- approximate polynomial
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Complex Calculations (AREA)
Abstract
【課題】従来よりも好適な認識システムの計算モデルを導出すること。
【解決手段】計算モデルの導出に際しては、計算モデルの原型となる演算式Nが要素に有する学習パラメータW={w1,…,ws}の解を求めるため、サンプルデータ(学習データ)を複数個用意する。また、演算式Nが要素に有する非線形関数を多項式近似し(S180)、演算式Nを、各入力データに対応する変数X={x1,…,xm}の近似多項式Fに変換する(S190)。そして、近似多項式Fを構成する各項の変数部を、独立した変数Z={z1,…,zn}とし、変数Zの近似多項式Fに関して、サポートベクタマシンの手法により、サンプルデータに最適な係数g1,…,gn及び定数項g0を算出する(S200)。また、算出した係数g1,…,gn及び定数項g0に基づき、Wの最適解を算出し、この最適解を設定してなる演算式Nを、サンプルデータに最適な計算モデルとして導出する。
【選択図】図4
【解決手段】計算モデルの導出に際しては、計算モデルの原型となる演算式Nが要素に有する学習パラメータW={w1,…,ws}の解を求めるため、サンプルデータ(学習データ)を複数個用意する。また、演算式Nが要素に有する非線形関数を多項式近似し(S180)、演算式Nを、各入力データに対応する変数X={x1,…,xm}の近似多項式Fに変換する(S190)。そして、近似多項式Fを構成する各項の変数部を、独立した変数Z={z1,…,zn}とし、変数Zの近似多項式Fに関して、サポートベクタマシンの手法により、サンプルデータに最適な係数g1,…,gn及び定数項g0を算出する(S200)。また、算出した係数g1,…,gn及び定数項g0に基づき、Wの最適解を算出し、この最適解を設定してなる演算式Nを、サンプルデータに最適な計算モデルとして導出する。
【選択図】図4
Description
本発明は、認識行為を実現する計算モデルを導出するためのモデル導出方法、及び、モデル導出装置、並びに、プログラムに関する。
従来より、認識行為を、コンピュータ上で実現する方法としては、ニューラルネットワークを用いた方法が知られている(例えば、特許文献1参照)。ニューラルネットワークは、神経細胞の機能を数式によりモデル化したものである。神経細胞は、入力信号により加わる電位が閾値を超えると、パルスを発するといった機能を有し、ニューラルネットワークでは、このような機能を、シグモイド関数等の非線形関数を用いて実現する。
即ち、ニューラルネットワークでは、入力値を、非線形関数に代入して、その出力値を、次の神経細胞に対応する非線形関数に代入するといった演算を実行する。そして、認識結果に対応する出力値を、末端の非線形関数の出力値から得る。尚、神経細胞間を結ぶ各シナプスは、異なる伝播効率を有し、認識の結果は、神経細胞間の接続関係及び各神経細胞間の伝播効率によって変化する。ニューラルネットワークにおいては、非線形関数の出力値を結合荷重Wで重み付けして、次の非線形関数に代入することで、これをモデル化し、結合荷重Wの調整によって、所望の認識行為を実現するニューラルネットワークを構築する。
具体的に、ニューラルネットワークを構築するに当たっては、ニューラルネットワークの基本モデル、即ち、神経細胞に対応するユニット間の接続関係を決定し、その後に、入出力関係を表すサンプルデータ(所謂、学習データ)を、基本モデルに与えて、結合荷重Wを決定する。尚、ニューラルネットワークの基本モデルとしては、階層型ネットワーク等が知られ、この階層型ネットワークにおける結合荷重Wの決定方法(学習方法)としては、バックプロパゲーション法が知られている。
特開2005−316888号公報
しかしながら、従来知られている結合荷重Wの決定方法では、次のような問題があった。即ち、バックプロパゲーション法では、サンプルデータの出力値と、サンプルデータの入力値を用いてニューラルネットワークで得られた出力値との二乗誤差を小さくする方向に、結合荷重Wを修正していくため、学習時に与える結合荷重Wの初期値によっては、最適解を求められない可能性があった。
ここで、バックプロパゲーション法による結合荷重Wの決定方法について、簡単なニューラルネットワークを例に挙げて説明する。具体的に、ここでは、入力ユニットを2つ、出力ユニットを1つ、非線形関数u(x)としてシグモイド関数
が採用された中間ユニットを2つ有する三層フィードフォワードニューラルネットワーク(図2参照)を例に挙げて説明する。このニューラルネットワークの入出力関係は、次式で表される。
このニューラルネットワークの結合荷重W={w1,…,w9}が、I個(i=1,2,…I)のサンプルデータ{x1(i),x2(i),T(i)}によって学習されるものとすると、バックプロパゲーション法では、二乗誤差EE
の最小値を求めることになる。尚、T(i)は、入力データx1(i),x2(i)に対応するカテゴリを表す値(ニューラルネットワークにて算出されるべき理想値)であり、例えば、−1又は+1を採る。
しかしながら、二乗誤差EEは、w1,…,w9の非線形関数であるため、図8に示すように、この二乗誤差EEには、極小値が複数存在し、学習時におけるw1,…,w9の初期値の設定次第では、最小値ではない極小点に収束するように、学習が行われて、w1,…,w9の解が求められる可能性があった。即ち、従来手法では、結合荷重Wについて局所解しか求めることができないため、適切な結合荷重Wの解を得られない可能性があった。
また、従来手法では、サンプルデータに従って、二乗誤差EEが小さくなるように、結合荷重Wの解を求める程度であるため、この解を算出するに当たって用いたサンプルデータ以外の値を、ニューラルネットワークに入力した場合、最適な出力結果が得られるとは限らなかった。
本発明は、こうした問題に鑑みなされたものであり、認識システムの計算モデルとして、従来よりも好適な計算モデルを導出可能な技術を提供することを目的とする。
かかる目的を達成するためになされた本発明のモデル導出方法では、入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出し、入力データの組に対応するカテゴリを認識する認識システムの計算モデルに関し、サンプルデータ(入力データの組及びこれに対応するカテゴリを表す値の組合せからなる。)の複数に基づき、最適な計算モデルを、次の手順により導出する。
まず、計算モデルの原型となる演算式N(X,W)について、演算式Nが要素に有する非線形関数uを多項式近似し、この演算式N(X,W)を、各入力データに対応する変数X={x1,…,xm}の近似多項式Fに変換する(手順(a))。尚、定数Wは、ニューラルネットワークの結合荷重に対応するものであり、W={w1,…,ws}である。
また、近似多項式Fを得た後には、この近似多項式Fを構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、上記サンプルデータの複数を用いて、サポートベクタマシンの手法により、近似多項式Fを構成する各変数z1,…,znの係数g1(W),…,gn(W)及び定数項g0(W)を算出する(手順(b))。
例えば、図2に示す三層フィードフォワードニューラルネットワークを例にとると、演算式N(x1,x2,w1,…,w9)が要素に有する非線形関数u(x)は、多項式p(x)で近似できる。
従って、N(x1,x2,w1,…,w9)を、近似多項式Fに変換すると、近似多項式Fは、次式で表される。尚、定数Kは、近似多項式Fの最高次数である。
本発明では、この近似多項式Fを構成する変数X={x1,x2}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とする。
そして、これを、サポートベクタマシンの手法により解いて、近似多項式Fを構成する各変数z1,…,znの係数g1(W),…,gn(W)及び定数項g0(W)を算出し、算出した係数g1(W),…,gn(W)及び定数項g0(W)に基づき、この係数g1(W),…,gn(W)及び定数項g0(W)を設定した近似多項式Fと等価な演算によってカテゴリを表す値を演算することが可能な計算モデルを、サンプルデータに対応する計算モデルとして導出するのである。
サポートベクタマシンの学習アルゴリズムによれば、係数g1(W),…,gn(W)及び定数項g0(W)を算出する際、局所解が存在しないため、常に、係数g1(W),…,gn(W)及び定数項g0(W)について最適解を得ることができる。従って、本発明の方法によれば、常に、最適な定数Wを決定して、サンプルデータに最適な計算モデルを得ることができ、従来よりも適切な認識システムを構築することができるのである。
また、サポートベクタマシンの学習アルゴリズムによれば、サンプルデータ以外の入力データに対しても、適切な係数g1(W),…,gn(W)及び定数項g0(W)を求めることができる。従って、本発明の方法によれば、学習時に用いられていない入力データが入力された場合でも適切にカテゴリを認識可能な認識システムを構築することができる。
尚、手順(b)にて、係数g1(W),…,gn(W)及び定数項g0(W)についての最適解を求める方法としては、具体的に、近似多項式Fを構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、各サンプルデータが有する入力データの組を、変数Zを座標とするn次元空間に配置した場合に、近似多項式Fが、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、各変数z1,…,znの係数g1(W),…,gn(W)及び定数項g0(W)を算出する方法を挙げることができる(請求項2)。
図1は、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面の概念図である。n次元空間で、各サンプルデータをカテゴリ毎に超平面にて分離すれば、超平面からの符号付距離に比例した量が正値であるか負値であるかによって、各サンプルデータのカテゴリを、正しく認識することができる。
また、本発明では、カテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、各変数z1,…,znの係数g1(W),…,gn(W)及び定数項g0(W)を算出するので、これに基づいて構築した認識システムでは、n次元空間においてサンプルデータが配置される点周辺に配置される入力データの組を、同一カテゴリであると認識することができる。即ち、このように、係数g1(W),…,gn(W)及び定数項g0(W)を算出すれば、係数g1(W),…,gn(W)及び定数項g0(W)の学習時に用いたサンプルデータ以外の入力データの組についても適切にカテゴリを認識可能な認識システムを構築することができるのである。
このように本発明によれば、計算モデルの学習パラメータ(定数W)について、局所解しか求められないということがなく、常に最適解を求めることができ、また、サンプルデータ以外の入力データが入力された場合でも、その入力データの組に対応するカテゴリを、適切に認識することができるので、従来よりも優れた認識システムを構築することができる。
尚、サンプルデータに最適な計算モデルとしては、係数g1(W),…,gn(W)及び定数項g0(W)を設定した近似多項式Fを挙げることができるが、その他、非線形関数u(x)について多項式近似する前の計算モデルの原型に、係数g1(W),…,gn(W)及び定数項g0(W)に対応する定数W={w1,…,ws}の値を設定したものを挙げることができる。
即ち、サンプルデータに対応する計算モデルを導出するに際しては、手順(b)にて算出した係数g1(W),…,gn(W)及び定数項g0(W)に基づき、計算モデルの原型が要素に有する定数W={w1,…,ws}の値を算出し(手順(c))、計算モデルの原型に、この定数W={w1,…,ws}の値を設定してなる計算モデルを、サンプルデータに対応する計算モデルとして導出してもよい(請求項3)。
近似多項式Fを計算モデルに用いて認識システムを構築する場合には、入力データを、変数Zの座標系に変換する必要があるが、計算モデルの原型に、この定数W={w1,…,ws}の値を設定してなる計算モデルを、サンプルデータに対応する計算モデルとして、認識システムに適用すれば、入力データを、変数Zの座標系に変換する必要がなく、システム構成を簡単にすることができる。
また、サンプルデータに対応する計算モデルとしては、上記の他に、手順(b)にて算出した係数g1(W),…,gn(W)及び定数項g0(W)を設定した近似多項式Fを、これより低次元の近似多項式に変換してなる計算モデルを挙げることができる(請求項4)。尚、変数Zの近似多項式Fをd次元(d<n)の近似多項式に変換する方法としては、主成分分析の手法を用いることができる。
このように、n次元の近似多項式Fを、低次元の近似多項式Fに変換して、これを計算モデルとすれば、カテゴリを表す値を算出するに当たって、その演算量を抑えることができる。
その他、上述した非線形関数u(x)としては、ガウス関数、シグモイド関数、ハイパボリックタンジェント関数等を挙げることができる(請求項5)。尚、ガウス関数gauss(x)の基本形は、式(7)で表すことができ、シグモイド関数sig(x)の基本形は、式(8)で表すことができ、ハイパボリックタンジェント関数tanh(x)の基本形は、式(9)で表すことができる。
また、本発明の方法は、コンピュータ等の装置上で実現することができ、サンプルデータに対応する計算モデルを導出するモデル導出装置としては、各サンプルデータの入力を受け付けるサンプル受付手段と、計算モデルの原型となる演算式N(X,W)の指定情報を受け付ける原型受付手段と、この指定情報に基づき、外部から指定された演算式N(X,W)が要素に有する非線形関数u(x)を多項式近似し、この演算式N(X,W)を、各入力データに対応する変数X={x1,…,xm}の近似多項式Fに変換する変換手段と、変換手段により生成された近似多項式Fを構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、各サンプルデータを用いて、サポートベクタマシンの手法により、近似多項式Fを構成する各変数z1,…,znの係数g1(W),…,gn(W)及び定数項g0(W)を算出する係数算出手段と、この係数g1(W),…,gn(W)及び定数項g0(W)を設定した近似多項式Fを表す情報を、サンプルデータに対応する計算モデルを表す情報として、出力する出力手段と、を備える装置を挙げることができる(請求項6)。
また、係数算出手段は、具体的に、変換手段により生成された近似多項式Fを構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、各サンプルデータが有する入力データを、変数Zを座標とするn次元空間に配置した場合に、近似多項式Fが、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、近似多項式Fを構成する各変数z1,…,znの係数g1(W),…,gn(W)及び定数項g0(W)を算出する構成にすることができる(請求項7)。
このモデル導出装置によれば、サンプルデータに最適な計算モデルを導出することができ、利用者は、サンプルデータを装置に与えると共に、演算式N(X,W)の指定を行う程度で、最適な計算モデルの情報を得ることができる。
また、このモデル導出装置には、係数算出手段により算出された係数g1(W),…,gn(W)及び定数項g0(W)に基づき、計算モデルの原型が要素に有する定数W={w1,…,ws}の値を算出する定数部算出手段を設け、出力手段は、計算モデルの原型に、定数部算出手段により算出された定数W={w1,…,ws}の値を設定してなる演算式を表す情報を、サンプルデータに対応する計算モデルを表す情報として、出力する構成にされてもよい(請求項8)。
このモデル導出装置を用いれば、利用者は、指定した計算モデルについての学習パラメータ(定数W)の適値を、簡単に得ることができる。
その他、上述のモデル導出装置には、算出された係数g1(W),…,gn(W)及び定数項g0(W)を設定した近似多項式を、これより低次元の近似多項式に変換する次元変更手段を設け、出力手段は、次元変更手段による変換後の近似多項式を表す情報を、サンプルデータに対応する計算モデルを表す情報として、出力する構成にされてもよい(請求項9)。このモデル導出装置を用いれば、利用者は、低次元の計算モデルを得ることができ、認識システムを構築する際に、認識のプロセスにかかる演算量を抑えることができる。
その他、上述のモデル導出装置には、算出された係数g1(W),…,gn(W)及び定数項g0(W)を設定した近似多項式を、これより低次元の近似多項式に変換する次元変更手段を設け、出力手段は、次元変更手段による変換後の近似多項式を表す情報を、サンプルデータに対応する計算モデルを表す情報として、出力する構成にされてもよい(請求項9)。このモデル導出装置を用いれば、利用者は、低次元の計算モデルを得ることができ、認識システムを構築する際に、認識のプロセスにかかる演算量を抑えることができる。
また、上述の手順(a),(b)は、プログラムにより、モデル導出装置のコンピュータに、実行させることができる(請求項10,11)。その他、コンピュータに、手順(a)(b)を実行させるための上記プログラムは、CD−ROM等の記録媒体や、電気通信回線を通じて、利用者に提供することができる。
以下、本発明を適用したモデル導出装置1について、図面と共に説明する。但し、以下では、先に、モデル導出装置1による計算モデルの導出原理を説明し、その後、モデル導出装置1の詳細について説明する。
尚、本実施例のモデル導出装置1は、認識システムでの認識行為を実現するための計算モデルを導出する装置である。認識システムとしては、例えば、入力された画像データに基づき、画像データが表す画像のカテゴリを認識する画像認識システムや、入力された音声データに基づき、この音声データが表す音声のカテゴリを認識する音声認識システム等を挙げることができる。具体的に、画像認識システムとしては、顔画像データに基づき、データが表す顔が誰の顔であるのかを認識する認識システムが知られている。
以下では、簡単のため、入力されたデータ群が、予め設定された二種類のカテゴリのいずれに属するものであるのかを認識する認識システムの計算モデルを導出するモデル導出装置1、具体的には、フィードフォワードニューラルネットワークの計算モデルを、導出するモデル導出装置1について説明する。尚、高度な認識行為は、上記計算モデルの組合せによって実現することができる。
また、原理を説明するに当たっては、式(1)に示すシグモイド関数sig(x)を要素に有する三層フィードフォワードニューラルネットワークを例に挙げて、このニューラルネットワークを基本モデルとする、サンプルデータに最適な計算モデルの導出手順を説明する。その他、原理を説明するにあたっては、理解を簡単にするため、入力ユニットが2つ、出力ユニットが1つの三層フィードフォワードニューラルネットワークを例に挙げる。但し、本発明は、このような実施例に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採りうることは言うまでもない。例えば、入力ユニットが3以上のものや、出力ユニットが2以上のものについても、以下に説明する手順と同様の手順にて、計算モデルを導出することが可能である。
<原理>
図2は、入力ユニットを2つ、出力ユニットを1つ、中間ユニットを2つ有する三層フィードフォワードニューラルネットワークの構成を表す説明図である。ここでは、図2に示す非線形関数u(x)が、シグモイド関数sig(x)であるものとする。また、このニューラルネットワークには、第一の入力ユニットに、入力データとして値x1が入力され、第二の入力ユニットに、入力データとして値x2が入力され、出力ユニットからは、出力データとして、カテゴリを表す値Nが出力されるものとする。
<原理>
図2は、入力ユニットを2つ、出力ユニットを1つ、中間ユニットを2つ有する三層フィードフォワードニューラルネットワークの構成を表す説明図である。ここでは、図2に示す非線形関数u(x)が、シグモイド関数sig(x)であるものとする。また、このニューラルネットワークには、第一の入力ユニットに、入力データとして値x1が入力され、第二の入力ユニットに、入力データとして値x2が入力され、出力ユニットからは、出力データとして、カテゴリを表す値Nが出力されるものとする。
このような構成のニューラルネットワークの入出力関係は、次式で表される。
所望の認識システムの計算モデルを得るためには、この演算式N(x1,x2,w1,…,w9)で表される計算モデルの原型において、結合荷重に相当する定数W={w1,…,w9}を決定し、所望の認識結果を生じる計算モデルを導出する必要があるが、従来技術では、上述したように、定数Wについて局所解しか求まらないといった問題や、定数Wの学習時に用いたサンプルデータ外のデータの組X={x1,x2}が入力された場合、認識のプロセスにおいて、適切な値Nを得ることができないといった問題がある。
そこで、本実施例では、まず、演算式N(x1,x2,w1,…,w9)が要素に有する非線形関数u(x)=sig(x)を、多項式p(x)で近似する。
尚、非線形関数u(x)を、多項式p(x)に近似する際には、認識システムにおいてu(x)に入力される値の幅を考慮する。例えば、有限区間[−10,10]に取ればu(x)のほぼ0、ほぼ1を使うことになるので、この区間内で、非線形関数u(x)の近似式となるよう、多項式p(x)を決定する。また、次数Rについては、多項式p(x)を、非線形関数u(x)に近似できる範囲において設定する。シグモイド関数の場合、次数は、3程度に設定することができる。
式(10)の非線形関数u(x)=sig(x)を、式(11)の多項式p(x)で置き換え、これを、変数x1,x2で整理すると、式(10)に示す演算式N(x1,x2,w1,…,w9)は、次の多項式Fに近似することができる。尚、定数Kは、演算式Fの最高次数である。
本実施例では、この近似多項式Fを構成する変数X={x1,x2}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とする。
そして、これを、サンプルデータを用いて、サポートベクタマシンの学習アルゴリズム(詳細は、Vladimir N. Vapnik, The Nature of Statistical Learning Theory, Second Edition, Springer 1999, pp.132 - pp.140を参照されたい。)により解き、近似多項式Fを構成する各変数z1,…,znの係数g1,…,gn及び定数項g0の最適値を算出する。即ち、変数z1,…,znの近似多項式Fを、n次元空間における超平面からの符号付距離に比例した量を表すものと解釈し、各変数z1,…,znの係数g1,…,gn及び定数項g0の最適値を算出する。
変数z1,…,znを座標とするn次元空間において、任意の点Z=(z1,z2,…,zn)の超平面H上の点Q=(q1,q2,…,qn)からの符号付距離Dは、超平面Hの法線ベクトルが、長さ1の法線ベクトルG=(g1,g2,…,gn)であるとすると、ベクトル(OZ−OQ)と法線ベクトルGとの内積で求められる。但し、点Oは原点であり、記号<>は、内積を表す記号である。
式(14)を展開すると、符号付距離Dは、
で表すことができる。ここで、最後の項を、−g0と置くと、符号付距離Dは、
で表されて、式(13)に一致する。このように、近似多項式Fは、超平面Hからの符号付距離Dに比例した量を表す式と解釈できるのである。
このように解釈すると、演算式N(x1,x2,w1,…,w9)は、二種類のカテゴリの内、第一のカテゴリに対応する入力データの組X={x1,x2}が入力された場合、正の値を採り、第二のカテゴリに対応する入力データの組X={x1,x2}が入力された場合、負の値を採るように定数Wが調整されればよいことが分かる。このように調整すれば、演算式N(x1,x2,w1,…,w9)の算出値が、正であるのか負であるのかによって、入力データの組X={x1,x2}に対応するカテゴリを分類し、認識することができる。
このように解釈すると、演算式N(x1,x2,w1,…,w9)は、二種類のカテゴリの内、第一のカテゴリに対応する入力データの組X={x1,x2}が入力された場合、正の値を採り、第二のカテゴリに対応する入力データの組X={x1,x2}が入力された場合、負の値を採るように定数Wが調整されればよいことが分かる。このように調整すれば、演算式N(x1,x2,w1,…,w9)の算出値が、正であるのか負であるのかによって、入力データの組X={x1,x2}に対応するカテゴリを分類し、認識することができる。
本実施例では、入力データの組X={x1,x2}と、これを代入した場合に演算式N(x1,x2,w1,…,w9)で算出されるべき理想値Tとの組合せからなるI個のサンプルデータ{x1(i),x2(i),T(i)}(但し、i=1,…I)を用い、これらを、n次元空間に配置した場合に、近似多項式Fが、各サンプルデータをカテゴリ毎に分離する超平面Hからの符号化距離に比例した量を表す式となるように、係数g1,…,gn及び定数項g0を算出する。
また、この際には、近似多項式Fが、カテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する。尚、このように係数g1,…,gn及び定数項g0を算出するのは、サンプルデータに対応するn次元空間上の点近傍を同一のカテゴリに分類して、サンプルデータに類似したデータの組X={x1,x2}が入力された場合に、そのデータを同一のカテゴリに分類して認識できる計算モデルを導出するためである。
即ち、各サンプルデータをn次元空間に配置した際に、近似多項式Fが、カテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すようにすれば、n次元空間において、サンプルデータの近傍領域を分断しないように、超平面Hを設定することができる。従って、このように近似多項式Fを設定すれば、サンプルデータ外のデータについても、正しい認識結果が得られるように、計算モデルを構築することができるのである。
また、本実施例の手法によれば、n次元空間において、サンプルデータに対応する点からの距離Dが最大となるように、超平面Hを調整して、近似多項式Fの係数g1,…,gn及び定数項g0の解を求めればよいので、常に、最適解が得られ、従来技術のように局所解しか得られないといった問題を解消することができる。
尚、近似多項式Fの係数g1,…,gn及び定数項g0は、具体的に、以下の手法にて、算出することができる。
まず、前提として、サンプルデータは、I個であり、各サンプルデータ{x1(i),x2(i),T(i)}(但し、i=1,…I)においては、T(i)に、X={x1(i),x2(i)}に対応するカテゴリを表す値として、+1若しくは−1が与えられているものとする。
まず、前提として、サンプルデータは、I個であり、各サンプルデータ{x1(i),x2(i),T(i)}(但し、i=1,…I)においては、T(i)に、X={x1(i),x2(i)}に対応するカテゴリを表す値として、+1若しくは−1が与えられているものとする。
ここで、超平面Hの法線ベクトルGを、G=(g1,g2,…,gn)と置くと、この超平面Hからの符号付距離Dに比例した量Dpは、Z=(z1,…,zn)として、
で表すことができる。尚、量Dpは、法線ベクトルGが長さ1の時、符号付距離Dに一致する。
サンプルデータを、n次元空間において、超平面Hにより正しく分離するためには、Dpの符号と、サンプルデータが有する値T(i)の符号とが一致する必要がある。この条件を、数式で表すと、次のように表すことができる。
サンプルデータを、n次元空間において、超平面Hにより正しく分離するためには、Dpの符号と、サンプルデータが有する値T(i)の符号とが一致する必要がある。この条件を、数式で表すと、次のように表すことができる。
尚、Z(i)=(z1(i),z2(i),…,zn(i))は、サンプルデータが示す変数Xの2次元空間上の点(x1(i),x2(i))を、変数Zを座標とするn次元空間上の点に変換した場合の位置座標である。
ここで、法線ベクトルGの長さによる量Dpの任意性を固定するため、
とする。尚、式(19)は、i=1,2,…,Iの全サンプルデータにおいて考える。このような条件を置くと、サンプルデータの超平面Hからの符号付距離に比例する量Dpの絶対値の最小値は、1となる。従って、サンプルデータの超平面Hからの最小の距離Dsは、量DpをベクトルGの長さで正規化して、
となる。
従って、各カテゴリのサンプルデータ群から最も離れるように超平面Hを決定するには、値Dsを最大にすればよく、<G,G>を最小化すればよい。
従って、各カテゴリのサンプルデータ群から最も離れるように超平面Hを決定するには、値Dsを最大にすればよく、<G,G>を最小化すればよい。
即ち、近似多項式Fが、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面Hからの符号付距離に比例した量を表すように、近似多項式Fを構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する問題は、拘束条件
が与えられている時に、<G,G>を最小化するg1,…,gn及びg0を求める問題に置き換えることができる。
本実施例では、この問題を、ラグランジュの未定乗数法で解く。
本実施例では、この問題を、ラグランジュの未定乗数法で解く。
まず、ラグランジアンLを、次のように設定する。
式(22)に示すように、ラグランジアンLを設定した場合、上記問題は、ラグランジアンLを最小化するg1,…,gn及びg0を求める問題に置き換えることができる。但し、α1,…,αIは、ラグランジュの未定乗数であって、正の値である。
ここで、ラグランジアンL(g0,g1,…,gn)について、次の方程式を解く。
そうすると、変数g0,g1,…,gnに関して、以下の関係式が得られる。
これを、式(22)に代入し、以下の条件式
を用いて整理すると、
となる。従って、式(21)の拘束条件が与えられているとき、<G,G>を最小化するg1,…,gn及びg0を算出する上記問題は、拘束条件
が与えられているとき、
が最大となるα1,α2,…,αIを求める問題に置き換えることができる。
ここで、式(26)は、変数α1,…,αIについての二次計画法となっているため、一般にこの問題の解は、大域最大値を与える大域的解となる。そして、求まった解α1,…,αIから、サンプルデータをカテゴリ毎に分離する超平面Hの法線ベクトルG*=(g1*,…,gn*)は、
ここで、式(26)は、変数α1,…,αIについての二次計画法となっているため、一般にこの問題の解は、大域最大値を与える大域的解となる。そして、求まった解α1,…,αIから、サンプルデータをカテゴリ毎に分離する超平面Hの法線ベクトルG*=(g1*,…,gn*)は、
と求めることができる。
また、ゼロでないαi(i=1,2,…,I)に対応するZ(i)は、式(17)の値Dpが+1又は−1であるので、カテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面Hに対応する定数項g0の解g0*は、サンプルデータの内、対応するαiがゼロでないZ(i)を用いて、
また、ゼロでないαi(i=1,2,…,I)に対応するZ(i)は、式(17)の値Dpが+1又は−1であるので、カテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面Hに対応する定数項g0の解g0*は、サンプルデータの内、対応するαiがゼロでないZ(i)を用いて、
と求めることができる。
また、定数W={w1,…,w9}は、変数g0,g1,…,gnの関数であるから、式(29)及び式(30)に従って算出した値g0*,g1*,…,gn*を用いれば、サンプルデータに対応する定数Wの最適解W*={w1*,…,w9*}は、以下の関係式
また、定数W={w1,…,w9}は、変数g0,g1,…,gnの関数であるから、式(29)及び式(30)に従って算出した値g0*,g1*,…,gn*を用いれば、サンプルデータに対応する定数Wの最適解W*={w1*,…,w9*}は、以下の関係式
に従って求めることができる。
そして、上記手順により算出した値W*を、式(10)における定数W={w1,w2,…w9}に採用して、以下の演算式を求めれば、
そして、上記手順により算出した値W*を、式(10)における定数W={w1,w2,…w9}に採用して、以下の演算式を求めれば、
これは、サンプルデータに最適な計算モデルとなる。
以上のようにして、本実施例では、サンプルデータに最適な計算モデルを導出する。
尚、式(32)に対応する計算モデルは、次のように近似することができる。
以上のようにして、本実施例では、サンプルデータに最適な計算モデルを導出する。
尚、式(32)に対応する計算モデルは、次のように近似することができる。
従って、式(32)に代えて、式(33)の計算モデルを用いて、認識システムを構築することも可能である。
その他、主成分分析の手法を用いて、式(33)に示す演算式Nの次元を、d次元に落としたものを、サンプルデータに対応する計算モデルとして用いることも可能である。
その他、主成分分析の手法を用いて、式(33)に示す演算式Nの次元を、d次元に落としたものを、サンプルデータに対応する計算モデルとして用いることも可能である。
即ち、式(33)に示す多項式における変数Zの空間に、サンプルデータが有する入力データX(i)={x1(i),x2(i)}を変換して、Z(i)={z1(i),…,zn(i)}を得る。そして、これを主成分分析して、分散の大きい主軸から任意のd個の主軸J1,J2,…,Jdを採る。
具体的には、Z(i)=(z1(i),…,zn(i))の平均E(Z)を、次式
で求めて、以下に示す分散共分散行列Cを作る。但し、tは、転置を表す。
そして、分散共分散行列Cの固有値λiと固有ベクトルJiを求める。そして、主軸J1,…,Jdとして、固有値λiの大きい方から、d個の固有値λiに対応する固有ベクトルJiを採る。
また、このようにして主軸J1,J2,…,Jdを採った後には、Z=(z1,…,zn)を、変数V={v1,v2,…,vd}に置換する。
また、係数G=(g1,…,gn)を、係数h1,…,hdに置換する。
そして、この結果を用いて、式(33)に示す演算式Nを、d次元の演算式Ndに変換する。
このように、式(33)に示す演算式Nを、それより低いd次元の演算式Ndに変換にすれば、式(33)に示す演算式Nに代わるサンプルデータに対応した計算モデルとして、演算量の少ない計算モデルを得ることができる。
以上には、モデル導出装置1における計算モデルの導出原理について説明したが、続いては、モデル導出装置1の詳細構成について説明する。
<モデル導出装置の説明>
図3は、本実施例のモデル導出装置1の構成を表すブロック図である。本実施例のモデル導出装置1は、周知のパーソナルコンピュータに、上述の原理にて計算モデルを導出するプログラム(以下、「モデル導出プログラム」と称する。)をインストールしてなるものである。このモデル導出装置1は、CPU、ROM、RAM等からなる制御部11と、ハードディスク装置等からなる記憶部13と、液晶ディスプレイ等からなる表示部15と、キーボードやマウス等のユーザが操作可能な操作部17と、フレキシブルディスクを読取可能なドライブ装置19と、を備え、記憶部13に、上記プログラム等を記憶する。
<モデル導出装置の説明>
図3は、本実施例のモデル導出装置1の構成を表すブロック図である。本実施例のモデル導出装置1は、周知のパーソナルコンピュータに、上述の原理にて計算モデルを導出するプログラム(以下、「モデル導出プログラム」と称する。)をインストールしてなるものである。このモデル導出装置1は、CPU、ROM、RAM等からなる制御部11と、ハードディスク装置等からなる記憶部13と、液晶ディスプレイ等からなる表示部15と、キーボードやマウス等のユーザが操作可能な操作部17と、フレキシブルディスクを読取可能なドライブ装置19と、を備え、記憶部13に、上記プログラム等を記憶する。
このモデル導出装置1は、操作部17から、モデル導出プログラムの実行指令が入力されると、制御部11にて、このモデル導出プログラムを記憶部13から読み出し、図4に示すモデル導出処理を実行する。図4は、制御部11が実行するモデル導出処理を表すフローチャートである。
モデル導出処理を実行すると、制御部11は、導出する計算モデルの入力変数(換言すると、入力ユニット)の個数を受け付けるための変数設定画面を、表示部15に表示し(S110)、入力変数の個数が、操作部17の操作により、変数設定画面を通じて入力されるまで待機する(S120)。そして、入力変数の個数が入力されると(S120でYes)、これを変数mに設定する(S130)。
また、S130での処理を終えると、制御部11は、S140に移行し、導出する計算モデルの原型となる学習対象のニューラルネットワークの演算式Nであって、入力変数X={x1,x2,…,xm}及び学習パラメータとしての定数W={w1,w2,…,ws}並びに非線形関数を要素に有する演算式N(x1,…,xm,w1,…,ws)の入力操作を受付可能な演算式入力画面を表示する。尚、本実施例では、モデル導出装置1が、演算式入力画面を通じて、非線形関数u(x)として、ガウス関数gauss(x)、シグモイド関数sig(x)、ハイパボリックタンジェント関数tanh(x)のみを受付可能な構成にされているものとする。
また、S140での処理を終えると、制御部11は、演算式入力画面を通じて、演算式N(x1,…,xm,w1,…,ws)が入力されるまで待機し(S145)、演算式N(x1,…,xm,w1,…,ws)が入力されると(S145でYes)、入力変数X={x1,x2,…,xm}が採りえる値の区間[a,b]についての入力操作を受付可能な区間設定画面を、表示部15に表示し(S150)、この区間設定画面を通じて、区間[a,b]を表す情報が入力されるまで待機する(S155)。そして、区間[a,b]を表す情報が入力されると(S155でYes)、S160に移行する。
S160に移行すると、制御部11は、サンプルデータ(学習データ)の一群が記述されたデータファイルの格納場所を問合せる格納場所入力画面を、表示部15に表示する。格納場所入力画面は、データファイルの格納場所についての入力操作を受付可能な構成にされており、制御部11は、格納場所入力画面を通じてデータファイルの格納場所を表す情報が入力されると(S165でYes)、この入力情報に従って、格納場所(記憶部13又はドライブ装置19)から、対応するデータファイルを読み出し、データファイルに記述されたサンプルデータの一群を読み出す(S170)。尚、サンプルデータは、入力データの組と、これに対応するカテゴリを表す値Tの組合せからなり、データファイルにおいてi番目に記述されたサンプルデータが有する入力データの組は、S170において、変数X(i)={x1(i),x2(i),…,xm(i)}にセットされ、このサンプルデータが示すカテゴリを表す値は、変数T(i)にセットされる(i=1,2,…,I)。但し、値Iは、データファイルに記述されたサンプルデータの総数である。
また、S170での処理を終えると、制御部11は、図5に示す多項式近似処理を実行し、上記区間設定画面にて入力された情報、及び、上記演算式入力画面にて入力された情報に従って、入力された演算式N(x1,…,xm,w1,…,ws)が要素に有する非線形関数を、多項式p(x)に近似する(S180)。尚、図5は、制御部11が実行する多項式近似処理を表すフローチャートである。
多項式近似処理を実行すると、制御部11は、多項式の次数Rの入力操作を受け付けるための次数設定画面を、表示部15に表示し(S181)、設定すべき次数が、次数設定画面を通じて入力されるまで待機する(S183)。
そして、次数が入力されると(S183でYes)、入力された値を、近似する多項式の次数Rに決定し、多項式p(x)を、
に設定する(S185)。尚、本実施例では、次数Rの入力をユーザから受け付けるようにしたが、次数Rは、例えば、R=3などの固定値に予め設定されていてもよい。
また、S185での処理を終えると、制御部11は、入力変数が採りえる区間[a,b]の情報に基づき、a≦x≦bの区間を、予め設定されたDM個に分割し、DM+1個の各点での非線形関数u(x)の値を求める(S187)。
また、S185での処理を終えると、制御部11は、入力変数が採りえる区間[a,b]の情報に基づき、a≦x≦bの区間を、予め設定されたDM個に分割し、DM+1個の各点での非線形関数u(x)の値を求める(S187)。
そして、二乗誤差EE
を最小化するp(x)の係数a1,…,aR及び定数項a0を、Conjugate Gradient法により求め、非線形関数u(x)に近似される多項式p(x)を算出する(S189)。その後、当該多項式近似処理を終了する。尚、Conjugate Gradient法の詳細については、J. Nocedal, S. J. Wright, Numerical Optimization, Springer 1999, CHAPTER 5の前半を参考にされたい。
このようにして、S180での多項式近似処理を終えると、制御部11は、S190に移行し、演算式N(x1,…,xm,w1,…,ws)が有する非線形関数u(x)を、S180で求めた多項式p(x)に置換して、演算式N(x1,…,xm,w1,…,ws)の近似多項式F(x1,x2,…,xm)を算出する。
また、S190での処理を終えると、制御部11は、近似多項式Fにおける、変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}に置換して、変数Zの近似多項式F(Z)を、次のように設定し、
変数Zと変数Xとの関係式zi=zi(x1,…,xm),係数g1,…,gn及び定数項g0とWとの関係式gi=gi(w1,…,ws)を一時記憶する(S200)。
そして、S200での処理を終えると、制御部11は、図6に示す学習処理を実行し、この近似多項式Fの係数g1,…,gn及び定数項g0の最適解を、I個のサンプルデータ{x1(i),…,xm(i),T(i)}を用いて、サポートベクタマシンの学習アルゴリズムにより、算出する(S210)。即ち、各サンプルデータが有する入力データの組X(i)={x1(i),…,xm(i)}を、変数Zを座標とするn次元空間に配置した場合に、近似多項式Fが、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、近似多項式Fを構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する(S210)。
そして、S200での処理を終えると、制御部11は、図6に示す学習処理を実行し、この近似多項式Fの係数g1,…,gn及び定数項g0の最適解を、I個のサンプルデータ{x1(i),…,xm(i),T(i)}を用いて、サポートベクタマシンの学習アルゴリズムにより、算出する(S210)。即ち、各サンプルデータが有する入力データの組X(i)={x1(i),…,xm(i)}を、変数Zを座標とするn次元空間に配置した場合に、近似多項式Fが、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、近似多項式Fを構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する(S210)。
図6は、制御部11が実行する学習処理を表すフローチャートである。学習処理を開始すると、制御部11は、各サンプルデータが有する入力データの組X(i)={x1(i),…,xm(i)}を、S200で記憶した変数Zと変数Xとの関係式zi=zi(x1,…,xm)に従って、変数Zの空間に射影し、変数Zの空間に対応する新たなサンプルデータ{z1(i),…,zn(i),T(i)}を生成する(S211)。
また、S211の処理を終えると、制御部11は、S213に移行し、以下の拘束条件付2次最適化問題の解を得る。
そして、変数αi(i=1,…,I)の解が得られると、得られた変数αi(i=1,…,I)の解を用いて、G=(g1,…,gn)の最適解G*=(g1*,…,gn*)を次のように算出する(S215)。但し、Z=(z1,…,zn)である。
また、S215での処理を終えると、制御部11は、定数項g0の最適解g0*を、ゼロでないαiと同じインデックスiのZ(i)=(z1(i),…,zn(i))を用いて、次のように算出する(S217)。
そして、S217での処理を終えると、当該学習処理を終了する。
また、このようにして、S210での学習処理を終了すると、制御部11は、S210で算出した解g1*,…,gn*及び定数項g0*を対応する係数及び定数項に設定した変数Zの近似多項式F(式(33)参照)を、計算モデルの導出結果として記述した結果表示画面を、表示部15に表示する(S220)。尚、この際には、結果表示画面に、変数Zと変数Xとの関係式zi=zi(x1,…,xm)も、表示する。
また、このようにして、S210での学習処理を終了すると、制御部11は、S210で算出した解g1*,…,gn*及び定数項g0*を対応する係数及び定数項に設定した変数Zの近似多項式F(式(33)参照)を、計算モデルの導出結果として記述した結果表示画面を、表示部15に表示する(S220)。尚、この際には、結果表示画面に、変数Zと変数Xとの関係式zi=zi(x1,…,xm)も、表示する。
また、S220での処理を終えると、制御部11は、学習パラメータWの算出が必要であるか否かを問合せる問合せ画面を表示し(S230)、操作部17を通じて問合せ結果が入力されると(S235でYes)、入力された情報に基づき、学習パラメータWの算出が必要であるか否かを判断する(S240)。そして、学習パラメータWの算出が必要であると判断すると(S240でYes)、S250に移行し、学習パラメータWの算出が必要ではないと判断すると(S240でYes)、S270に移行する。
また、S250に移行すると、制御部11は、G=(g1,…,gn)の最適解G*=(g1*,…,gn*)と、g0の最適解g0*と、関係式gi=gi(w1,…,ws)と、に基づいて、W={w1,…,ws}の最適解W*={w1*,…,ws*}を算出する。
具体的には、二乗誤差EE
を設定し、Conjugate Gradient法により、この二乗誤差EEを最小化するW={w1,…,ws}を、W={w1,…,ws}の最適解W*={w1*,…,ws*}として算出する。
また、このようにして、S250での処理を終えると、制御部11は、S260に移行し、S250で算出した解w1*,…,ws*を対応する定数Wに設定した演算式N(x1,…,xm,w1*,…,ws*)を、計算モデルの導出結果として記述した結果表示画面を、表示部15に表示する。その後、S300に移行する。
その他、S270に移行すると、制御部11は、計算モデルの低次元化が必要であるか否かを問合せる問合せ画面を、表示部15に表示して、問合せ結果が入力されるまで待機する(S275)。そして、問合せ結果が入力されると(S275でYes)、入力された情報に基づき、計算モデルの低次元化が必要であるか否かを判断し(S280)、低次元化が必要であると判断すると(S280でYes)、S290に移行して、図7に示す次元変換処理を実行し、低次元化が必要でないと判断すると、S300に移行する。尚、図7は、制御部11がS290にて実行する次元変換処理を表すフローチャートである。
次元変換処理を開始すると、制御部11は、次元dの入力操作を受付可能な次元設定画面を、表示部15に表示し(S291)、次元設定画面を通じて次元dが入力されるまで待機する(S292)。そして、次元dが入力されると(S292でYes)、各サンプルデータの入力データZ(i)=(z1(i),…,zn(i))(i=1,…,I)を、主成分分析して、一番分散の大きい主軸からd個の主軸J1,J2,…,Jdを求める(S293)。
そして、d個の主軸J1,J2,…,Jdを用いて、変数V=(v1,v2,…,vd)を、次のように設定する(S295)。但し、変数Z=(z1,…,zn)、変数X=(x1,…,xm)である。
また、この処理を終えると、係数g1*,…,gn*を、係数h1,…,hdに変換する(S297)。但し、G*=(g1*,…,gn*)である。
そして、この結果を用い、変数Zの近似多項式Fの次元変換結果として、d次元の演算式Fd
を記述した結果表示画面を、表示部15に表示する(S299)。尚、この際には、結果表示画面に、変数Vと変数Xとの関係式vi=Ji・Z(x1,…,xm)も表示する。
また、このようにして、S290での次元変換処理を終了すると、制御部11は、S300に移行して、操作部17を通じ、ユーザから終了指令が入力されるまで待機し、終了指令が入力されると、当該モデル導出処理を終了する。
また、このようにして、S290での次元変換処理を終了すると、制御部11は、S300に移行して、操作部17を通じ、ユーザから終了指令が入力されるまで待機し、終了指令が入力されると、当該モデル導出処理を終了する。
以上、本実施例のモデル導出装置1について説明したが、本実施例のモデル導出装置1によれば、上述した原理により、サンプルデータに対応する計算モデルを導出するので、学習パラメータについて局所解ではなく、大域的な最適解を得ることができ、従来よりも好適な計算モデルを導出することができる。従って、本実施例のモデル導出装置1により導出された計算モデルを、認識システムに組み込んで、この計算モデルにより算出されたカテゴリを表す値に基づき、入力データに対応するカテゴリを認識するようにすれば、従来よりも、適切な認識結果を得ることができる。
尚、本実施例において、サンプル受付手段は、S160〜S170の処理によって実現され、原型受付手段は、S140〜S145の処理によって実現され、変換手段は、S180〜S200の処理によって実現されている。また、係数算出手段は、S210の処理によって実現され、定数部算出手段は、S250の処理によって実現され、次元変更手段は、S291〜S297の処理によって実現されている。その他、出力手段は、S220,S260,S299の処理によって実現されている。
1…モデル導出装置、11…制御部、13…記憶部、15…表示部、17…操作部、19…ドライブ装置
Claims (11)
- 入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出して、前記入力データの組に対応するカテゴリを認識する認識システムの計算モデルとして、
入力データの組及びこれに対応するカテゴリを表す値の組合せからなるサンプルデータの複数に基づき、これらのサンプルデータに対応する計算モデルを導出する方法であって、
前記計算モデルの原型となる演算式が要素に有する非線形関数を多項式近似し、前記演算式を、各入力データに対応する変数X={x1,…,xm}の近似多項式に変換する手順(a)と、
前記手順(a)によって得られた前記近似多項式を構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、前記サンプルデータの複数を用いて、サポートベクタマシンの手法により、前記近似多項式を構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する手順(b)と、
を含み、前記手順(b)にて算出した係数g1,…,gn及び定数項g0に基づき、この係数g1,…,gn及び定数項g0を設定した前記近似多項式と等価な演算によって前記カテゴリを表す値を算出可能な計算モデルを、前記サンプルデータに対応する計算モデルとして導出することを特徴とするモデル導出方法。 - 入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出して、前記入力データの組に対応するカテゴリを認識する認識システムの計算モデルとして、
入力データの組及びこれに対応するカテゴリを表す値の組合せからなるサンプルデータの複数に基づき、これらのサンプルデータに対応する計算モデルを導出する方法であって、
前記計算モデルの原型となる演算式が要素に有する非線形関数を多項式近似し、前記演算式を、各入力データに対応する変数X={x1,…,xm}の近似多項式に変換する手順(a)と、
前記手順(a)によって得られた前記近似多項式を構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、前記各サンプルデータが有する入力データの組を、変数Zを座標とするn次元空間に配置した場合に、前記近似多項式が、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、前記近似多項式を構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する手順(b)と、
を含み、前記手順(b)にて算出した係数g1,…,gn及び定数項g0に基づき、この係数g1,…,gn及び定数項g0を設定した前記近似多項式と等価な演算によって前記カテゴリを表す値を算出可能な計算モデルを、前記サンプルデータに対応する計算モデルとして導出することを特徴とするモデル導出方法。 - 前記手順(b)にて算出した係数g1,…,gn及び定数項g0に基づき、前記計算モデルの原型が要素に有する定数W={w1,…,ws}の値を算出する手順(c)
を含み、前記計算モデルの原型に前記手順(c)にて算出した定数W={w1,…,ws}の値を設定してなる計算モデルを、前記サンプルデータに対応する計算モデルとして導出することを特徴とする請求項1又は請求項2記載のモデル導出方法。 - 前記サンプルデータに対応する計算モデルとして、
前記手順(b)にて算出した係数g1,…,gn及び定数項g0を設定した前記近似多項式を、これより低次元の近似多項式に変換してなる計算モデルを導出することを特徴とする請求項1又は請求項2記載のモデル導出方法。 - 前記非線形関数は、ガウス関数、又は、シグモイド関数、又は、ハイパボリックタンジェント関数であることを特徴とする請求項1〜請求項4のいずれかに記載のモデル導出方法。
- 入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出して、前記入力データの組に対応するカテゴリを認識する認識システムの計算モデルとして、
入力データの組及びこれに対応するカテゴリを表す値の組合せからなるサンプルデータの複数に基づき、これらのサンプルデータに対応する計算モデルを導出するモデル導出装置であって、
前記各サンプルデータの入力を受け付けるサンプル受付手段と、
前記計算モデルの原型となる演算式の指定情報を受け付ける原型受付手段と、
前記原型受付手段が受け付けた指定情報に基づき、外部から指定された演算式が要素に有する非線形関数を多項式近似し、前記演算式を、各入力データに対応する変数X={x1,…,xm}の近似多項式に変換する変換手段と、
前記変換手段により生成された前記近似多項式を構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、前記サンプル受付手段により受け付けられた各サンプルデータを用いて、サポートベクタマシンの手法により、前記近似多項式を構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する係数算出手段と、
前記係数算出手段により算出された係数g1,…,gn及び定数項g0に基づき、この係数g1,…,gn及び定数項g0を設定した前記近似多項式を表す情報を、前記サンプルデータに対応する計算モデルを表す情報として、出力する出力手段と、
を備えることを特徴とするモデル導出装置。 - 入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出して、前記入力データの組に対応するカテゴリを認識する認識システムの計算モデルとして、
入力データの組及びこれに対応するカテゴリを表す値の組合せからなるサンプルデータの複数に基づき、これらのサンプルデータに対応する計算モデルを導出するモデル導出装置であって、
前記各サンプルデータの入力を受け付けるサンプル受付手段と、
前記計算モデルの原型となる演算式の指定情報を受け付ける原型受付手段と、
前記原型受付手段が受け付けた指定情報に基づき、外部から指定された演算式が要素に有する非線形関数を多項式近似し、前記演算式を、各入力データに対応する変数X={x1,…,xm}の近似多項式に変換する変換手段と、
前記変換手段により生成された前記近似多項式を構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、前記各サンプルデータが有する入力データを、変数Zを座標とするn次元空間に配置した場合に、前記近似多項式が、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、前記近似多項式を構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する係数算出手段と、
前記係数算出手段により算出された係数g1,…,gn及び定数項g0に基づき、この係数g1,…,gn及び定数項g0を設定した前記近似多項式を表す情報を、前記サンプルデータに対応する計算モデルを表す情報として、出力する出力手段と、
を備えることを特徴とするモデル導出装置。 - 前記係数算出手段により算出された係数g1,…,gn及び定数項g0に基づき、前記計算モデルの原型が要素に有する定数W={w1,…,ws}の値を算出する定数部算出手段
を備え、
前記出力手段は、前記近似多項式を表す情報に代えて、前記計算モデルの原型に、前記定数部算出手段により算出された定数W={w1,…,ws}の値を設定してなる演算式を表す情報を、前記サンプルデータに対応する計算モデルを表す情報として、出力する構成にされていることを特徴とする請求項6又は請求項7記載のモデル導出装置。 - 前記係数算出手段により算出された係数g1,…,gn及び定数項g0を設定した前記近似多項式を、これより低次元の近似多項式に変換する次元変更手段
を備え、
前記出力手段は、前記近似多項式を表す情報に代えて、前記次元変更手段による変換後の前記近似多項式を表す情報を、前記サンプルデータに対応する計算モデルを表す情報として、出力する構成にされていることを特徴とする請求項6又は請求項7記載のモデル導出装置。 - 入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出して、前記入力データの組に対応するカテゴリを認識する認識システムの計算モデルとして、
入力データの組及びこれに対応するカテゴリを表す値の組合せからなるサンプルデータの複数に基づき、これらのサンプルデータに対応する計算モデルを導出するモデル導出装置のコンピュータに、
前記計算モデルの原型となる演算式が要素に有する非線形関数を多項式近似し、前記演算式を、各入力データに対応する変数X={x1,…,xm}の近似多項式に変換する手順(a)と、
前記手順(a)によって得られた前記近似多項式を構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、前記サンプルデータの複数を用いて、サポートベクタマシンの手法により、前記近似多項式を構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する手順(b)と、
を実行させるためのプログラム。 - 入力データの組に対応するカテゴリを表す値を、所定の計算モデルに基づき算出して、前記入力データの組に対応するカテゴリを認識する認識システムの計算モデルとして、
入力データの組及びこれに対応するカテゴリを表す値の組合せからなるサンプルデータの複数に基づき、これらのサンプルデータに対応する計算モデルを導出するモデル導出装置のコンピュータに、
前記計算モデルの原型となる演算式が要素に有する非線形関数を多項式近似し、前記演算式を、各入力データに対応する変数X={x1,…,xm}の近似多項式に変換する手順(a)と、
前記手順(a)によって得られた前記近似多項式を構成する変数X={x1,…,xm}の組合せからなる各項の変数部を、独立した変数Z={z1,…,zn}とし、前記各サンプルデータが有する入力データを、変数Zを座標とするn次元空間に配置した場合に、前記近似多項式が、各サンプルデータをカテゴリ毎に分離しつつカテゴリ毎のサンプルデータ群から最も離れた位置を通る超平面からの符号付距離に比例した量を表すように、前記近似多項式を構成する各変数z1,…,znの係数g1,…,gn及び定数項g0を算出する手順(b)と、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006033880A JP2007213403A (ja) | 2006-02-10 | 2006-02-10 | モデル導出方法、モデル導出装置、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006033880A JP2007213403A (ja) | 2006-02-10 | 2006-02-10 | モデル導出方法、モデル導出装置、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007213403A true JP2007213403A (ja) | 2007-08-23 |
Family
ID=38491766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006033880A Pending JP2007213403A (ja) | 2006-02-10 | 2006-02-10 | モデル導出方法、モデル導出装置、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007213403A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097312A (ja) * | 2008-10-15 | 2010-04-30 | Yamatake Corp | 推定装置および推定方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005092681A (ja) * | 2003-09-19 | 2005-04-07 | Nippon Hoso Kyokai <Nhk> | 確率モデル生成装置及び確率モデル生成プログラム |
US6961719B1 (en) * | 2002-01-07 | 2005-11-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hybrid neural network and support vector machine method for optimization |
-
2006
- 2006-02-10 JP JP2006033880A patent/JP2007213403A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6961719B1 (en) * | 2002-01-07 | 2005-11-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hybrid neural network and support vector machine method for optimization |
JP2005092681A (ja) * | 2003-09-19 | 2005-04-07 | Nippon Hoso Kyokai <Nhk> | 確率モデル生成装置及び確率モデル生成プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097312A (ja) * | 2008-10-15 | 2010-04-30 | Yamatake Corp | 推定装置および推定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7315748B2 (ja) | データ識別器訓練方法、データ識別器訓練装置、プログラム及び訓練方法 | |
US10482352B2 (en) | Information processing device and non-transitory computer readable medium | |
WO2021254499A1 (zh) | 编辑模型生成、人脸图像编辑方法、装置、设备及介质 | |
WO2021143396A1 (zh) | 利用文本分类模型进行分类预测的方法及装置 | |
US20110060708A1 (en) | Information processing device, information processing method, and program | |
CN109165735B (zh) | 基于生成对抗网络与自适应比例生成样本图片的方法 | |
JP7144699B2 (ja) | 信号変更装置、方法、及びプログラム | |
JP6831453B2 (ja) | 信号検索装置、方法、及びプログラム | |
US20110060706A1 (en) | Information processing device, information processing method, and program | |
US20110060707A1 (en) | Information processing device, information processing method, and program | |
EP3540611A1 (en) | Electronic device for performing translation by sharing context of utterance and operation method therefor | |
US11937052B2 (en) | Fitting agent for a hearing device and method for updating a multi-environment user model | |
CN114494783A (zh) | 一种基于动态图神经网络的预训练方法 | |
US20210073645A1 (en) | Learning apparatus and method, and program | |
WO2019215904A1 (ja) | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体 | |
JP5175754B2 (ja) | 線形変換行列算出装置、その方法、及び、そのプログラム | |
JP2007213403A (ja) | モデル導出方法、モデル導出装置、及び、プログラム | |
WO2021171384A1 (ja) | クラスタリング装置、クラスタリング方法、および、クラスタリングプログラム | |
CN112561050A (zh) | 一种神经网络模型训练方法及装置 | |
Pan et al. | Exploiting the dependencies in information fusion | |
US20240020531A1 (en) | System and Method for Transforming a Trained Artificial Intelligence Model Into a Trustworthy Artificial Intelligence Model | |
WO2022077345A1 (en) | Method and apparatus for neural network based on energy-based latent variable models | |
JP2022148635A (ja) | 量子化方法、量子化装置、及び、プログラム | |
KR20230092360A (ko) | Node 기반 조건부 테이블 데이터 적대적 생성 신경망 장치 및 방법 | |
WO2021095213A1 (ja) | 学習方法、学習プログラム、および学習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110712 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111129 |