JP4834693B2 - パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法 - Google Patents

パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法 Download PDF

Info

Publication number
JP4834693B2
JP4834693B2 JP2008137303A JP2008137303A JP4834693B2 JP 4834693 B2 JP4834693 B2 JP 4834693B2 JP 2008137303 A JP2008137303 A JP 2008137303A JP 2008137303 A JP2008137303 A JP 2008137303A JP 4834693 B2 JP4834693 B2 JP 4834693B2
Authority
JP
Japan
Prior art keywords
vector
filter
mask
feature
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008137303A
Other languages
English (en)
Other versions
JP2009282940A (ja
Inventor
由明 黒沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2008137303A priority Critical patent/JP4834693B2/ja
Publication of JP2009282940A publication Critical patent/JP2009282940A/ja
Application granted granted Critical
Publication of JP4834693B2 publication Critical patent/JP4834693B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えばパターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法に関する。
従来、文字が記載された帳票をスキャナなどによりイメージ化した文書画像から文字パターンを認識するパターン認識装置があるが、通常、このパターン認識装置における文字の特徴抽出パラメータは人手によって設計される。
しかし、例えば文字の認識で類似文字のグループ毎に特徴を抽出するときやパラメータを変える必要があるときには、特徴抽出の手法の数が膨大にあることから、現実として人手で特徴抽出パラメータを作成することは困難である。
このため、例えば音声認識などの分野では、音声の特徴抽出パラメータを学習する機能を音声認識装置に設け、学習機能により特徴抽出パラメータを自動的に決定する手法がとられている(例えば非特許文献1乃至4参照)。
非特許文献1および非特許文献2で公開されている技術は音声信号を入力とし、特徴抽出するときのフィルタバンク、リフタのパラメータを確率降下法によって求めるものであるが、これらの技術は、音声に特化したものであり、文字をパターン認識するための特徴抽出には適用することはできなかった。
非特許文献3および非特許文献4の技術は、入力ベクトルに線形変換を施して特徴ベクトルを得るものであるが、この特徴変換行列の更新則を表す計算式は、入力画像から得られた特徴ベクトルをさらに線形変換するときの線形変換行列に対する学習に関するものである。
しかし、このような線形変換行列に対する学習には、部分領域という概念がなく、単なるベクトルからベクトルへの線形変換一般に対する一般的な学習規則を提供しているにすぎない。要するに、従来の技術では、特徴抽出そのものの学習はできなかった。
また、このような状況に対する解決方法として、入力画像の認識にとって重要な部分に対して着目を強めた特徴抽出を行なうことで、類似文字の認識精度を向上する技術が提案されているが、この技術は、仕組みが単純であるため、文字認識精度が実用面で十分ではなかった(例えば特許文献1参照)。
この他、類似文字の認識方式として以下の技術が提案されている(例えば特許文献2乃至4を参照)。これら文献は、類似している文字の相違部分に着目し、その部分について認識を行なう技術、またはチェックを行なう技術を開示しているが、これらの技術は、いずれも認識系を手作業で構築する必要があり高精度な認識を自動的に実現することはできなかった。
Feature Extraction Based on Minimum Classification Error / Generalized Probabilistic Descent Method",A。 Biem et。al。,Proc。 IEEE Int。 Conf。 Acoust。,Speech,Signal Processing,Vol。2,pp275-278,(1993) "Filter Bank Design Based on Discriminative Feature Extraction",A。 Biem et。al。,Proc。 IEEE Int。 Conf。 Acoust。,Speech,Signal Processing,Vol。1,pp485-488,(1994) "Minimum Classification Error Training Algorithm for Feature Extractor and Pattern Classifier in Speech Recognition",K。K。 paliwal et。al,EUROSPEECH’95,vol。1,pp541-544,(1995) 「最小分類誤り学習による特徴選択型文字認識」河村他、電子情報通信学会論文誌D-II,Vol。J81-D-II,No。12,pp。2749-2756,(1998) 特開2007−179413号公報 特開2004−185264号公報 特開2003−162688号公報 特開平11−259599号公報
本発明はこのような課題を解決するためになされたもので、文字画像が含まれるパターン画像から文字を認識する上で、類似する文字を高精度に識別して認識することのできるパターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法を提供することを目的とする。
上記の課題を解決するために本発明のパターン認識パラメータ学習装置は、入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応したと、画素に対応したフィルタ・マスクの値とを積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算する部分領域特徴量計算部と、1個の部分領域に複数のフィルタ・マスクが記憶されたフィルタ・マスク記憶部と、前記部分領域特徴量計算部により1個の部分領域に複数設定されたフィルタ・マスク毎に求められた特徴値複数個を非線形関数に代入することによって1個の新たな特徴値を求め、各部分領域毎に求められたこの新たな特徴値複数個から前記パターン画像の特徴ベクトルを生成する特徴ベクトル生成部と、パターン識別の基準となる辞書ベクトルが記憶された辞書ベクトル記憶部と、前記特徴ベクトル生成部により生成された特徴ベクトルと前記辞書ベクトル記憶部に記憶された辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうパターン識別部と、前記部分領域毎の画素に対応したフィルタ・マスクの値について、前記パターン画像の識別結果に基づいて前記辞書ベクトルと、前記パターン画像に対応する前記特徴ベクトルと、前記非線形関数に基づく非線形関数の変化量とからフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によって前記フィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するフィルタ・マスク学習部と、前記辞書ベクトルと前記パターン画像に対応する前記特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新する辞書ベクトル学習部とを具備することを特徴とする。
本発明のパターン認識装置は、前記請求項1乃至いずれか1記載のパターン認識パラメータ学習装置によって生成されたフィルタ・マスクと辞書ベクトルとを、特徴抽出およびパターン照合に用いることを特徴とする。
本発明のパターン認識パラメータ学習方法は、入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応したと、画素に対応したフィルタ・マスクの値を積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算するステップと、計算された特徴複数個を非線形関数に代入することによって新たな1個の特徴値を求め、各部分領域毎に求められたこの新たな特徴値複数個から前記パターン画像の特徴ベクトルを生成するステップと、生成された前記特徴ベクトルと、パターン識別の基準となる辞書ベクトルが記憶された辞書ベクトル記憶部の辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうステップと、前記部分領域毎の画素に対応したフィルタ・マスクの値について、前記パターン画像の識別結果に基づいて前記辞書ベクトルと、前記パターン画像に対応する前記特徴ベクトルと、前記非線形関数に基づく非線形関数の変化量とからフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によってフィルタ・マスクが記憶されたフィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するステップと、前記辞書ベクトルと前記パターン画像に対応する前記特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新するステップとを具備することを特徴とする。
本発明によれば、文字画像が含まれるパターン画像から文字を認識する上で、類似する文字を高精度に識別して認識することができる。
以下、本発明の実施の形態について図面を参照しながら説明する。
(第1実施形態)
図1は本発明の第1実施形態に係るパターン認識装置の構成を示すブロック図である。図1に示すように、第1実施形態のパターン認識装置は、辞書学習部23、フィルタ・マスク学習部24、部分領域特徴量計算部26、パターン識別部28および特徴ベクトル生成部29を有している。
辞書学習部23は、辞書ベクトル毎に、辞書ベクトルと学習パターンに対応する特徴ベクトルに基づいて決まる辞書ベクトル更新量によって辞書ベクトル更新を辞書ベクトルそれぞれに対して繰り返し行なう。
すなわち、辞書学習部23は、繰り返し学習することにより辞書ベクトル記憶部21に記憶されている辞書ベクトルを更新する。
フィルタ・マスク学習部24は、部分領域毎の画素に対応したフィルタ・マスクの値について、学習対象のパターン画像11(学習パターン画像11)の識別結果と、辞書ベクトルと、パターン画像に対応する特徴ベクトルとを用いてフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によってフィルタ・マスク記憶部25の該当フィルタ・マスクを繰り返し更新する。
または、フィルタ・マスク学習部24は、部分領域毎の画素に対応したフィルタ・マスク値について、学習対象のパターン画像11(学習パターン画像11)の認識結果に基づいて、辞書ベクトルと、学習パターンと、それに対応する特徴ベクトルと、第1の非線形変換部37の非線形関数に基づく非線形関数変化量とに基づいて決まるフィルタ・マスク更新量によってフィルタ・マスクの更新を繰り返し行なう。
すなわち、フィルタ・マスク学習部24は、繰り返し学習することによりフィルタ・マスク記憶部25に記憶されているフィルタ・マスクを更新する。
パターン識別部28は、辞書ベクトルと特徴ベクトル生成部29により生成された特徴ベクトルとを用いて類似度計算または相違度計算を行なうことでパターンの識別を行なう。
特徴ベクトル生成部29は、部分領域特徴量計算部26により計算された複数の部分領域それぞれの特徴量から、入力されたパターン画像の特徴ベクトルを生成する。
より詳細には、特徴ベクトル生成部29は、部分領域特徴量計算部26により各部分領域内の画素値または画素に対応した特徴値と、画素に対応したフィルタ・マスクの値とを積和して各部分領域に対応した複数の積和値を各フィルタ・マスク毎に計算し、これら複数の積和値からパターン画像の特徴ベクトルを生成する。
特徴ベクトル生成部29は、フィルタ・マスク記憶部25、部分領域特徴量計算部26および第2の非線形変換部20を有している。
フィルタ・マスク記憶部25には、学習パターン画像11を複数に細分した個々の部分領域に対してフィルタ・マスクをかけるため各部分領域に2個以上のフィルタ・マスクからなるフィルタ・マスクの組12,13,14,15が記憶されている。
部分領域特徴量計算部26は、入力されたパターン画像(学習パターン画像11)に対して、その画像の領域内に設定された複数の部分領域を区分(分割)する。
部分領域特徴量計算部26は、入力されたパターン画像(学習パターン画像11)を分割してできる複数の部分領域内の画素値と、画素に対応したフィルタ・マスクの値とを積和して各部分領域に対応した複数の積和値を各フィルタ・マスク毎に計算する。なお画素値だけでなく画素に対応した特徴値を用いても良い。
第2の非線形変換部20は、個々の内積計算部16〜19により計算された特徴量を予め設定された非線形関数に代入することによって最終的な特徴値を計算し、入力されたパターン画像の特徴ベクトルの要素値とする。
パターン識別部28は、辞書ベクトル記憶部21およびマッチング部22を有している。
辞書ベクトル記憶部21には、パターン画像から求められた特徴ベクトルとマッチング処理(比較)して類似度または相違度を計算するための基準となる辞書ベクトルが記憶されている。
マッチング部22は、特徴ベクトル生成部29により計算された特徴ベクトルと辞書ベクトル記憶部21に記憶されている辞書ベクトルとをマッチング処理して、認識結果の情報を出力する。
図2はフィルタ・マスク記憶部25の中の1つのフィルタ・マスクの組(例えばフィルタ・マスクの組12など)と、部分領域特徴量抽出部26の中の1つの部分領域計算ユニット(例えば部分領域計算ユニット16)を示したものであり、これらは学習パターンの中の1つの部分領域11aに対応付いている。部分領域計算ユニット16は、内積計算部34〜36と第1の非線形関数部37とを有している。
個々の各フィルタ・マスクの組12〜15毎に2個以上のフィルタ・マスク31〜33が設けられている。例えばフィルタ・マスク12内にはフィルタ・マスク31〜33が設けられている。フィルタ・マスク31〜33は、学習パターンの部分領域画像11aに対応したものである。内積計算部34〜36はこのフィルタ・マスク31〜33に対応付いている。
内積計算部34は、フィルタ・マスク31と部分領域画像11aとを用いて内積計算を行ない、第1の非線形関数部37に出力する。内積計算部35は、フィルタ・マスク32と部分領域画像11aとを用いて内積計算を行ない、第1の非線形関数部37に出力する。内積計算部36は、フィルタ・マスク33と部分領域画像11aとを用いて内積計算を行ない、第1の非線形関数部37に出力する。
第1の非線形関数部37は、第2の非線形変換部20とは異なる別の非線形関数で演算を行なうものであり、多入力で1出力のものである。
以下、図3、図4を参照してこのパターン認識装置の動作を説明する。まず、文字認識動作を説明する。
このパターン認識装置では、文字パターンが入力されると(図3のステップS101)、特徴ベクトル生成部29は特徴ベクトルを作成する(ステップS102)。
続いて、パターン識別部28は、認識対象となる文字種に対応した辞書ベクトルとの間で相違度を計算する(ステップS103)。
そして、パターン識別部28は、最小相違度となる文字種を認識結果として出力する(ステップS104)。
次に、このパターン認識装置の学習動作を説明する。この場合、まず、辞書学習部23とフィルタ・マスク学習部24は、それぞれフィルタ・マスクと辞書ベクトルの更新量を初期化する(図4のステップS201)。
そして、学習パターンが入力されると(ステップS202)、特徴ベクトル生成部29は、特徴ベクトル27を作成し(ステップS203)パターン識別部28へ出力する。
パターン識別部28のマッチング部22は、入力された特徴ベクトル27と、認識対象となる文字種に対応した辞書ベクトルとの間で相違度を算出し(ステップS204)、相違度の少ない辞書ベクトルに対応する文字を認識結果とする。なお、相違度の代わりに類似度を計算し、類似度の高いものを認識結果としてもよい。
続いて、各学習部23,24は、パターン識別部28のマッチングによる認識結果に基づいてフィルタ・マスクと辞書ベクトルの更新量を積算する(ステップS205)。
各学習部23,24は、学習パターンが終了か否かを判定し、終了の場合(ステップS206のYes)、フィルタ・マスク記憶部25のフィルタ・マスクと、辞書ベクトル記憶部21の辞書ベクトルとをそれぞれ更新する(ステップS207)。
そして、予め設定された学習終了条件を満たさないうちは(ステップS208のNo)、各学習部23,24は、上記ステップS201〜S208の学習処理を繰り返し、学習終了条件を満たした場合(ステップS208のYes)、学習処理を終了する。
ここで、特徴ベクトル生成部29のフィルタリング機能について説明する。
パターン画像の画素の値を、
z(i,j),(i=0,…,N−1;j=0,…,M−1)
とする。i,jは、それぞれ縦位置、横位置である。一方、パターン画像上に複数のサンプル点を設定し、その位置を、
,s(a=0,…,n−1;b=0,…,m−1)
とする。この位置におけるフィルタ・マスクを、
tab(k,h),(h=−L,…,L;k=−L,…,L)
とする。このフィルタ・マスクはT個有り、上記の式で、t=0,1,…T−1で表す。
特徴抽出は、まずフィルタ・マスク毎の内積の計算を行なうことによって始まる。マスクサイズを(2L+1)×(2L+1)とし、内積の値をΧtabとするとき、これを
Figure 0004834693
によって計算する。
次に、第1の非線形変換部37は、このT個のΧtabを用いてサンプル点に対応する出力特徴量を計算する。まず、T個の入力を持った非線形関数fab(u,u,…,uT−1)を導入し、T個のΧtabを入力として、以下の式によって出力値を計算する。
ab=fab(X0ab,X1ab,…,XT−1ab) (2)
次に、この値をサプレスする関数を第2の非線形変換部20を導入する。この関数には、例えば、
Figure 0004834693
などが考えられるが、これに限定しなくともよい。出力ベクトルの要素値をχabとしたときに、
χab=ρ(Xab
とする。ここで出力ベクトルの要素値χabは、各位置r,sについて求めるため、この出力ベクトルの次元はn×mとなる。
このようにして求められた特徴ベクトルχ={χab}と辞書ベクトルφ={φab}とによって相違度を
Figure 0004834693
で定義する。
辞書ベクトルは、文字の種類毎、すなわちカテゴリ毎に決められており、この相違度が最小になったカテゴリを正解カテゴリとして出力することによって認識を行なう。
次に、この認識系において、学習によって辞書ベクトルφとフィルタ・マスクF、すなわちFtab(k,h)を要素とする行列を求める手法を示す。
まず、辞書ベクトルφの更新は、次式で行なう。
Δφ=±2αw(d)(χ−φ)
ここで、w(d)は窓関数である。w(d)は、d=0付近で大きな値,その他は0に近い値に設定するのが普通である。例えば区間[−A,+A]で1、それ以外で0の関数やシグモイドの微分、すなわち、1/(1+e−Aχ)の微分などが窓関数として使える。
変数dは、正解カテゴリの相違度Dokと不正解カテゴリの相違度Derrによって、d=Dok−Derrで定義される。
更新式におけるαは学習係数で大きな値ほど学習強度が強く、学習のときの辞書の変動幅が大きい。これはうまく学習が進むように適切な値を実験的に求めて適用する。
更新式における±の上側の符号は、正解カテゴリに対する更新、下側は不正解カテゴリに対する更新を表す。この更新は正解、不正解どちらの場合も第1位、すなわち最小相違度となるものを用いる。
しかし、それ以外のカテゴリに対しても同様な処理を施すようにすることも可能である。この更新式はパターン認識の分野ではLVQとして知られるものである。従って本実施例はこのLVQに次のフィルタ・マスク学習を導入した方式と考えることもできる。
ここでは記述を分かり易くするために、1パターンごとの更新量を積算する形式、すなわち、Σの積算記号を用いた。
Δφ=±Σ2αw(d)(χ−φ)
では記述していないが、実際にはこの形式で更新を行なう。もちろん、積算せずに1パターン毎に更新する手段を取ることもできる。以下の説明でもこれは同様である。
次にフィルタ・マスクの学習方式を説明する。
フィルタ・マスクの要素値Ftab(k,h)を更新する量を次のようにして決める。
ある入力zが与えられたとき、あるカテゴリの辞書ベクトルφで相違度を計算したとする。このとき、Ftab(k,h)の添え字のa,bに対応する出力ベクトルの要素値χabの変化に対する相違度Dの変化を表す値をPとして求める。これはDの変動をχabの変動で割った値に基づく数値である。Dをχabで偏微分したものはその1例である。Pを出力変化量と呼ぶ。
次に,Xtabの変化に対するχabの変化を表す値をQとして求める。これはχabの変動をXtabの変動で割った値に基づく数値である。χabをXtabで偏微分したものはその1例である。Qを非線形関数変化量と呼ぶ。
さらに、Ftab(k,h)の変化に対するXtabの変化を表す値をRとして求める。これはXtabの変動をFtab(k,h)の変動で割った値に基づく数値である。XtabをFtab(k,h)で偏微分したものはその1例である。Rを入力変化量と呼ぶ。
これらを連結したPQRは、全体としてFtab(k,h)の変化に対するDの変化を表す値である。上記した入力パターンzが入力され、辞書ベクトルφを用いたとき、PQRが正ならば、Ftab(k,h)が増加すると、このときDも増加する。
もしその辞書ベクトルが正解カテゴリであったとすると、これは相違度が上昇することになるので、そうならないようにフィルタ・マスクを調整しなければならない。すなわち,このときは、このDの増加量に見あった量として、正の数値βを用いてβPQRをFtab(k,h)から減少させる。こうすることで、Dを減少させることができる。PQRが負の場合には場合は逆にFtab(k,h)を増加させる。PQRが0のときは学習しない。従って、Ftab(k,h)に対する更新量は−βPQRである。
さらに窓関数w(d)をφの更新のときと同様に用意し、これを用いて更新量を−βw(d)PQRと修正し、最終的にこれによってFtab(k,h)を更新する。これは正解カテゴリに対する場合で,不正解カテゴリに対しては、その逆とする。
すなわち、本実施形態では、更新量を窓関数w(d)、出力変化量P、非線形関数変化量Q、入力変化量Rの積で求める。
次に、fab(t)()をfab()をt+1番目の変数で偏微分した関数とし、P,Q,Rの具体的例を、
Figure 0004834693
で与える。βは学習係数である。なお、この更新則は、窓関数の積分値を認識精度が悪い度合いを表す評価量と考えたとき、これを降下法によって最適化する考え方から計算したものであり、本実施形態においては、各変化量として偏微分を用いて構成したものである。
この例において、出力変化量Pは、辞書ベクトルと特徴ベクトルとによって計算される。また入力変化量Rは入力パターン、すなわち学習パターンである。
従って、フィルタ・マスクの更新量は、辞書ベクトルと特徴ベクトルと非線形関数変化量と学習パターンから求められる。一方、辞書ベクトルは、辞書ベクトルと特徴ベクトルとで更新される。
文字認識の結果とこの更新則によって、辞書、フィルタを微小変動させて更新する。この認識と更新を繰り返すことによって学習を行なう。学習前の初期辞書や初期フィルタ・マスクは通常の認識システムで用いられるものを採用する。
認識精度に基づいて、予め設定された終了条件、例えば認識精度の向上が見られなくなる場合などの条件によって上記の学習を終了させる。この学習方法によって、より性能の高い辞書とフィルタ・マスクを作成することができる。
この第1実施形態では、上記した実施形態の特徴抽出プロセスにおいて、ρ(u)を取り除いて非線形関数を1段にすることもできる。また、このようにして作成されたフィルタを用いた認識プロセスでは上記のユークリッド距離ではなく、別の認識系による認識を用いても良い。もちろん、学習において用いている認識系もユークリッド距離に限定せず、例えば内積を用いる単純類似度などでもよい。この非線形関数fab(u,u,…,uT−1)の具体的な形式として次のものをあげる。この式ではT=2である。
Figure 0004834693
この関数と、フィルタ・マスクにガボール・フィルタとして知られるフィルタ・マスクを用いた形式は一般にガボール・フィルタとして知られている技術である。従って、本実施形態では、このガボール・フィルタ、およびそれを拡張した非線形関数を用いたフィルタリング機能により、フィルタ・マスクのマスク値を直接学習することによって求めるようにしている。
このようにこの第1実施形態によれば、入力されたパターン画像を分割してできる複数の部分領域毎に、それぞれの特徴値を計算し、部分領域毎の画素に対応したフィルタ・マスクの更新量を求め、求めたフィルタ・マスク更新量によってフィルタ・マスク記憶部25の該当フィルタ・マスクを繰り返し更新する一方、辞書ベクトルとパターン画像に対応する特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって辞書ベクトル記憶部21の該当辞書ベクトルを繰り返し更新することで文字認識精度を向上することができる。
すなわち、パターン認識のためのパラメータとしてのフィルタ・マスクと辞書ベクトルとを繰り返し学習し、それを特徴抽出およびパターン照合に用いることで、文字画像が含まれるパターン画像から文字を認識する上で、類似する文字を高精度に識別して認識することができる。
(第2実施形態)
以下、図5を参照して第2実施形態のパターン認識装置について説明する。なお第1実施形態と同じ構成には同一の符号を付しその説明は省略する。
この第2実施形態では、パターン識別部28は、辞書ベクトル記憶部30と複数の内積計算部46〜49とを有している。
辞書ベクトル記憶部30には、1つの相違度または類似度を求める上で必要な複数の辞書ベクトル42〜45が記憶されている。
各内積計算部46〜49は、辞書ベクトル記憶部30に記憶された複数の辞書ベクトル42〜45の中で対応する辞書ベクトルを読み出し、特徴ベクトル生成部29により生成された特徴ベクトルを用いて内積計算を行なう。
内積計算部46は、辞書ベクトル記憶部30に記憶された辞書ベクトル42を読み出し、特徴ベクトル生成部29により生成された特徴ベクトルを用いて内積計算を行なう。
内積計算部47は、辞書ベクトル記憶部30に記憶された辞書ベクトル43を読み出し、特徴ベクトル生成部29により生成された特徴ベクトルを用いて内積計算を行なう。
内積計算部48は、辞書ベクトル記憶部30に記憶された辞書ベクトル44を読み出し、特徴ベクトル生成部29により生成された特徴ベクトルを用いて内積計算を行なう。
内積計算部49は、辞書ベクトル記憶部30に記憶された辞書ベクトル45を読み出し、特徴ベクトル生成部29により生成された特徴ベクトルを用いて内積計算を行なう。
マッチング部22は、これら複数の内積結果に基づく類似度または相違度を計算する。
パターン識別部28は、類似度または相違度の計算結果によってパターンの識別を行なう。
この場合、部分領域毎の画素に対応したフィルタ・マスクの値については、フィルタ・マスク学習部24が、学習パターンの認識結果に基づいて複数の辞書ベクトルと、該学習パターンと、それに対応する特徴ベクトルとに基づいて決まるフィルタ・マスク更新量によってフィルタ・マスクの更新を繰り返し行なう。
辞書学習部23は、フィルタ・マスクの更新と同時、つまり学習と同時に、辞書ベクトル42〜45毎に、辞書ベクトルと、学習パターンに対応する特徴ベクトルとに基づいて決まる辞書ベクトル更新量によって、それぞれの辞書ベクトル42〜45を繰り返し上書きし、辞書ベクトル記憶部30の内容を更新する。
この第2実施形態では、上記した第1実施形態に示したフィルタリング機能を用いることも可能であるが、別のフィルタリング機能を用いて説明する。
この第2実施形態の場合、フィルタ・マスクをサンプル点(部分領域)1個につき1個用意し、それを
ab(k,h),(h=−L,…,L;k=−L,…,L)
とする。図6のフィルタ・マスクの組12〜15では、フィルタ・マスクを複数として図示したが、この第2実施形態では、これを1個とする。また、部分領域特徴量計算部26は、単なる内積演算を行うものとする。内積の値をΧabとし、これを
Figure 0004834693
によって計算する。第1実施形態と同様に、この値をサプレスする関数ρ(u)を導入する。出力ベクトルの要素値をχabとしたときに、
χab=ρ(Xab
とする。
この第2実施形態では、文字認識機構として次の式を使う。第1実施形態では1つの相違度を求めるための辞書ベクトルは1つしか無かったが、この実施形態では複数用意する。これをφと書く。φPabはφの要素値である。また、μを重みとする。rは辞書ベクトルの数である。
Figure 0004834693
この場合、Dは相違度では無く、類似度であり、値が最も高い値のカテゴリを答えとして出力する。この類似度は重み付き部分空間法として知られているものである。また、χやφが正規化されていない場合の式は次のようになる。
Figure 0004834693
この第2実施形態では、フィルタとしては、式(3)を用いる。もちろん、式(1)、式(2)を用いることもできる。正規化のための割り算の無い式(3)に対する辞書ベクトルφの更新式は、
Δφ=±2αw(d)μ(χ,φ)χ
である。これは学習部分空間法として知られる方式である。従ってこの第2実施形態はこの学習部分空間法に次のフィルタ・マスク学習を導入した方式と考えることもできる。
次に、フィルタ・マスクの学習動作を説明する。フィルタ・マスクの要素値Fab(k,h)を更新する更新量を次のようにして決める。
ある入力パターンzが与えられたとき、あるカテゴリの辞書ベクトルφで類似度を計算したものとする。このとき、Fab(k,h)の添え字のabに対応する出力ベクトルの要素値χabの変化に対する類似度Dの変化を表す値をPとして求める。これは類似度Dの変動をχabの変動で割った値に基づく数値である。Dをχabで偏微分したものはその1例である。Pを出力変化量と呼ぶ。
次に,Xabの変化に対するχabの変化を表す値をQとして求める。これはχabの変動をXabの変動で割った値に基づく数値である。χabをXabで偏微分したものはその1例である。Qを非線形関数変化量と呼ぶ。
さらに,Fab(k,h)の変化に対するXabの変化を表す値をRとして求める。これはXabの変動をFab(k,h)の変動で割った値に基づく数値である。XabをFab(k,h)で偏微分したものはその1例である。Rを入力変化量と呼ぶ。
これらを連結したPQRは、全体としてFab(k,h)の変化に対するDの変化を表す値である。上記した入力パターンzが入力され、辞書ベクトルφを用いたとき、PQRが正ならば、Fab(k,h)が増加すると、このときDも増加する。
もし、その辞書ベクトルが正解カテゴリであったとすると、これは類似度が上昇することになる。これは良い方向なので、さらにその方向にフィルタ・マスクを調整しなければならない。すなわち、このときは、この類似度Dの増加量にみあった量として、正の数値βを用いてβPQRをFab(k,h)に加算する。
このようにすることで、類似度Dを増加させることができる。PQRが負の場合には場合は逆にFab(k,h)を減少させる。PQRが0のときは学習しない。従って、Fab(k,h)に対する更新量は+βPQRである。
さらに窓関数w(d)を用意し、これを用いて更新量を+βw(d)PQRと修正し、最終的にこれによってFab(k,h)を更新する。これは正解カテゴリに対する場合で、不正解カテゴリに対してはその逆とする。
本実施形態でも、更新量を窓関数w(d)、出力変化量P、非線形関数変化量Q、入力変化量Rの積で求める。
次に具体的例として、P,Q,Rを、
Figure 0004834693
とする。
一方、正規化のための割り算を考慮した場合の式(5)に対する更新式は、
Figure 0004834693
さらに正準化処理を考慮する。正準化とは入力ベクトルからそのベクトルの要素値の平均を各要素値から減算する処理であり次のように記述される。ここで、式(3)の代わりに内積計算をV=Fzで表し、これを非線形変換した特徴ベクトルをvで表す。要素値がすべて1のベクトルをaで表し、Nをベクトルの次元とする。N=nmである。
Figure 0004834693
とする。ここで、aは要素値が総て1のベクトルである。この場合の更新式は、式(6)(7)と同じである。
これらの例は、窓関数の積分値を認識精度が悪い度合いを表す評価量と考えたとき、これを降下法によって最適化する考え方から計算したものであり、この実施形態において、各変化量として偏微分を用いて構成した方式である。なお、ここでは非線形変換を省略することも可能であり、この場合にはQは無くなる。
この例で、出力変化量Pは複数の辞書ベクトルと特徴ベクトルによって計算される。入力変化量Rは入力パターン、すなわち学習パターンである。従って、フィルタ・マスクの更新量は複数の辞書ベクトルと特徴ベクトルと学習パターンとから構成されている。
一方、辞書ベクトルの更新は当該辞書ベクトルと特徴ベクトルとから構成されている。
(第3実施形態)
以下、図5を参照して第3実施形態のパターン認識装置について説明する。
この第3実施形態は、第2実施形態と同様の構成で、文字認識に異なる式を使う例である。
第3実施形態では、文字認識に次の式を使う。この第3実施形態でも第2実施形態と同様に辞書ベクトルを複数用意する。これをmおよびφと書く。また,μを重みとする。rは辞書ベクトルφの数である。
Figure 0004834693
この相違度は、重み付きの投影距離と呼ばれるものである。また、この式(8)で辞書ベクトルが正規化されていないときは、
Figure 0004834693
である。
まず、正規化のための割り算の無い式(8)に対する辞書ベクトルm、φの更新式は、
Figure 0004834693
である。ここでγは学習強度係数である。これは、投影距離に対して学習を行なう漸化式として知られているものである。第2実施形態とは異なり、ここでは、Dは相違度であるが、それ以外は第2実施形態と同じ考え方でフィルタ・マスクの更新式を求める。
本実施形態でも、更新量を窓関数w(d)、出力変化量P、非線形関数変化量Q、入力変化量Rの積で求めるが、さらにこれらを具体化して以下の式で更新を行なう。具体例としてP,Q,Rを、
Figure 0004834693
と設定することにより更新式を求める。すなわち、
Figure 0004834693
である。
一方、正規化を考慮した場合の式(9)に対する更新式は、
Figure 0004834693
これらの実施形態は、窓関数の積分値を認識精度が悪い度合いを表す評価量と考えたとき、これを降下法によって最適化する考え方から計算したもので、本実施形態において、各変化量として偏微分を用いて構成した方式である。なお、ここでも非線形変換を省略することができ、その場合にはQは無くなる。
この例で、出力変化量Pは、複数の辞書ベクトルと特徴ベクトルによって計算される。入力変化量Rは入力パターン、すなわち学習パターンである。従って、フィルタ・マスクの更新量は、複数の辞書ベクトルと特徴ベクトルと学習パターンから求められる。これに対して、辞書ベクトルは、当該辞書ベクトルと特徴ベクトルとから更新される。
(第4実施形態)
第4実施形態は、図1に示した第1実施形態からの変形例であり、図6にその構成のブロック図を示す。なお第1実施形態と同じ構成には同一の符号を付しその説明は省略する。
図6に示すように、この第4実施形態のパターン認識装置は、上記第1実施形態に加えて、特徴ベクトル変換部38と、特徴ベクトル変換行列記憶部40と、特徴ベクトル変換行列学習部39とを有している。
特徴ベクトル変換部38は、第2の非線形変換部20により変換された特徴ベクトルを、特徴ベクトル変換行列記憶部40から読み出した特徴ベクトル変換行列を用いて変換済特徴ベクトル41に変換する。
すなわち、特徴ベクトル変換部38は、特徴変換用の行列である特徴ベクトル変換行列を用いて特徴ベクトルの変換を行ない、その出力である変換済特徴ベクトルをマッチング部22へ送る。
特徴ベクトル変換行列記憶部40には、フィルタ・マスクの特徴を選択するための変換行列である特徴ベクトル変換行列が記憶されている。特徴ベクトル変換行列記憶部40には、特徴ベクトル変換行列学習部39により繰り返し学習された特徴ベクトル変換行列が記憶される。
特徴ベクトル変換行列学習部39は、特徴ベクトル変換部38により変換された特徴ベクトルと認識結果とに基づいて特徴ベクトル変換行列を学習する。
マッチング部22では、辞書ベクトル記憶部21の辞書ベクトルとのマッチング処理が行なわれ、認識結果が出力される。ここまでが文字認識処理である。
この際、フィルタ・マスクと特徴ベクトル変換行列と辞書ベクトルについての学習がそれぞれ行なわれる。つまり、この第4実施形態では、認識結果に基づいてフィルタ・マスクと変換行列と辞書の更新を行なう。これを繰り返すことによって徐々にその値を変え、認識精度を高めてゆく。
部分領域特徴量計算部26では、第2の非線形変換部20が、部分領域内の画素値または画素に対応した特徴値と画素に対応したフィルタ・マスクの値の積和により計算される部分領域に対応した特徴値を求め、これら部分領域毎に求められた特徴値から特徴ベクトルを生成する。特徴ベクトル変換部38は、その特徴ベクトルに対して特徴ベクトル変換行列記憶部40に記憶されている特徴ベクトル変換行列を用いて行列演算することにより変換済特徴ベクトルを算出する。
部分領域毎の画素に対応したフィルタ・マスクの値については、フィルタ・マスク学習部24が、学習パターンの認識結果に基づいて、辞書ベクトルと、学習パターンと、それに対応する特徴ベクトルとに基づいて決まる(求められる)フィルタ・マスク更新量によってフィルタ・マスクを繰り返し更新する。
特徴ベクトル変換行列学習部39は、フィルタ・マスクの学習と同時に、学習パターンの認識結果に対応する特徴ベクトルと変換済特徴ベクトルとに基づいて決まる(求められまる)特徴ベクトル変換行列更新量によって特徴ベクトル変換行列記憶部40の特徴ベクトル変換行列を繰り返し更新する。
辞書学習部23は、フィルタ・マスクの学習と同時に、該辞書ベクトルと、学習パターンに対応する変換済特徴ベクトルに基づいて決まる辞書ベクトル更新量によってそれぞれの辞書ベクトルを繰り返し更新する。
なお、パターン認識装置では、変更したフィルタ・マスクと特徴ベクトル変換行列と辞書ベクトルを用いることにより文字認識を行なう。
ここでのフィルタリング機能には第1実施形態の説明で用いた方式や第2実施形態で用いた方法、またそれ以外の方法を用いることができるが、ここでは、一例として第2実施形態で用いた方法で説明する。ここで求められた特徴ベクトルχ={χab}に対して、特徴変換を次の式で行なう。ここで、このχabを特徴、χを特徴ベクトルと呼び、またHqabは変換行列の要素値とする。
Figure 0004834693
このYはM個あるものとする。
すなわち、M次元ベクトルである(q=を、…、M−1)。
そして、再び第3の非線形変換部として非線形変換を施す。非線形変換の関数をσ(u)として、
=σ(Y
とする。このyを要素値とする特徴ベクトルをyとし、辞書ベクトルφ={φ}によって相違度を
Figure 0004834693
で定義する。
次に、このパターン認識装置では、学習によって辞書ベクトルφとフィルタ・マスクFと変換行列Hを求める。まず、辞書ベクトルφの更新は次式で行なう。
Δφ=±2αw(d)(y−φ)
次に、この実施形態におけるフィルタ・マスクの学習動作を説明する。フィルタ・マスクの要素値Fab(k,h)を更新する更新量を次のようにして決める(求める)。
ある入力パターンzが与えられたとき、あるカテゴリの辞書ベクトルφで相違度を計算したとする。このとき、Hqabの添え字のqに対応する出力ベクトルの要素値yの変化に対する相違度Dの変化を表す値をPとして求める。これは相違度Dの変動を要素値yの変動で割った値に基づく数値である。相違度Dを要素値yで偏微分したものはその1例である。Pを出力変化量と呼ぶ。
次に、χabの変化に対するyの変化を表す値をQとして求める。これは要素値yの変動をχabの変動で割った値に基づく数値である。要素値yをχabで偏微分したものはその1例である。Sを特徴変換変化量と呼ぶ。
さらに,Fab(k,h)の変化に対するχabの変化を表す値をRとして求める。これはχabの変動をFab(k,h)の変動で割った値に基づく数値である。χabをFab(k,h)で偏微分したものはその1例である。Rを入力変化量と呼ぶ。
PSをqについて積算し、さらにRを掛けた(ΣPS)Rは、Fab(k,h)の変化に対するDの変化を表す値である。前出の入力パターンzが入力され、辞書ベクトルφを用いたとき、(ΣPS)Rが正ならば、Fab(k,h)が増加すると、Dも増加する。
もし、その辞書ベクトルが正解カテゴリであったものとすると、これは相違度が上昇することになるので、そうならないようにフィルタ・マスクを調整しなければならない。すなわち、このときは、このDの増加量にみあった量として、正の数値βを用いてβ(ΣPS)Rを、Fab(k,h)から減少させる。
こうすることで相違度Dを減少させることができる。(ΣPS)Rが負の場合には場合は逆にFtab(k,h)を増加させる。(ΣPS)Rが0のときは学習しない。従って、Fab(k,h)に対する更新量は−β(ΣPS)Rである。
さらに、窓関数w(d)を用意し、これを用いて更新量を−βw(d)(ΣPS)Rと修正し、これによって最終的に、Fab(k,h)を更新する。これは正解カテゴリに対する場合で、不正解カテゴリに対してはその逆とする。本実施形態では、Fab(k,h)の更新量は出力変化量P、非線形関数変化量Sの積和(ΣPS)と、窓関数w(d)、入力変化量Rの積で求める。
次に具体的例として,P,S,Rを、
Figure 0004834693
とする。
次に、特徴変換行列の要素値Hqabを更新する量を次のようにして決める。
まず、出力変化量PはFab(k,h)と同じようにして求める。
そして、Hqabの変化に対するyの変化を表す値をVとして求める。これはyの変動をHqabの変動で割った値に基づく数値である。yをHqabで偏微分したものはその1例である。Vを特徴変換入力変化量と呼ぶ。
これらを連結したPVは、全体としてHqabの変化に対する相違度Dの変化を表す値である。前記の入力パターンzが入力され、辞書ベクトルφを用いたとき、PVが正ならば、Hqabが増加すると、このとき相違度Dも増加する。
もし、その辞書ベクトルが正解カテゴリであったとすると、これは相違度が上昇することになるので、そうならないように特徴変換行列を調整しなければならない。
すなわち、このときは、この相違度Dの増加量に見あった量として、正の数値γを用いてγPVをHqabから減少させる。こうすることで、相違度Dを減少させることができる。PVが負の場合には場合は逆にHqabを増加させる。PVが0のときは学習しない。従って、Hqabに対する更新量は−γPVである。
さらに窓関数w(d)を用意し、これを用いて更新量を−γw(d)PVと修正し、最終的にこれによってHqabを更新する。これは正解カテゴリに対する場合で、不正解カテゴリに対してはその逆とする。
この第4実施形態では、特徴変換行列の要素値Hqabの更新量を窓関数w(d)と出力変化量Pと特徴変換入力変化量Vの積で求める。
次に具体例として,P,Vを、
Figure 0004834693
とする。
これらの実施形態は、窓関数の積分値を認識精度が悪い度合いを表す評価量と考えたとき、これを降下法によって最適化する考え方から計算したものであり、この実施形態において、各変化量として偏微分を用いて構成した方式である。
この例で、出力変化量Pは辞書ベクトルと特徴ベクトルによって計算される。入力変化量Rは入力パターン、すなわち学習パターンである。従って、フィルタ・マスクの更新量は辞書ベクトルと特徴ベクトルと学習パターンから求められる。また特徴変換行列更新量は、変換済特徴ベクトル、辞書ベクトル、特徴ベクトルから求められる。また辞書ベクトルの更新量は、当該辞書ベクトルと特徴ベクトルとから求められる。
すなわち、この第4実施形態の動作は、第1実施形態と異なる点として、図4のフローチャートのステップS205の処理が、認識結果に基づいてフィルタ・マスクと特徴ベクトル変換行列と辞書ベクトルの更新量を積算することになる点である。
(第5実施形態)
この第5実施形態は、フィルタ・マスクエリア変更部50を有している。上記フィルタ・マスク学習部24が、部分領域毎の画素に対応したフィルタ・マスクの値について、学習パターンの認識結果に基づいて、辞書ベクトルと、学習パターンと、それに対応する特徴ベクトルに基づいて決まるフィルタ・マスク更新量によってフィルタ・マスク記憶部25の該当フィルタ・マスクを更新したときに、フィルタ・マスク更新部50は、フィルタ・マスクの更新結果に基づいてフィルタ・マスク内の不要なエリアを決定し、その不要部分を取り除く処理、および/または隣接するエリアを付加する処理の少なくとも一方を含む処理によってマスクの位置とサイズの少なくとも一方を変更する処理を含むフィルタ・マスクの更新処理を繰り返し行なう。
つまり、この第5実施形態は、フィルタ・マスクエリア変更部50を有する点が第1実施形態と異なる。なお、この第5実施形態では、第2実形態例に示したフィルタリング機能を用いて説明を行なうが他の形式のものを用いることも可能である。
この例では、文字認識に次の式を使う。
Figure 0004834693
である。
次に、フィルタ・マスクの学習方式を説明する。フィルタ・マスクの要素値Fab(k,h)を更新する量を次のようにして決める。
ある入力パターンzが与えられたとき、あるカテゴリの辞書ベクトルφで相違度を計算したとする。このとき、要素値Fab(k,h)の添え字のabに対応する出力ベクトルの要素値χabの変化に対する相違度Dの変化を表す値をPとして求める。これはDの変動をχabの変動で割った値に基づく数値である。Dをχabで偏微分したものはその1例である。Pを出力変化量と呼ぶ。
次に、Xabの変化に対するχabの変化を表す値をQとして求める。これはχabの変動をXabの変動で割った値に基づく数値である。χabをXabで偏微分したものはその1例である。Qを非線形関数変化量と呼ぶ。
さらに、要素値Fab(k,h)の変化に対するXabの変化を表す値をRとして求める。これはXabの変動をFab(k,h)の変動で割った値に基づく数値である。XabをFab(k,h)で偏微分したものはその1例である。Rを入力変化量と呼ぶ。
これらを連結したPQRは、全体として要素値Fab(k,h)の変化に対するDの変化を表す値である。上記の入力パターンzが入力され、辞書ベクトルφを用いたとき、PQRが正ならば、要素値Fab(k,h)が増加すると、このときDも増加する。
もし、その辞書ベクトルが正解カテゴリであったとすると、これは相違度が上昇することになるので、そうならないようにフィルタ・マスクを調整しなければならない。
すなわち、このときは、このDの増加量に見あった量として,正の数値βを用いてβPQRをFab(k,h)から減少させる。こうすることで、Dを減少させることができる。PQRが負の場合には場合は逆にFab(k,h)を増加させる。PQRが0のときは学習しない。従って、Fab(k,h)に対する更新量は−βPQRである。
さらに窓関数w(d)を用意し、これを用いて更新量を−βw(d)PQRと修正し、最終的にこれによって要素値Fab(k,h)を更新する。これは正読カテゴリに対する場合で、不正解カテゴリに対してはその逆とする。
この第5実施形態でも、更新量を窓関数w(d)、出力変化量P、非線形関数変化量Q、入力変化量Rの積で求める。
次に具体例として,P,Q,Rを、
Figure 0004834693
とする。
この例で、出力変化量Pは辞書ベクトルと特徴ベクトルによって計算される。入力変化量Rは入力パターン、すなわち学習パターンである。従って、フィルタ・マスクの更新量は、辞書ベクトルと特徴ベクトルと学習パターンから求められる。また、辞書ベクトルの更新量は、辞書ベクトルと特徴ベクトルとから求められる。
フィルタ・マスクエリア変更部50は、フィルタ・マスクの変更後に、それに基づいたフィルタ・マスクのサイズ、位置変更を行なう。
図8はフィルタ・マスクエリア変更部50におけるフィルタ・マスクのサイズ変更および位置変更の処理を説明するための図である。
図8に示すように、フィルタ・マスク300は、更新後のフィルタ・マスクを示しており、10×10の画素からなるフィルタ・マスクである。フィルタ・マスクの変更が行なわれた後で、そのマスクの値について有効性のチェックを行なう。
マスク値が小さいか、または変更がほとんど無いと判断された画素は不要と判断される。フィルタ・マスク300の各画素内の×印はその不要の画素を示している。
次に、この不要の画素数を縦列及び横列にカウントする。符号301は横列でカウントした値を記載した部分であり、符号302は縦列の方向に数値を足し算した値をメモリに記憶した部分である。
この後、メモリの計数値から上下両端について不要と考えられる列を抽出する。この例では予め設定しておいた不要画素数を示す閾値を例えば6とし、閾値の6以上を不要列とし判断するものとする。
従って、部分領域303を不要エリアとしてマスク・データから除去する。こうすることで、部分領域304が残ることになる。この処理を通してマスクを縮小することができる。
次に、フィルタ・マスクを移動する処理について説明する。まず、上記と同様な手法で上下のどちらか、左右のどちらかの列を除去する。これは、例えば上下であれば除去すべき列の不要画素数の多い方を除去するようにすることにより実現できる。
この縮小のプロセスの後に、除去した列の反対側に除去した分の列を付加することもできる。符号305はその付加列を示している。この列の画素のマスク値には予め初期値として決められた値、または符号304のマスク値の平均など、初期値を与えて設定する。
このようにして最終的にできあがる部分領域304と部分領域305のマスクはサイズが部分領域300と同じで、右下に2画素ずれたフィルタ・マスクになる。このようにしてマスクの移動を実現する。
マスクの移動だけでなく、例えば上下左右の同じ数の列を付加することによってマスクを拡大することができる。
フィルタ・マスクエリア変更部50は、所定の条件によって上記の拡大、縮小、移動を行なうことによりフィルタ・マスクのサイズ、位置の学習を行なう。
このフィルタ・マスクのサイズ変更、移動などを行なう際に、複数のフィルタ・マスクが重ならないように制御することが必要となる。
そこで、フィルタ・マスクエリア変更部50は、あるフィルタ・マスクのサイズ・位置変更を行なうときに、その変更後のマスクとその他のマスクの重なる数をカウントする。
具体的には、ある画素について、その原画像上の位置が他のフィルタ・マスクに含まれているかどうかを調べ、原画像上の位置が他のフィルタ・マスクに含まれているケースの数をカウントする。
フィルタ・マスクエリア変更部50は、このカウント値を変更対象フィルタ・マスク全域で積算して、その値が予め定めている閾値よりも大きければ、変更をしないように制御する。
もちろん、位置、サイズの変更が必要無い場合には、そのままマスク値を変更するだけで良いようにフィルタ・マスク学習部24を構成しても良い。
(第6実施形態)
第1実施形態から第5実施形態は、認識部を1段構成の単純な形態で構成した。そこで、この第6実施形態は、認識部を2段構成とした。
図9は本発明の第6実施形態にかかるパターン認識装置の構成を示すブロック図である。これは複数の特徴ベクトル生成部29−0,29−1,29−Nと、パターン識別部28−0,28−1,28−Nを有するものであり、類似文字識別に威力発揮するように構成した文字認識システムである。各特徴ベクトル生成部29−0,29−1,29−Nおよび各パターン識別部28−0,28−1,28−Nには上記の第1から第5実施形態におけるパターン識別装置を用いる。
第1から第5実施形態では、自動的に特定の類似文字ペアや類似文字グループに対して有効なフィルタリング機能が得られるので、このフィルタリング機能を主要な類似文字ペア,グループに対して複数設け、図9の文字認識システムの二次認識部120に組み込んだものである。
図9に示すように、この第6実施形態のパターン認識装置100は、一次認識部110と二次認識部120とを有している。
一次認識部110は、特徴抽出部111とパターン識別部112と辞書113で構成される。特徴抽出部111は、入力パターンの特徴を濃度パターン法、加重方向ヒストグラム法などの公知の方法で抽出して特徴ベクトルを生成する。
パターン識別部112は、特徴抽出部111より入力された特徴ベクトルと、辞書113に格納された検出対象文字種の標準パターンの特徴ベクトルとを照合して類似度の高い1以上の文字の候補を判定して、その判定結果を一次認識部110の出力として二次認識部120へ与える。
二次認識部120は、切り替え部125と、複数の特徴ベクトル生成部29−0,29−1,29−Nと、パターン識別部28−0,28−1,28−Nを有している。つまり、二次認識部120の構成は、第1から第5実施形態に示したパターン認識装置の構成を複数設けたものである。
特徴ベクトル生成部29−0,29−1,29−Nは、類似する文字のグループごとに設けられている。複数の特徴ベクトル生成部29−0,29−1,29−Nは、切り替え部125によって一つが選択され、選択された特徴ベクトル生成部29−0,29−1,29−Nは、一次認識部110へ入力された入力パターンについて、予め設定された複数の部分領域毎の特徴量の計算を行なう。個々の部分領域特徴量計算部における特徴量の計算は第1〜第5の実施例に示す方法用いる。
切り替え部125は、一次認識部110の認識結果を基に入力パターンを与える1以上の特徴ベクトル生成部29−0,29−1,29−Nを選択する。例えば、切り替え部125は、一次認識部110の認識結果である文字候補を含む類似文字のグループを判定して、そのグループに対応する特徴ベクトル生成部29−0,29−1,29−Nのいずれかを選択し、選択した特徴ベクトル生成部29−0,29−1,29−Nのいずれかへ入力パターンを与える。
このためにパターン認識装置100は、文字とグループと特徴ベクトル生成部29−0,29−1,29−Nとの対応を知るためのテーブル(図示せず)を保持している必要がある。切り替え部125は、このテーブルを参照して文字候補の属するグループを調べ、さらにこのグループに対応する特徴ベクトル生成部29−0,29−1,29−Nを判定し,それに対して入力パターンを与える。
特徴ベクトル生成部29−0,29−1,29−Nは、部分領域特徴量計算部によって得られた結果に基づいて特徴ベクトルを生成し、これをパターン識別部28−0,28−1,28−Nに与える。
パターン識別部28−0,28−1,28−Nは、特徴ベクトル生成部29−0,29−1,29−Nからの特徴ベクトルと、特徴ベクトル記憶部に記憶された標準パターンの特徴ベクトルとを照合して類似度の最も高い文字を最終的な認識結果として出力する。
ここでは、切り替え部125の選択グループ数に応じたパターン識別部28−0,28−1,28−Nを用いたが、一つのパターン識別部28でパターン識別するように構成しても良い。
上記実施形態のパターン認識装置によれば、より高度なフィルタ・マスク学習によって類似文字の認識精度の向上を図ることができる。また、その学習によって特徴抽出パラメータを自動的に生成することができる。
次に、この第6実施形態のパターン認識装置100の動作を説明する。まず、対象文字のパターン画像が一次認識部110へ入力される。一次認識部110は、特徴抽出部111にてその入力パターンから特徴を抽出して特徴ベクトルを生成してパターン識別部112へ与える。パターン識別部112は、入力された特徴ベクトルと、辞書113に格納された辞書ベクトル(標準パターン)とを照合して、相違度の低い、または類似度の高い1以上の文字を判定し、これらを認識文字の候補として二次認識部120に入力する。
二次認識部120は、一次認識部110より与えられた認識文字の候補を切り替え部125に入力する。切り替え部125はこの認識文字の属するグループを調べ、さらにこのグループに対応する特徴ベクトル生成部29−0,29−1,29−Nのいずれかを判定して、判定した特徴ベクトル生成部(29−0,29−1,29−Nのいずれか)に認識対象文字のパターン画像を与える。
このとき一次認識部110より得られた認識文字の候補が複数あって、それぞれの文字の属するグループが異なる場合には、それぞれのグループに対応する別々の特徴ベクトル生成部29−0,29−1,29−Nへ検出対象文字の入力パターンをそれぞれ与える。
特徴ベクトル生成部29−0,29−1,29−Nは、部分領域毎の特徴量を計算してその結果である部分領域特徴量をパターン識別部28−0,28−1,28−Nへ与える。
パターン識別部28−0,28−1,28−Nは、各特徴ベクトルを取得すると、各特徴ベクトル記憶部(図示せず)に格納された標準パターンとを照合して、例えば類似度を計算し、最も高い類似度が得られた文字を認識結果として出力する。
また、フィルタ・マスク学習部24−0,24−1,24−Nは、各特徴ベクトル生成部29−0,29−1,29−Nのフィルタ・マスク記憶部を更新する。
以上のように、この第6実施形態によれば、二次認識部120にパターン認識部を用いることで、類似文字のグループ毎に、その類似文字の認識にとって有効な特徴抽出を行ない、類似文字間での文字の識別精度を高めることができる。
ここまでの第1〜第6実施形態の説明では画素値を用いて説明したが、これは各画素とその周辺の画素も用いて求めた特徴値であってもよい。
また、上記実施形態では主に文字の認識について説明したが、本発明は文字以外に例えば画像やマークなど、パターン認識可能な対象についても適用することが可能である。
上記実施形態で説明した各々の手段を組み合わせて学習を実施することも可能である。
上記実施例ではフィルタ・マスクや辞書ベクトルなどを作成する機能をパターン認識装置の中に設置せず、予め記憶しておくという前提で説明してきたが、このような作成機能をパターン認識装置に組み込むこともできる。
なお、本願発明は、上記実施形態のみに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形してもよい。また、上記実施形態に開示されている複数の構成要素を適宜組み合わせ、または削除する等して、種々の発明を構成できる。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
第1実施形態のパターン認識装置の構成を示す図である。 特徴ベクトル生成部の構成を示す図である。 パターン認識装置の動作を示すフローチャートである。 フィルタ・マスクと辞書ベクトルの学習動作を示すフローチャートである。 第2、第3実施形態のパターン認識装置の構成を示す図である。 第4実施形態のパターン認識装置の構成を示す図である。 第5実施形態のパターン認識装置の構成を示す図である。 フィルタ・マスクのサイズ、位置変更処理を説明するための図である。 第6実施形態のパターン認識装置の構成を示す図である。
符号の説明
12,13,14,15…フィルタ・マスクの組、16,17,18,19…部分領域計算ユニット、15…フィルタ・マスク、20…第2の非線形変換部、21…辞書ベクトル記憶部、22…マッチング部、23…辞書学習部、24…フィルタ・マスク学習部、25…フィルタ・マスク記憶部、26…部分領域特徴量計算部、27…特徴ベクトル、28…パターン識別部、28…パターン識別部、29…特徴ベクトル生成部、11a…部分領域画像、30…辞書ベクトル記憶部、31,32,33…フィルタ・マスク、34,35,36…内積計算部、37…第1の非線形関数部、38…特徴ベクトル変換部、39…特徴ベクトル変換行列学習部、40…特徴ベクトル変換行列記憶部、42,43,44,45…辞書ベクトル、46,47,48,49…内積計算、50…フィルタ・マスクエリア変更部、100…パターン認識装置、110…一次認識部、111…特徴抽出部、112…パターン識別部、113…辞書、120…二次認識部。

Claims (6)

  1. 入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応したと、画素に対応したフィルタ・マスクの値とを積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算する部分領域特徴量計算部と、
    1個の部分領域に複数のフィルタ・マスクが記憶されたフィルタ・マスク記憶部と、
    前記部分領域特徴量計算部により1個の部分領域に複数設定されたフィルタ・マスク毎に求められた特徴値複数個を非線形関数に代入することによって1個の新たな特徴値を求め、各部分領域毎に求められたこの新たな特徴値複数個から前記パターン画像の特徴ベクトルを生成する特徴ベクトル生成部と、
    パターン識別の基準となる辞書ベクトルが記憶された辞書ベクトル記憶部と、
    前記特徴ベクトル生成部により生成された特徴ベクトルと前記辞書ベクトル記憶部に記憶された辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうパターン識別部と、
    前記部分領域毎の画素に対応したフィルタ・マスクの値について、前記パターン画像の識別結果に基づいて前記辞書ベクトルと、前記パターン画像に対応する前記特徴ベクトルと、前記非線形関数に基づく非線形関数の変化量とからフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によって前記フィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するフィルタ・マスク学習部と、
    前記辞書ベクトルと前記パターン画像に対応する前記特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新する辞書ベクトル学習部と
    を具備することを特徴とするパターン認識パラメータ学習装置。
  2. 入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応した値と、画素に対応したフィルタ・マスクの値とを積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算する部分領域特徴量計算部と、
    フィルタ・マスクが記憶されたフィルタ・マスク記憶部と、
    前記部分領域特徴量計算部によりフィルタ・マスク毎に求められた特徴値複数個から前記パターン画像の特徴ベクトルを生成する特徴ベクトル生成部と、
    パターン識別の基準となる辞書ベクトルとして、1つの類似度または相違度を求めるために、N次元の特徴ベクトルに対して、N次元の辞書ベクトルが2個以上のr個記憶され、P番目の辞書ベクトルと特徴ベクトルから求まる前記P毎の値r個に基づいて類似度または相違度を計算するように構成された辞書ベクトル記憶部と、
    前記特徴ベクトル生成部により生成された特徴ベクトルと前記辞書ベクトル記憶部に記憶された辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうパターン識別部と、
    前記部分領域毎の画素に対応したフィルタ・マスクの値について、前記パターン画像の識別結果に基づいて前記P番目の辞書ベクトルと特徴ベクトルから求まる前記P毎の値r個と、r個の辞書ベクトルと、前記パターン画像に対応する前記特徴ベクトルからフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によって前記フィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するフィルタ・マスク学習部と、
    前記辞書ベクトルと前記パターン画像に対応する前記特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新する辞書ベクトル学習部と
    を具備することを特徴とするパターン認識パラメータ学習装置。
  3. 入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応した値と、画素に対応したフィルタ・マスクの値とを積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算する部分領域特徴量計算部と、
    フィルタ・マスクが記憶されたフィルタ・マスク記憶部と、
    前記部分領域特徴量計算部によりフィルタ・マスク毎に求められた特徴値複数個から前記パターン画像の特徴ベクトルを生成する特徴ベクトル生成部と、
    前記特徴ベクトル生成部により生成された前記パターン画像の特徴ベクトルを、予め設定された特徴変換行列により変換済特徴ベクトルに変換する特徴ベクトル変換部と、
    パターン識別の基準となる辞書ベクトルが記憶された辞書ベクトル記憶部と、
    前記特徴ベクトル変換部により生成された変換済特徴ベクトルと前記辞書ベクトル記憶部に記憶された辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうパターン識別部と、
    前記特徴ベクトル変換部により変換された変換済特徴ベクトルと前記特徴ベクトルと前記辞書ベクトルから特徴変換行列更新量を求め、求めた特徴変換行列更新量よって特徴変換行列を繰り返し更新する特徴変換行列学習部と、
    前記特徴ベクトル変換部により変換された変換済特徴ベクトルと前記特徴ベクトルと前記特徴変換行列と前記辞書ベクトルとから該フィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量よって前記フィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するフィルタ・マスク学習部と
    前記辞書ベクトルと前記パターン画像に対応する前記変換済特徴ベクトルとから該辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新する辞書ベクトル学習部と
    を具備することを特徴とするパターン認識パラメータ学習装置。
  4. 入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応した値と、画素に対応したフィルタ・マスクの値とを積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算する部分領域特徴量計算部と、
    フィルタ・マスクが記憶されたフィルタ・マスク記憶部と、
    前記部分領域特徴量計算部によりフィルタ・マスク毎に求められた特徴値複数個から前記パターン画像の特徴ベクトルを生成する特徴ベクトル生成部と、
    パターン識別の基準となる辞書ベクトルが記憶された辞書ベクトル記憶部と、
    前記特徴ベクトル生成部により生成された特徴ベクトルと前記辞書ベクトル記憶部に記憶された辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうパターン識別部と、
    前記部分領域毎の画素に対応したフィルタ・マスクの値について、前記パターン画像の識別結果と、前記辞書ベクトルと、前記パターン画像に対応する前記特徴ベクトルとを用いてフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によって前記フィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するフィルタ・マスク学習部と、
    前記辞書ベクトルと前記パターン画像に対応する前記特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新する辞書ベクトル学習部と、
    前記フィルタ・マスク学習部により求められた前記フィルタ・マスク更新量に基づいて不要と判断される画素を判定し、この判定の結果に基づいてフィルタ・マスクのエリア内の不要な部分を決定し、その部分を取り除く処理および隣接するエリアを付加する処理のうちの少なくとも一つの処理を行うことによって、マスクの位置とサイズのうちの少なくとも一方を変更するフィルタ・マスク更新処理を繰り返し行なうフィルタ・マスク変更部と
    を具備することを特徴とするパターン認識パラメータ学習装置。
  5. 前記請求項1乃至4いずれか1記載のパターン認識パラメータ学習装置によって生成されたフィルタ・マスクと辞書ベクトルとを、特徴抽出およびパターン照合に用いることを特徴とするパターン認識装置。
  6. 入力されたパターン画像を分割してできる複数の部分領域内の画素値または画素に対応した値と、画素に対応したフィルタ・マスクの値を積和して前記各部分領域に対応した特徴値を前記各フィルタ・マスク毎に複数個計算するステップと、
    計算された前記特徴値複数個を非線形関数に代入することによって1個の新たな特徴値を求め、各部分領域毎に求められたこの新たな特徴値複数個から前記パターン画像の特徴ベクトルを生成するステップと、
    生成された前記特徴ベクトルと、パターン識別の基準となる辞書ベクトルが記憶された辞書ベクトル記憶部の辞書ベクトルとの類似度または相違度を計算することでパターンの識別を行なうステップと、
    前記部分領域毎の画素に対応したフィルタ・マスクの値について、前記パターン画像の識別結果に基づいて前記辞書ベクトルと、前記パターン画像に対応する前記特徴ベクトルと、前記非線形関数に基づく非線形関数の変化量とからフィルタ・マスク更新量を求め、求めたフィルタ・マスク更新量によってフィルタ・マスクが記憶されたフィルタ・マスク記憶部の該当フィルタ・マスクを繰り返し更新するステップと、
    前記辞書ベクトルと前記パターン画像に対応する前記特徴ベクトルとから辞書ベクトル更新量を求め、求めた辞書ベクトル更新量によって前記辞書ベクトル記憶部の該当辞書ベクトルを繰り返し更新するステップと
    を具備することを特徴とするパターン認識パラメータ学習方法。
JP2008137303A 2008-05-26 2008-05-26 パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法 Active JP4834693B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008137303A JP4834693B2 (ja) 2008-05-26 2008-05-26 パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008137303A JP4834693B2 (ja) 2008-05-26 2008-05-26 パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法

Publications (2)

Publication Number Publication Date
JP2009282940A JP2009282940A (ja) 2009-12-03
JP4834693B2 true JP4834693B2 (ja) 2011-12-14

Family

ID=41453291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008137303A Active JP4834693B2 (ja) 2008-05-26 2008-05-26 パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法

Country Status (1)

Country Link
JP (1) JP4834693B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6235368B2 (ja) * 2014-02-17 2017-11-22 株式会社東芝 パターン認識装置、パターン認識方法およびプログラム
WO2023157093A1 (ja) * 2022-02-15 2023-08-24 三菱電機株式会社 画像フィルタ生成システム、画像フィルタ生成装置、学習装置、学習方法及びプログラム
JP7166505B1 (ja) * 2022-02-15 2022-11-07 三菱電機株式会社 画像フィルタ生成システム、画像フィルタ生成装置、推論装置、推論方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701518B2 (ja) * 2001-03-02 2011-06-15 日本電気株式会社 パターン認識装置、パターン認識方法及びプログラム
JP2007179413A (ja) * 2005-12-28 2007-07-12 Toshiba Corp パターン認識装置、パターン認識方法、および特徴抽出パラメータの生成方法

Also Published As

Publication number Publication date
JP2009282940A (ja) 2009-12-03

Similar Documents

Publication Publication Date Title
CN108959246B (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
Qiao et al. Mango: A mask attention guided one-stage scene text spotter
JP4311552B2 (ja) ドキュメントの自動分離
CN112232149B (zh) 一种文档多模信息和关系提取方法及系统
Gallego et al. Staff-line removal with selectional auto-encoders
CN108345827B (zh) 识别文档方向的方法、系统和神经网络
US20210117651A1 (en) Facial image identification system, identifier generation device, identification device, image identification system, and identification system
CN110826609B (zh) 一种基于强化学习的双流特征融合图像识别方法
CN111373418A (zh) 学习设备和学习方法、识别设备和识别方法、程序和记录介质
Asha et al. Kannada handwritten document recognition using convolutional neural network
KR20120066397A (ko) 텍스트 영역의 추출 방법, 추출 장치 및 이를 이용한 번호판 자동 인식 시스템
CN111523537A (zh) 一种文字识别方法、存储介质及系统
CN111680684B (zh) 一种基于深度学习的书脊文本识别方法、设备及存储介质
CN113420669A (zh) 基于多尺度训练和级联检测的文档版面分析方法和系统
CN111488732A (zh) 一种变形关键词检测方法、系统及相关设备
JP4834693B2 (ja) パターン認識パラメータ学習装置、パターン認識装置、パターン認識パラメータ学習方法
JP2015069256A (ja) 文字識別システム
JP2019153092A (ja) 位置特定装置、位置特定方法及びコンピュータプログラム
CN114863431A (zh) 一种文本检测方法、装置及设备
CN114492581A (zh) 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法
JP2015102938A (ja) 帳票認識装置、帳票認識方法、及びプログラム
JP2007179413A (ja) パターン認識装置、パターン認識方法、および特徴抽出パラメータの生成方法
CN117115824A (zh) 一种基于笔划区域分割策略的视觉文本检测方法
JP5445062B2 (ja) 情報処理装置及び情報処理プログラム
CN114445716A (zh) 关键点检测方法、装置、计算机设备、介质及程序产品

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110926

R150 Certificate of patent or registration of utility model

Ref document number: 4834693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350