JP2925435B2 - 入力分類方法、トレーニング方法、調整方法、及び装置 - Google Patents

入力分類方法、トレーニング方法、調整方法、及び装置

Info

Publication number
JP2925435B2
JP2925435B2 JP5174752A JP17475293A JP2925435B2 JP 2925435 B2 JP2925435 B2 JP 2925435B2 JP 5174752 A JP5174752 A JP 5174752A JP 17475293 A JP17475293 A JP 17475293A JP 2925435 B2 JP2925435 B2 JP 2925435B2
Authority
JP
Japan
Prior art keywords
training
input
neuron
neurons
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5174752A
Other languages
English (en)
Other versions
JPH06176161A (ja
Inventor
シー モード マイケル
ピン リー チー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YUNAITETSUDO PAASERU SAABISU OBU AMERIKA Inc
Original Assignee
YUNAITETSUDO PAASERU SAABISU OBU AMERIKA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YUNAITETSUDO PAASERU SAABISU OBU AMERIKA Inc filed Critical YUNAITETSUDO PAASERU SAABISU OBU AMERIKA Inc
Publication of JPH06176161A publication Critical patent/JPH06176161A/ja
Application granted granted Critical
Publication of JP2925435B2 publication Critical patent/JP2925435B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19107Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)
  • Image Processing (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Surface Acoustic Wave Elements And Circuit Networks Thereof (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、分類(classi
fication)法と分類システムに関し、更に具体
的には光学的に得られたキャラクタ画像の分類方法とシ
ステムに、およびそれのトレーニング方法およびトレー
ニング・システムに関するものである。
【0002】
【発明の背景】荷物すなわち梱包(パッケージ)の輸
送の分野では、その梱包に貼付されたシッピング・ラ
ベルに印刷されている送り先の住所に従って、発送元か
ら世界中の送り先へ仕向けて梱包が送られる。梱包
を仕向け発送するには、上記送り先の住所を読取ること
のできる自動化された光学的キャラクタ分類システムを
使用することが望ましい。その様な分類システムは、で
きるだけ迅速にキャラクタを分類し得るものでなければ
ならない。クーパー(Cooper)氏その他による米
国特許第4326259号に開示されているような、球
形ニューロンを使用した通常の光学的キャラクタ分類シ
ステムは、或種の用途で与えられる処理要求を、ハード
ウェアに大きな投資をせずに、行うことはできない。
【0003】
【発明の概要】この発明は入力を複数の可能な出力の1
つに分類する分類方法及び装置に関するものである。こ
の発明によれば、上記入力を表すフィーチャ・ベクトル
が生成される。次に、このフィーチャ・ベクトルから、
各々が上記可能な出力の1つに関連する複数のニューロ
ンの各ニューロンの中心までの距離値が計算される。
この計算された距離に従って、フィーチャ・ベクトルを
包囲する各ニューロンが選択される。可能な出力の各々
に関連する選択されたニューロンの数であるボート(v
ote)(票)が、可能な出力の各々に対して求められ
る。可能な出力の1つに対するボートが、他の可能な出
力の全てに対する他の全てのボートよりも大きい場合
は、その可能な出力が上記入力に対応するものとして選
択される。可能な出力の1つに対するボートが、他の可
能な出力の全てに対するボート他の全てのボートよりも
大きくない場合には、他の全てのニューロンの中で最も
小さい距離値を持ったニューロンを識別する。その最
小距離値がある特定の値よりも小さい場合は、その識別
されたニューロンに関連する可能な出力を上記入力に対
応するものとして選択する。
【0004】この発明は、また、ニューロンを発生する
ためのトレーニング法と装置を提供する。この発明によ
れば、各々が第1の可能な出力に対応する複数のトレー
ニング入力が選択される。次いで、トレーニング入力の
各々の質が特徴記述される。次に、特徴記述されたトレ
ーニング入力から、他のトレーニング入力の中の少なく
とも1つよりも高い質を持つトレーニング入力を選択す
る。次いで、この選択された特徴記述されたトレーニン
グ入力に従ってニューロンが造られる。
【0005】この発明によれば、入力を複数の可能な出
力の1つに分類する分類方法が提供される。この分類方
法によれば、入力は2またはそれ以上の可能な出力を表
すクラスターに分類される。次いで、この入力はクラス
ターによって表される上記2またはそれ以上の可能な出
力の1つに分類される。この発明の分類ステップの中の
少なくとも1つのステップは入力を表す情報をニューロ
ンと比較することによって特徴付けられる。この発明は
さらに、複数のフィーチャ・ベクトルを包囲するニュー
ロンを調整する方法及び装置を提供する。フィーチャ・
ベクトルの空間分布が特徴記述される。次いで、その特
徴記述に従ってニューロンが空間的に調整される。
【0006】
【詳細な説明】この発明は、光学的キャラクタ認識シス
テムを含んでいるが、より一般的に言えば、この発明は
入力を可能な複数出力の所定セットのうちの1つとして
分類するための分類システムをカバーするものである。
たとえば、その入力が英語のアルファベットの26個の
大文字の中の1つを表している光学的に取出された画像
の場合、この発明の分類システムは、その入力画像に関
する大文字を出力として選択するように、使用される。
以下、この発明の分類システムを、図1の(a)、図2
乃至図4を参照しつつ説明する。
【0007】この発明は、また、この発明による分類シ
ステムをトレーニングするシステムも含んでいる。この
トレーニング・システムは、この分類システムを配置す
るに先立ってオフラインで動作させることが望ましい。
キャラクタ認識の例の場合には、このトレーニング・シ
ステムは、既知のキャラクタを表す入力画像を受入れ
て、未知の画像が最終的に分類されることになる可能な
出力のセットについて学習する。この発明のトレーニン
グ・システムについて図5および図6を参照して後述す
る。
【0008】この発明は、また、この発明による分類シ
ステムを、トレーニング入力の相対的品質に従ってその
トレーニング入力を順序づける思想に基づいてトレー
ニングするシステムをも含んでいる。このトレーニング
システムは、図1の(a)、(b)、(c)および
(d)を参照して、後述する。
【0009】この発明は、また、この発明によるシステ
ムのトレーニング期間中に発生するニューロンの位置お
よび形状を調整するシステムも含んでいる。
【0010】この発明は、また、上位レベルおよび下位
レベルのクラスタ分類器の階層ネットワークを使用する
分類システムをも含むものである。この上位レベルの分
類器は入力を複数の出力クラスタのうちの1つに分類す
る。この場合、各出力クラスタは可能な出力のセットの
サブセットに付属している。上位レベルの分類器によっ
て識別された出力クラスタに関連するクラスタ分類器
は、次に、入力を可能な出力のうちの1つに対応するも
のとして分類する。この分類システムは、図1の
(a)、(b)、(c)および(d)を参照して後述す
る。
【0011】この発明は、また、2つのサブシステムを
組合せた形の、入力を分類するためのニューラル・シス
テムをも含むものである。1つのサブシステムは、可能
な複数出力の各々について、特定入力を表すフィーチャ
・ベクトルを包囲するニューロンの数をカウントする。
もし、可能な出力のうちの1つがそのフィーチャ・ベク
トルを包囲するニューロンを他の同様な出力よりも多数
持っているときは、そのシステムは上記入力に対応する
ものとして前記1つの出力を選択する。そうでない場合
には、そのフィーチャ・ベクトルに対する特定距離の
とし最小値を有するニューロンを、第2のサブシステ
ムが見つけ出す。もし、その値が特定の閾値よりも小さ
ければ、システムは、そのニューロンに関する出力を入
力に対応するものとして選択する。但し、本明細書にお
いて、距離または距離の値とは、楕円距離を含む上位概
念の距離であって、適合する距離の尺度に基づいて定量
した距離の値を意味する。このニューロン・システム
は、図1の(a)、図2乃至図4に関連して後述する。
【0012】分類システム 図1の(a)を参照すると、この図には正常な文字
「0」を表すビットマップが例示されている。この発明
による分類システムが光学的に得たキャラクタ画像を分
類するときには、分類されるべき各システム画像は、図
1の(a)に示す如く2進値のmxn画像アレイである
入力ビットマップで表すことができる。好ましい実施例
においては、この発明の分類システムは各入力ビットマ
ップに含まれている情報からk次元フィーチャ空間に1
つのベクトルを発生する。各フィーチャ・ベクトルFは
フィーチャ要素fを持っている。但し0≦j≦k−1
である。このフィーチャ空間の次元kは1より大きな如
何なる整数であってもよい。各フィーチャ要素fは、
入力ビットマップから抽出されたk個のフィーチャ要素
のうちの1つに相当する実数値である。
【0013】このk個のフィーチャ要素は、たとえばグ
リッド(Grid)またはアダマール(Adamar
d)フィーチャ抽出関数(extraction fu
nction)の如き通常のフィーチャ抽出関数を用い
て、入力ビットマップから取出すことができる。フィー
チャ・ベクトルFはk次元フィーチャ空間における1点
を表している。フィーチャ要素fは、k次元フィーチ
ャ空間のフィーチャ空間軸に沿った、フィーチャ・ベク
トルの成分である。この明細書における説明のために用
語「フィーチャ・ベクトル」とはフィーチャ空間内の1
点を指すものとする。
【0014】好ましい実施例においては、フィーチャ空
間を決定するのにグリッドをベースとした、或いはアダ
マールをベースとしたフィーチャ・ベクトルに判別分析
変換(discriminant analysis
transform)を適用することができる。この実
施例では、判別変換からの最上位の固有ベクトルのみが
保持されるこの判別分析を行うことによって、可能な出
力相互間の隔たりを増加させまたフィーチャ・ベクトル
の次元を低減することができる。
【0015】この発明の分類システムは、特定の入力画
像を表すフィーチャ・ベクトルFをフィーチャ空間内に
おけるニューロンのセットと比較する。ここで、各ニュ
ーロンは、k次元のフィーチャ空間における閉じたk次
元の領域または「ハイパー・ボリューム(超体積)」で
ある。たとえば、(k=2)であれば、各ニューロンは
2次元フィーチャ空間における1つの領域であり、(k
=3)であれば、各ニューロンは3次元フィーチャ空間
における1つのボリューム(体積)である。図2は、典
型例としての8個の2次元ニューロンを包含する2次元
フィーチャ空間である。
【0016】この発明による好ましい分類システムにお
いては、k次元フィーチャ空間に在る少なくとも1個の
ニューロンの境界は、少なくとも2個の相異なる長さの
軸によって決定される。これらニューロンの幾つかは、
がニューロンの中心点を規定し、bがニューロン
の各軸の長さで、mとAが正の実数の定数であるとし
て、一般に数学的に次式で表される。
【0017】好ましい或る実施例では少なくとも2つの
ニューロン軸は長さが異なっている。式(1)を満足す
る値のgi は、ニューロンの境界内または境界上に在る
フィーチャ空間中の点を規定する。この技術分野の専門
家は、この発明の範囲に含まれる上記以外のニューロン
は、また別の数学的表現によって表されることを容易に
理解できよう。たとえば、関数MAXは、jが0からk
−1へ変化するときのこの比の最大値を計算するものと
して、ニューロンは次式で決定される。
【数2】 式(2)で決定されるニューロンはハイパー矩形であ
る。
【0018】この発明の好ましい或る実施例では、ニュ
ーロンはk次元のフィーチャ空間のハイパー楕円(超楕
円)である。ハイパー楕円は、(m=2)でかつ(A=
1)の場合に式(1)で決定されるすベてのハイパー・
ボリュームである。より具体的に言えば、ハイパー楕円
は、Cがハイパー楕円の中心点、bはハイパー楕円
の軸の長さ、式(3)を満足する値gはハイパー楕円
の境界内および境界上に在る点を決定するとして、次式
で表される。
【数3】
【0019】すべての軸が等長であれば、そのハイパー
楕円はハイパー球状(超球)である。
【0020】この発明の或る好ましい実施例では、少な
くとも1つのニューロンの少なくとも2つの軸は相異な
る長さである。一例として、図2には、中心点が(Co
、C で軸 、b の長さが異なる楕円状
ニューロン1が示されている。或る好ましい実施例にお
いては、ニューロンの軸はフィーチャ空間の座標軸と整
列している。この技術分野の専門家は、フィーチャ空間
軸と全部が整列している訳ではない軸を有する上記以外
のニューロンもこの発明の範囲内にあることは理解され
よう。
【0021】この発明のよれば、各ニューロンは特定の
可能な出力に関連している。たとえば、各ニューロンは
26個の大文字の1つに対応している。各ニューロンは
可能な出力(たとえば文字)の1つのみに関連している
が、各可能な出力は1個またはそれ以上の関連ニューロ
ンを持つことができる。更に、ニューロンはフィーチャ
空間内で互いに重畳することも有り得る。たとえば、図
2に示されたように、ニューロン0、1および7はキャ
ラクタAに対応し、ニューロン2、3、5および6はキ
ャラクタBに対応し、ニューロン4はキャラクタCに対
応している。ニューロン1と7は、ニューロン2、3お
よび6、およびニューロン3、5および6がそうである
ように、重なり合っている。
【0022】また別の或る実施例(図示省略)では、相
異なる可能な出力に対応するニューロンが重なり合って
いる。この発明の分類システムは、文字A、BおよびC
を表す入力画像を分類するのに図2のニューロンを採用
することができる。
【0023】次に、図3には、この発明の好ましい実施
例に従って、入力(たとえば、光学的に得たキャラクタ
画像)を可能な出力(たとえば、キャラクタ)の1セッ
トとして分類するための分類システム300のプロセス
流れ図が示されている。図3のこの好ましい実施例にあ
っては、分類システム300中のニューロンは並列処理
される。また別の実施例(図示省略)では、分類システ
ム300内のニューロンは直列的に処理される。入力画
像のビットマップを受入れる手段302があって、その
ビットマップに含まれている情報を表すフィーチャ・ベ
クトルを発生する。手段304と306は、手段302
が発生したフィーチャ・ベクトルを複数ニューロン中の
1セットと比較する。このニューロンの少なくとも1つ
は長さを異にする2つまたはそれ以上の軸を持ってい
る。分類システム300は上記の比較結果に基づいて可
能な出力のうちの1つを選出する。
【0024】この発明の好ましい実施例では、分類シス
テム300は、ハイパー楕円状ニューロンのネットワー
クを使用して、光学的に得たキャラクタ・ビットマップ
を分類する。分類システム300の手段302は、分類
すべき光学的に得られたキャラクタ画像のビットマップ
を入力して受入れ、それに対応したフィーチャ・ベクト
ルFを発生する。続いて手段304はネットワーク内の
num 個のハイパー楕円状ニューロンxの中心と軸お
よびフィーチャ・ベクトルFの関数として楕円距離r
を求める。rは次式で表される。
【数4】
【0025】式(4)においてc とb は、それ
ぞれxを0からEnum−1まで変化させたときのニュ
ーロンxの中心点と軸長を決定し、fはフィーチャ・
ベクトルFの要素である。この技術分野の専門家は距離
が式(4)のそれと異なるであっても使用可能で
あることは理解できよう。
【0026】手段306は、Enum 個のニューロンの
中にフィーチャ・ベクトルFを包囲するものがあれば、
それがどのニューロンであるかを確認する。フィーチャ
空間内でニューロンを規定する境界の内側にフィーチャ
・ベクトルがある場合、ニューロンはフィーチャ・ベク
トルを包囲し、「包囲ニューロン」と名付けられる。ハ
イパー楕円の場合には、もし(r<1)であれば、ニ
ューロンxはフィーチャ・ベクトルFを包囲する。も
し、(r=1)であればフィーチャ・ベクトルFはニ
ューロンxの境界上に位置し、また(r>1)であれ
ばフィーチャ・ベクトルFはニューロンxの外側に位置
する。ニューロンはフィーチャ空間内で重なり合うこと
ができるから、特定のフィーチャ・ベクトルは1個以上
のニューロンで包囲されることがある。図2において
は、特定の入力画像に対応するフィーチャ・ベクトルF
はニューロン2と6に包囲されている。或いはまた、
図2のフィーチャ・ベクトルFの場合のように、フィ
ーチャ・ベクトルがどのニューロンの内側にも位置して
いないこともある。その様なベクトルは別の入力画像に
対応するものである。
【0027】手段308は、可能な出力のそれぞれに対
する「最近接」ニューロンを見つけ出す。記述のよう
に、各ニューロンは1つの出力に、そして可能な出力の
うちの1つの出力のみに、関連する。しかし可能な出力
の各々は関連する1つ以上のニューロンを持っているこ
ともある。手段308は、可能な各出力に関連するニュ
ーロンを全部分析して、その出力に対するフィーチャ・
ベクトルFに対する最近接ニューロンを決定する。この
最近接ニューロンは、最も小さい距離値rを持ったも
のになる。図のフィーチャ・ベクトルFの例では、
手段308はキャラクタ「A」に対するフィーチャ・ベ
クトルFに対する最近接ニューロンとしてニューロン
1を選出することになる。また、キャラクタ「B」に対
する最近接ニューロンとしてニューロン2を、およびキ
ャラクタ「C」に対してはニューロン4を、選出する。
【0028】図3の手段310は、各可能な出力に対す
るボート(票)をカウントする。第1の実施例におい
て、フィーチャ・ベクトルFを包囲する各ニューロン
は、そのニューロンに関連する出力に対する1つボー
ト(票)として、手段310によって処理される。ま
た、図7について詳細に後述する別の好ましい実施例に
おいては、フィーチャ・ベクトルFを包囲する各ニュー
ロンは、そのニューロンに関連する出力に対する「重み
付けされたボート」を表すものとして、手段310で処
理される。ここに、どの特定ニューロンに関連する「重
み」もそのニューロンによって包囲されるトレーニング
入力フィーチャ・ベクトルの数の関数である。
【0029】好ましい実施例においては、手段310は
比例ボーティングを行う。ここで、特定ニューロンに対
する重み付けされたボートは、そのニューロンで包囲さ
れるフィーチャ・ベクトルの数に等しい。可能な各出力
に対して、手段310は、フィーチャ・ベクトルFを包
囲するすべてのニューロンに対する全ボートを記録す
る。
【0030】ボーティングの結果には可能性のある3種
の形式がある。それは、(1)1つの出力キャラクタが
他のどの出力キャラクタよりも多数のボートを受ける、
か、(2)2つまたはそれ以上の出力キャラクタが大多
数のボートに関してタイ(等格)である、か、(3)す
べての出力キャラクタがボートを受けず、すなわちフィ
ーチャ・ベクトルFを包囲するニューロンが存在しない
状態を示すか、の3種である。図2において、フィーチ
ャ・ベクトル は第1のボーティング形式となり、キ
ャラクタ「B」は包囲しているニューロン2と6に相当
する2つのボートを受け、一方キャラクタ「A」と
「C」は全然ボートを受けない。図2のフィーチャ・ベ
クトルFは、各キャラクタがボートを全く受けていな
い第3形式のボーティング結果となる。
【0031】手段312は、フィーチャ・ベクトルFに
手段310を適用することにより第1形式のボーティン
グ結果が得られたかどうかを決定する。もし、可能な出
力キャラクタのうちの1つのみが大多数(最大数)のボ
ートを受けていれば、手段312は、分類システムの3
00の処理を手段314に進める。手段314は入力キ
ャラクタ・ビットマップに対応するものとしてその出力
キャラクタを選択する。そうでない場合は、続いて手段
316で処理が行われる。
【0032】図2のフィーチャ・ベクトルFg について
は、手段312は、キャラクタ「B」が他のどのキャラ
クタよりも多数のボートを持っていることを確認して、
手段314に、フィーチャ・ベクトルFg に対応するキ
ャラクタとして「B」を選択させる。図2のフィーチャ
・ベクトルFh の場合には、手段312は、大多数のボ
ートを受けたキャラクタが1個も無いことを確認して、
処理を手段316へ進める。
【0033】ボートが等格(タイ)であるか或いはフィ
ーチャ・ベクトルがどのニューロンの内側にも位置して
いないという理由のために明確なボートリーダが存在し
ないという、第2および第3形式のボーティング結果の
場合には、手段316はタイブレーカ(等格解除器)と
して働く。このタイを解除(ブレーク)するために、手
段316は、フィーチャ・ベクトルFに楕円距離で最近
接状態にあるニューロンxを選出して、rx を特定閾値
θm と比較する。その結果がもしも(rx ≦θm )であ
れば、手段318が、このニューロンxに関連する出力
キャラクタを入力キャラクタ・ビットマップに相当する
ものとして選択する。
【0034】そうでない場合は、タイは解除されず分類
システム300はその入力画像に対してキャラクタを選
択しない。「キャラクタ選択無し」という結果は分類シ
ステム300からの可能な出力の1つである。たとえ
ば、もし分類システム300が大文字を認識するように
設計されていて、それに対する入力が数字7に相当する
ものであったとすると、「キャラクタの選択無し」とい
う結果が適切な出力である。
【0035】閾値θは、1より大きな任意の数でよ
く、好ましい値は約1.25である。既に前述したよう
に、フィーチャ・ベクトルFがニューロンxの内側にあ
れば(r<1)でニューロンxの外側にあれば(r
>1)である。手段310から得られるボーティングの
結果が、大部分の非ゼロ・ボートについてタイであれ
ば、手段316は、フィーチャ・ベクトルFに楕円距離
が最近接している中心を持った包囲ニューロンに関連し
た出力キャラクタを選択することになる。或いは別の形
として、包囲ニューロンが無い場合には、手段316
は、もし(r≦θ)であれば、最近接ニューロンx
に関連する出力キャラクタに対応するものとして、入力
ビットマップを更に分類する。約1.25の閾値θ
使用すると、タイブレーキング手段316が使用する各
ニューロンを包囲する領域が設定できる。図2におい
て、もし距離のがこの閾値θより小さいとき
は、フィーチャ・ベクトル はキャラクタ「C」とし
て分類される。そうでないときは、キャラクタは選択さ
れない。
【0036】次に、図4には、入力を可能な出力の1セ
ットに対応するものとして分類するこの発明による分類
システム400の概要図が示されている。分類システム
400は、図3の分類システム300が行った処理の一
部を実行することができる。分類システム400は、フ
ィーチャ要素(f0 、f1 、・・・・fk-1 )で表され
るフィーチャ・ベクトルFを受入れ、選択されるべき可
能な出力を示す指標(ポインタ)および/またはフラッ
グとして働く値qt とqm を発生する。分類システム4
00は4つのシステム・レベル、すなわち、入力レベル
402、処理レベル404、出力レベル406および後
処理レベル408を持っている。
【0037】入力レベル402は、jを0からk−1ま
で変わる数として、k個の入力処理ユニットij より成
るセットIを持っている。各入力処理ユニットij は、
入力として1個の、そしてフィーチャ・ベクトルFのた
だ1個の要素fj のみを受入れて、この値を処理レベル
404に分散供給する。入力レベル402は1組のパル
ススルー分散供給素子として働く。
【0038】処理レベル404には、xが0からE
num−1まで変わる数としてEnum 個の楕円状処理
ユニットeのセットEがある。各楕円状処理ユニット
は、入力レベル402のすべての入力処理ユニット
の出力から入力を受入れるように、各処理ユニット
に接続されている。楕円状処理ユニットeは、図
3の分類システム300のニューロンxについて式
(4)の演算をする。分類システム300のニューロン
xと同様に、各楕円状処理ユニットeは内部パラメー
タの2つのベクトルBとCによって規定される。ベ
クトルBの要素はニューロンxの軸の長さである。こ
こに、Bは次式で表される。
【数5】
【0039】また、ベクトルCx の要素はニューロンx
の中心点の座標であり、Cx は次式で表される。
【数6】
【0040】処理レベル404の各楕円状処理ユニット
は、フィーチャ・ベクトルFからニューロンxの中
心までの距離の大きさrを計算する。処理レベル40
4は分類システム300の手段304に関連している。
もし、(r<1)であれば、楕円状処理ユニットe
は可動状態にされているとし、そうでない時は非可動状
態にあるとする。換言すれば、楕円状処理ユニットe
はニューロンxがフィーチャ・ベクトルFを包囲してい
ると可動状態にされる。各楕円状処理ユニットeは、
出力レベル406の2つの出力処理ユニットのみに計算
した距離の大きさを分配供給する。
【0041】出力レベル406は2つの部分を持ってい
る。すなわち、出力トータル部410と出力ミニマイズ
部412とを持っている。出力トータル部410はS個
の出力処理ユニットOn t のセットOt を有し、出力ミ
ニマイズ部412はS個の出力処理ユニットOn m のセ
ットOm を持っている。但し、nは0からs−1までを
表し、sは分類システム400がそれを目的としてトレ
ーニングされている可能な出力の数である。たとえば、
大文字を分類する場合はs=26である。各処理ユニッ
トの対(On t 、On m )は可能な出力のうちのただ1
個の出力のみに関連するものであり、またその逆の関係
も成立つ。
【0042】処理レベル404の各楕円状処理ユニット
x は、出力トータル部410のただ1個の出力処理ユ
ニットOn t のみに、および出力ミニマイズ部412中
のただ1個の出力処理ユニットOn m のみに、それぞれ
接続されてそれらに出力を供給する。しかし、各出力ユ
ニットOn t と各出力ユニットOn m は、処理レベル4
04の1個またはそれ以上の楕円状処理ユニットex
接続しそれらから入力を受入れるようにすることもでき
る。これらの関係は接続マトリックスWt とWm で表さ
れる。それらの次元は共に(sxEnum )である。
【0043】好ましい実施例において、処理レベル40
の楕円状処理ユニットeと出力レベル406の出力
トータル部410の出力処理ユニットO の間に接続
がある場合には、接続マトリックスWにおけるエント
リWnx の値はニューロンxで包囲されるトレーニン
グ入力フィーチャ・ベクトルの数に等しく、そうでない
場合は、その値付0である。更に別の好ましい実施例に
おいては、楕円状処理ユニットeと出力処理ユニット
の間に接続があれば、エントリWnx の値は1
である。
【0044】接続マトリックスWm は、処理レベル40
4と出力レベル406の出力ミニマイズ部412との間
の接続を表し、接続マトリックスWt に関係を持ってい
る。接続マトリックスWm におけるエントリWnx m は接
続マトリックスWt の0でないすべてのエントリWnx t
に対して値1を持っている。そうでない(Wnx t が0)
の場合、エントリWnx m の値は0になる。
【0045】出力トータル部410の各出力処理ユニッ
トOn t は、次式の出力値On t を計算する。
【数7】
【0046】ここに、関数T(r)は、(r>1)
であれば値0になり、そうでなければ値1になる。別の
言い方をすれば、関数T(r)は処理レベル404の
楕円状処理ユニットeが可動状態にされると、値1に
なる。出力処理ユニットO は、関連する可能な出力
に対するボートをカウントして、その合計(トータル)
を出力する。出力レベル406の出力トータル部410
は、分類システム300の手段306と310とに関連
するものである。
【0047】同様に、出力ミニマイズ部412は次式で
表される出力値On m を計算する。
【数8】
【0048】ここに、関数“MIN”は、すべての楕円
状処理ユニットex に対して(Wnx m x )の最小値に
なる。従って、各出力処理ユニットOn m は自己に接続
されている各楕円状処理ユニットex を調べて、それら
の楕円状処理ユニットから得られる最小出力値に等しい
リアル値を出力する。出力レベル406の出力ミニマイ
ズ部412は分類システム300の手段308に関連す
るものである。
【0049】後処理レベル408は2つの後処理ユニッ
トPとp を持っている。後処理ユニットPは、出
力レベル406の出力トータル部410の各出力処理ユ
ニットO に接続されていてそこから入力を受取る。
後処理ユニットPは最大出力値を持っている出力処理
ユニットO を見出して値qを発生する。出力トー
タル部410の出力処理ユニットO の出力値が、出
力トータル部410の他のすべての出力処理ユニットの
出力値よりも大であれば、値qをその出力処理ユニッ
トのインデックスであるnにセットする。たとえば、大
文字を分類する場合、nは「A」に対しては0となり
「B」に対しては1となる等にされる。そうでない場合
は、値qは−1にセットされて、出力レベルの出力ト
ータル部410は入力を分類できなかったことを示す。
後処理レベル408の後処理ユニットPは分類システ
ム300の手段312に関連するものである。
【0050】同様に、後処理レベル408中の他の後処
理ユニットPm は、出力レベル406のミニマイズ部4
12の各出力処理ユニットOn m に接続されていてそれ
から入力を受入れる。後処理ユニットPm は最小出力値
を示す出力処理ユニットOn m を見出して、値qm を発
生する。出力ミニマイズ部412の出力処理ユニットO
n m の出力値が所定の閾値θm よりも小さいと、この値
m は対応するインデックスnにセットされる。
【0051】そうでない場合には、フィーチャ・ベクト
ルFが、すべてのニューロンxに対してニューロンを包
囲する閾値領域の外側にあるから、値qm は、−1にセ
ットされて、出力レベル406の出力ミニマイズ部41
2は入力を分類できなかったことを示す。この閾値θm
は図3の分類システムに使用されている閾値θm と同じ
閾値でよい。後処理レベル408の後処理ユニットPm
は分類システム300の手段316に関連するものであ
る。
【0052】入力の分類は、値qとqを分析するこ
とによって完了する。もし、(q≠−1)であれば、
その入力はS個の可能な出力のセットのうちの可能な出
力qとして分類される。もし(q −1)でかつ
(q≠−1)であれば、その入力はS個の可能な出力
のセット中の可能な出力qとして分類される。そうで
なくて、もし両値が−1であれば、その入力はS個の可
能な入力の何れとしても分類されない。
【0053】トレーニング・システム ニューラル・ネットワークは、入力を分類するために使
用する前にトレーニング(訓練)しなければならない。
この発明のトレーニング・システムはこの必要とされる
トレーニングを少なくとも1つの非球形ニューロンをk
次元のフィーチャ空間に生成することによって行う。こ
のトレーニング・システムは、好ましくは、分類システ
ムの実施に先立ってオフ・ラインで実行される。
【0054】この発明のトレーニング・システムは1組
のトレーニング入力に基づいてニューロンを発生する。
各トレーニング入力は分類セット中の可能な(考えられ
る)出力の1つに対応することが分かっているものであ
る。分類システム300を記述するために用いたアルフ
ァベットの大文字を例にとって説明すると、各トレーニ
ング入力は”A”から”Z”迄のキャラクタ(文字)の
1つに対応するビットマップとすることができる。各キ
ャラクタは少なくとも1つのトレーニング入力によって
表されなければならない。但し、通常は、各キャラクタ
に対し250乃至750のトレーニング入力が用いられ
る。
【0055】図5と図6には、図3の分類システム30
0または図4の分類システム400で用いることができ
るk次元フィーチャ空間でニューロンを発生するための
トレーニング・システム500の処理フロー・ダイアグ
ラムが示されている。例えば、出力分類をトレーニング
する時は、トレーニング・システム500は、既知の出
力に対応する1組のトレーニング・ビットマップ入力を
順次処理する。トレーニング中のある時点で、先に処理
されたトレーニング入力に対応する1組の既存フィーチ
ャ・ベクトルとこれらの既存フィーチャ・ベクトルから
生成された1組の既存ニューロンが生じる。各トレーニ
ング入力について、トレーニング・システム500は、
そのトレーニング入力に含まれている情報を表すフィー
チャ・ベクトルをフィーチャ空間に発生する。
【0056】トレーニング・システム500は各トレー
ニング入力を処理するに際して2つのルールを適用す
る。第1のトレーニング・ルールは、その時処理されて
いるトレーニング入力に対応するフィーチャ・ベクトル
が、なる既知の出力に関連する既存のニューロンによ
って包含されている場合には、それらの既存のニューロ
ンの境界がそのフィーチャ・ベクトルを排除するように
空間的に調整される。即ち、そのフィーチャ・ベクトル
がそれらの既存ニューロンの境界内に入らないように空
間的に調整される。それ以外の場合には、ニューロンの
空間的調整は行われない。例えば、その時のトレーニン
グ入力がキャラクタ”R”に対応し、そのトレーニング
入力に対応するフィーチャ・ベクトルが2つの既存の”
P”ニューロンと1つの”B”ニューロンとによって囲
まれている時は、これらの3つの既存のニューロンの境
界が、その時のフィーチャ・ベクトルを包囲しないよう
に空間的に調整される。
【0057】第2のトレーニング・ルールはその時のフ
ィーチャ・ベクトルが、同じ既知の出力に関連する少な
くとも1つの既存のニューロンによって包囲されていな
い場合には、新しいニューロンが形成されることであ
る。それ以外の場合には、その時のフィーチャ・ベクト
ルに対して新しいニューロンは生成されない。例えば、
その時のトレーニング入力がキャラクタ”W”に関連
し、そのトレーニング入力に対応するフィーチャ・ベク
トルがキャラクタ”W”に対応する既存のニューロンの
どれによっても包囲されていない場合は、その時のフィ
ーチャ・ベクトルを取り囲むように新しい”W”ニュー
ロンが形成される。推奨実施例では、新しいニューロン
は、一時的なハイパー球形(hyper−spheri
cal)ニューロンを生成し、次に、その一時的ニュー
ロンを空間的に調整して新しいニューロンを造る。また
別の推奨実施例では、この一時的ニューロンは非球形ハ
イパー楕円である。
【0058】この発明の推奨実施例においては、トレー
ニング・システム500は、既知のキャラクタに対応す
る1組のトレーニング・ビットマップ入力からハイパー
楕円形ニューロンを発生する。トレーニング・システム
500は、存在しないフィーチャ・ベクトルと存在しな
いニューロンからスタートする。トレーニング・システ
ム500の処理は手段502で始まり、手段502はそ
の時のトレーニング入力として1組のトレーニング入力
から1番目のトレーニング入力を選択する。手段504
がその時のトレーニング入力に対応するフィーチャ・ベ
クトルFを発生する。
【0059】1番目のトレーニング入力がその時のトレ
ーニング入力である時は、既存のニューロンはなく、従
って、フィーチャ・ベクトルFを包囲する既存のニュー
ロンもない。その場合には、トレーニング・システム5
00の処理は手段514に進み、そこでフィーチャ・ベ
クトルFを中心にした新しいニューロンが形成される。
この新しいニューロンは、好ましくは、数3の式(3)
によって規定され、その場合、全ての新しいニューロン
軸は同じ長さに設定される。即ち、全てのjについて
(bj =λ)とされる。新しいニューロン軸が全て同じ
長さなので、この新しいニューロンは半径λのフィーチ
ャ空間内のハイパー球である。推奨実施例では、定数λ
の値は、トレーニング入力の組全体に対する全てのフィ
ーチャ・ベクトルFの中の最大フィーチャ要素fj の2
倍となろう。一番目のトレーニング入力を処理する時は
既存のフィーチャ・ベクトルがないので、トレーニング
・システム500は手段528(図6)に進む。この点
からは、トレーニング・システム500の処理はもっと
一般的な形で説明できる。
【0060】手段528はその時のトレーニング入力が
その組のトレーニング入力の中の最後のトレーニング入
力であるか否かを判断する。それが最後のトレーニング
入力でない場合は、手段528はトレーニング・システ
ム500の処理を手段530(図5)に進め、ここで次
のトレーニング入力がその時のトレーニング入力として
選択される。次いで、手段504がその時のトレーニン
グ入力に対応するフィーチャ・ベクトルFを発生する。
【0061】手段506と508は既存のニューロンが
あれば、フィーチャ・ベクトルFが包囲されないように
するために、どの既存ニューロンを空間的に調整するか
を決める。推奨実施例においては、手段510が、ある
既存のニューロンがその時のトレーニング入力と同じ既
知のキャラクタに関連しておらず(これは手段506に
よって判断される)、かつ、そのニューロンがフィーチ
ャ・ベクトルFを包囲している(これは手段508によ
って判断される)時、そのニューロンを調整する。手段
508は、前述したように、数4の式(4)の「距離」
値rを計算し検査し、また、(r<1)か否かを
検査することにより、既存のニューロンがフィーチャ・
ベクトルFを包囲しているか否かを判断する。
【0062】推奨実施例においては、手段510はある
既存のニューロンをその1つの軸にのみに沿って最適に
収縮させることによって空間的に調整する。別の推奨実
施例においては、手段510は1またはそれ以上の軸に
沿って比例関係をもって既存のニューロンを収縮させ
る。これらの収縮法については後で詳細に説明する。手
段510による処理の後、その時のフィーチャ・ベクト
ルは、そのトレーニング入力に関係するキャラクタとは
異なるキャラクタに関連するいかなる既存のニューロン
によっても包囲されない。従って、その時のフィーチャ
・ベクトルはそのような既存のニューロンの外側または
境界線上に位置することになる。
【0063】トレーニング・システム500は新しいニ
ューロンを造るべきか否かを判断し、造るべきであると
判断した場合には、その新しいニューロンを造る。フィ
ーチャ・ベクトルFが、トレーニング入力と同じキャラ
クタに関連するどのような既存のニューロンによっても
包囲されていない(これは手段512によって判断され
る)時は、新しいニューロンが(手段514によって)
形成される。前述したように、手段514は、好ましく
は半径λのハイパー球である新しいニューロンを形成す
る。
【0064】トレーニング・システム500は手段51
4によって形成された新しいニューロンの各々を検査
し、必要な場合は、空間的に調整して、そのトレーニン
グ入力に関連するキャラクタと異なるキャラクタに関連
するいかなる既存のフィーチャ・ベクトルも包囲しない
ようにする。手段516、524及び526は、一時に
1つの既存フィーチャ・ベクトルを選択することによっ
て新しいニューロンを既存のフィーチャ・ベクトルの各
々と対比する検査のシーケンスを制御する。新しいニュ
ーロンがその時に選択されている既存フィーチャ・ベク
トルのキャラクタと異なるキャラクタに関連しており
(これは手段518によって判断される)、その新しい
ニューロンがその選択されている既存フィーチャ・ベク
トルを包囲している(これは式(4)を用いて、手段5
20によって判断される)場合は、手段524は、手段
510によって採用されたと同じ収縮用アルゴリズムの
1つによって新しいニューロンを空間的に調整する。ト
レーニング・システム500は、全ての既存フィーチャ
・ベクトルが処理されてしまうまで、新しいニューロン
の検査と調整を続ける。手段514によって形成された
ハイパー球形ニューロンは手段522によって調整され
るので、そのハイパー球形ニューロンは同じ長さの一時
的ニューロン軸を持った一時的ニューロンである。その
後トレーニングシステム500の処理は手段528へと
進み、次のトレーニング入力の選択が制御される。
【0065】推奨実施例においては、ある与えられた入
力について既存ニューロンを収縮させるステップ(1)
と、その同じ入力について形成された新しいニューロン
を形成し収縮させるステップ(2)を平行して行うこと
ができる。当業者には、これらの2つのステップが、ど
の順にでも、順番に実施できることは理解できよう。
【0066】推奨実施例では、そのトレーニング入力の
組中のトレーニング入力の全てが順次処理された後、手
段528はトレーニング・システム500の処理を手段
532(図6参照)に進める。1組のトレーニング入力
をそれに対応するフィーチャ・ベクトルで処理した後
は、フィーチャ空間にはフィーチャ・ベクトルとニュー
ロンの双方が配置される。その組のトレーニング入力を
一時に処理した後、幾つかのフィーチャ・ベクトルがど
のニューロンによっても包囲されていない場合があろ
う。これは、トレーニング処理中のある点において同じ
キャラクタのニューロンによって包囲されていたフィー
チャ・ベクトルが、それらのニューロンが異なるキャラ
クタに関連する後のフィーチャ・ベクトルを排除するよ
うに収縮された時に、それらのニューロンの外に追いや
られてしまう場合に生じる。そのような状況では、手段
532は処理を手段502に返して、その組全体のトレ
ーニング入力の処理を繰り返させる。この処理の繰り返
しの時に、以前に形成されたニューロンは保持される。
このトレーニング処理を繰り返すことにより、各繰り返
し毎に新しいニューロンが形成されて、最後には、各フ
ィーチャ・ベクトル全てが対応する適正な出力に関連す
る1またはそれ以上のニューロンによって包囲されるこ
とになり、また、どのフィーチャ・ベクトルも別の可能
な出力に関連するニューロンによって包囲されることは
ない。さらに、この繰り返しトレーニングは、最大繰り
返し数をトレーニング入力の総数に等しくしてある有限
時間に収斂させることができる。
【0067】トレーニング・システム500がその処理
を完了した後では、フィーチャ空間にはニューロンが配
置されており、このフィーチャ空間は特徴づけシステム
(分類システム)300または400で使用され、未知
の入力を複数の可能性のある出力の1つに分類する。
【0068】最適1軸収縮処理 前にも述べたように、推奨実施例においては、トレーニ
ング・システム500は、ある特定のフィーチャ・ベク
トルを排除するために、ハイパー楕円ニューロンの境界
を1本の軸に沿って最適に収縮させることにより空間的
に調整する。トレーニング・システム500の手段51
0と522がこの1軸収縮処理を、(1)収縮させるべ
き軸を識別し、(2)その軸についての新しい長さを計
算することによって行う。
【0069】トレーニング・システム500は収縮させ
るべき軸nを数9の式(9)に従って識別する。
【数9】 ここで、関数「argmax」は、0からk−1の任意
のiに対して角括弧中の式を最大にするiの値を生じる
ものであり、cj とbj はそれぞれ調整されるべきニュ
ーロンの中心点と軸の長さを規定し、fj はそのニュー
ロンによって排除されるべきフィーチャ・ベクトルを規
定する。
【0070】トレーニング・システム500は、数10
の式(10)によって軸nに対する新しい長さbn を計
算する。
【数10】 1軸収縮においては、他の全ての軸は元の長さbj を維
持する。
【0071】元のハイパー楕円ニューロンを式(9)と
(10)に従って1軸収縮処理すると、次の4つの条件
を満たす最大ハイパー・ボリュームVを持った調整され
たニューロンが得られる。 1.調整後のニューロンがハイパー楕円であること。 2.元のニューロンの中心点が調整後のニューロンの中
心点と同じであること。 3.排除されるべきフィーチャ・ベクトルが調整後のニ
ューロンの境界線上にあること。 4.調整後のニューロンの境界線内または境界線上の全
ての点が元のニューロンの境界線内または境界線上にあ
ること。 ハイパー・ボリュームVは数11の式(11)によって
表される。
【数11】 ここで、Ck はkの値によって決まる定数であり、kは
フィーチャ空間の次元であり、bj は調整後のニューロ
ンを規定する軸の長さである。従って、1軸収縮は、こ
の発明によるニューロンを最適調整するための第1の方
法を提供する。
【0072】比例収縮アルゴリズム 別の推奨実施例においては、トレーニング・システム5
00は、ある特定のフィーチャ・ベクトルを排除するた
めに、1またはそれ以上の軸に沿って比例関係をもって
収縮処理を実行することによりハイパー楕円形ニューロ
ンの境界線を空間的に調整する。トレーニング・システ
ム500の手段510と522は、軸の長さの変化Δb
j のベクトルΔBを数12の式(12)によって計算す
ることにより比例収縮処理を実行する。
【数12】 ここで、
【数13】
【数14】
【数15】
【数16】
【数17】
【数18】
【数19】
【数20】
【数21】 である。但し、|f0 −c0 |は(f0 −c0 )の絶対
値、‖F−C‖はFとCの間のベクトル差の大きさ、c
j とbj はそれぞれ調整されるべきニューロンの中心点
と軸長を表し、fj はそのニューロンから除外されるべ
きフィーチャ・ベクトルの要素、αとγj は定数とする
ことができる。調整後のニューロンについての新しい軸
長bj ' は、0からk−1のjに対して数22の式(2
2)によって計算される。
【数22】
【0073】比例収縮では、トレーニング・システム5
00は調整されるべきニューロンの軸上へのベクトルの
投影を求める。このベクトルはそのニューロンの中心か
ら、排除されるべきフィーチャ・ベクトルに向いてい
る。これらの投影は式(14)のコサインのベクトルに
よって表される。トレーニング・システム500は、軸
の長さとその軸上への投影の長さの間の関係に基づい
て、各ニューロン軸をどれだけ収縮させるべきかを求め
る。
【0074】推奨実施例では、式(12)中の定数αは
1未満に選ばれる。この場合、トレーニング・システム
500は繰り返し収縮処理を実行し、除外されるべきフ
ィーチャ・ベクトルが調整後のニューロンの外に出たこ
とが検出されるまで、ニューロンは複数の軸収縮ステッ
プにわたってゆっくりと調整される。推奨実施例におい
ては、パラメータγj は比例収縮によって最終的にフィ
ーチャ・ベクトルがニューロンの外に位置するようにす
るために、軸jの大きさの約0.001倍の正の値に設
定される。別の推奨実施例では、パラメータγj は、フ
ィーチャ・ベクトルからゆっくりと調整されるニューロ
ンの境界までの距離に基づく誤り関数とすることができ
る。その場合には、トレーニング・システム500はニ
ューロン調整用の比例積分制御器として動作することに
なる。
【0075】トレーニング入力の順序 この発明の推奨実施例では、ニューロンを生成するため
にトレーニング・システムによって順に使用されるトレ
ーニング入力のセットは入力の質に従って編成すること
ができる。トレーニング入力は質の低いトレーニング入
力に進む前に、より高い質の入力でトレーニングするよ
うに順序づけすることができる。このトレーニング入力
をその質によって順序づけることにより、ニューロンが
高質の入力に対応するフィーチャ・ベクトルを中心に集
まるようにすることができる。このような順序づけした
トレーニングにより、分類システムを規定するために必
要なニューロンの数を少なくして、分類システムの動作
性能を向上させることができる。さらに、このような順
序づけにより、分類システムによってなされる誤った分
類(誤分類)の数を減じ、また分類がなされない回数を
減じることができる。誤分類はある入力がある可能な出
力に対応しているにも係わらず、分類システムが別の可
能な出力を選択する時に生じる。また、分類が行われな
い状態とは、分類システムが既知の出力の1つを選択せ
ずに、出力が選択されなかったという結果を出力する状
態をいう。
【0076】図1(a)〜図1(d)には、正常な文
字”0”、崩れた”0”、正常な”7”及び崩れた”
7”を表すビットマップが示されている。正常な入力は
ノイズを伴わない理想的な入力である。崩れた入力はノ
イズのために正常な入力から外れた入力である。崩れた
入力は制御されたノイズによっても、実際の予測不能な
ノイズによっても生じうる。
【0077】推奨実施例では、この発明のトレーニング
・システムは3つの異なる質のレベルのトレーニング入
力でトレーニングを行うことができる。トレーニング入
力の第1のレベルは、図1(a)及び図1(c)に示す
ような正常な入力である。トレーニング入力の第2のレ
ベルは制御されたノイズの入力で、正常な入力に対し
て、ある規定されたノイズ関数あるいは異なる特性を持
った信号を、独立してあるいは組み合わせて付加したこ
とによって生成されるタイプの崩れた入力である。トレ
ーニング入力の第3のレベルは実際のノイズの入力であ
り、文字の場合は、既知のキャラクタの光学的に取り出
した画像である第2のタイプの崩れた入力である。この
ような崩れた入力は現実の予測不能なノイズを持ってい
る。図1(b)と図1(d)が、現れ得る制御されたノ
イズの入力と実際のノイズの入力の例である。推奨実施
例では、正常な入力は最高の質を有し、制御されたノイ
ズの入力及び実際のノイズの入力の質は順次低下したも
のである。制御されたノイズ関数と供給される信号に応
じて、ある特定の制御されたノイズの入力の質は、ある
特定の実際のノイズの入力の質よりも高くもなるし、低
くもなる。
【0078】それが制御されたノイズの入力であれ、実
際のノイズの入力であれ、ある特定の崩れた入力の質
は、その崩れた入力を同じ既知のキャラクタに対応する
正常な入力と比較することにより知ることができる。推
奨実施例では、質の測定はこれら2つの入力間のピクセ
ル数の差に基づいて行うことができる。別の推奨実施例
では、質の測定はグリッド・フィーチャ(Grid f
eature)測定とかアダマール・フィーチャ測定等
の通常のフィーチャ測定法に基づいて行うことができ
る。
【0079】推奨実施例では、この発明のトレーニング
・システムは最初正常入力でトレーニングを行い、次い
で、その後、崩れた制御されたノイズの入力及び実際の
ノイズの入力でトレーニングを行う。この推奨実施例で
は、図1(a)と図1(c)に対応する入力でのトレー
ニングは、図1(b)及び図1(d)によるトレーニン
グに先行する。別の推奨実施例では、トレーニング・シ
ステムは、次の既知のキャラクタに進む前に、同じ既知
のキャラクタの全ての入力でトレーニングを行い、各既
知のキャラクタのトレーニング入力は質に応じて内部的
に編成される。この推奨実施例においては、図1(a)
に対応する入力でのトレーニングは図1(b)によるト
レーニングに先行し、図1(c)によるトレーニングは
図1(d)によるトレーニングに先行する。この技術分
野に係わる者には、入力の全てによるトレーニングの正
確な全体的なシーケンスの方が、各異なる既知のキャラ
クタについて質に応じて順序づけする方より重要性は低
いことは理解されよう。
【0080】ニューロンの改善 この発明のトレーニング・システムがトレーニングを終
了した後は、フィーチャ空間にはフィーチャ・ベクトル
を包囲するニューロンが配置されている。そのフィーチ
ャ・ベクトルの各1つが各個別のトレーニング入力に対
応している。各ニューロンは1またはそれ以上のフィー
チャ・ベクトル、即ち、そのニューロンを造りだすため
に用いられたそのニューロンの中心に位置するフィーチ
ャ・ベクトルと、恐らくは、同じ既知のキャラクタに関
連する入力に対応するフィーチャ・ベクトルとを包囲し
ている。
【0081】順次トレーニングに使用するトレーニング
入力の質に応じた順序付けによっては、ある特定のニュ
ーロンがより効率的な態様で、あるいはより低い効率の
態様でフィーチャ・ベクトルを包囲する場合がある。例
えば、ある特定のニューロンを造りだすために用いたフ
ィーチャ・ベクトルが相当崩れた入力に対応している場
合は、そのフィーチャ・ベクトルはそのニューロンの中
心に位置するであろう。その同じニューロンはまた、正
常な入力及び崩れの程度が少ない入力に対応する他のフ
ィーチャ・ベクトルを包囲している可能性もある。この
ようなニューロンはその組のフィーチャ・ベクトルを包
囲するための最も効率的なニューロンでない可能性があ
る。そのようなニューロンを用いる分類システムは、も
っと効率的なニューロンを用いるシステムに較べて、誤
分類や分類もれなどが多くなろう。
【0082】この発明の改善システムはトレーニング中
に生成されたニューロンをより効率の高いニューロンを
形成するように空間的に調整する。この改善システムは
ある特定のニューロンによって包囲されたフィーチャ・
ベクトルの空間的分布の特徴を記述し、そのニューロン
を空間的に調整する。このような空間的調整処理にはニ
ューロンをそのニューロンのその時の中心点からそれら
のフィーチャ・ベクトルの空間的分布の平均値に移動さ
せるという処理が含まれている。ニューロンの移動後
に、同じ出力キャラクタのフィーチャ・ベクトルがその
ニューロンによって包囲されるように、かつ、異なる出
力キャラクタのフィーチャ・ベクトルが排除されるよう
に、軸の長さを調整することができる。
【0083】別の実施例では、この改善システムは、同
じフィーチャ・ベクトルをより効率的に包囲する1乃至
それ以上のニューロンを造るために、同じキャラクタの
2またはそれ以上のニューロンを空間的に調整する。こ
の場合、1つの元のニューロンからのフィーチャ・ベク
トルが別のより効率的なニューロンによって包囲され
る。例えば、改善前は、第1のニューロンがフィーチャ
・ベクトルF1 、F2 及びF3 を包囲しており、第2の
ニューロンがフィーチャ・ベクトルF4 、F5 、F6
びF7 を包囲していると仮定すると、改善後、フィーチ
ャ・ベクトルF1、F2 、F3 及びF4 は例えば、第3
のニューロンによって包囲され、フィーチャ・ベクトル
5 、F6 及びF7 が第4のニューロンによって包囲さ
れ、これらの第3と第4のニューロンの中心と軸の長さ
が、第1と第2のニューロンのどれとも異なるというこ
とも生じる。
【0084】クラスタ分類器を有する分類システム この発明の第1の推奨実施例では、分類システムは入力
を、分類されるべき各入力について、フィーチャ・ベク
トルをフィーチャ空間中の全てのニューロンと比較する
ことによって、1組の可能な出力中の1つに分類する。
このような分類システムが図3と図4に示されている。
【0085】図7にはこの発明の第2の推奨実施例であ
る分類システム600が示されている。このシステム6
00では、入力はニューロンとクラスタ分類器を用いて
1組の可能な出力の1つに分類される。分類システム6
00は上位レベルの分類器602と2以上のクラスタ分
類器604、606、・・・、608を含んでいる。上
位レベル分類器602は入力を適当な入力のクラスタに
分類する。例えば、分類システム600によってキャラ
クタを分類する場合、上位レベル分類器602は光学的
に取り出したキャラクタに対応する入力ビットマップを
キャラクタのクラスタに分類する。
【0086】共に類別(クラスタ)されるキャラクタ
は同様のビットマップによって表されるもの、即ち、換
言すれば、フィーチャ空間中で互いに近接したフィーチ
ャ・ベクトルに関連するキャラクタである。例えば、第
1のキャラクタのクラスタはキャラクタD、PNR及び
Bに対応する。第2のキャラクタ・クラスタはキャラク
タO、C、D、U及びQに対応する。また第3のキャラ
クタ・クラスタは例えば、キャラクタZのようなただ1
つのキャラクタに対応する。ある特定のキャラクタが1
またはそれ以上のキャラクタ・クラスタに属している場
合もあり得る。この例の場合では、キャラクタDはその
ビットマップが第1と第3のキャラクタ・クラスタの
ットマップに類似しているために、両方のクラスタに
している。
【0087】推奨実施例では、トレーニングを行う前
に、キャラクタがコンフュージョン・マトリクスに基づ
いて類別される。コンフュージョン・マトリクスは、考
えられるキャラクタ対全てについて、1つのキャラクタ
が他のキャラクタと混同される可能性を表す。一般的に
言って、1つのキャラクタのフィーチャ・ベクトルが他
のキャラクタのフィーチャ・ベクトル近ければ近い
程、これら2つのキャラクタが混同される可能性が高く
なる。例えば、キャラクタDはそのフィーチャ・ベクト
ルがMに対するフィーチャ・ベクトルよりもOに対する
フィーチャ・ベクトルに近ければ、Mに対するよりも、
Oに対して混同される可能性が高いことになる。
【0088】推奨実施例では、キャラクタのクラスタリ
ングは、通常のKミーンズ(K−means)クラスタ
リング・アルゴリズムに基づいて行われ、これによれ
ば、各々がフィーチャ空間中の点であるテンプレートの
組が各キャラクタに対して指定される。Kミーンズ・ク
ラスタリング・アルゴリズムは、ある特定のキャラクタ
のテンプレートの位置を、そのキャラクタに対応するト
レーニング入力の全てのものに対するフィーチャ・ベク
トルの位置を分析することによって、フィーチャ空間中
のどの位置にするかを決める。好ましくは、テンプレー
トは、関連するフィーチャ・ベクトルのクラスタの演算
手段の近くに配置する。
【0089】推奨実施例においては、各キャラクタに4
つのテンプレートを用いることができ、クラスタ当たり
のキャラクタの数はほぼ同数である。例えば、アルファ
ベットの26の大文字、26の小文字、10個の数字、
及び記号「&」と「#」に対応する64個のキャラクタ
を分類する時、4×64、即ち256個のテンプレート
を用いてほぼ同数のキャラクタからなる7つの異なるク
ラスタを形成することができる。
【0090】キャラクタをクラスタリングすることによ
り、上位レベル分類器602は、各入力に対する適切な
クラスタを速く且つ正確に求める分類アルゴリズムを実
行に移すことができる。推奨実施例では、上位レベル分
類器602はニューロンをベースにした分類アルゴリズ
ムを実行する。別の推奨実施例では、他の通常の非ニュ
ーラル分類アルゴリズムが上位レベル分類器602によ
って実行される。上位レベル分類器602は特定の入力
に対して適切なクラスタを選択し、適切なクラスタ分
器604、606、・・・、608で続いて処理がなさ
れるようにする。各クラスタ分類器はキャラクタ・クラ
タの中の1つのみに関連して設けられており、逆に、
1つのキャラクタ・クラスタはただ1つのクラスタ分
器に関係している。
【0091】1つの推奨実施例においては、各クラス
類器はそのキャラクタ・クラスタ特有の、あるいはキ
ャラクタ・クラスタ総数の1つのサブセットのみによっ
て共有される分類アルゴリズムを実施する。従って、各
クラスタ分類器はそのキャラクタ・クラスタに特有のフ
ィーチャ空間に存在するニューロンを用いる。例えば、
P、R、Bクラスタのためのトレーニングには、グリッ
フィーチャのある特定の組を用い、一方、O、C、
D、U、Qクラスタのトレーニングにはアダマール
ィーチャの別のセットを用いることができる。その場
合、異なるトレーニング手順が異なるクラスタ分類器の
各々に対して採用され、関連するクラスタのキャラクタ
に対応する入力のみが、異なるトレーニング手順の各々
に対して用いられる。
【0092】この発明の第3の推奨実施例では、図7に
示す分類システムは入力を、ニューロンとクラスタ分
器を用いて1組の可能な出力の1つに分類する。この第
3の実施例においては、上位レベルの分類器602は、
フィーチャ空間中で、分類されるべきその時の入力に対
するフィーチャ・ベクトルに最も近いテンプレートを識
別する。識別されたテンプレートは1またはそれ以上の
キャラクタ・クラスタに属するある特定のキャラクタに
関連付けられる。上位レベル分類器602は、最も近い
テンプレートのキャラクタ・クラスタに関係するクラス
タ分類器604、606、・・・、608のみに処理が
継続されるようにする。ある特定のキャラクタは2以上
のキャラクタ・クラスタに属する場合があるので、上位
レベルの分類器602によって2以上のクラスタ分類器
が処理のために選択されることもある。
【0093】第4の推奨実施例においては、各クラス
類器には、ある与えられた入力について処理されるべ
きニューロンを識別するデシジョン・ツリー(決定木構
造)を設けることができる。分類に先立って、ある特定
のクラスタ分類器に対するフィーチャ・ベクトル空間が
フィーチャ空間におけるフィーチャ・ベクトル及び/ま
たはニューロンの分布に従って領域に分割される。各領
域は1またはそれ以上のニューロンを含み、各ニューロ
ンは2以上の領域に属することがあり、2またはそれ以
上の領域が互いに重なりあう可能性がある。上位レベル
分類器602は、どの(単数または複数の)フィーチャ
空間領域にその時の入力に対するフィーチャ・ベクトル
が有るかを判断し、また、選択されたクラスタ分類器が
その(1または複数の)領域に関連するニューロンのみ
を処理するようにすることができる。
【0094】この技術分野の者には理解されるように、
この発明による分類システムの幾つかの実施例ではクラ
タ分類器を用いずに、デシジョン・ツリーを用いるこ
とができるし、あるものではデシジョン・ツリーを用い
ずにクラスタ分類器を用いることができ、またあるもの
では両方を用いることができる。さらに、あるもので
は、その両方を用いない場合もある。さらに、デシジョ
ン・ツリー及びクラスタ分類器を用いると、処理時間が
短縮されるので、この発明の分類システムの効率が向上
する。
【0095】この技術分野の者には理解されるように、
この発明の分類システムは直列形式または並列形式のい
ずれにも構成できる。例えば、ある推奨実施例では、グ
リッド・フィーチャに基づく第1のキャラクタ分類器を
アダマール・フィーチャに基づく第2のキャラクタ分類
器と直列に配列することができる。その場合、第1の分
類器は既知のキャラクタの1つとしてのある特定のビッ
トマップ入力を分類するか、あるいはその入力を分類し
ない。第1の分類器がその入力を分類しない場合は、第
2の分類器がその入力の分類を試みる。
【0096】別の実施例では、2以上の異なる分類器が
並列に配列される。その場合、異なる各分類器の出力を
比較することにより適切な出力を選択するために、ボー
ティング(voting)法を採用することができる。
【0097】推奨実施例においては、この発明の分類シ
ステムとトレーニング・システムは、各楕円処理ユニッ
トが分類処理中別々のコンピュータ・プロセッサで動作
する、並列処理を行う。但し、この技術分野の者には理
解されるように、これらのシステムは直列処理を行うよ
うにすることもできる。ある推奨実施例では、分類シス
テムとトレーニング・システムは、縮小命令セットコン
ピュータ(reduced instrcution
set computer, RISC)プロセッサ、
例えば、サン・マイクロシステム社(Sun Micr
osystems)から市販されているSPARCst
ation 2で動作するSPARC2プロセッサにあ
るようにすることができる。
【0098】この技術分野の者には理解できるように、
キャラクタ画像以外の入力もこの発明の分類システムに
よって分類できる。一般的に言うと、どのような入力で
も2以上の可能な出力からなる組の中の1つの出力とし
て分類でき、その場合、非選択結果(選択が行われなか
ったという結果)も可能な出力の1つである。例えば、
この発明の分類システムは人間を、その顔、指紋あるい
は耳たぶのようなものの画像に基づいてでも識別するた
めに用いることができるし、また、人の声の録音からそ
の人を識別することにも使用できる。
【0099】さらに、この発明の特徴を説明するために
記述し図示した装置の詳細、材料あるいは構成等に対す
る種々の変形が、この発明の原理及び範囲を逸脱するこ
となく、この技術分野の者には可能である。
【図面の簡単な説明】
【図1】図1(a)〜図1(d)はそれぞれ、正常な文
字「0」、崩れた文字「0」、正常な文字「7」及び崩
れた文字「7」のビットマップ表示である。
【図2】文字A、B、Cの画像を分類するためにこの発
明の分類システムが用いることのできる8個の楕円形ニ
ューロンがある二次元フィーチャ空間を示す。
【図3】この発明の推奨実施例に従って入力を分類する
ための処理フローダイアグラムである。
【図4】図3の分類システムの一部の概略図である。
【図5】図3の分類システムで使用されるニューロンを
発生するための処理フローダイアグラムの一部である。
【図6】図3の分類システムで使用されるニューロンを
発生するための処理フローダイアグラムの一部であっ
て、図5のフローダイアグラムに接続するものである。
【図7】この発明の推奨実施例に従って入力を分類する
ためにクラスタ分類器を用いる分類システムの概略図で
ある。
【符号の説明】
302 フィーチャ・ベクトル発生手段 304 距離測定手段 306 選択手段 310 決定手段 312 ボーティング手段 316 識別手段 314、318 選択手段
───────────────────────────────────────────────────── フロントページの続き (73)特許権者 593135480 55 Glenlake Parkwa y,N.E,.Atlanta,Geo rgia 30328,United St atesb of America (72)発明者 チー ピン リー アメリカ合衆国 コネテイカツト州 06810 ダンベリ ナンバー・34 コー ルピツト・ヒル・ロード 124 (56)参考文献 特開 平4−112354(JP,A) 特開 昭60−126784(JP,A) 特開 平3−296880(JP,A) 特開 平4−84281(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 - 7/20

Claims (26)

    (57)【特許請求の範囲】
  1. 【請求項1】 ニューラル・ネットワーク型の入力分類
    装置において、捕捉画像等を表す入力を既知の画像等を
    表す複数の可能な出力の1つに分類する分類方法であっ
    て; (a)上記入力を表すフィーチャ・ベクトルを発生する
    ステップと; (b)上記フィーチャ・ベクトルから、各々が上記複数
    の可能な出力の1つに関連する複数のニューロンの各々
    の中心までの距離の値を計算するステップと; (c)上記複数のニューロンの中で上記フィーチャ・ベ
    クトルを包囲する各ニューロンを上記距離の値に従って
    選択するステップと; (d)上記複数の可能な出力の各々に対して、上記各可
    能な出力に関連する上記選択されたニューロンの数の関
    数であるボートを求めるステップと; (e)ある1つの可能な出力に対する1つのボートが他
    の全ての可能な出力に対する他の全ての各ボートよりも
    大きい場合に、その1つの可能な出力を上記入力に対応
    するものとして選択するステップと; (f)可能な出力に対するいずれのボートも他の全ての
    可能な出力に対する他の全ての各ボートより大きくない
    場合に、上記複数のニューロンの中で最小の距離の値を
    持つ1つのニューロンを識別するステップと; (g)上記最小の距離の値がある特定の値よりも小さい
    場合に、上記識別されたニューロンに関連する可能な出
    力を上記入力に対応するものとして選択するステップ
    と; を含む分類方法。
  2. 【請求項2】 上記ステップ(d)が、上記複数の可能
    な出力の各々に対して、上記各可能な出力に関連する上
    記選択されたニューロンの数に等しいボートを求めるス
    テップからなるものである、請求項1に記載の分類方
    法。
  3. 【請求項3】 捕捉画像等を表す入力を既知の画像等を
    表す複数の可能な出力の1つに分類するニューラル・ネ
    ットワーク型の入力分類装置において、ニューラル・ネ
    ットワークをトレーニングするトレーニング方法であっ
    て; (a)各々が第1の可能な出力に対応する複数のトレー
    ニング入力の各々と正規の入力との差を求めるステップ
    と; (b)第1のトレーニング入力が第2のトレーニング入
    力よりも上記正規の入力との差が小さいものである場合
    に、上記第2のトレーニング入力を用いてニューラル・
    ネットワークをトレーニングする前に上記第1のトレー
    ニング入力を用いて上記ニューラル・ネットワークをト
    レーニングするステップと; を含むトレーニング方法。
  4. 【請求項4】 上記複数のトレーニング入力キャラク
    タを表すものであり、上記ステップ(a)は上記キャラ
    クタを表す上記複数のトレーニング入力の各々と上記正
    規の入力との差を求めるステップからなるものである
    請求項3に記載のトレーニング方法。
  5. 【請求項5】 上記ステップ(b)は既存のレベルの上
    記ニューラル・ネットワークにニューロンを追加するス
    テップを含むものであり;このニューロンは、上記第1
    のトレーニング入力に対応し、上記第1の可能な出力に
    関連し、種々の長さの2つ以上のニューロン軸によって
    規定される境界を有するものである、請求項3に記載の
    トレーニング方法。
  6. 【請求項6】 上記ステップ(b)は既存のレベルの上
    記ニューラル・ネットワークにニューロンを追加するス
    テップを含むものであり;このニューロンは、上記第1
    のトレーニング入力に対応し、上記第1の可能な出力に
    関連するものであり; さらに、(c)上記第1の可能な出力とは異なる第2の
    可能な出力に対応する少なくとも1つのトレーニング入
    力に従って上記ニューロンを空間的に調整するステッ
    含む、請求項3に記載のトレーニング方法。
  7. 【請求項7】 上記ステップ(c)は、上記ニューロン
    を空間的に調整して、種々の長さの2つ以上のニューロ
    ン軸によって規定される境界を有する調整されたニュー
    ロンを生成するステップからなるものである、請求項6
    に記載のトレーニング方法。
  8. 【請求項8】 上記第1のトレーニング入力は上記正規
    の入力を表すものであり、上記ステップ(b)は、上記
    第2のトレーニング入力を用いて上記ニューラル・ネッ
    トワークをトレーニングする前に上記正規の入力を用い
    て上記ニューラル・ネットワークをトレーニングするス
    テップからなるものである、請求項3に記載のトレーニ
    ング方法。
  9. 【請求項9】 上記第2のトレーニング入力実際の入
    力を表すものであり、上記ステップ(b)は、上記実際
    の入力を用いて上記ニューラル・ネットワークをトレー
    ニングする前に上記第1のトレーニング入力を用いて上
    記ニューラル・ネットワークをトレーニングするステッ
    プからなるものである、請求項3に記載のトレーニング
    方法。
  10. 【請求項10】 上記第1のトレーニング入力上記第
    2のトレーニング入力よりも高い信号対雑音比を有する
    ものであり、上記ステップ(b)は、低い信号対雑音比
    を有する上記第2のトレーニング入力を用いて上記ニュ
    ーラル・ネットワークをトレーニングする前に高い信号
    対雑音比を有する上記第1のトレーニング入力を用いて
    上記ニューラル・ネットワークをトレーニングするステ
    ップからなるものである、請求項3に記載のトレーニン
    グ方法。
  11. 【請求項11】 捕捉画像等を表す入力を既知の画像等
    を表す複数の可能な出力の1つに分類するニューラル・
    ネットワーク型の入力分類装置において、入力を表す複
    数のフィーチャ・ベクトルを包囲するニューロンを調整
    する調整方法であって; (a)複数のフィーチャ・ベクトルの空間分布を特徴記
    述するステップと、 (b)上記複数のフィーチャ・ベクトルを包囲するニュ
    ーロンを上記ステップ(a)の特徴記述に従って空間的
    に調整するステップと、 を含み; 上記ニューロンは中心点を有し、 上記ステップ(b)は上記ニューロンの上記中心点を上
    記空間分布の平均位置に向けて移動させるステップを含
    むものである、調 整方法。
  12. 【請求項12】 上記ニューロンが、種々の長さの2
    以上のニューロン軸によって規定される境界を有する
    のである、請求項11に記載の調整方法。
  13. 【請求項13】 上記移動したニューロン以上の
    ニューロン軸によって規定される境界を有しかつ上記
    数のフィーチャ・ベクトルの全てを包囲している訳では
    なく、上記ステップ(b)は、上記ニューロン軸の少な
    くとも1つの長さを変更して上記複数のフィーチャ・ベ
    クトルの全てが包囲されるようにするステップを含む
    のである、請求項11に記載の調整方法。
  14. 【請求項14】 入力を表すフィーチャ・ベクトルを発
    生する発生手段と; 上記フィーチャ・ベクトルから、各々が複数の可能な出
    力の1つに関連する複数のニューロンの各々の中心まで
    の距離の値を計算する計算手段と; 上記複数のニューロンの中で上記フィーチャ・ベクトル
    を包囲する各ニューロンを上記距離の値に従って選択す
    る選択手段と; 上記複数の可能な出力の各々に対して、上記各可能な出
    力に関連する上記選択されたニューロンの数の関数であ
    るボートを求める決定手段と; ある1つの可能な出力に対する1つのボートが他の全て
    の可能な出力に対する他の全ての各ボートよりも大きい
    場合に、その1つの可能な出力を上記入力に対応するも
    のとして選択するボーティング手段と; 能な出力に対するいずれのボート他の全ての可能な
    出力に対する他の全ての各ボートより大きくない場合
    、上記複数のニューロンの中で最小距離の値を持つ
    1つのニューロンを識別する識別手段と; 上記最小距離の値がある特定の値よりも小さい場合
    、上記識別されたニューロンに関連する可能な出力を
    上記入力に対応するものとして選択する距離手段と; を具える、入力を複数の可能な出力の1つに分類する分
    類装置。
  15. 【請求項15】 上記決定手段が、上記複数の可能な出
    力の各々に対して、上記各可能な出力に関連する上記選
    択されたニューロンの数に等しいボートを求める手段か
    らなるものである、請求項14に記載の分類装置。
  16. 【請求項16】 各々が第1の可能な出力に対応する複
    数のトレーニング入力の各々と正規の入力との差を求め
    る決定手段と;第1のトレーニング入力が第2のトレーニング入力より
    も上記正規の入力との差が小さいものである場合に、上
    記第2のトレーニング入力を用いてニューラル・ネット
    ワークをトレーニングする前に上記第1のトレーニング
    入力を用いて上記ニューラル・ネットワークをトレーニ
    ングするトレーニング手段と;具える、ニューラル・ネットワークのトレーニング装
    置。
  17. 【請求項17】 上記複数のトレーニング入力キャラ
    クタを表すものであり、上記決定手段は上記キャラクタ
    を表す上記複数のトレーニング入力の各々と上記正規の
    入力との差を求める手段からなるものである、請求項
    に記載のトレーニング装置。
  18. 【請求項18】 上記トレーニング手段は既存のレベル
    の上記ニューラル・ネットワークにニューロンを追加す
    る手段を具えるものであり;このニューロンは、上記第
    1のトレーニング入力に対応し、上記第1の可能な出力
    に関連し、種々の長さの2つ以上のニューロン軸によっ
    て規定される境界を有するものである、請求項16に記
    載のトレーニング装置。
  19. 【請求項19】 上記トレーニング手段は既存のレベル
    の上記ニューラル・ネットワークにニューロンを追加す
    る手段を具えるものであり;このニューロンは、上記第
    1のトレーニング入力に対応し、上記第1の可能な出力
    に関連するものであり; さらに、上記第1の可能な出力とは異なる第2の可能な
    出力に対応する少なくとも1つのトレーニング入力に
    って上記ニューロンを空間的に調整する調整手段を具え
    、請求項16に記載のトレーニング装置。
  20. 【請求項20】 上記調整手段は、上記ニューロンを空
    間的に調整して、種々の長さの2つ以上のニューロン軸
    によって規定される境界を有する調整されたニューロン
    を生成する手段からなるものである、請求項19に記載
    のトレーニング装置。
  21. 【請求項21】 上記第1のトレーニング入力は上記
    規の入力を表すものであり、上記トレーニング手段は、
    上記第2のトレーニング入力を用いて上記ニューラル・
    ネットワークをトレーニングする前に上記正規の入力を
    用いて上記ニューラル・ネットワークをトレーニングす
    る手段からなるものである、請求項16に記載のトレー
    ニング装置。
  22. 【請求項22】 上記第2のトレーニング入力実際の
    入力を表すものであり、上記トレーニング手段は、上記
    実際の入力を用いて上記ニューラル・ネットワークをト
    レーニングする前に上記第1のトレーニング入力を用い
    て上記ニューラル・ネットワークをトレーニングする手
    段からなるものである、請求項16に記載のトレーニン
    グ装置。
  23. 【請求項23】 上記第1のトレーニング入力上記第
    2のトレーニング入力よりも高い信号対雑音比を有する
    ものであり、上記トレーニング手段は、低い信号対雑音
    比を有する上記第2のトレーニング入力を用いて上記ニ
    ューラル・ネットワークをトレーニングする前に高い信
    号対雑音比を有する上記第1のトレーニング入力を用い
    て上記ニューラル・ネットワークをトレーニングする手
    段からなるものである、請求項16に記載のトレーニン
    グ装置。
  24. 【請求項24】 複数のフィーチャ・ベクトルの空間分
    布を特徴記述する特徴記述手段と 上記複数のフィーチャ・ベクトルを包囲するニューロン
    を上記特徴記述手段による特徴記述に従って空間的に調
    整する調整手段と具え; 上記ニューロンは中心点を持ち、 上記調整手段は上記ニューロンの上記中心点を上記空間
    分布の平均位置に向け移動させるものである、 複数のフィーチャ・ベクトルを包囲するニューロンを調
    整する調整装置。
  25. 【請求項25】 上記ニューロンが、種々の長さの2
    以上のニューロン軸によって規定される境界を有する
    のである、請求項24に記載の調整装置。
  26. 【請求項26】 上記移動したニューロン以上の
    ニューロン軸によって規定される境界を有しかつ上記
    数のフィーチャ・ベクトルの全てを包囲している訳では
    なく、上記調整手段上記ニューロン軸の少なくとも1
    つの長さを変更して上記複数のフィーチャ・ベクトルの
    全てが包囲されるようにするものである、請求項24
    記載の調整装置。
JP5174752A 1992-06-19 1993-06-21 入力分類方法、トレーニング方法、調整方法、及び装置 Expired - Fee Related JP2925435B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US90112392A 1992-06-19 1992-06-19
US901123 1992-06-19

Publications (2)

Publication Number Publication Date
JPH06176161A JPH06176161A (ja) 1994-06-24
JP2925435B2 true JP2925435B2 (ja) 1999-07-28

Family

ID=25413634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5174752A Expired - Fee Related JP2925435B2 (ja) 1992-06-19 1993-06-21 入力分類方法、トレーニング方法、調整方法、及び装置

Country Status (6)

Country Link
US (4) US5452399A (ja)
EP (3) EP0944021B1 (ja)
JP (1) JP2925435B2 (ja)
AT (1) ATE279758T1 (ja)
DE (3) DE69333664T2 (ja)
ES (1) ES2150431T3 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69333664T2 (de) * 1992-06-19 2005-11-17 United Parcel Service Of America, Inc. Verfahren und Gerät zur Einstellung eines Neurons
EP0612035B1 (en) * 1993-02-19 2002-01-30 International Business Machines Corporation Neural net for the comparison of image pattern features
US6081766A (en) * 1993-05-21 2000-06-27 Axys Pharmaceuticals, Inc. Machine-learning approach to modeling biological activity for molecular design and to modeling other characteristics
JP3630734B2 (ja) * 1994-10-28 2005-03-23 キヤノン株式会社 情報処理方法
US6466926B1 (en) * 1996-03-06 2002-10-15 Hewlett-Packard Company Method for optimizing a recognition dictionary to distinguish between patterns that are difficult to distinguish
JPH10143613A (ja) 1996-10-30 1998-05-29 Hewlett Packard Co <Hp> パタン認識方法
US6049793A (en) * 1996-11-15 2000-04-11 Tomita; Kenichi System for building an artificial neural network
US6671404B1 (en) 1997-02-14 2003-12-30 Hewlett-Packard Development Company, L.P. Method and apparatus for recognizing patterns
US5966460A (en) * 1997-03-03 1999-10-12 Xerox Corporation On-line learning for neural net-based character recognition systems
US6336109B2 (en) * 1997-04-15 2002-01-01 Cerebrus Solutions Limited Method and apparatus for inducing rules from data classifiers
US6061472A (en) * 1997-06-06 2000-05-09 Microsoft Corporation Method and mechanism to reduce handwriting recognizer errors using multiple decision trees
US6134344A (en) * 1997-06-26 2000-10-17 Lucent Technologies Inc. Method and apparatus for improving the efficiency of support vector machines
US6122399A (en) * 1997-09-04 2000-09-19 Ncr Corporation Pattern recognition constraint network
DE69802372T4 (de) 1998-02-05 2003-01-23 Intellix As Frederiksberg Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk
AU761730B2 (en) * 1998-12-03 2003-06-05 Samsung Electronics Co., Ltd. Subscriber identification system
US6366897B1 (en) 1999-07-26 2002-04-02 Hnc Software, Inc. Cortronic neural networks with distributed processing
US6694301B1 (en) * 2000-03-31 2004-02-17 Microsoft Corporation Goal-oriented clustering
US20040042665A1 (en) * 2002-08-30 2004-03-04 Lockheed Martin Corporation Method and computer program product for automatically establishing a classifiction system architecture
US20040186815A1 (en) * 2002-12-20 2004-09-23 Stockfisch Thomas P. Method for accommodating missing descriptor and property data while training neural network models
US7493295B2 (en) * 2003-01-17 2009-02-17 Francisco J. Ayala Method, system and computer program for developing cortical algorithms
JP2007504576A (ja) * 2003-01-17 2007-03-01 アヤラ,フランシスコ,ジェイ 人工知能を開発するためのシステム及び方法
US8260730B2 (en) * 2005-03-14 2012-09-04 Hewlett-Packard Development Company, L.P. Method of, and system for, classification count adjustment
WO2007056803A1 (en) * 2005-11-15 2007-05-24 Bernadette Garner Method for training neural networks
US8175394B2 (en) * 2006-09-08 2012-05-08 Google Inc. Shape clustering in post optical character recognition processing
CN101510262B (zh) * 2009-03-17 2012-05-23 江苏大学 一种钢中析出粒子的自动测量及其形态分类方法
US9041566B2 (en) * 2013-08-30 2015-05-26 International Business Machines Corporation Lossless compression of the enumeration space of founder line crosses
CN107239786B (zh) 2016-03-29 2022-01-11 阿里巴巴集团控股有限公司 一种字符识别方法和装置
CN106935035B (zh) * 2017-04-07 2019-07-23 西安电子科技大学 基于ssd神经网络的违章停车车辆实时检测方法
RU2693916C1 (ru) 2018-04-09 2019-07-05 Общество с ограниченной ответственностью "Аби Продакшн" Распознавание символов с использованием иерархической классификации
CN110533018B (zh) * 2018-05-23 2022-02-25 北京国双科技有限公司 一种图像的分类方法及装置
US10834106B2 (en) 2018-10-03 2020-11-10 At&T Intellectual Property I, L.P. Network security event detection via normalized distance based clustering
US11227176B2 (en) * 2019-05-16 2022-01-18 Bank Of Montreal Deep-learning-based system and process for image recognition
RU2723293C1 (ru) 2019-08-29 2020-06-09 Общество с ограниченной ответственностью "Аби Продакшн" Идентификация полей и таблиц в документах с помощью нейронных сетей с использованием глобального контекста документа
RU2721189C1 (ru) 2019-08-29 2020-05-18 Общество с ограниченной ответственностью "Аби Продакшн" Детектирование разделов таблиц в документах нейронными сетями с использованием глобального контекста документа
CN110866565B (zh) * 2019-11-26 2022-06-24 重庆邮电大学 一种基于卷积神经网络的多分支图像分类方法
RU2760471C1 (ru) 2020-12-17 2021-11-25 АБИ Девелопмент Инк. Способы и системы идентификации полей в документе

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5035379B1 (ja) * 1970-05-25 1975-11-15
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
US4044243A (en) * 1976-07-23 1977-08-23 Nestor Associates Information processing system
US4326259A (en) * 1980-03-27 1982-04-20 Nestor Associates Self organizing general pattern class separator and identifier
US4599698A (en) * 1983-05-02 1986-07-08 United Technologies Corporation Aircraft trim actuator shutdown monitor system and method
JPH0638276B2 (ja) * 1983-12-14 1994-05-18 株式会社日立製作所 パターン識別装置
US4599693A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning system
US5054093A (en) * 1985-09-12 1991-10-01 Cooper Leon N Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
JPS62133589A (ja) * 1985-12-05 1987-06-16 Mitsubishi Heavy Ind Ltd パタ−ン記憶識別装置
JPH0233687A (ja) * 1988-07-22 1990-02-02 Nec Corp マルチフォント文字認識用ニューラルネットワーク学習方法
JPH0735591B2 (ja) * 1988-07-27 1995-04-19 三菱重工業株式会社 酸洗前処理装置
JPH0242392A (ja) * 1988-08-03 1990-02-13 Central Res Inst Of Electric Power Ind 原子炉容器の耐震支持構造
US5046020A (en) * 1988-12-16 1991-09-03 E. I. Du Pont De Nemours And Company Distributed parallel processing network wherein the connection weights are generated using stiff differential equations
US5010512A (en) * 1989-01-12 1991-04-23 International Business Machines Corp. Neural network having an associative memory that learns by example
DE69031842T2 (de) * 1989-02-20 1998-04-16 Fujitsu Ltd Lernsystem und Lernverfahren für eine Datenverarbeitungsvorrichtung
US4954963A (en) * 1989-03-02 1990-09-04 Texas Instruments Incorporated Neural network and system
US5293454A (en) * 1989-03-08 1994-03-08 Sharp Kabushiki Kaisha Learning method of neural network
JPH0821065B2 (ja) * 1989-03-13 1996-03-04 シャープ株式会社 文字認識装置
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
JPH02242392A (ja) * 1989-03-15 1990-09-26 Fujitsu Ltd パターン認識処理方式
US5140530A (en) * 1989-03-28 1992-08-18 Honeywell Inc. Genetic algorithm synthesis of neural networks
JP2680419B2 (ja) * 1989-05-15 1997-11-19 株式会社東芝 文字認識装置
JP2940933B2 (ja) * 1989-05-20 1999-08-25 株式会社リコー パターン認識方式
US5086479A (en) * 1989-06-30 1992-02-04 Hitachi, Ltd. Information processing system using neural network learning function
US5150323A (en) * 1989-08-11 1992-09-22 Hughes Aircraft Company Adaptive network for in-band signal separation
JPH0375860A (ja) * 1989-08-18 1991-03-29 Hitachi Ltd パーソナライズド端末
US5339818A (en) * 1989-09-20 1994-08-23 University Of Utah Research Foundation Method for determining blood pressure utilizing a neural network
US5067164A (en) * 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5311601A (en) * 1990-01-12 1994-05-10 Trustees Of Boston University Hierarchical pattern recognition system with variable selection weights
FR2658337A1 (fr) * 1990-02-09 1991-08-16 Philips Electronique Lab Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise.
FR2658336A1 (fr) * 1990-02-09 1991-08-16 Philips Electronique Lab Procede d'apprentissage d'un reseau de neurones en couches pour classification multiclasses et reseau de neurones en couches.
US5299284A (en) * 1990-04-09 1994-03-29 Arizona Board Of Regents, Acting On Behalf Of Arizona State University Pattern classification using linear programming
JPH07113943B2 (ja) * 1990-04-16 1995-12-06 シャープ株式会社 ニューラルネットワークの学習方法
FR2661265B1 (fr) * 1990-04-24 1994-07-29 Thomson Csf Systeme neuronal de classification et procede de classification utilisant un tel systeme.
US5245697A (en) * 1990-04-24 1993-09-14 Kabushiki Kaisha Toshiba Neural network processing apparatus for identifying an unknown image pattern as one of a plurality of instruction image patterns
US5058180A (en) * 1990-04-30 1991-10-15 National Semiconductor Corporation Neural network apparatus and method for pattern recognition
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
US5181171A (en) * 1990-09-20 1993-01-19 Atlantic Richfield Company Adaptive network for automated first break picking of seismic refraction events and method of operating the same
US5265192A (en) * 1990-09-20 1993-11-23 Atlantic Richfield Company Method for the automated editing of seismic traces using an adaptive network
US5121441A (en) * 1990-09-21 1992-06-09 International Business Machines Corporation Robust prototype establishment in an on-line handwriting recognition system
US5214744A (en) * 1990-12-14 1993-05-25 Westinghouse Electric Corp. Method and apparatus for automatically identifying targets in sonar images
DE4100500A1 (de) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren
US5214715A (en) * 1991-01-31 1993-05-25 Trustees Of Boston University Predictive self-organizing neural network
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
JP3088171B2 (ja) * 1991-02-12 2000-09-18 三菱電機株式会社 自己組織型パタ−ン分類システム及び分類方法
JPH04262453A (ja) * 1991-02-15 1992-09-17 Hitachi Ltd ニュ−ロ学習制御方法及び装置
WO1992020029A1 (en) * 1991-04-29 1992-11-12 Intel Corporation Neural network incorporating difference neurons
US5500905A (en) * 1991-06-12 1996-03-19 Microelectronics And Computer Technology Corporation Pattern recognition neural network with saccade-like operation
US5293456A (en) * 1991-06-28 1994-03-08 E. I. Du Pont De Nemours And Company Object recognition system employing a sparse comparison neural network
US5493688A (en) * 1991-07-05 1996-02-20 Booz, Allen & Hamilton, Inc. Pattern categoritzation system having self-organizing analog fields
US5260871A (en) * 1991-07-31 1993-11-09 Mayo Foundation For Medical Education And Research Method and apparatus for diagnosis of breast tumors
US5337371A (en) * 1991-08-09 1994-08-09 Matsushita Electric Industrial Co., Ltd. Pattern classification system
US5251268A (en) * 1991-08-09 1993-10-05 Electric Power Research Institute, Inc. Integrated method and apparatus for character and symbol recognition
US5335291A (en) * 1991-09-20 1994-08-02 Massachusetts Institute Of Technology Method and apparatus for pattern mapping system with self-reliability check
US5384863A (en) * 1991-11-19 1995-01-24 Xerox Corporation Methods and apparatus for automatic modification of semantically significant portions of a document without document image decoding
CA2077604C (en) * 1991-11-19 1999-07-06 Todd A. Cass Method and apparatus for determining the frequency of words in a document without document image decoding
CA2077274C (en) * 1991-11-19 1997-07-15 M. Margaret Withgott Method and apparatus for summarizing a document without document image decoding
US5276771A (en) * 1991-12-27 1994-01-04 R & D Associates Rapidly converging projective neural network
US5544257A (en) * 1992-01-08 1996-08-06 International Business Machines Corporation Continuous parameter hidden Markov model approach to automatic handwriting recognition
US5398303A (en) * 1992-02-28 1995-03-14 Yamatake-Honeywell Co., Ltd. Fuzzy data processing method and data smoothing filter
US5245672A (en) * 1992-03-09 1993-09-14 The United States Of America As Represented By The Secretary Of Commerce Object/anti-object neural network segmentation
US5264192A (en) * 1992-05-21 1993-11-23 Shutt Thomas C Method for detoxifying cyanide-containing water
DE69333664T2 (de) * 1992-06-19 2005-11-17 United Parcel Service Of America, Inc. Verfahren und Gerät zur Einstellung eines Neurons

Also Published As

Publication number Publication date
US5452399A (en) 1995-09-19
EP0574937B1 (en) 2000-08-16
EP0944021B1 (en) 2005-05-11
ATE279758T1 (de) 2004-10-15
DE69329218T2 (de) 2001-04-05
DE69333811T2 (de) 2006-05-11
EP0944021A2 (en) 1999-09-22
EP0574937A2 (en) 1993-12-22
EP0574937A3 (en) 1995-01-11
EP0944021A3 (en) 1999-10-13
US5638491A (en) 1997-06-10
DE69333664T2 (de) 2005-11-17
US5664067A (en) 1997-09-02
DE69333811D1 (de) 2005-06-16
ES2150431T3 (es) 2000-12-01
JPH06176161A (ja) 1994-06-24
DE69333664D1 (de) 2004-11-18
EP1199675A1 (en) 2002-04-24
US5974404A (en) 1999-10-26
EP1199675B1 (en) 2004-10-13
DE69329218D1 (de) 2000-09-21

Similar Documents

Publication Publication Date Title
JP2925435B2 (ja) 入力分類方法、トレーニング方法、調整方法、及び装置
US10713563B2 (en) Object recognition using a convolutional neural network trained by principal component analysis and repeated spectral clustering
JP2925434B2 (ja) 入力分類方法、トレーニング方法、及び装置
US10970313B2 (en) Clustering device, clustering method, and computer program product
EP3745309A1 (en) Training a generative adversarial network
Adamczak et al. New developments in the feature space mapping model
KR20200093970A (ko) 양의 정부호 행렬 위에서의 리만 서브 매니폴드 프레임워크를 이용한 로그 유클리디안 메트릭 러닝 장치 및 방법
Amorim et al. Analysing rotation-invariance of a log-polar transformation in convolutional neural networks
JP2022072648A (ja) 機械学習モデルを用いてクラス分類処理を実行する方法、情報処理装置、及び、コンピュータープログラム
US12033370B2 (en) Learning device, learning method, and computer program product
Li et al. Strangeness based feature selection for part based recognition
Zhang et al. Kernel pooled local subspaces for classification
Cervera et al. Multiple self-organizing maps: a hybrid learning scheme
Atukorale et al. On the performance of the HONG network for pattern classification
US20230005119A1 (en) Method for determining quality of inspection data using machine learning model, information processing apparatus, and non-transitory computer readable storage medium storing computer program
JPH06251156A (ja) パターン認識装置
US20220277198A1 (en) Method for discriminating class of data to be discriminated using machine learning model, information processing device, and computer program
Cervera et al. Multiple self-organizing maps for supervised learning
Dal Col et al. Fast and accurate object detection by means of recursive monomial feature elimination and cascade of SVM
CN114863159A (zh) 信息处理方法、信息处理装置及计算机程序
Scott et al. Diff2Dist: Learning Spectrally Distinct Edge Functions, with Applications to Cell Morphology Analysis
Bukor A Parallel Fuzzy Filter Network for Pattern Recognition
Tagliaferri et al. Astronomical object recognition by means of neural networks
JP5936160B1 (ja) パターン認識装置とその学習方法、及びパターン認識学習用プログラム
Sagheer et al. Fast feature extraction approach for multi-dimension feature space problems

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990406

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100507

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees