JP2925435B2 - 入力分類方法、トレーニング方法、調整方法、及び装置 - Google Patents
入力分類方法、トレーニング方法、調整方法、及び装置Info
- Publication number
- JP2925435B2 JP2925435B2 JP5174752A JP17475293A JP2925435B2 JP 2925435 B2 JP2925435 B2 JP 2925435B2 JP 5174752 A JP5174752 A JP 5174752A JP 17475293 A JP17475293 A JP 17475293A JP 2925435 B2 JP2925435 B2 JP 2925435B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- input
- neuron
- neurons
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19107—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
- Image Processing (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Surface Acoustic Wave Elements And Circuit Networks Thereof (AREA)
- Electrophonic Musical Instruments (AREA)
Description
fication)法と分類システムに関し、更に具体
的には光学的に得られたキャラクタ画像の分類方法とシ
ステムに、およびそれのトレーニング方法およびトレー
ニング・システムに関するものである。
送の分野では、その梱包物に貼付されたシッピング・ラ
ベルに印刷されている送り先の住所に従って、発送元か
ら世界中の送り先へ仕向けて梱包物が送られる。梱包物
を仕向け発送するには、上記送り先の住所を読取ること
のできる自動化された光学的キャラクタ分類システムを
使用することが望ましい。その様な分類システムは、で
きるだけ迅速にキャラクタを分類し得るものでなければ
ならない。クーパー(Cooper)氏その他による米
国特許第4326259号に開示されているような、球
形ニューロンを使用した通常の光学的キャラクタ分類シ
ステムは、或種の用途で与えられる処理要求を、ハード
ウェアに大きな投資をせずに、行うことはできない。
つに分類する分類方法及び装置に関するものである。こ
の発明によれば、上記入力を表すフィーチャ・ベクトル
が生成される。次に、このフィーチャ・ベクトルから、
各々が上記可能な出力の1つに関連する複数のニューロ
ンの各ニューロンの中心までの距離の値が計算される。
この計算された距離に従って、フィーチャ・ベクトルを
包囲する各ニューロンが選択される。可能な出力の各々
に関連する選択されたニューロンの数であるボート(v
ote)(票)が、可能な出力の各々に対して求められ
る。可能な出力の1つに対するボートが、他の可能な出
力の全てに対する他の全てのボートよりも大きい場合
は、その可能な出力が上記入力に対応するものとして選
択される。可能な出力の1つに対するボートが、他の可
能な出力の全てに対するボート他の全てのボートよりも
大きくない場合には、他の全てのニューロンの中で最も
小さい距離の値を持ったニューロンを識別する。その最
小距離値がある特定の値よりも小さい場合は、その識別
されたニューロンに関連する可能な出力を上記入力に対
応するものとして選択する。
ためのトレーニング法と装置を提供する。この発明によ
れば、各々が第1の可能な出力に対応する複数のトレー
ニング入力が選択される。次いで、トレーニング入力の
各々の質が特徴記述される。次に、特徴記述されたトレ
ーニング入力から、他のトレーニング入力の中の少なく
とも1つよりも高い質を持つトレーニング入力を選択す
る。次いで、この選択された特徴記述されたトレーニン
グ入力に従ってニューロンが造られる。
力の1つに分類する分類方法が提供される。この分類方
法によれば、入力は2またはそれ以上の可能な出力を表
すクラスターに分類される。次いで、この入力はクラス
ターによって表される上記2またはそれ以上の可能な出
力の1つに分類される。この発明の分類ステップの中の
少なくとも1つのステップは入力を表す情報をニューロ
ンと比較することによって特徴付けられる。この発明は
さらに、複数のフィーチャ・ベクトルを包囲するニュー
ロンを調整する方法及び装置を提供する。フィーチャ・
ベクトルの空間分布が特徴記述される。次いで、その特
徴記述に従ってニューロンが空間的に調整される。
テムを含んでいるが、より一般的に言えば、この発明は
入力を可能な複数出力の所定セットのうちの1つとして
分類するための分類システムをカバーするものである。
たとえば、その入力が英語のアルファベットの26個の
大文字の中の1つを表している光学的に取出された画像
の場合、この発明の分類システムは、その入力画像に関
する大文字を出力として選択するように、使用される。
以下、この発明の分類システムを、図1の(a)、図2
乃至図4を参照しつつ説明する。
ステムをトレーニングするシステムも含んでいる。この
トレーニング・システムは、この分類システムを配置す
るに先立ってオフラインで動作させることが望ましい。
キャラクタ認識の例の場合には、このトレーニング・シ
ステムは、既知のキャラクタを表す入力画像を受入れ
て、未知の画像が最終的に分類されることになる可能な
出力のセットについて学習する。この発明のトレーニン
グ・システムについて図5および図6を参照して後述す
る。
ステムを、トレーニング入力の相対的品質に従ってその
トレーニング入力を順序づけする思想に基づいてトレー
ニングするシステムをも含んでいる。このトレーニング
・システムは、図1の(a)、(b)、(c)および
(d)を参照して、後述する。
ムのトレーニング期間中に発生するニューロンの位置お
よび形状を調整するシステムも含んでいる。
レベルのクラスタ分類器の階層ネットワークを使用する
分類システムをも含むものである。この上位レベルの分
類器は入力を複数の出力クラスタのうちの1つに分類す
る。この場合、各出力クラスタは可能な出力のセットの
サブセットに付属している。上位レベルの分類器によっ
て識別された出力クラスタに関連するクラスタ分類器
は、次に、入力を可能な出力のうちの1つに対応するも
のとして分類する。この分類システムは、図1の
(a)、(b)、(c)および(d)を参照して後述す
る。
組合せた形の、入力を分類するためのニューラル・シス
テムをも含むものである。1つのサブシステムは、可能
な複数出力の各々について、特定入力を表すフィーチャ
・ベクトルを包囲するニューロンの数をカウントする。
もし、可能な出力のうちの1つがそのフィーチャ・ベク
トルを包囲するニューロンを他の同様な出力よりも多数
持っているときは、そのシステムは上記入力に対応する
ものとして前記1つの出力を選択する。そうでない場合
には、そのフィーチャ・ベクトルに対する特定距離の値
として最小値を有するニューロンを、第2のサブシステ
ムが見つけ出す。もし、その値が特定の閾値よりも小さ
ければ、システムは、そのニューロンに関する出力を入
力に対応するものとして選択する。但し、本明細書にお
いて、距離または距離の値とは、楕円距離を含む上位概
念の距離であって、適合する距離の尺度に基づいて定量
した距離の値を意味する。このニューロン・システム
は、図1の(a)、図2乃至図4に関連して後述する。
「0」を表すビットマップが例示されている。この発明
による分類システムが光学的に得たキャラクタ画像を分
類するときには、分類されるべき各システム画像は、図
1の(a)に示す如く2進値のmxn画像アレイである
入力ビットマップで表すことができる。好ましい実施例
においては、この発明の分類システムは各入力ビットマ
ップに含まれている情報からk次元フィーチャ空間に1
つのベクトルを発生する。各フィーチャ・ベクトルFは
フィーチャ要素fjを持っている。但し0≦j≦k−1
である。このフィーチャ空間の次元kは1より大きな如
何なる整数であってもよい。各フィーチャ要素f1は、
入力ビットマップから抽出されたk個のフィーチャ要素
のうちの1つに相当する実数値である。
リッド(Grid)またはアダマール(Adamar
d)フィーチャ抽出関数(extraction fu
nction)の如き通常のフィーチャ抽出関数を用い
て、入力ビットマップから取出すことができる。フィー
チャ・ベクトルFはk次元フィーチャ空間における1点
を表している。フィーチャ要素fjは、k次元フィーチ
ャ空間のフィーチャ空間軸に沿った、フィーチャ・ベク
トルの成分である。この明細書における説明のために用
語「フィーチャ・ベクトル」とはフィーチャ空間内の1
点を指すものとする。
間を決定するのにグリッドをベースとした、或いはアダ
マールをベースとしたフィーチャ・ベクトルに判別分析
変換(discriminant analysis
transform)を適用することができる。この実
施例では、判別変換からの最上位の固有ベクトルのみが
保持されるこの判別分析を行うことによって、可能な出
力相互間の隔たりを増加させまたフィーチャ・ベクトル
の次元を低減することができる。
像を表すフィーチャ・ベクトルFをフィーチャ空間内に
おけるニューロンのセットと比較する。ここで、各ニュ
ーロンは、k次元のフィーチャ空間における閉じたk次
元の領域または「ハイパー・ボリューム(超体積)」で
ある。たとえば、(k=2)であれば、各ニューロンは
2次元フィーチャ空間における1つの領域であり、(k
=3)であれば、各ニューロンは3次元フィーチャ空間
における1つのボリューム(体積)である。図2は、典
型例としての8個の2次元ニューロンを包含する2次元
フィーチャ空間である。
いては、k次元フィーチャ空間に在る少なくとも1個の
ニューロンの境界は、少なくとも2個の相異なる長さの
軸によって決定される。これらニューロンの幾つかは、
Cjがニューロンの中心点を規定し、bjがニューロン
の各軸の長さで、mとAが正の実数の定数であるとし
て、一般に数学的に次式で表される。
ニューロン軸は長さが異なっている。式(1)を満足す
る値のgi は、ニューロンの境界内または境界上に在る
フィーチャ空間中の点を規定する。この技術分野の専門
家は、この発明の範囲に含まれる上記以外のニューロン
は、また別の数学的表現によって表されることを容易に
理解できよう。たとえば、関数MAXは、jが0からk
−1へ変化するときのこの比の最大値を計算するものと
して、ニューロンは次式で決定される。
る。
ーロンはk次元のフィーチャ空間のハイパー楕円(超楕
円)である。ハイパー楕円は、(m=2)でかつ(A=
1)の場合に式(1)で決定されるすベてのハイパー・
ボリュームである。より具体的に言えば、ハイパー楕円
は、Cjがハイパー楕円の中心点、bjはハイパー楕円
の軸の長さ、式(3)を満足する値giはハイパー楕円
の境界内および境界上に在る点を決定するとして、次式
で表される。
楕円はハイパー球状(超球)である。
くとも1つのニューロンの少なくとも2つの軸は相異な
る長さである。一例として、図2には、中心点が(Co
1 、C l 1 )で軸b o 1 、b l 1 の長さが異なる楕円状
ニューロン1が示されている。或る好ましい実施例にお
いては、ニューロンの軸はフィーチャ空間の座標軸と整
列している。この技術分野の専門家は、フィーチャ空間
軸と全部が整列している訳ではない軸を有する上記以外
のニューロンもこの発明の範囲内にあることは理解され
よう。
可能な出力に関連している。たとえば、各ニューロンは
26個の大文字の1つに対応している。各ニューロンは
可能な出力(たとえば文字)の1つのみに関連している
が、各可能な出力は1個またはそれ以上の関連ニューロ
ンを持つことができる。更に、ニューロンはフィーチャ
空間内で互いに重畳することも有り得る。たとえば、図
2に示されたように、ニューロン0、1および7はキャ
ラクタAに対応し、ニューロン2、3、5および6はキ
ャラクタBに対応し、ニューロン4はキャラクタCに対
応している。ニューロン1と7は、ニューロン2、3お
よび6、およびニューロン3、5および6がそうである
ように、重なり合っている。
異なる可能な出力に対応するニューロンが重なり合って
いる。この発明の分類システムは、文字A、BおよびC
を表す入力画像を分類するのに図2のニューロンを採用
することができる。
例に従って、入力(たとえば、光学的に得たキャラクタ
画像)を可能な出力(たとえば、キャラクタ)の1セッ
トとして分類するための分類システム300のプロセス
流れ図が示されている。図3のこの好ましい実施例にあ
っては、分類システム300中のニューロンは並列処理
される。また別の実施例(図示省略)では、分類システ
ム300内のニューロンは直列的に処理される。入力画
像のビットマップを受入れる手段302があって、その
ビットマップに含まれている情報を表すフィーチャ・ベ
クトルを発生する。手段304と306は、手段302
が発生したフィーチャ・ベクトルを複数ニューロン中の
1セットと比較する。このニューロンの少なくとも1つ
は長さを異にする2つまたはそれ以上の軸を持ってい
る。分類システム300は上記の比較結果に基づいて可
能な出力のうちの1つを選出する。
テム300は、ハイパー楕円状ニューロンのネットワー
クを使用して、光学的に得たキャラクタ・ビットマップ
を分類する。分類システム300の手段302は、分類
すべき光学的に得られたキャラクタ画像のビットマップ
を入力して受入れ、それに対応したフィーチャ・ベクト
ルFを発生する。続いて手段304はネットワーク内の
E num 個のハイパー楕円状ニューロンxの中心と軸お
よびフィーチャ・ベクトルFの関数として楕円距離rx
を求める。rxは次式で表される。
ぞれxを0からEnum−1まで変化させたときのニュ
ーロンxの中心点と軸長を決定し、fjはフィーチャ・
ベクトルFの要素である。この技術分野の専門家は距離
の値が式(4)のそれと異なる値であっても使用可能で
あることは理解できよう。
中にフィーチャ・ベクトルFを包囲するものがあれば、
それがどのニューロンであるかを確認する。フィーチャ
空間内でニューロンを規定する境界の内側にフィーチャ
・ベクトルがある場合、ニューロンはフィーチャ・ベク
トルを包囲し、「包囲ニューロン」と名付けられる。ハ
イパー楕円の場合には、もし(rx<1)であれば、ニ
ューロンxはフィーチャ・ベクトルFを包囲する。も
し、(rx=1)であればフィーチャ・ベクトルFはニ
ューロンxの境界上に位置し、また(rx>1)であれ
ばフィーチャ・ベクトルFはニューロンxの外側に位置
する。ニューロンはフィーチャ空間内で重なり合うこと
ができるから、特定のフィーチャ・ベクトルは1個以上
のニューロンで包囲されることがある。図2において
は、特定の入力画像に対応するフィーチャ・ベクトルF
gはニューロン2と6に包囲されている。或いはまた、
図2のフィーチャ・ベクトルFhの場合のように、フィ
ーチャ・ベクトルがどのニューロンの内側にも位置して
いないこともある。その様なベクトルは別の入力画像に
対応するものである。
する「最近接」ニューロンを見つけ出す。記述のよう
に、各ニューロンは1つの出力に、そして可能な出力の
うちの1つの出力のみに、関連する。しかし可能な出力
の各々は関連する1つ以上のニューロンを持っているこ
ともある。手段308は、可能な各出力に関連するニュ
ーロンを全部分析して、その出力に対するフィーチャ・
ベクトルFに対する最近接ニューロンを決定する。この
最近接ニューロンは、最も小さい距離値rxを持ったも
のになる。図2のフィーチャ・ベクトルFgの例では、
手段308はキャラクタ「A」に対するフィーチャ・ベ
クトルFgに対する最近接ニューロンとしてニューロン
1を選出することになる。また、キャラクタ「B」に対
する最近接ニューロンとしてニューロン2を、およびキ
ャラクタ「C」に対してはニューロン4を、選出する。
るボート(票)をカウントする。第1の実施例におい
て、フィーチャ・ベクトルFを包囲する各ニューロン
は、そのニューロンに関連する出力に対する1つのボー
ト(票)として、手段310によって処理される。ま
た、図7について詳細に後述する別の好ましい実施例に
おいては、フィーチャ・ベクトルFを包囲する各ニュー
ロンは、そのニューロンに関連する出力に対する「重み
付けされたボート」を表すものとして、手段310で処
理される。ここに、どの特定ニューロンに関連する「重
み」もそのニューロンによって包囲されるトレーニング
入力フィーチャ・ベクトルの数の関数である。
比例ボーティングを行う。ここで、特定ニューロンに対
する重み付けされたボートは、そのニューロンで包囲さ
れるフィーチャ・ベクトルの数に等しい。可能な各出力
に対して、手段310は、フィーチャ・ベクトルFを包
囲するすべてのニューロンに対する全ボートを記録す
る。
の形式がある。それは、(1)1つの出力キャラクタが
他のどの出力キャラクタよりも多数のボートを受ける、
か、(2)2つまたはそれ以上の出力キャラクタが大多
数のボートに関してタイ(等格)である、か、(3)す
べての出力キャラクタがボートを受けず、すなわちフィ
ーチャ・ベクトルFを包囲するニューロンが存在しない
状態を示すか、の3種である。図2において、フィーチ
ャ・ベクトルF gは第1のボーティング形式となり、キ
ャラクタ「B」は包囲しているニューロン2と6に相当
する2つのボートを受け、一方キャラクタ「A」と
「C」は全然ボートを受けない。図2のフィーチャ・ベ
クトルFhは、各キャラクタがボートを全く受けていな
い第3形式のボーティング結果となる。
手段310を適用することにより第1形式のボーティン
グ結果が得られたかどうかを決定する。もし、可能な出
力キャラクタのうちの1つのみが大多数(最大数)のボ
ートを受けていれば、手段312は、分類システムの3
00の処理を手段314に進める。手段314は入力キ
ャラクタ・ビットマップに対応するものとしてその出力
キャラクタを選択する。そうでない場合は、続いて手段
316で処理が行われる。
は、手段312は、キャラクタ「B」が他のどのキャラ
クタよりも多数のボートを持っていることを確認して、
手段314に、フィーチャ・ベクトルFg に対応するキ
ャラクタとして「B」を選択させる。図2のフィーチャ
・ベクトルFh の場合には、手段312は、大多数のボ
ートを受けたキャラクタが1個も無いことを確認して、
処理を手段316へ進める。
ーチャ・ベクトルがどのニューロンの内側にも位置して
いないという理由のために明確なボートリーダが存在し
ないという、第2および第3形式のボーティング結果の
場合には、手段316はタイブレーカ(等格解除器)と
して働く。このタイを解除(ブレーク)するために、手
段316は、フィーチャ・ベクトルFに楕円距離で最近
接状態にあるニューロンxを選出して、rx を特定閾値
θm と比較する。その結果がもしも(rx ≦θm )であ
れば、手段318が、このニューロンxに関連する出力
キャラクタを入力キャラクタ・ビットマップに相当する
ものとして選択する。
システム300はその入力画像に対してキャラクタを選
択しない。「キャラクタ選択無し」という結果は分類シ
ステム300からの可能な出力の1つである。たとえ
ば、もし分類システム300が大文字を認識するように
設計されていて、それに対する入力が数字7に相当する
ものであったとすると、「キャラクタの選択無し」とい
う結果が適切な出力である。
く、好ましい値は約1.25である。既に前述したよう
に、フィーチャ・ベクトルFがニューロンxの内側にあ
れば(rx<1)でニューロンxの外側にあれば(rx
>1)である。手段310から得られるボーティングの
結果が、大部分の非ゼロ・ボートについてタイであれ
ば、手段316は、フィーチャ・ベクトルFに楕円距離
が最近接している中心を持った包囲ニューロンに関連し
た出力キャラクタを選択することになる。或いは別の形
として、包囲ニューロンが無い場合には、手段316
は、もし(rx≦θm)であれば、最近接ニューロンx
に関連する出力キャラクタに対応するものとして、入力
ビットマップを更に分類する。約1.25の閾値θmを
使用すると、タイブレーキング手段316が使用する各
ニューロンを包囲する領域が設定できる。図2におい
て、もし距離の値r4がこの閾値θmより小さいとき
は、フィーチャ・ベクトルF h はキャラクタ「C」とし
て分類される。そうでないときは、キャラクタは選択さ
れない。
ットに対応するものとして分類するこの発明による分類
システム400の概要図が示されている。分類システム
400は、図3の分類システム300が行った処理の一
部を実行することができる。分類システム400は、フ
ィーチャ要素(f0 、f1 、・・・・fk-1 )で表され
るフィーチャ・ベクトルFを受入れ、選択されるべき可
能な出力を示す指標(ポインタ)および/またはフラッ
グとして働く値qt とqm を発生する。分類システム4
00は4つのシステム・レベル、すなわち、入力レベル
402、処理レベル404、出力レベル406および後
処理レベル408を持っている。
で変わる数として、k個の入力処理ユニットij より成
るセットIを持っている。各入力処理ユニットij は、
入力として1個の、そしてフィーチャ・ベクトルFのた
だ1個の要素fj のみを受入れて、この値を処理レベル
404に分散供給する。入力レベル402は1組のパル
ススルー分散供給素子として働く。
num−1まで変わる数としてEnum 個の楕円状処理
ユニットexのセットEがある。各楕円状処理ユニット
exは、入力レベル402のすべての入力処理ユニット
ijの出力から入力を受入れるように、各処理ユニット
ijに接続されている。楕円状処理ユニットexは、図
3の分類システム300のニューロンxについて式
(4)の演算をする。分類システム300のニューロン
xと同様に、各楕円状処理ユニットexは内部パラメー
タの2つのベクトルBxとCxによって規定される。ベ
クトルBxの要素はニューロンxの軸の長さである。こ
こに、Bxは次式で表される。
の中心点の座標であり、Cx は次式で表される。
exは、フィーチャ・ベクトルFからニューロンxの中
心までの距離の大きさrxを計算する。処理レベル40
4は分類システム300の手段304に関連している。
もし、(rx<1)であれば、楕円状処理ユニットex
は可動状態にされているとし、そうでない時は非可動状
態にあるとする。換言すれば、楕円状処理ユニットex
はニューロンxがフィーチャ・ベクトルFを包囲してい
ると可動状態にされる。各楕円状処理ユニットexは、
出力レベル406の2つの出力処理ユニットのみに計算
した距離の大きさを分配供給する。
る。すなわち、出力トータル部410と出力ミニマイズ
部412とを持っている。出力トータル部410はS個
の出力処理ユニットOn t のセットOt を有し、出力ミ
ニマイズ部412はS個の出力処理ユニットOn m のセ
ットOm を持っている。但し、nは0からs−1までを
表し、sは分類システム400がそれを目的としてトレ
ーニングされている可能な出力の数である。たとえば、
大文字を分類する場合はs=26である。各処理ユニッ
トの対(On t 、On m )は可能な出力のうちのただ1
個の出力のみに関連するものであり、またその逆の関係
も成立つ。
ex は、出力トータル部410のただ1個の出力処理ユ
ニットOn t のみに、および出力ミニマイズ部412中
のただ1個の出力処理ユニットOn m のみに、それぞれ
接続されてそれらに出力を供給する。しかし、各出力ユ
ニットOn t と各出力ユニットOn m は、処理レベル4
04の1個またはそれ以上の楕円状処理ユニットex に
接続しそれらから入力を受入れるようにすることもでき
る。これらの関係は接続マトリックスWt とWm で表さ
れる。それらの次元は共に(sxEnum )である。
4の楕円状処理ユニットexと出力レベル406の出力
トータル部410の出力処理ユニットOn tの間に接続
がある場合には、接続マトリックスWtにおけるエント
リWnx tの値はニューロンxで包囲されるトレーニン
グ入力フィーチャ・ベクトルの数に等しく、そうでない
場合は、その値付0である。更に別の好ましい実施例に
おいては、楕円状処理ユニットexと出力処理ユニット
On tの間に接続があれば、エントリWnx tの値は1
である。
4と出力レベル406の出力ミニマイズ部412との間
の接続を表し、接続マトリックスWt に関係を持ってい
る。接続マトリックスWm におけるエントリWnx m は接
続マトリックスWt の0でないすべてのエントリWnx t
に対して値1を持っている。そうでない(Wnx t が0)
の場合、エントリWnx m の値は0になる。
トOn t は、次式の出力値On t を計算する。
であれば値0になり、そうでなければ値1になる。別の
言い方をすれば、関数T(rx)は処理レベル404の
楕円状処理ユニットexが可動状態にされると、値1に
なる。出力処理ユニットOn tは、関連する可能な出力
に対するボートをカウントして、その合計(トータル)
を出力する。出力レベル406の出力トータル部410
は、分類システム300の手段306と310とに関連
するものである。
表される出力値On m を計算する。
状処理ユニットex に対して(Wnx m rx )の最小値に
なる。従って、各出力処理ユニットOn m は自己に接続
されている各楕円状処理ユニットex を調べて、それら
の楕円状処理ユニットから得られる最小出力値に等しい
リアル値を出力する。出力レベル406の出力ミニマイ
ズ部412は分類システム300の手段308に関連す
るものである。
トPtとp m を持っている。後処理ユニットPtは、出
力レベル406の出力トータル部410の各出力処理ユ
ニットOn tに接続されていてそこから入力を受取る。
後処理ユニットPtは最大出力値を持っている出力処理
ユニットOn tを見出して値qtを発生する。出力トー
タル部410の出力処理ユニットOn tの出力値が、出
力トータル部410の他のすべての出力処理ユニットの
出力値よりも大であれば、値qtをその出力処理ユニッ
トのインデックスであるnにセットする。たとえば、大
文字を分類する場合、nは「A」に対しては0となり
「B」に対しては1となる等にされる。そうでない場合
は、値qtは−1にセットされて、出力レベルの出力ト
ータル部410は入力を分類できなかったことを示す。
後処理レベル408の後処理ユニットPtは分類システ
ム300の手段312に関連するものである。
理ユニットPm は、出力レベル406のミニマイズ部4
12の各出力処理ユニットOn m に接続されていてそれ
から入力を受入れる。後処理ユニットPm は最小出力値
を示す出力処理ユニットOn m を見出して、値qm を発
生する。出力ミニマイズ部412の出力処理ユニットO
n m の出力値が所定の閾値θm よりも小さいと、この値
qm は対応するインデックスnにセットされる。
ルFが、すべてのニューロンxに対してニューロンを包
囲する閾値領域の外側にあるから、値qm は、−1にセ
ットされて、出力レベル406の出力ミニマイズ部41
2は入力を分類できなかったことを示す。この閾値θm
は図3の分類システムに使用されている閾値θm と同じ
閾値でよい。後処理レベル408の後処理ユニットPm
は分類システム300の手段316に関連するものであ
る。
とによって完了する。もし、(qt≠−1)であれば、
その入力はS個の可能な出力のセットのうちの可能な出
力qtとして分類される。もし(qt =−1)でかつ
(qm≠−1)であれば、その入力はS個の可能な出力
のセット中の可能な出力qmとして分類される。そうで
なくて、もし両値が−1であれば、その入力はS個の可
能な入力の何れとしても分類されない。
用する前にトレーニング(訓練)しなければならない。
この発明のトレーニング・システムはこの必要とされる
トレーニングを少なくとも1つの非球形ニューロンをk
次元のフィーチャ空間に生成することによって行う。こ
のトレーニング・システムは、好ましくは、分類システ
ムの実施に先立ってオフ・ラインで実行される。
のトレーニング入力に基づいてニューロンを発生する。
各トレーニング入力は分類セット中の可能な(考えられ
る)出力の1つに対応することが分かっているものであ
る。分類システム300を記述するために用いたアルフ
ァベットの大文字を例にとって説明すると、各トレーニ
ング入力は”A”から”Z”迄のキャラクタ(文字)の
1つに対応するビットマップとすることができる。各キ
ャラクタは少なくとも1つのトレーニング入力によって
表されなければならない。但し、通常は、各キャラクタ
に対し250乃至750のトレーニング入力が用いられ
る。
0または図4の分類システム400で用いることができ
るk次元フィーチャ空間でニューロンを発生するための
トレーニング・システム500の処理フロー・ダイアグ
ラムが示されている。例えば、出力分類をトレーニング
する時は、トレーニング・システム500は、既知の出
力に対応する1組のトレーニング・ビットマップ入力を
順次処理する。トレーニング中のある時点で、先に処理
されたトレーニング入力に対応する1組の既存フィーチ
ャ・ベクトルとこれらの既存フィーチャ・ベクトルから
生成された1組の既存ニューロンが生じる。各トレーニ
ング入力について、トレーニング・システム500は、
そのトレーニング入力に含まれている情報を表すフィー
チャ・ベクトルをフィーチャ空間に発生する。
ニング入力を処理するに際して2つのルールを適用す
る。第1のトレーニング・ルールは、その時処理されて
いるトレーニング入力に対応するフィーチャ・ベクトル
が、異なる既知の出力に関連する既存のニューロンによ
って包含されている場合には、それらの既存のニューロ
ンの境界がそのフィーチャ・ベクトルを排除するように
空間的に調整される。即ち、そのフィーチャ・ベクトル
がそれらの既存ニューロンの境界内に入らないように空
間的に調整される。それ以外の場合には、ニューロンの
空間的調整は行われない。例えば、その時のトレーニン
グ入力がキャラクタ”R”に対応し、そのトレーニング
入力に対応するフィーチャ・ベクトルが2つの既存の”
P”ニューロンと1つの”B”ニューロンとによって囲
まれている時は、これらの3つの既存のニューロンの境
界が、その時のフィーチャ・ベクトルを包囲しないよう
に空間的に調整される。
ィーチャ・ベクトルが、同じ既知の出力に関連する少な
くとも1つの既存のニューロンによって包囲されていな
い場合には、新しいニューロンが形成されることであ
る。それ以外の場合には、その時のフィーチャ・ベクト
ルに対して新しいニューロンは生成されない。例えば、
その時のトレーニング入力がキャラクタ”W”に関連
し、そのトレーニング入力に対応するフィーチャ・ベク
トルがキャラクタ”W”に対応する既存のニューロンの
どれによっても包囲されていない場合は、その時のフィ
ーチャ・ベクトルを取り囲むように新しい”W”ニュー
ロンが形成される。推奨実施例では、新しいニューロン
は、一時的なハイパー球形(hyper−spheri
cal)ニューロンを生成し、次に、その一時的ニュー
ロンを空間的に調整して新しいニューロンを造る。また
別の推奨実施例では、この一時的ニューロンは非球形ハ
イパー楕円である。
ニング・システム500は、既知のキャラクタに対応す
る1組のトレーニング・ビットマップ入力からハイパー
楕円形ニューロンを発生する。トレーニング・システム
500は、存在しないフィーチャ・ベクトルと存在しな
いニューロンからスタートする。トレーニング・システ
ム500の処理は手段502で始まり、手段502はそ
の時のトレーニング入力として1組のトレーニング入力
から1番目のトレーニング入力を選択する。手段504
がその時のトレーニング入力に対応するフィーチャ・ベ
クトルFを発生する。
ーニング入力である時は、既存のニューロンはなく、従
って、フィーチャ・ベクトルFを包囲する既存のニュー
ロンもない。その場合には、トレーニング・システム5
00の処理は手段514に進み、そこでフィーチャ・ベ
クトルFを中心にした新しいニューロンが形成される。
この新しいニューロンは、好ましくは、数3の式(3)
によって規定され、その場合、全ての新しいニューロン
軸は同じ長さに設定される。即ち、全てのjについて
(bj =λ)とされる。新しいニューロン軸が全て同じ
長さなので、この新しいニューロンは半径λのフィーチ
ャ空間内のハイパー球である。推奨実施例では、定数λ
の値は、トレーニング入力の組全体に対する全てのフィ
ーチャ・ベクトルFの中の最大フィーチャ要素fj の2
倍となろう。一番目のトレーニング入力を処理する時は
既存のフィーチャ・ベクトルがないので、トレーニング
・システム500は手段528(図6)に進む。この点
からは、トレーニング・システム500の処理はもっと
一般的な形で説明できる。
その組のトレーニング入力の中の最後のトレーニング入
力であるか否かを判断する。それが最後のトレーニング
入力でない場合は、手段528はトレーニング・システ
ム500の処理を手段530(図5)に進め、ここで次
のトレーニング入力がその時のトレーニング入力として
選択される。次いで、手段504がその時のトレーニン
グ入力に対応するフィーチャ・ベクトルFを発生する。
あれば、フィーチャ・ベクトルFが包囲されないように
するために、どの既存ニューロンを空間的に調整するか
を決める。推奨実施例においては、手段510が、ある
既存のニューロンがその時のトレーニング入力と同じ既
知のキャラクタに関連しておらず(これは手段506に
よって判断される)、かつ、そのニューロンがフィーチ
ャ・ベクトルFを包囲している(これは手段508によ
って判断される)時、そのニューロンを調整する。手段
508は、前述したように、数4の式(4)の「距離」
の値rxを計算し検査し、また、(rx<1)か否かを
検査することにより、既存のニューロンがフィーチャ・
ベクトルFを包囲しているか否かを判断する。
既存のニューロンをその1つの軸にのみに沿って最適に
収縮させることによって空間的に調整する。別の推奨実
施例においては、手段510は1またはそれ以上の軸に
沿って比例関係をもって既存のニューロンを収縮させ
る。これらの収縮法については後で詳細に説明する。手
段510による処理の後、その時のフィーチャ・ベクト
ルは、そのトレーニング入力に関係するキャラクタとは
異なるキャラクタに関連するいかなる既存のニューロン
によっても包囲されない。従って、その時のフィーチャ
・ベクトルはそのような既存のニューロンの外側または
境界線上に位置することになる。
ューロンを造るべきか否かを判断し、造るべきであると
判断した場合には、その新しいニューロンを造る。フィ
ーチャ・ベクトルFが、トレーニング入力と同じキャラ
クタに関連するどのような既存のニューロンによっても
包囲されていない(これは手段512によって判断され
る)時は、新しいニューロンが(手段514によって)
形成される。前述したように、手段514は、好ましく
は半径λのハイパー球である新しいニューロンを形成す
る。
4によって形成された新しいニューロンの各々を検査
し、必要な場合は、空間的に調整して、そのトレーニン
グ入力に関連するキャラクタと異なるキャラクタに関連
するいかなる既存のフィーチャ・ベクトルも包囲しない
ようにする。手段516、524及び526は、一時に
1つの既存フィーチャ・ベクトルを選択することによっ
て新しいニューロンを既存のフィーチャ・ベクトルの各
々と対比する検査のシーケンスを制御する。新しいニュ
ーロンがその時に選択されている既存フィーチャ・ベク
トルのキャラクタと異なるキャラクタに関連しており
(これは手段518によって判断される)、その新しい
ニューロンがその選択されている既存フィーチャ・ベク
トルを包囲している(これは式(4)を用いて、手段5
20によって判断される)場合は、手段524は、手段
510によって採用されたと同じ収縮用アルゴリズムの
1つによって新しいニューロンを空間的に調整する。ト
レーニング・システム500は、全ての既存フィーチャ
・ベクトルが処理されてしまうまで、新しいニューロン
の検査と調整を続ける。手段514によって形成された
ハイパー球形ニューロンは手段522によって調整され
るので、そのハイパー球形ニューロンは同じ長さの一時
的ニューロン軸を持った一時的ニューロンである。その
後トレーニングシステム500の処理は手段528へと
進み、次のトレーニング入力の選択が制御される。
力について既存ニューロンを収縮させるステップ(1)
と、その同じ入力について形成された新しいニューロン
を形成し収縮させるステップ(2)を平行して行うこと
ができる。当業者には、これらの2つのステップが、ど
の順にでも、順番に実施できることは理解できよう。
組中のトレーニング入力の全てが順次処理された後、手
段528はトレーニング・システム500の処理を手段
532(図6参照)に進める。1組のトレーニング入力
をそれに対応するフィーチャ・ベクトルで処理した後
は、フィーチャ空間にはフィーチャ・ベクトルとニュー
ロンの双方が配置される。その組のトレーニング入力を
一時に処理した後、幾つかのフィーチャ・ベクトルがど
のニューロンによっても包囲されていない場合があろ
う。これは、トレーニング処理中のある点において同じ
キャラクタのニューロンによって包囲されていたフィー
チャ・ベクトルが、それらのニューロンが異なるキャラ
クタに関連する後のフィーチャ・ベクトルを排除するよ
うに収縮された時に、それらのニューロンの外に追いや
られてしまう場合に生じる。そのような状況では、手段
532は処理を手段502に返して、その組全体のトレ
ーニング入力の処理を繰り返させる。この処理の繰り返
しの時に、以前に形成されたニューロンは保持される。
このトレーニング処理を繰り返すことにより、各繰り返
し毎に新しいニューロンが形成されて、最後には、各フ
ィーチャ・ベクトル全てが対応する適正な出力に関連す
る1またはそれ以上のニューロンによって包囲されるこ
とになり、また、どのフィーチャ・ベクトルも別の可能
な出力に関連するニューロンによって包囲されることは
ない。さらに、この繰り返しトレーニングは、最大繰り
返し数をトレーニング入力の総数に等しくしてある有限
時間に収斂させることができる。
を完了した後では、フィーチャ空間にはニューロンが配
置されており、このフィーチャ空間は特徴づけシステム
(分類システム)300または400で使用され、未知
の入力を複数の可能性のある出力の1つに分類する。
ング・システム500は、ある特定のフィーチャ・ベク
トルを排除するために、ハイパー楕円ニューロンの境界
を1本の軸に沿って最適に収縮させることにより空間的
に調整する。トレーニング・システム500の手段51
0と522がこの1軸収縮処理を、(1)収縮させるべ
き軸を識別し、(2)その軸についての新しい長さを計
算することによって行う。
るべき軸nを数9の式(9)に従って識別する。
のiに対して角括弧中の式を最大にするiの値を生じる
ものであり、cj とbj はそれぞれ調整されるべきニュ
ーロンの中心点と軸の長さを規定し、fj はそのニュー
ロンによって排除されるべきフィーチャ・ベクトルを規
定する。
の式(10)によって軸nに対する新しい長さbn を計
算する。
持する。
(10)に従って1軸収縮処理すると、次の4つの条件
を満たす最大ハイパー・ボリュームVを持った調整され
たニューロンが得られる。 1.調整後のニューロンがハイパー楕円であること。 2.元のニューロンの中心点が調整後のニューロンの中
心点と同じであること。 3.排除されるべきフィーチャ・ベクトルが調整後のニ
ューロンの境界線上にあること。 4.調整後のニューロンの境界線内または境界線上の全
ての点が元のニューロンの境界線内または境界線上にあ
ること。 ハイパー・ボリュームVは数11の式(11)によって
表される。
フィーチャ空間の次元であり、bj は調整後のニューロ
ンを規定する軸の長さである。従って、1軸収縮は、こ
の発明によるニューロンを最適調整するための第1の方
法を提供する。
00は、ある特定のフィーチャ・ベクトルを排除するた
めに、1またはそれ以上の軸に沿って比例関係をもって
収縮処理を実行することによりハイパー楕円形ニューロ
ンの境界線を空間的に調整する。トレーニング・システ
ム500の手段510と522は、軸の長さの変化Δb
j のベクトルΔBを数12の式(12)によって計算す
ることにより比例収縮処理を実行する。
値、‖F−C‖はFとCの間のベクトル差の大きさ、c
j とbj はそれぞれ調整されるべきニューロンの中心点
と軸長を表し、fj はそのニューロンから除外されるべ
きフィーチャ・ベクトルの要素、αとγj は定数とする
ことができる。調整後のニューロンについての新しい軸
長bj ' は、0からk−1のjに対して数22の式(2
2)によって計算される。
00は調整されるべきニューロンの軸上へのベクトルの
投影を求める。このベクトルはそのニューロンの中心か
ら、排除されるべきフィーチャ・ベクトルに向いてい
る。これらの投影は式(14)のコサインのベクトルに
よって表される。トレーニング・システム500は、軸
の長さとその軸上への投影の長さの間の関係に基づい
て、各ニューロン軸をどれだけ収縮させるべきかを求め
る。
1未満に選ばれる。この場合、トレーニング・システム
500は繰り返し収縮処理を実行し、除外されるべきフ
ィーチャ・ベクトルが調整後のニューロンの外に出たこ
とが検出されるまで、ニューロンは複数の軸収縮ステッ
プにわたってゆっくりと調整される。推奨実施例におい
ては、パラメータγj は比例収縮によって最終的にフィ
ーチャ・ベクトルがニューロンの外に位置するようにす
るために、軸jの大きさの約0.001倍の正の値に設
定される。別の推奨実施例では、パラメータγj は、フ
ィーチャ・ベクトルからゆっくりと調整されるニューロ
ンの境界までの距離に基づく誤り関数とすることができ
る。その場合には、トレーニング・システム500はニ
ューロン調整用の比例積分制御器として動作することに
なる。
にトレーニング・システムによって順に使用されるトレ
ーニング入力のセットは入力の質に従って編成すること
ができる。トレーニング入力は質の低いトレーニング入
力に進む前に、より高い質の入力でトレーニングするよ
うに順序づけすることができる。このトレーニング入力
をその質によって順序づけることにより、ニューロンが
高質の入力に対応するフィーチャ・ベクトルを中心に集
まるようにすることができる。このような順序づけした
トレーニングにより、分類システムを規定するために必
要なニューロンの数を少なくして、分類システムの動作
性能を向上させることができる。さらに、このような順
序づけにより、分類システムによってなされる誤った分
類(誤分類)の数を減じ、また分類がなされない回数を
減じることができる。誤分類はある入力がある可能な出
力に対応しているにも係わらず、分類システムが別の可
能な出力を選択する時に生じる。また、分類が行われな
い状態とは、分類システムが既知の出力の1つを選択せ
ずに、出力が選択されなかったという結果を出力する状
態をいう。
字”0”、崩れた”0”、正常な”7”及び崩れた”
7”を表すビットマップが示されている。正常な入力は
ノイズを伴わない理想的な入力である。崩れた入力はノ
イズのために正常な入力から外れた入力である。崩れた
入力は制御されたノイズによっても、実際の予測不能な
ノイズによっても生じうる。
・システムは3つの異なる質のレベルのトレーニング入
力でトレーニングを行うことができる。トレーニング入
力の第1のレベルは、図1(a)及び図1(c)に示す
ような正常な入力である。トレーニング入力の第2のレ
ベルは制御されたノイズの入力で、正常な入力に対し
て、ある規定されたノイズ関数あるいは異なる特性を持
った信号を、独立してあるいは組み合わせて付加したこ
とによって生成されるタイプの崩れた入力である。トレ
ーニング入力の第3のレベルは実際のノイズの入力であ
り、文字の場合は、既知のキャラクタの光学的に取り出
した画像である第2のタイプの崩れた入力である。この
ような崩れた入力は現実の予測不能なノイズを持ってい
る。図1(b)と図1(d)が、現れ得る制御されたノ
イズの入力と実際のノイズの入力の例である。推奨実施
例では、正常な入力は最高の質を有し、制御されたノイ
ズの入力及び実際のノイズの入力の質は順次低下したも
のである。制御されたノイズ関数と供給される信号に応
じて、ある特定の制御されたノイズの入力の質は、ある
特定の実際のノイズの入力の質よりも高くもなるし、低
くもなる。
際のノイズの入力であれ、ある特定の崩れた入力の質
は、その崩れた入力を同じ既知のキャラクタに対応する
正常な入力と比較することにより知ることができる。推
奨実施例では、質の測定はこれら2つの入力間のピクセ
ル数の差に基づいて行うことができる。別の推奨実施例
では、質の測定はグリッド・フィーチャ(Grid f
eature)測定とかアダマール・フィーチャ測定等
の通常のフィーチャ測定法に基づいて行うことができ
る。
・システムは最初正常入力でトレーニングを行い、次い
で、その後、崩れた制御されたノイズの入力及び実際の
ノイズの入力でトレーニングを行う。この推奨実施例で
は、図1(a)と図1(c)に対応する入力でのトレー
ニングは、図1(b)及び図1(d)によるトレーニン
グに先行する。別の推奨実施例では、トレーニング・シ
ステムは、次の既知のキャラクタに進む前に、同じ既知
のキャラクタの全ての入力でトレーニングを行い、各既
知のキャラクタのトレーニング入力は質に応じて内部的
に編成される。この推奨実施例においては、図1(a)
に対応する入力でのトレーニングは図1(b)によるト
レーニングに先行し、図1(c)によるトレーニングは
図1(d)によるトレーニングに先行する。この技術分
野に係わる者には、入力の全てによるトレーニングの正
確な全体的なシーケンスの方が、各異なる既知のキャラ
クタについて質に応じて順序づけする方より重要性は低
いことは理解されよう。
了した後は、フィーチャ空間にはフィーチャ・ベクトル
を包囲するニューロンが配置されている。そのフィーチ
ャ・ベクトルの各1つが各個別のトレーニング入力に対
応している。各ニューロンは1またはそれ以上のフィー
チャ・ベクトル、即ち、そのニューロンを造りだすため
に用いられたそのニューロンの中心に位置するフィーチ
ャ・ベクトルと、恐らくは、同じ既知のキャラクタに関
連する入力に対応するフィーチャ・ベクトルとを包囲し
ている。
入力の質に応じた順序付けによっては、ある特定のニュ
ーロンがより効率的な態様で、あるいはより低い効率の
態様でフィーチャ・ベクトルを包囲する場合がある。例
えば、ある特定のニューロンを造りだすために用いたフ
ィーチャ・ベクトルが相当崩れた入力に対応している場
合は、そのフィーチャ・ベクトルはそのニューロンの中
心に位置するであろう。その同じニューロンはまた、正
常な入力及び崩れの程度が少ない入力に対応する他のフ
ィーチャ・ベクトルを包囲している可能性もある。この
ようなニューロンはその組のフィーチャ・ベクトルを包
囲するための最も効率的なニューロンでない可能性があ
る。そのようなニューロンを用いる分類システムは、も
っと効率的なニューロンを用いるシステムに較べて、誤
分類や分類もれなどが多くなろう。
に生成されたニューロンをより効率の高いニューロンを
形成するように空間的に調整する。この改善システムは
ある特定のニューロンによって包囲されたフィーチャ・
ベクトルの空間的分布の特徴を記述し、そのニューロン
を空間的に調整する。このような空間的調整処理にはニ
ューロンをそのニューロンのその時の中心点からそれら
のフィーチャ・ベクトルの空間的分布の平均値に移動さ
せるという処理が含まれている。ニューロンの移動後
に、同じ出力キャラクタのフィーチャ・ベクトルがその
ニューロンによって包囲されるように、かつ、異なる出
力キャラクタのフィーチャ・ベクトルが排除されるよう
に、軸の長さを調整することができる。
じフィーチャ・ベクトルをより効率的に包囲する1乃至
それ以上のニューロンを造るために、同じキャラクタの
2またはそれ以上のニューロンを空間的に調整する。こ
の場合、1つの元のニューロンからのフィーチャ・ベク
トルが別のより効率的なニューロンによって包囲され
る。例えば、改善前は、第1のニューロンがフィーチャ
・ベクトルF1 、F2 及びF3 を包囲しており、第2の
ニューロンがフィーチャ・ベクトルF4 、F5 、F6 及
びF7 を包囲していると仮定すると、改善後、フィーチ
ャ・ベクトルF1、F2 、F3 及びF4 は例えば、第3
のニューロンによって包囲され、フィーチャ・ベクトル
F5 、F6 及びF7 が第4のニューロンによって包囲さ
れ、これらの第3と第4のニューロンの中心と軸の長さ
が、第1と第2のニューロンのどれとも異なるというこ
とも生じる。
を、分類されるべき各入力について、フィーチャ・ベク
トルをフィーチャ空間中の全てのニューロンと比較する
ことによって、1組の可能な出力中の1つに分類する。
このような分類システムが図3と図4に示されている。
る分類システム600が示されている。このシステム6
00では、入力はニューロンとクラスタ分類器を用いて
1組の可能な出力の1つに分類される。分類システム6
00は上位レベルの分類器602と2以上のクラスタ分
類器604、606、・・・、608を含んでいる。上
位レベル分類器602は入力を適当な入力のクラスタに
分類する。例えば、分類システム600によってキャラ
クタを分類する場合、上位レベル分類器602は光学的
に取り出したキャラクタに対応する入力ビットマップを
キャラクタのクラスタに分類する。
は同様のビットマップによって表されるもの、即ち、換
言すれば、フィーチャ空間中で互いに近接したフィーチ
ャ・ベクトルに関連するキャラクタである。例えば、第
1のキャラクタのクラスタはキャラクタD、PNR及び
Bに対応する。第2のキャラクタ・クラスタはキャラク
タO、C、D、U及びQに対応する。また第3のキャラ
クタ・クラスタは例えば、キャラクタZのようなただ1
つのキャラクタに対応する。ある特定のキャラクタが1
またはそれ以上のキャラクタ・クラスタに属している場
合もあり得る。この例の場合では、キャラクタDはその
ビットマップが第1と第3のキャラクタ・クラスタのビ
ットマップに類似しているために、両方のクラスタに属
している。
に、キャラクタがコンフュージョン・マトリクスに基づ
いて類別される。コンフュージョン・マトリクスは、考
えられるキャラクタ対全てについて、1つのキャラクタ
が他のキャラクタと混同される可能性を表す。一般的に
言って、1つのキャラクタのフィーチャ・ベクトルが他
のキャラクタのフィーチャ・ベクトルに近ければ近い
程、これら2つのキャラクタが混同される可能性が高く
なる。例えば、キャラクタDはそのフィーチャ・ベクト
ルがMに対するフィーチャ・ベクトルよりもOに対する
フィーチャ・ベクトルに近ければ、Mに対するよりも、
Oに対して混同される可能性が高いことになる。
ングは、通常のKミーンズ(K−means)クラスタ
リング・アルゴリズムに基づいて行われ、これによれ
ば、各々がフィーチャ空間中の点であるテンプレートの
組が各キャラクタに対して指定される。Kミーンズ・ク
ラスタリング・アルゴリズムは、ある特定のキャラクタ
のテンプレートの位置を、そのキャラクタに対応するト
レーニング入力の全てのものに対するフィーチャ・ベク
トルの位置を分析することによって、フィーチャ空間中
のどの位置にするかを決める。好ましくは、テンプレー
トは、関連するフィーチャ・ベクトルのクラスタの演算
手段の近くに配置する。
つのテンプレートを用いることができ、クラスタ当たり
のキャラクタの数はほぼ同数である。例えば、アルファ
ベットの26の大文字、26の小文字、10個の数字、
及び記号「&」と「#」に対応する64個のキャラクタ
を分類する時、4×64、即ち256個のテンプレート
を用いてほぼ同数のキャラクタからなる7つの異なるク
ラスタを形成することができる。
り、上位レベル分類器602は、各入力に対する適切な
クラスタを速く且つ正確に求める分類アルゴリズムを実
行に移すことができる。推奨実施例では、上位レベル分
類器602はニューロンをベースにした分類アルゴリズ
ムを実行する。別の推奨実施例では、他の通常の非ニュ
ーラル分類アルゴリズムが上位レベル分類器602によ
って実行される。上位レベル分類器602は特定の入力
に対して適切なクラスタを選択し、適切なクラスタ分類
器604、606、・・・、608で続いて処理がなさ
れるようにする。各クラスタ分類器はキャラクタ・クラ
スタの中の1つのみに関連して設けられており、逆に、
1つのキャラクタ・クラスタはただ1つのクラスタ分類
器に関係している。
分類器はそのキャラクタ・クラスタ特有の、あるいはキ
ャラクタ・クラスタ総数の1つのサブセットのみによっ
て共有される分類アルゴリズムを実施する。従って、各
クラスタ分類器はそのキャラクタ・クラスタに特有のフ
ィーチャ空間に存在するニューロンを用いる。例えば、
P、R、Bクラスタのためのトレーニングには、グリッ
ド・フィーチャのある特定の組を用い、一方、O、C、
D、U、Qクラスタのトレーニングにはアダマール・フ
ィーチャの別のセットを用いることができる。その場
合、異なるトレーニング手順が異なるクラスタ分類器の
各々に対して採用され、関連するクラスタのキャラクタ
に対応する入力のみが、異なるトレーニング手順の各々
に対して用いられる。
示す分類システムは入力を、ニューロンとクラスタ分類
器を用いて1組の可能な出力の1つに分類する。この第
3の実施例においては、上位レベルの分類器602は、
フィーチャ空間中で、分類されるべきその時の入力に対
するフィーチャ・ベクトルに最も近いテンプレートを識
別する。識別されたテンプレートは1またはそれ以上の
キャラクタ・クラスタに属するある特定のキャラクタに
関連付けられる。上位レベル分類器602は、最も近い
テンプレートのキャラクタ・クラスタに関係するクラス
タ分類器604、606、・・・、608のみに処理が
継続されるようにする。ある特定のキャラクタは2以上
のキャラクタ・クラスタに属する場合があるので、上位
レベルの分類器602によって2以上のクラスタ分類器
が処理のために選択されることもある。
分類器には、ある与えられた入力について処理されるべ
きニューロンを識別するデシジョン・ツリー(決定木構
造)を設けることができる。分類に先立って、ある特定
のクラスタ分類器に対するフィーチャ・ベクトル空間が
フィーチャ空間におけるフィーチャ・ベクトル及び/ま
たはニューロンの分布に従って領域に分割される。各領
域は1またはそれ以上のニューロンを含み、各ニューロ
ンは2以上の領域に属することがあり、2またはそれ以
上の領域が互いに重なりあう可能性がある。上位レベル
分類器602は、どの(単数または複数の)フィーチャ
空間領域にその時の入力に対するフィーチャ・ベクトル
が有るかを判断し、また、選択されたクラスタ分類器が
その(1または複数の)領域に関連するニューロンのみ
を処理するようにすることができる。
この発明による分類システムの幾つかの実施例ではクラ
スタ分類器を用いずに、デシジョン・ツリーを用いるこ
とができるし、あるものではデシジョン・ツリーを用い
ずにクラスタ分類器を用いることができ、またあるもの
では両方を用いることができる。さらに、あるもので
は、その両方を用いない場合もある。さらに、デシジョ
ン・ツリー及びクラスタ分類器を用いると、処理時間が
短縮されるので、この発明の分類システムの効率が向上
する。
この発明の分類システムは直列形式または並列形式のい
ずれにも構成できる。例えば、ある推奨実施例では、グ
リッド・フィーチャに基づく第1のキャラクタ分類器を
アダマール・フィーチャに基づく第2のキャラクタ分類
器と直列に配列することができる。その場合、第1の分
類器は既知のキャラクタの1つとしてのある特定のビッ
トマップ入力を分類するか、あるいはその入力を分類し
ない。第1の分類器がその入力を分類しない場合は、第
2の分類器がその入力の分類を試みる。
並列に配列される。その場合、異なる各分類器の出力を
比較することにより適切な出力を選択するために、ボー
ティング(voting)法を採用することができる。
ステムとトレーニング・システムは、各楕円処理ユニッ
トが分類処理中別々のコンピュータ・プロセッサで動作
する、並列処理を行う。但し、この技術分野の者には理
解されるように、これらのシステムは直列処理を行うよ
うにすることもできる。ある推奨実施例では、分類シス
テムとトレーニング・システムは、縮小命令セットコン
ピュータ(reduced instrcution
set computer, RISC)プロセッサ、
例えば、サン・マイクロシステム社(Sun Micr
osystems)から市販されているSPARCst
ation 2で動作するSPARC2プロセッサにあ
るようにすることができる。
キャラクタ画像以外の入力もこの発明の分類システムに
よって分類できる。一般的に言うと、どのような入力で
も2以上の可能な出力からなる組の中の1つの出力とし
て分類でき、その場合、非選択結果(選択が行われなか
ったという結果)も可能な出力の1つである。例えば、
この発明の分類システムは人間を、その顔、指紋あるい
は耳たぶのようなものの画像に基づいてでも識別するた
めに用いることができるし、また、人の声の録音からそ
の人を識別することにも使用できる。
記述し図示した装置の詳細、材料あるいは構成等に対す
る種々の変形が、この発明の原理及び範囲を逸脱するこ
となく、この技術分野の者には可能である。
字「0」、崩れた文字「0」、正常な文字「7」及び崩
れた文字「7」のビットマップ表示である。
明の分類システムが用いることのできる8個の楕円形ニ
ューロンがある二次元フィーチャ空間を示す。
ための処理フローダイアグラムである。
発生するための処理フローダイアグラムの一部である。
発生するための処理フローダイアグラムの一部であっ
て、図5のフローダイアグラムに接続するものである。
ためにクラスタ分類器を用いる分類システムの概略図で
ある。
Claims (26)
- 【請求項1】 ニューラル・ネットワーク型の入力分類
装置において、捕捉画像等を表す入力を既知の画像等を
表す複数の可能な出力の1つに分類する分類方法であっ
て; (a)上記入力を表すフィーチャ・ベクトルを発生する
ステップと; (b)上記フィーチャ・ベクトルから、各々が上記複数
の可能な出力の1つに関連する複数のニューロンの各々
の中心までの距離の値を計算するステップと; (c)上記複数のニューロンの中で上記フィーチャ・ベ
クトルを包囲する各ニューロンを上記距離の値に従って
選択するステップと; (d)上記複数の可能な出力の各々に対して、上記各可
能な出力に関連する上記選択されたニューロンの数の関
数であるボートを求めるステップと; (e)ある1つの可能な出力に対する1つのボートが他
の全ての可能な出力に対する他の全ての各ボートよりも
大きい場合に、その1つの可能な出力を上記入力に対応
するものとして選択するステップと; (f)可能な出力に対するいずれのボートも他の全ての
可能な出力に対する他の全ての各ボートより大きくない
場合に、上記複数のニューロンの中で最小の距離の値を
持つ1つのニューロンを識別するステップと; (g)上記最小の距離の値がある特定の値よりも小さい
場合に、上記識別されたニューロンに関連する可能な出
力を上記入力に対応するものとして選択するステップ
と; を含む、分類方法。 - 【請求項2】 上記ステップ(d)が、上記複数の可能
な出力の各々に対して、上記各可能な出力に関連する上
記選択されたニューロンの数に等しいボートを求めるス
テップからなるものである、請求項1に記載の分類方
法。 - 【請求項3】 捕捉画像等を表す入力を既知の画像等を
表す複数の可能な出力の1つに分類するニューラル・ネ
ットワーク型の入力分類装置において、ニューラル・ネ
ットワークをトレーニングするトレーニング方法であっ
て; (a)各々が第1の可能な出力に対応する複数のトレー
ニング入力の各々と正規の入力との差を求めるステップ
と; (b)第1のトレーニング入力が第2のトレーニング入
力よりも上記正規の入力との差が小さいものである場合
に、上記第2のトレーニング入力を用いてニューラル・
ネットワークをトレーニングする前に上記第1のトレー
ニング入力を用いて上記ニューラル・ネットワークをト
レーニングするステップと; を含む、トレーニング方法。 - 【請求項4】 上記複数のトレーニング入力はキャラク
タを表すものであり、上記ステップ(a)は上記キャラ
クタを表す上記複数のトレーニング入力の各々と上記正
規の入力との差を求めるステップからなるものである、
請求項3に記載のトレーニング方法。 - 【請求項5】 上記ステップ(b)は既存のレベルの上
記ニューラル・ネットワークにニューロンを追加するス
テップを含むものであり;このニューロンは、上記第1
のトレーニング入力に対応し、上記第1の可能な出力に
関連し、種々の長さの2つ以上のニューロン軸によって
規定される境界を有するものである、請求項3に記載の
トレーニング方法。 - 【請求項6】 上記ステップ(b)は既存のレベルの上
記ニューラル・ネットワークにニューロンを追加するス
テップを含むものであり;このニューロンは、上記第1
のトレーニング入力に対応し、上記第1の可能な出力に
関連するものであり; さらに、(c)上記第1の可能な出力とは異なる第2の
可能な出力に対応する少なくとも1つのトレーニング入
力に従って上記ニューロンを空間的に調整するステップ
を含む、請求項3に記載のトレーニング方法。 - 【請求項7】 上記ステップ(c)は、上記ニューロン
を空間的に調整して、種々の長さの2つ以上のニューロ
ン軸によって規定される境界を有する調整されたニュー
ロンを生成するステップからなるものである、請求項6
に記載のトレーニング方法。 - 【請求項8】 上記第1のトレーニング入力は上記正規
の入力を表すものであり、上記ステップ(b)は、上記
第2のトレーニング入力を用いて上記ニューラル・ネッ
トワークをトレーニングする前に上記正規の入力を用い
て上記ニューラル・ネットワークをトレーニングするス
テップからなるものである、請求項3に記載のトレーニ
ング方法。 - 【請求項9】 上記第2のトレーニング入力は実際の入
力を表すものであり、上記ステップ(b)は、上記実際
の入力を用いて上記ニューラル・ネットワークをトレー
ニングする前に上記第1のトレーニング入力を用いて上
記ニューラル・ネットワークをトレーニングするステッ
プからなるものである、請求項3に記載のトレーニング
方法。 - 【請求項10】 上記第1のトレーニング入力は上記第
2のトレーニング入力よりも高い信号対雑音比を有する
ものであり、上記ステップ(b)は、低い信号対雑音比
を有する上記第2のトレーニング入力を用いて上記ニュ
ーラル・ネットワークをトレーニングする前に高い信号
対雑音比を有する上記第1のトレーニング入力を用いて
上記ニューラル・ネットワークをトレーニングするステ
ップからなるものである、請求項3に記載のトレーニン
グ方法。 - 【請求項11】 捕捉画像等を表す入力を既知の画像等
を表す複数の可能な出力の1つに分類するニューラル・
ネットワーク型の入力分類装置において、入力を表す複
数のフィーチャ・ベクトルを包囲するニューロンを調整
する調整方法であって; (a)複数のフィーチャ・ベクトルの空間分布を特徴記
述するステップと、 (b)上記複数のフィーチャ・ベクトルを包囲するニュ
ーロンを上記ステップ(a)の特徴記述に従って空間的
に調整するステップと、 を含み; 上記ニューロンは中心点を有し、 上記ステップ(b)は上記ニューロンの上記中心点を上
記空間分布の平均位置に向けて移動させるステップを含
むものである、調 整方法。 - 【請求項12】 上記ニューロンが、種々の長さの2つ
以上のニューロン軸によって規定される境界を有するも
のである、請求項11に記載の調整方法。 - 【請求項13】 上記移動したニューロンは2つ以上の
ニューロン軸によって規定される境界を有しかつ上記複
数のフィーチャ・ベクトルの全てを包囲している訳では
なく、上記ステップ(b)は、上記ニューロン軸の少な
くとも1つの長さを変更して上記複数のフィーチャ・ベ
クトルの全てが包囲されるようにするステップを含むも
のである、請求項11に記載の調整方法。 - 【請求項14】 入力を表すフィーチャ・ベクトルを発
生する発生手段と; 上記フィーチャ・ベクトルから、各々が複数の可能な出
力の1つに関連する複数のニューロンの各々の中心まで
の距離の値を計算する計算手段と; 上記複数のニューロンの中で上記フィーチャ・ベクトル
を包囲する各ニューロンを上記距離の値に従って選択す
る選択手段と; 上記複数の可能な出力の各々に対して、上記各可能な出
力に関連する上記選択されたニューロンの数の関数であ
るボートを求める決定手段と; ある1つの可能な出力に対する1つのボートが他の全て
の可能な出力に対する他の全ての各ボートよりも大きい
場合に、その1つの可能な出力を上記入力に対応するも
のとして選択するボーティング手段と;可 能な出力に対するいずれのボートも他の全ての可能な
出力に対する他の全ての各ボートより大きくない場合
に、上記複数のニューロンの中で最小の距離の値を持つ
1つのニューロンを識別する識別手段と; 上記最小の距離の値がある特定の値よりも小さい場合
に、上記識別されたニューロンに関連する可能な出力を
上記入力に対応するものとして選択する距離手段と; を具える、入力を複数の可能な出力の1つに分類する分
類装置。 - 【請求項15】 上記決定手段が、上記複数の可能な出
力の各々に対して、上記各可能な出力に関連する上記選
択されたニューロンの数に等しいボートを求める手段か
らなるものである、請求項14に記載の分類装置。 - 【請求項16】 各々が第1の可能な出力に対応する複
数のトレーニング入力の各々と正規の入力との差を求め
る決定手段と;第1のトレーニング入力が第2のトレーニング入力より
も上記正規の入力との差が小さいものである場合に、上
記第2のトレーニング入力を用いてニューラル・ネット
ワークをトレーニングする前に上記第1のトレーニング
入力を用いて上記ニューラル・ネットワークをトレーニ
ングするトレーニング手段と; を具える、ニューラル・ネットワークのトレーニング装
置。 - 【請求項17】 上記複数のトレーニング入力はキャラ
クタを表すものであり、上記決定手段は上記キャラクタ
を表す上記複数のトレーニング入力の各々と上記正規の
入力との差を求める手段からなるものである、請求項1
6に記載のトレーニング装置。 - 【請求項18】 上記トレーニング手段は既存のレベル
の上記ニューラル・ネットワークにニューロンを追加す
る手段を具えるものであり;このニューロンは、上記第
1のトレーニング入力に対応し、上記第1の可能な出力
に関連し、種々の長さの2つ以上のニューロン軸によっ
て規定される境界を有するものである、請求項16に記
載のトレーニング装置。 - 【請求項19】 上記トレーニング手段は既存のレベル
の上記ニューラル・ネットワークにニューロンを追加す
る手段を具えるものであり;このニューロンは、上記第
1のトレーニング入力に対応し、上記第1の可能な出力
に関連するものであり; さらに、上記第1の可能な出力とは異なる第2の可能な
出力に対応する少なくとも1つのトレーニング入力に従
って上記ニューロンを空間的に調整する調整手段を具え
る、請求項16に記載のトレーニング装置。 - 【請求項20】 上記調整手段は、上記ニューロンを空
間的に調整して、種々の長さの2つ以上のニューロン軸
によって規定される境界を有する調整されたニューロン
を生成する手段からなるものである、請求項19に記載
のトレーニング装置。 - 【請求項21】 上記第1のトレーニング入力は上記正
規の入力を表すものであり、上記トレーニング手段は、
上記第2のトレーニング入力を用いて上記ニューラル・
ネットワークをトレーニングする前に上記正規の入力を
用いて上記ニューラル・ネットワークをトレーニングす
る手段からなるものである、請求項16に記載のトレー
ニング装置。 - 【請求項22】 上記第2のトレーニング入力は実際の
入力を表すものであり、上記トレーニング手段は、上記
実際の入力を用いて上記ニューラル・ネットワークをト
レーニングする前に上記第1のトレーニング入力を用い
て上記ニューラル・ネットワークをトレーニングする手
段からなるものである、請求項16に記載のトレーニン
グ装置。 - 【請求項23】 上記第1のトレーニング入力は上記第
2のトレーニング入力よりも高い信号対雑音比を有する
ものであり、上記トレーニング手段は、低い信号対雑音
比を有する上記第2のトレーニング入力を用いて上記ニ
ューラル・ネットワークをトレーニングする前に高い信
号対雑音比を有する上記第1のトレーニング入力を用い
て上記ニューラル・ネットワークをトレーニングする手
段からなるものである、請求項16に記載のトレーニン
グ装置。 - 【請求項24】 複数のフィーチャ・ベクトルの空間分
布を特徴記述する特徴記述手段と、 上記複数のフィーチャ・ベクトルを包囲するニューロン
を上記特徴記述手段による特徴記述に従って空間的に調
整する調整手段と、 を具え; 上記ニューロンは中心点を持ち、 上記調整手段は上記ニューロンの上記中心点を上記空間
分布の平均位置に向け て移動させるものである、 複数のフィーチャ・ベクトルを包囲するニューロンを調
整する調整装置。 - 【請求項25】 上記ニューロンが、種々の長さの2つ
以上のニューロン軸によって規定される境界を有するも
のである、請求項24に記載の調整装置。 - 【請求項26】 上記移動したニューロンは2つ以上の
ニューロン軸によって規定される境界を有しかつ上記複
数のフィーチャ・ベクトルの全てを包囲している訳では
なく、上記調整手段は上記ニューロン軸の少なくとも1
つの長さを変更して上記複数のフィーチャ・ベクトルの
全てが包囲されるようにするものである、請求項24に
記載の調整装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US90112392A | 1992-06-19 | 1992-06-19 | |
US901123 | 1992-06-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06176161A JPH06176161A (ja) | 1994-06-24 |
JP2925435B2 true JP2925435B2 (ja) | 1999-07-28 |
Family
ID=25413634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5174752A Expired - Fee Related JP2925435B2 (ja) | 1992-06-19 | 1993-06-21 | 入力分類方法、トレーニング方法、調整方法、及び装置 |
Country Status (6)
Country | Link |
---|---|
US (4) | US5452399A (ja) |
EP (3) | EP0944021B1 (ja) |
JP (1) | JP2925435B2 (ja) |
AT (1) | ATE279758T1 (ja) |
DE (3) | DE69333664T2 (ja) |
ES (1) | ES2150431T3 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69333664T2 (de) * | 1992-06-19 | 2005-11-17 | United Parcel Service Of America, Inc. | Verfahren und Gerät zur Einstellung eines Neurons |
EP0612035B1 (en) * | 1993-02-19 | 2002-01-30 | International Business Machines Corporation | Neural net for the comparison of image pattern features |
US6081766A (en) * | 1993-05-21 | 2000-06-27 | Axys Pharmaceuticals, Inc. | Machine-learning approach to modeling biological activity for molecular design and to modeling other characteristics |
JP3630734B2 (ja) * | 1994-10-28 | 2005-03-23 | キヤノン株式会社 | 情報処理方法 |
US6466926B1 (en) * | 1996-03-06 | 2002-10-15 | Hewlett-Packard Company | Method for optimizing a recognition dictionary to distinguish between patterns that are difficult to distinguish |
JPH10143613A (ja) | 1996-10-30 | 1998-05-29 | Hewlett Packard Co <Hp> | パタン認識方法 |
US6049793A (en) * | 1996-11-15 | 2000-04-11 | Tomita; Kenichi | System for building an artificial neural network |
US6671404B1 (en) | 1997-02-14 | 2003-12-30 | Hewlett-Packard Development Company, L.P. | Method and apparatus for recognizing patterns |
US5966460A (en) * | 1997-03-03 | 1999-10-12 | Xerox Corporation | On-line learning for neural net-based character recognition systems |
US6336109B2 (en) * | 1997-04-15 | 2002-01-01 | Cerebrus Solutions Limited | Method and apparatus for inducing rules from data classifiers |
US6061472A (en) * | 1997-06-06 | 2000-05-09 | Microsoft Corporation | Method and mechanism to reduce handwriting recognizer errors using multiple decision trees |
US6134344A (en) * | 1997-06-26 | 2000-10-17 | Lucent Technologies Inc. | Method and apparatus for improving the efficiency of support vector machines |
US6122399A (en) * | 1997-09-04 | 2000-09-19 | Ncr Corporation | Pattern recognition constraint network |
DE69802372T4 (de) | 1998-02-05 | 2003-01-23 | Intellix As Frederiksberg | Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk |
AU761730B2 (en) * | 1998-12-03 | 2003-06-05 | Samsung Electronics Co., Ltd. | Subscriber identification system |
US6366897B1 (en) | 1999-07-26 | 2002-04-02 | Hnc Software, Inc. | Cortronic neural networks with distributed processing |
US6694301B1 (en) * | 2000-03-31 | 2004-02-17 | Microsoft Corporation | Goal-oriented clustering |
US20040042665A1 (en) * | 2002-08-30 | 2004-03-04 | Lockheed Martin Corporation | Method and computer program product for automatically establishing a classifiction system architecture |
US20040186815A1 (en) * | 2002-12-20 | 2004-09-23 | Stockfisch Thomas P. | Method for accommodating missing descriptor and property data while training neural network models |
US7493295B2 (en) * | 2003-01-17 | 2009-02-17 | Francisco J. Ayala | Method, system and computer program for developing cortical algorithms |
JP2007504576A (ja) * | 2003-01-17 | 2007-03-01 | アヤラ,フランシスコ,ジェイ | 人工知能を開発するためのシステム及び方法 |
US8260730B2 (en) * | 2005-03-14 | 2012-09-04 | Hewlett-Packard Development Company, L.P. | Method of, and system for, classification count adjustment |
WO2007056803A1 (en) * | 2005-11-15 | 2007-05-24 | Bernadette Garner | Method for training neural networks |
US8175394B2 (en) * | 2006-09-08 | 2012-05-08 | Google Inc. | Shape clustering in post optical character recognition processing |
CN101510262B (zh) * | 2009-03-17 | 2012-05-23 | 江苏大学 | 一种钢中析出粒子的自动测量及其形态分类方法 |
US9041566B2 (en) * | 2013-08-30 | 2015-05-26 | International Business Machines Corporation | Lossless compression of the enumeration space of founder line crosses |
CN107239786B (zh) | 2016-03-29 | 2022-01-11 | 阿里巴巴集团控股有限公司 | 一种字符识别方法和装置 |
CN106935035B (zh) * | 2017-04-07 | 2019-07-23 | 西安电子科技大学 | 基于ssd神经网络的违章停车车辆实时检测方法 |
RU2693916C1 (ru) | 2018-04-09 | 2019-07-05 | Общество с ограниченной ответственностью "Аби Продакшн" | Распознавание символов с использованием иерархической классификации |
CN110533018B (zh) * | 2018-05-23 | 2022-02-25 | 北京国双科技有限公司 | 一种图像的分类方法及装置 |
US10834106B2 (en) | 2018-10-03 | 2020-11-10 | At&T Intellectual Property I, L.P. | Network security event detection via normalized distance based clustering |
US11227176B2 (en) * | 2019-05-16 | 2022-01-18 | Bank Of Montreal | Deep-learning-based system and process for image recognition |
RU2723293C1 (ru) | 2019-08-29 | 2020-06-09 | Общество с ограниченной ответственностью "Аби Продакшн" | Идентификация полей и таблиц в документах с помощью нейронных сетей с использованием глобального контекста документа |
RU2721189C1 (ru) | 2019-08-29 | 2020-05-18 | Общество с ограниченной ответственностью "Аби Продакшн" | Детектирование разделов таблиц в документах нейронными сетями с использованием глобального контекста документа |
CN110866565B (zh) * | 2019-11-26 | 2022-06-24 | 重庆邮电大学 | 一种基于卷积神经网络的多分支图像分类方法 |
RU2760471C1 (ru) | 2020-12-17 | 2021-11-25 | АБИ Девелопмент Инк. | Способы и системы идентификации полей в документе |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5035379B1 (ja) * | 1970-05-25 | 1975-11-15 | ||
US3950733A (en) * | 1974-06-06 | 1976-04-13 | Nestor Associates | Information processing system |
US4044243A (en) * | 1976-07-23 | 1977-08-23 | Nestor Associates | Information processing system |
US4326259A (en) * | 1980-03-27 | 1982-04-20 | Nestor Associates | Self organizing general pattern class separator and identifier |
US4599698A (en) * | 1983-05-02 | 1986-07-08 | United Technologies Corporation | Aircraft trim actuator shutdown monitor system and method |
JPH0638276B2 (ja) * | 1983-12-14 | 1994-05-18 | 株式会社日立製作所 | パターン識別装置 |
US4599693A (en) * | 1984-01-16 | 1986-07-08 | Itt Corporation | Probabilistic learning system |
US5054093A (en) * | 1985-09-12 | 1991-10-01 | Cooper Leon N | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
JPS62133589A (ja) * | 1985-12-05 | 1987-06-16 | Mitsubishi Heavy Ind Ltd | パタ−ン記憶識別装置 |
JPH0233687A (ja) * | 1988-07-22 | 1990-02-02 | Nec Corp | マルチフォント文字認識用ニューラルネットワーク学習方法 |
JPH0735591B2 (ja) * | 1988-07-27 | 1995-04-19 | 三菱重工業株式会社 | 酸洗前処理装置 |
JPH0242392A (ja) * | 1988-08-03 | 1990-02-13 | Central Res Inst Of Electric Power Ind | 原子炉容器の耐震支持構造 |
US5046020A (en) * | 1988-12-16 | 1991-09-03 | E. I. Du Pont De Nemours And Company | Distributed parallel processing network wherein the connection weights are generated using stiff differential equations |
US5010512A (en) * | 1989-01-12 | 1991-04-23 | International Business Machines Corp. | Neural network having an associative memory that learns by example |
DE69031842T2 (de) * | 1989-02-20 | 1998-04-16 | Fujitsu Ltd | Lernsystem und Lernverfahren für eine Datenverarbeitungsvorrichtung |
US4954963A (en) * | 1989-03-02 | 1990-09-04 | Texas Instruments Incorporated | Neural network and system |
US5293454A (en) * | 1989-03-08 | 1994-03-08 | Sharp Kabushiki Kaisha | Learning method of neural network |
JPH0821065B2 (ja) * | 1989-03-13 | 1996-03-04 | シャープ株式会社 | 文字認識装置 |
JPH0738186B2 (ja) * | 1989-03-13 | 1995-04-26 | シャープ株式会社 | 自己拡張形ニユーラル・ネットワーク |
JPH02242392A (ja) * | 1989-03-15 | 1990-09-26 | Fujitsu Ltd | パターン認識処理方式 |
US5140530A (en) * | 1989-03-28 | 1992-08-18 | Honeywell Inc. | Genetic algorithm synthesis of neural networks |
JP2680419B2 (ja) * | 1989-05-15 | 1997-11-19 | 株式会社東芝 | 文字認識装置 |
JP2940933B2 (ja) * | 1989-05-20 | 1999-08-25 | 株式会社リコー | パターン認識方式 |
US5086479A (en) * | 1989-06-30 | 1992-02-04 | Hitachi, Ltd. | Information processing system using neural network learning function |
US5150323A (en) * | 1989-08-11 | 1992-09-22 | Hughes Aircraft Company | Adaptive network for in-band signal separation |
JPH0375860A (ja) * | 1989-08-18 | 1991-03-29 | Hitachi Ltd | パーソナライズド端末 |
US5339818A (en) * | 1989-09-20 | 1994-08-23 | University Of Utah Research Foundation | Method for determining blood pressure utilizing a neural network |
US5067164A (en) * | 1989-11-30 | 1991-11-19 | At&T Bell Laboratories | Hierarchical constrained automatic learning neural network for character recognition |
US5311601A (en) * | 1990-01-12 | 1994-05-10 | Trustees Of Boston University | Hierarchical pattern recognition system with variable selection weights |
FR2658337A1 (fr) * | 1990-02-09 | 1991-08-16 | Philips Electronique Lab | Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise. |
FR2658336A1 (fr) * | 1990-02-09 | 1991-08-16 | Philips Electronique Lab | Procede d'apprentissage d'un reseau de neurones en couches pour classification multiclasses et reseau de neurones en couches. |
US5299284A (en) * | 1990-04-09 | 1994-03-29 | Arizona Board Of Regents, Acting On Behalf Of Arizona State University | Pattern classification using linear programming |
JPH07113943B2 (ja) * | 1990-04-16 | 1995-12-06 | シャープ株式会社 | ニューラルネットワークの学習方法 |
FR2661265B1 (fr) * | 1990-04-24 | 1994-07-29 | Thomson Csf | Systeme neuronal de classification et procede de classification utilisant un tel systeme. |
US5245697A (en) * | 1990-04-24 | 1993-09-14 | Kabushiki Kaisha Toshiba | Neural network processing apparatus for identifying an unknown image pattern as one of a plurality of instruction image patterns |
US5058180A (en) * | 1990-04-30 | 1991-10-15 | National Semiconductor Corporation | Neural network apparatus and method for pattern recognition |
US5091780A (en) * | 1990-05-09 | 1992-02-25 | Carnegie-Mellon University | A trainable security system emthod for the same |
US5181171A (en) * | 1990-09-20 | 1993-01-19 | Atlantic Richfield Company | Adaptive network for automated first break picking of seismic refraction events and method of operating the same |
US5265192A (en) * | 1990-09-20 | 1993-11-23 | Atlantic Richfield Company | Method for the automated editing of seismic traces using an adaptive network |
US5121441A (en) * | 1990-09-21 | 1992-06-09 | International Business Machines Corporation | Robust prototype establishment in an on-line handwriting recognition system |
US5214744A (en) * | 1990-12-14 | 1993-05-25 | Westinghouse Electric Corp. | Method and apparatus for automatically identifying targets in sonar images |
DE4100500A1 (de) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren |
US5214715A (en) * | 1991-01-31 | 1993-05-25 | Trustees Of Boston University | Predictive self-organizing neural network |
US5239594A (en) * | 1991-02-12 | 1993-08-24 | Mitsubishi Denki Kabushiki Kaisha | Self-organizing pattern classification neural network system |
JP3088171B2 (ja) * | 1991-02-12 | 2000-09-18 | 三菱電機株式会社 | 自己組織型パタ−ン分類システム及び分類方法 |
JPH04262453A (ja) * | 1991-02-15 | 1992-09-17 | Hitachi Ltd | ニュ−ロ学習制御方法及び装置 |
WO1992020029A1 (en) * | 1991-04-29 | 1992-11-12 | Intel Corporation | Neural network incorporating difference neurons |
US5500905A (en) * | 1991-06-12 | 1996-03-19 | Microelectronics And Computer Technology Corporation | Pattern recognition neural network with saccade-like operation |
US5293456A (en) * | 1991-06-28 | 1994-03-08 | E. I. Du Pont De Nemours And Company | Object recognition system employing a sparse comparison neural network |
US5493688A (en) * | 1991-07-05 | 1996-02-20 | Booz, Allen & Hamilton, Inc. | Pattern categoritzation system having self-organizing analog fields |
US5260871A (en) * | 1991-07-31 | 1993-11-09 | Mayo Foundation For Medical Education And Research | Method and apparatus for diagnosis of breast tumors |
US5337371A (en) * | 1991-08-09 | 1994-08-09 | Matsushita Electric Industrial Co., Ltd. | Pattern classification system |
US5251268A (en) * | 1991-08-09 | 1993-10-05 | Electric Power Research Institute, Inc. | Integrated method and apparatus for character and symbol recognition |
US5335291A (en) * | 1991-09-20 | 1994-08-02 | Massachusetts Institute Of Technology | Method and apparatus for pattern mapping system with self-reliability check |
US5384863A (en) * | 1991-11-19 | 1995-01-24 | Xerox Corporation | Methods and apparatus for automatic modification of semantically significant portions of a document without document image decoding |
CA2077604C (en) * | 1991-11-19 | 1999-07-06 | Todd A. Cass | Method and apparatus for determining the frequency of words in a document without document image decoding |
CA2077274C (en) * | 1991-11-19 | 1997-07-15 | M. Margaret Withgott | Method and apparatus for summarizing a document without document image decoding |
US5276771A (en) * | 1991-12-27 | 1994-01-04 | R & D Associates | Rapidly converging projective neural network |
US5544257A (en) * | 1992-01-08 | 1996-08-06 | International Business Machines Corporation | Continuous parameter hidden Markov model approach to automatic handwriting recognition |
US5398303A (en) * | 1992-02-28 | 1995-03-14 | Yamatake-Honeywell Co., Ltd. | Fuzzy data processing method and data smoothing filter |
US5245672A (en) * | 1992-03-09 | 1993-09-14 | The United States Of America As Represented By The Secretary Of Commerce | Object/anti-object neural network segmentation |
US5264192A (en) * | 1992-05-21 | 1993-11-23 | Shutt Thomas C | Method for detoxifying cyanide-containing water |
DE69333664T2 (de) * | 1992-06-19 | 2005-11-17 | United Parcel Service Of America, Inc. | Verfahren und Gerät zur Einstellung eines Neurons |
-
1993
- 1993-06-18 DE DE69333664T patent/DE69333664T2/de not_active Expired - Lifetime
- 1993-06-18 DE DE69329218T patent/DE69329218T2/de not_active Expired - Lifetime
- 1993-06-18 EP EP99111038A patent/EP0944021B1/en not_active Expired - Lifetime
- 1993-06-18 DE DE69333811T patent/DE69333811T2/de not_active Expired - Lifetime
- 1993-06-18 ES ES93109763T patent/ES2150431T3/es not_active Expired - Lifetime
- 1993-06-18 EP EP93109763A patent/EP0574937B1/en not_active Expired - Lifetime
- 1993-06-18 AT AT01115778T patent/ATE279758T1/de not_active IP Right Cessation
- 1993-06-18 EP EP01115778A patent/EP1199675B1/en not_active Expired - Lifetime
- 1993-06-21 JP JP5174752A patent/JP2925435B2/ja not_active Expired - Fee Related
- 1993-12-30 US US08/176,075 patent/US5452399A/en not_active Expired - Lifetime
-
1995
- 1995-01-11 US US08/371,519 patent/US5664067A/en not_active Expired - Lifetime
- 1995-01-23 US US08/376,819 patent/US5638491A/en not_active Expired - Lifetime
-
1997
- 1997-06-24 US US08/881,133 patent/US5974404A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US5452399A (en) | 1995-09-19 |
EP0574937B1 (en) | 2000-08-16 |
EP0944021B1 (en) | 2005-05-11 |
ATE279758T1 (de) | 2004-10-15 |
DE69329218T2 (de) | 2001-04-05 |
DE69333811T2 (de) | 2006-05-11 |
EP0944021A2 (en) | 1999-09-22 |
EP0574937A2 (en) | 1993-12-22 |
EP0574937A3 (en) | 1995-01-11 |
EP0944021A3 (en) | 1999-10-13 |
US5638491A (en) | 1997-06-10 |
DE69333664T2 (de) | 2005-11-17 |
US5664067A (en) | 1997-09-02 |
DE69333811D1 (de) | 2005-06-16 |
ES2150431T3 (es) | 2000-12-01 |
JPH06176161A (ja) | 1994-06-24 |
DE69333664D1 (de) | 2004-11-18 |
EP1199675A1 (en) | 2002-04-24 |
US5974404A (en) | 1999-10-26 |
EP1199675B1 (en) | 2004-10-13 |
DE69329218D1 (de) | 2000-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2925435B2 (ja) | 入力分類方法、トレーニング方法、調整方法、及び装置 | |
US10713563B2 (en) | Object recognition using a convolutional neural network trained by principal component analysis and repeated spectral clustering | |
JP2925434B2 (ja) | 入力分類方法、トレーニング方法、及び装置 | |
US10970313B2 (en) | Clustering device, clustering method, and computer program product | |
EP3745309A1 (en) | Training a generative adversarial network | |
Adamczak et al. | New developments in the feature space mapping model | |
KR20200093970A (ko) | 양의 정부호 행렬 위에서의 리만 서브 매니폴드 프레임워크를 이용한 로그 유클리디안 메트릭 러닝 장치 및 방법 | |
Amorim et al. | Analysing rotation-invariance of a log-polar transformation in convolutional neural networks | |
JP2022072648A (ja) | 機械学習モデルを用いてクラス分類処理を実行する方法、情報処理装置、及び、コンピュータープログラム | |
US12033370B2 (en) | Learning device, learning method, and computer program product | |
Li et al. | Strangeness based feature selection for part based recognition | |
Zhang et al. | Kernel pooled local subspaces for classification | |
Cervera et al. | Multiple self-organizing maps: a hybrid learning scheme | |
Atukorale et al. | On the performance of the HONG network for pattern classification | |
US20230005119A1 (en) | Method for determining quality of inspection data using machine learning model, information processing apparatus, and non-transitory computer readable storage medium storing computer program | |
JPH06251156A (ja) | パターン認識装置 | |
US20220277198A1 (en) | Method for discriminating class of data to be discriminated using machine learning model, information processing device, and computer program | |
Cervera et al. | Multiple self-organizing maps for supervised learning | |
Dal Col et al. | Fast and accurate object detection by means of recursive monomial feature elimination and cascade of SVM | |
CN114863159A (zh) | 信息处理方法、信息处理装置及计算机程序 | |
Scott et al. | Diff2Dist: Learning Spectrally Distinct Edge Functions, with Applications to Cell Morphology Analysis | |
Bukor | A Parallel Fuzzy Filter Network for Pattern Recognition | |
Tagliaferri et al. | Astronomical object recognition by means of neural networks | |
JP5936160B1 (ja) | パターン認識装置とその学習方法、及びパターン認識学習用プログラム | |
Sagheer et al. | Fast feature extraction approach for multi-dimension feature space problems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19990406 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090507 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100507 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |