JP3393511B2 - 文字認識装置及び方法 - Google Patents
文字認識装置及び方法Info
- Publication number
- JP3393511B2 JP3393511B2 JP06123891A JP6123891A JP3393511B2 JP 3393511 B2 JP3393511 B2 JP 3393511B2 JP 06123891 A JP06123891 A JP 06123891A JP 6123891 A JP6123891 A JP 6123891A JP 3393511 B2 JP3393511 B2 JP 3393511B2
- Authority
- JP
- Japan
- Prior art keywords
- character recognition
- coefficient
- subspace
- character pattern
- units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Character Discrimination (AREA)
Description
【0001】
【産業上の利用分野】本発明は文字認識装置に関し、特
にそれぞれニユーロンに対応する信号処理を行なう複数
のユニツトにより構成されたいわゆるニユーラルネツト
ワーク(Neural Network: 神経回路網)を用いた信号処
理部に対して、バツクプロパゲーシヨン(Bcak Propaga
tion: 誤差逆伝搬学習則)に従つて学習処理をする文字
認識装置に関する。
にそれぞれニユーロンに対応する信号処理を行なう複数
のユニツトにより構成されたいわゆるニユーラルネツト
ワーク(Neural Network: 神経回路網)を用いた信号処
理部に対して、バツクプロパゲーシヨン(Bcak Propaga
tion: 誤差逆伝搬学習則)に従つて学習処理をする文字
認識装置に関する。
【0002】
【従来の技術】それぞれニユーロンに対応する信号処理
を行なう複数のユニツトにより構成されたいわゆるニユ
ーラルネツトワークを用いた信号処理部に関する学習処
理の手法として、バツクプロパゲーシヨン学習則が例え
ば(「ニユーラルネツトワーク情報処理」麻生英樹著50
-52 頁1988年産業図書発行)において提案されている。
を行なう複数のユニツトにより構成されたいわゆるニユ
ーラルネツトワークを用いた信号処理部に関する学習処
理の手法として、バツクプロパゲーシヨン学習則が例え
ば(「ニユーラルネツトワーク情報処理」麻生英樹著50
-52 頁1988年産業図書発行)において提案されている。
【0003】バツクプロパゲーシヨン学習則の原理は、
第2図に示すように、入力層11及び出力層12間に中
間層13を有する多層構造のニユーラルネツトワークに
より構成される信号処理部14に適用され、文字認識や
音声認識等各種の信号処理への応用が試みられている。
第2図に示すように、入力層11及び出力層12間に中
間層13を有する多層構造のニユーラルネツトワークに
より構成される信号処理部14に適用され、文字認識や
音声認識等各種の信号処理への応用が試みられている。
【0004】このニユーラルネツトワークのうちj番目
の段の層を構成する各ユニツトUj は、前段の層を形成
しかつ結合係数wjiでユニツトUj に結合されるi番目
の層の各ユニツトUi の出力Oi の総和 netj を例えば
シグモイド(sigmoid )関数などの所定の関数fで変換
された値Oj をもつ出力を送出する。すなわち、入力信
号パターンS1の値pが入力層11の各ユニツトUj に
入力値としてそれぞれ供給された時、順次中間層13及
び出力層12に含まれる各ユニツトUj の出力値O
pjは、それぞれ次式
の段の層を構成する各ユニツトUj は、前段の層を形成
しかつ結合係数wjiでユニツトUj に結合されるi番目
の層の各ユニツトUi の出力Oi の総和 netj を例えば
シグモイド(sigmoid )関数などの所定の関数fで変換
された値Oj をもつ出力を送出する。すなわち、入力信
号パターンS1の値pが入力層11の各ユニツトUj に
入力値としてそれぞれ供給された時、順次中間層13及
び出力層12に含まれる各ユニツトUj の出力値O
pjは、それぞれ次式
【0005】
【数1】
によつて表される。
【0006】そこで、入力層11から出力層12に向か
つて各ニユーロンに対応するユニツトUj の出力値を順
次計算して行けば、出力層12のユニツトUj の出力値
Opjを求めることができる。バツクプロパゲーシヨン学
習アルゴリズムにおいては、信号処理部14の出力側に
設けられた学習処理部15によつて、入力パターンpを
与えた時の出力層12の各ユニツトUj の実際の出力値
Opjと、望ましい出力値Tpjすなわち教師信号との2乗
誤差の総和EP 、すなわち
つて各ニユーロンに対応するユニツトUj の出力値を順
次計算して行けば、出力層12のユニツトUj の出力値
Opjを求めることができる。バツクプロパゲーシヨン学
習アルゴリズムにおいては、信号処理部14の出力側に
設けられた学習処理部15によつて、入力パターンpを
与えた時の出力層12の各ユニツトUj の実際の出力値
Opjと、望ましい出力値Tpjすなわち教師信号との2乗
誤差の総和EP 、すなわち
【0007】
【数2】
を極小化するように、結合係数Wjiを変えるような学習
処理を、出力層12から入力層11に向かつて順次行
う。このようにすると、教師信号S2の値Tpjに最も近
い出力値Opiが出力層12のユニツトUj の出力信号S
3として出力されるような状態になる。ところで、2乗
誤差の総和Ep を小さくする結合係数Wjiの変化量ΔW
jiを、次式
処理を、出力層12から入力層11に向かつて順次行
う。このようにすると、教師信号S2の値Tpjに最も近
い出力値Opiが出力層12のユニツトUj の出力信号S
3として出力されるような状態になる。ところで、2乗
誤差の総和Ep を小さくする結合係数Wjiの変化量ΔW
jiを、次式
【0008】
【数3】
によつて決めるようにすれば、(3)式は
【0009】
【数4】
のように変形することができる。なおこのような変形の
過程は上述の文献に詳述されている。ここで、ηは学習
レート(定数)で、ユニツトUj の数や層11、13及
び12の数、さらには入出力の値等から経験的に決定さ
れる。また、δpjはユニツトUj のもつ誤差値である。
従つて、変化量ΔWjiを決定するためには、誤差値δpj
をネツトワークの出力層12から入力層11に向かつて
逆向きに求めていけば良い。すなわち出力層12のユニ
ツトUj の誤差値δpjは、次式
過程は上述の文献に詳述されている。ここで、ηは学習
レート(定数)で、ユニツトUj の数や層11、13及
び12の数、さらには入出力の値等から経験的に決定さ
れる。また、δpjはユニツトUj のもつ誤差値である。
従つて、変化量ΔWjiを決定するためには、誤差値δpj
をネツトワークの出力層12から入力層11に向かつて
逆向きに求めていけば良い。すなわち出力層12のユニ
ツトUj の誤差値δpjは、次式
【0010】
【数5】
で表され、また中間層13のユニツトUj の誤差値δpj
は、当該ユニツトUj が結合されかつ後段の層を形成し
ている各ユニツトUk (図2の場合出力層12の各ユニ
ツト)の結合係数Wji及び誤差値δpjを用いて、次式
は、当該ユニツトUj が結合されかつ後段の層を形成し
ている各ユニツトUk (図2の場合出力層12の各ユニ
ツト)の結合係数Wji及び誤差値δpjを用いて、次式
【0011】
【数6】
によつて表される再帰関数により計算される。(5)式
及び(6)式を求める過程も、上述の文献に詳述されて
いる。ここで、上記f′j (netj)は出力関数fj (net
j )の微分値である。そこで、変化量ΔWjiは、(5)
式及び(6)式の結果を用いて(4)式によつて求める
ことができるが、さらに次式
及び(6)式を求める過程も、上述の文献に詳述されて
いる。ここで、上記f′j (netj)は出力関数fj (net
j )の微分値である。そこで、変化量ΔWjiは、(5)
式及び(6)式の結果を用いて(4)式によつて求める
ことができるが、さらに次式
【0012】
【数7】
のように前回の学習結果を用いるようにすれば、より安
定した結果が得られる。ここでαはエラーの振動を減ら
し、収束を速めるための安定化定数である。このような
学習を繰り返し行ない。出力信号S3の出力値Opj及び
教師信号S2の値Tpjの2乗誤差の総和Ep が十分に小
さくなつた時点で学習を完了する。
定した結果が得られる。ここでαはエラーの振動を減ら
し、収束を速めるための安定化定数である。このような
学習を繰り返し行ない。出力信号S3の出力値Opj及び
教師信号S2の値Tpjの2乗誤差の総和Ep が十分に小
さくなつた時点で学習を完了する。
【0013】
【発明が解決しようとする課題】ところで、このような
ニユーラルネツトワークを利用して画像処理や音声認識
などの分野において実用に適した装置を実現するために
は、各層のユニツトすなわちニユーロンの数を増やし、
ネツトワークの規模を大きくすることが必要とされ、そ
れに伴つて結合係数の学習に大規模な計算量が必要とな
る。
ニユーラルネツトワークを利用して画像処理や音声認識
などの分野において実用に適した装置を実現するために
は、各層のユニツトすなわちニユーロンの数を増やし、
ネツトワークの規模を大きくすることが必要とされ、そ
れに伴つて結合係数の学習に大規模な計算量が必要とな
る。
【0014】本発明は以上の点を考慮してなされたもの
で、ニユーラルネツトワークの入力空間の次元を削減す
ることによつて学習に要する計算量を減らすことができ
るようにすることにより、学習時の計算量を一段と小規
模にし得るアルゴリズムを提供しようとするものであ
る。
で、ニユーラルネツトワークの入力空間の次元を削減す
ることによつて学習に要する計算量を減らすことができ
るようにすることにより、学習時の計算量を一段と小規
模にし得るアルゴリズムを提供しようとするものであ
る。
【0015】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、各ニユーロンに対応する信号処理
を行うL1個のユニツトにより構成された入力層11、
M個のユニツトにより構成された中間層13及びN個の
ユニツトにより構成された出力層12をもつ文字認識手
段を有する文字認識装置20において、L1次元の元の
空間において、L1次元入力パターンによつて構成され
るL1次元入力文字パターン群を、上記L1次元入力文字
パターン群の共分散行列のL2個の固有ベクトルを基底
とするL1よりも小さいL2次元の部分空間内のL2次元
変換文字パターン群に変換する変換手段23と、ニユー
ラルネツトワークによつて構成され、上記L2次元の部
分空間において学習することによつて、上記L2次元変
換文字パターン群から上記部分空間における結合の強さ
の係数を求める学習手段24と、上記部分空間における
結合の強さの係数を、上記元の空間における結合の強さ
の係数に逆変換して上記文字認識手段の上記ユニツト間
に設定する逆変換手段23とを設ける。
め本発明においては、各ニユーロンに対応する信号処理
を行うL1個のユニツトにより構成された入力層11、
M個のユニツトにより構成された中間層13及びN個の
ユニツトにより構成された出力層12をもつ文字認識手
段を有する文字認識装置20において、L1次元の元の
空間において、L1次元入力パターンによつて構成され
るL1次元入力文字パターン群を、上記L1次元入力文字
パターン群の共分散行列のL2個の固有ベクトルを基底
とするL1よりも小さいL2次元の部分空間内のL2次元
変換文字パターン群に変換する変換手段23と、ニユー
ラルネツトワークによつて構成され、上記L2次元の部
分空間において学習することによつて、上記L2次元変
換文字パターン群から上記部分空間における結合の強さ
の係数を求める学習手段24と、上記部分空間における
結合の強さの係数を、上記元の空間における結合の強さ
の係数に逆変換して上記文字認識手段の上記ユニツト間
に設定する逆変換手段23とを設ける。
【0016】
【作用】従来のニユーラルネツトワークを用いても、本
発明で提案する方式を用いても、学習の結果として得ら
れるネツトワーク規模は同程度であるが、それぞれの学
習に要する時間には大きな違いがある。例えば、48×48
ドツトの、p=100 種類の文字パターンをニユーラルネ
ツトで学習しようとする場合、仮に、中間層13の数を
50段とすると、従来の方法では、結合の数が約12万個に
なるのに対し、本発明による文字認識装置を用いれば、
僅か、1万個程度で済むため、学習に要する時間を1/10
以下に短縮することができる。
発明で提案する方式を用いても、学習の結果として得ら
れるネツトワーク規模は同程度であるが、それぞれの学
習に要する時間には大きな違いがある。例えば、48×48
ドツトの、p=100 種類の文字パターンをニユーラルネ
ツトで学習しようとする場合、仮に、中間層13の数を
50段とすると、従来の方法では、結合の数が約12万個に
なるのに対し、本発明による文字認識装置を用いれば、
僅か、1万個程度で済むため、学習に要する時間を1/10
以下に短縮することができる。
【0017】
【実施例】以下図面について、本発明の一実施例を詳述
する。
する。
【0018】本発明による文字認識装置20は、図1に
示すように、例えば文字パターン……「A」、「B」、
「C」、「D」、「E」、「F」、「G」……を表す入
力文字パターン群21、認識対象文字パターン22、パ
ターン変換器23及びニユーラルネツトワーク24によ
つて構成されている。文字認識処理をする場合、文字認
識装置20は先ず、入力文字パターン群21に基づいて
パターン変換器23の変換関数を求める。このパターン
変換器23の重みベクトルの変化関数数式は、以下のよ
うにして求まる。
示すように、例えば文字パターン……「A」、「B」、
「C」、「D」、「E」、「F」、「G」……を表す入
力文字パターン群21、認識対象文字パターン22、パ
ターン変換器23及びニユーラルネツトワーク24によ
つて構成されている。文字認識処理をする場合、文字認
識装置20は先ず、入力文字パターン群21に基づいて
パターン変換器23の変換関数を求める。このパターン
変換器23の重みベクトルの変化関数数式は、以下のよ
うにして求まる。
【0019】階層的なニユーラルネツトワーク24にお
いて、Nm次元のパターンpが提示されたときの第k段
目の第i番目のユニツトへの入力の総和をipik、出
力をOpik、第(k−1)段目の層の第i番目のユニ
ツトから第k段目の第j番目のユニツトへの結合の重み
をwijk−1k、第k段目の第j番目のユニツトの閾
値をθjkとすると共に、各ユニツトの入出力関係を与
える関数をfとすると、これらの変換の間の関係は、次
式のように表すことができる。
いて、Nm次元のパターンpが提示されたときの第k段
目の第i番目のユニツトへの入力の総和をipik、出
力をOpik、第(k−1)段目の層の第i番目のユニ
ツトから第k段目の第j番目のユニツトへの結合の重み
をwijk−1k、第k段目の第j番目のユニツトの閾
値をθjkとすると共に、各ユニツトの入出力関係を与
える関数をfとすると、これらの変換の間の関係は、次
式のように表すことができる。
【0020】
【数8】
【数9】
ここで、パターンの総数をNp 個とすると、それらの平
均パターンの出力は、次式
均パターンの出力は、次式
【0021】
【数10】
となる。この時、Np 個のパターンに対する誤差は
【数11】
となり、その第m主成分ベクトルを(umi k )とする
と、出力Opi k を次のように表すことができる。
と、出力Opi k を次のように表すことができる。
【0022】
【数12】
【数13】
【数14】
【0023】
【数15】
【数16】
ここで、出力O1((15)式)は、Np 個のパターン
のうち、m=1番目の主成分ベクトルからm=mt 番目
の主ベクトルまでの範囲の主成分ベクトル群についての
出力であることを表しており、このことはL1次元の入
力文字パターン群の共分散行列のうち、L2 個(L2 は
L1 より小さい)の固有ベクトルを基底とするL2 次元
の部分空間にあるL2 次元変換文字パターン群について
の出力を求めることを意味する。
のうち、m=1番目の主成分ベクトルからm=mt 番目
の主ベクトルまでの範囲の主成分ベクトル群についての
出力であることを表しており、このことはL1次元の入
力文字パターン群の共分散行列のうち、L2 個(L2 は
L1 より小さい)の固有ベクトルを基底とするL2 次元
の部分空間にあるL2 次元変換文字パターン群について
の出力を求めることを意味する。
【0024】これに対して出力O2((16)式)は、
Np 個のパターンのうち、m=mt +1番目の主成分ベ
クトルからm=Nm 番目の主成分ベクトルまでの範囲の
主成分ベクトル群についての出力であることを表してお
り、このことはL1 次元の入力文字パターン群の共分散
行列のうち、L1 −L2 個の固有ベクトルを基底とする
L1 −L2 次元の部分空間にあるL1 −L2 次元変換文
字パターン群についての出力を求めることを意味する。
そこで、第mt 主成分までとつた時、寄与率が十分大き
くなるように、mt の値を定めると、
Np 個のパターンのうち、m=mt +1番目の主成分ベ
クトルからm=Nm 番目の主成分ベクトルまでの範囲の
主成分ベクトル群についての出力であることを表してお
り、このことはL1 次元の入力文字パターン群の共分散
行列のうち、L1 −L2 個の固有ベクトルを基底とする
L1 −L2 次元の部分空間にあるL1 −L2 次元変換文
字パターン群についての出力を求めることを意味する。
そこで、第mt 主成分までとつた時、寄与率が十分大き
くなるように、mt の値を定めると、
【0025】
【数17】
と考えることができる。同じようにして、結合の重みに
ついて
ついて
【数18】
【数19】
【0026】
【数20】
【数21】
【数22】
のようにL2 次元の部分空間にあるL2 次元変換文字パ
ターン群についての結合の重みw1((21)式)と、
L1 −L2次元の部分空間にあるL1 −L2 次元変換文
字パターン群についての結合の重みw2((22)式)
とに分離するように、結合の重みwij k-1kを表現し直す
ことができる。
ターン群についての結合の重みw1((21)式)と、
L1 −L2次元の部分空間にあるL1 −L2 次元変換文
字パターン群についての結合の重みw2((22)式)
とに分離するように、結合の重みwij k-1kを表現し直す
ことができる。
【0027】そこで、
【数23】
となるように、mt 次元の部分空間内でニユーラルネツ
トの学習を行なうことにすると、結合の重みについて
トの学習を行なうことにすると、結合の重みについて
【数24】
の関係になるから、(9)式を
【0028】
【数25】
と変形できる。ただし、
【数26】
【数27】
である。
【0029】従つて、部分空間において学習することに
よつて得た結合の重みw1及び閾値θ1を、(24)式
及び(26)式によつて表される変換式に代入すること
によつて元の空間における結合の重みwij k-1k及び閾値
θj k を求めることができる。以上の構成において、学
習時には、入力された認識対象文字パターン22はパタ
ーン変換器23において変換された後、ニユーラルネツ
トワーク24において学習を行なう。
よつて得た結合の重みw1及び閾値θ1を、(24)式
及び(26)式によつて表される変換式に代入すること
によつて元の空間における結合の重みwij k-1k及び閾値
θj k を求めることができる。以上の構成において、学
習時には、入力された認識対象文字パターン22はパタ
ーン変換器23において変換された後、ニユーラルネツ
トワーク24において学習を行なう。
【0030】ここでニユーラルネツトワーク24として
は一般的な構成のものを適用すれば良く、かくしてニユ
ーラルネツトワーク24の学習によつて求めることがで
きた重みベクトル及び閾値を、(24)式及び(26)
式の変換式に代入するような演算処理をすることにより
元の文字空間での重みベクトルを求めることができる。
これに対して入力文字認識時には、このようにして学習
時に得た重みベクトルの値を、図2について上述したニ
ユーラルネツトワークに代入することによつて文字認識
処理をすることができ、その結果従来の手法によつて得
ることができた文字認識機能とほぼ同程度の文字認識機
能をもつネツトワークを構成することができる。
は一般的な構成のものを適用すれば良く、かくしてニユ
ーラルネツトワーク24の学習によつて求めることがで
きた重みベクトル及び閾値を、(24)式及び(26)
式の変換式に代入するような演算処理をすることにより
元の文字空間での重みベクトルを求めることができる。
これに対して入力文字認識時には、このようにして学習
時に得た重みベクトルの値を、図2について上述したニ
ユーラルネツトワークに代入することによつて文字認識
処理をすることができ、その結果従来の手法によつて得
ることができた文字認識機能とほぼ同程度の文字認識機
能をもつネツトワークを構成することができる。
【0031】以上の構成によれば、(17)式及び(2
3)式について上述したように、L1 次元の入力文字パ
ターン群の共分散行列のうち、L1 −L2 次元の部分空
間にあるL1 −L2 次元変換文字パターン群についての
出力O2及び結合の重みw2が0になるような条件の下
に、ニユーラルネツトワークがmt 次元の部分空間につ
いての学習を行うようにしたことにより、結局文字認識
時に実行すべき学習をL2 次元(L2 はL1 より小さ
い)の部分空間にあるL2 次元変換文字パターン群に限
定することができ、この分ニユーラルネツトワークにお
ける学習規模を従来の場合と比較して一段と小規模にす
ることができる。
3)式について上述したように、L1 次元の入力文字パ
ターン群の共分散行列のうち、L1 −L2 次元の部分空
間にあるL1 −L2 次元変換文字パターン群についての
出力O2及び結合の重みw2が0になるような条件の下
に、ニユーラルネツトワークがmt 次元の部分空間につ
いての学習を行うようにしたことにより、結局文字認識
時に実行すべき学習をL2 次元(L2 はL1 より小さ
い)の部分空間にあるL2 次元変換文字パターン群に限
定することができ、この分ニユーラルネツトワークにお
ける学習規模を従来の場合と比較して一段と小規模にす
ることができる。
【0032】
【発明の効果】上述のように本発明によれば、部分空間
学習処理部において、L1次元入力文字パターン群の部
分空間から得たL2次元変換文字パターン群について学
習することによつて、ユニツト間の結合の強さの係数を
求めて、これを信号処理部全体のユニツト間の結合の強
さの係数に変換するようにしたことにより、従来手法で
は大規模な大型計算機を用いる必要があつたような膨大
な入力データに対する文字パターン認識を、パーソナル
コンピユータ程度の小規模な計算能力の計算機を用いて
行うことができる。
学習処理部において、L1次元入力文字パターン群の部
分空間から得たL2次元変換文字パターン群について学
習することによつて、ユニツト間の結合の強さの係数を
求めて、これを信号処理部全体のユニツト間の結合の強
さの係数に変換するようにしたことにより、従来手法で
は大規模な大型計算機を用いる必要があつたような膨大
な入力データに対する文字パターン認識を、パーソナル
コンピユータ程度の小規模な計算能力の計算機を用いて
行うことができる。
【図1】図1は本発明による文字認識装置の一例構成を
概念的に示すブロツク図である。
概念的に示すブロツク図である。
【図2】図2は従来用いられているニユーラルネツトワ
ーク及びバツクプロパゲーシヨン学習則の構成を概念的
に示すブロツク図である。
ーク及びバツクプロパゲーシヨン学習則の構成を概念的
に示すブロツク図である。
11……入力層、12……出力層、13……中間層、1
4……信号処理部、15……学習処理部、21……入力
文字パターン群、22……認識対象文字パターン、23
……パターン変換器、24……ニユーラルネツトワー
ク。
4……信号処理部、15……学習処理部、21……入力
文字パターン群、22……認識対象文字パターン、23
……パターン変換器、24……ニユーラルネツトワー
ク。
Claims (4)
- 【請求項1】各ニユーロンに対応する信号処理を行うL
1個のユニツトにより構成された入力層、M個のユニツ
トにより構成された中間層及びN個のユニツトにより構
成された出力層をもつ文字認識手段を有する文字認識装
置において、 L 1 次元の元の空間において、 L1元入力文字パターンに
よつて構成されるL1次元入力文字パターン群を、上記
L1次元入力文字パターン群の共分散行列のL2個の固有
ベクトルを基底とするL1よりも小さいL2次元の部分空
間内のL2次元変換文字パターン群に変換する変換手段
と、 ニユーラルネツトワークによつて構成され、上記L 2 次
元の部分空間において学習することによつて、上記L 2
次元変換文字パターン群から上記部分空間における結合
の強さの係数を求める学習手段と、 上記部分空間における結合の強さの係数を、上記元の空
間における結合の強さの係数に逆変換して上記文字認識
手段の上記ユニツト間に設定する逆変換手段と を具える
ことを特徴とする文字認識装置。 - 【請求項2】上記逆変換手段は、次式 によつて結合の強さの係数の変換を行うことを特徴とす
る請求項1に記載の文字認識装置。 - 【請求項3】文字認識時、各ニユーロンに対応する信号
処理を行うL1個のユニツトにより構成された入力層、
M個のユニツトにより構成された中間層及びN個のユニ
ツトにより構成された出力層を有する文字認識手段によ
つて文字認識処理をする文字認識方法において、 学習時、変換手段によつて、L 1 次元の元の空間におい
て、 L1次元入力文字パターンによつて構成されるL1元
入力文字パターン群を、上記L1次元入力文字パターン
群の共分散行列のL2個の固有ベクトルを基底とするL1
よりも小さいL2次元の部分空間内のL2次元変換文字パ
ターン群に変換し、 上記変換手段から得られるL 2 次元変換文字パターン群
について、ニユーラルネツトワークによつて構成される
学習手段によつて上記L 2 次元の部分空間において学習
することによつて、上記L 2 次元変換文字パターン群か
ら上記部分空間における結合の強さの係数を求め、 逆変換手段によつて、上記部分空間における結合の強さ
の係数を、上記元の空間における結合の強さの係数に逆
変換して上記文字認識手段の上記ユニツト間に設定する
ことを特徴とする文字認識方法。 - 【請求項4】上記逆変換は、次式 によつて結合の強さの係数の変換を行うことを特徴とす
る請求項3に記載の文字認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06123891A JP3393511B2 (ja) | 1991-03-02 | 1991-03-02 | 文字認識装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06123891A JP3393511B2 (ja) | 1991-03-02 | 1991-03-02 | 文字認識装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04275690A JPH04275690A (ja) | 1992-10-01 |
JP3393511B2 true JP3393511B2 (ja) | 2003-04-07 |
Family
ID=13165454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06123891A Expired - Fee Related JP3393511B2 (ja) | 1991-03-02 | 1991-03-02 | 文字認識装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3393511B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07168913A (ja) | 1993-12-14 | 1995-07-04 | Chugoku Nippon Denki Software Kk | 文字認識システム |
-
1991
- 1991-03-02 JP JP06123891A patent/JP3393511B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04275690A (ja) | 1992-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2406105C2 (ru) | Способ обработки информации в нейронных сетях | |
CN112529166A (zh) | 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备 | |
JPH06509195A (ja) | 分散型比較ニューラル・ネットワーク | |
JPH08227408A (ja) | ニューラルネットワーク | |
JP3393511B2 (ja) | 文字認識装置及び方法 | |
JPH07282168A (ja) | カオスリカレント神経回路網とその学習方法 | |
JP3374476B2 (ja) | ニューラルネットワーク構築方法 | |
JP2897220B2 (ja) | 信号処理装置 | |
JP2699447B2 (ja) | 信号処理装置 | |
JPH076146A (ja) | 並列データ処理システム | |
JPH0272491A (ja) | 画像変換処理装置 | |
JPH05101028A (ja) | 複数特徴量の統合判定方法 | |
JPH0638200B2 (ja) | ダイナミックなニューラルネットワーク | |
JPH04237388A (ja) | ニューロプロセッサ | |
Jamal | Neural network and cellular manufacturing | |
Tokunaga et al. | Modular network SOM: Self-organizing maps in function space | |
JPH0535710A (ja) | ニユーラルネツトワークの学習方法および学習装置 | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
JPH08249303A (ja) | 信号処理装置 | |
JPH05314090A (ja) | ニューラルネットを用いたパターン認識方法およびその装置 | |
JP2621916B2 (ja) | 神経回路網の学習方法 | |
Boyko et al. | Neural Networks: Training with Backpropagation and the Gradient Algorithm | |
JPH02165285A (ja) | パターン認識装置 | |
Phillips | Implementing a Neural Network for Supervised Learning with a Random Configuration of Layers and Nodes | |
JP3343626B2 (ja) | ファジィ推論のためのニューラルネットワーク |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |