JP3393511B2 - 文字認識装置及び方法 - Google Patents

文字認識装置及び方法

Info

Publication number
JP3393511B2
JP3393511B2 JP06123891A JP6123891A JP3393511B2 JP 3393511 B2 JP3393511 B2 JP 3393511B2 JP 06123891 A JP06123891 A JP 06123891A JP 6123891 A JP6123891 A JP 6123891A JP 3393511 B2 JP3393511 B2 JP 3393511B2
Authority
JP
Japan
Prior art keywords
character recognition
coefficient
subspace
character pattern
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06123891A
Other languages
English (en)
Other versions
JPH04275690A (ja
Inventor
昌司 金丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP06123891A priority Critical patent/JP3393511B2/ja
Publication of JPH04275690A publication Critical patent/JPH04275690A/ja
Application granted granted Critical
Publication of JP3393511B2 publication Critical patent/JP3393511B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は文字認識装置に関し、特
にそれぞれニユーロンに対応する信号処理を行なう複数
のユニツトにより構成されたいわゆるニユーラルネツト
ワーク(Neural Network: 神経回路網)を用いた信号処
理部に対して、バツクプロパゲーシヨン(Bcak Propaga
tion: 誤差逆伝搬学習則)に従つて学習処理をする文字
認識装置に関する。
【0002】
【従来の技術】それぞれニユーロンに対応する信号処理
を行なう複数のユニツトにより構成されたいわゆるニユ
ーラルネツトワークを用いた信号処理部に関する学習処
理の手法として、バツクプロパゲーシヨン学習則が例え
ば(「ニユーラルネツトワーク情報処理」麻生英樹著50
-52 頁1988年産業図書発行)において提案されている。
【0003】バツクプロパゲーシヨン学習則の原理は、
第2図に示すように、入力層11及び出力層12間に中
間層13を有する多層構造のニユーラルネツトワークに
より構成される信号処理部14に適用され、文字認識や
音声認識等各種の信号処理への応用が試みられている。
【0004】このニユーラルネツトワークのうちj番目
の段の層を構成する各ユニツトUj は、前段の層を形成
しかつ結合係数wjiでユニツトUj に結合されるi番目
の層の各ユニツトUi の出力Oi の総和 netj を例えば
シグモイド(sigmoid )関数などの所定の関数fで変換
された値Oj をもつ出力を送出する。すなわち、入力信
号パターンS1の値pが入力層11の各ユニツトUj
入力値としてそれぞれ供給された時、順次中間層13及
び出力層12に含まれる各ユニツトUj の出力値O
pjは、それぞれ次式
【0005】
【数1】 によつて表される。
【0006】そこで、入力層11から出力層12に向か
つて各ニユーロンに対応するユニツトUj の出力値を順
次計算して行けば、出力層12のユニツトUj の出力値
pjを求めることができる。バツクプロパゲーシヨン学
習アルゴリズムにおいては、信号処理部14の出力側に
設けられた学習処理部15によつて、入力パターンpを
与えた時の出力層12の各ユニツトUj の実際の出力値
pjと、望ましい出力値Tpjすなわち教師信号との2乗
誤差の総和EP 、すなわち
【0007】
【数2】 を極小化するように、結合係数Wjiを変えるような学習
処理を、出力層12から入力層11に向かつて順次行
う。このようにすると、教師信号S2の値Tpjに最も近
い出力値Opiが出力層12のユニツトUj の出力信号S
3として出力されるような状態になる。ところで、2乗
誤差の総和Ep を小さくする結合係数Wjiの変化量ΔW
jiを、次式
【0008】
【数3】 によつて決めるようにすれば、(3)式は
【0009】
【数4】 のように変形することができる。なおこのような変形の
過程は上述の文献に詳述されている。ここで、ηは学習
レート(定数)で、ユニツトUj の数や層11、13及
び12の数、さらには入出力の値等から経験的に決定さ
れる。また、δpjはユニツトUj のもつ誤差値である。
従つて、変化量ΔWjiを決定するためには、誤差値δpj
をネツトワークの出力層12から入力層11に向かつて
逆向きに求めていけば良い。すなわち出力層12のユニ
ツトUj の誤差値δpjは、次式
【0010】
【数5】 で表され、また中間層13のユニツトUj の誤差値δpj
は、当該ユニツトUj が結合されかつ後段の層を形成し
ている各ユニツトUk (図2の場合出力層12の各ユニ
ツト)の結合係数Wji及び誤差値δpjを用いて、次式
【0011】
【数6】 によつて表される再帰関数により計算される。(5)式
及び(6)式を求める過程も、上述の文献に詳述されて
いる。ここで、上記f′j (netj)は出力関数fj (net
j )の微分値である。そこで、変化量ΔWjiは、(5)
式及び(6)式の結果を用いて(4)式によつて求める
ことができるが、さらに次式
【0012】
【数7】 のように前回の学習結果を用いるようにすれば、より安
定した結果が得られる。ここでαはエラーの振動を減ら
し、収束を速めるための安定化定数である。このような
学習を繰り返し行ない。出力信号S3の出力値Opj及び
教師信号S2の値Tpjの2乗誤差の総和Ep が十分に小
さくなつた時点で学習を完了する。
【0013】
【発明が解決しようとする課題】ところで、このような
ニユーラルネツトワークを利用して画像処理や音声認識
などの分野において実用に適した装置を実現するために
は、各層のユニツトすなわちニユーロンの数を増やし、
ネツトワークの規模を大きくすることが必要とされ、そ
れに伴つて結合係数の学習に大規模な計算量が必要とな
る。
【0014】本発明は以上の点を考慮してなされたもの
で、ニユーラルネツトワークの入力空間の次元を削減す
ることによつて学習に要する計算量を減らすことができ
るようにすることにより、学習時の計算量を一段と小規
模にし得るアルゴリズムを提供しようとするものであ
る。
【0015】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、各ニユーロンに対応する信号処理
を行うL1個のユニツトにより構成された入力層11、
M個のユニツトにより構成された中間層13及びN個の
ユニツトにより構成された出力層12をもつ文字認識手
段を有する文字認識装置20において、L1次元の元の
空間において、L1次元入力パターンによつて構成され
るL1次元入力文字パターン群を、上記L1次元入力文字
パターン群の共分散行列のL2個の固有ベクトルを基底
とするL1よりも小さいL2次元の部分空間内のL2次元
変換文字パターン群に変換する変換手段23と、ニユー
ラルネツトワークによつて構成され、上記L2次元の部
分空間において学習することによつて、上記L2次元変
換文字パターン群から上記部分空間における結合の強さ
の係数を求める学習手段24と、上記部分空間における
結合の強さの係数を、上記元の空間における結合の強さ
の係数に逆変換して上記文字認識手段の上記ユニツト間
に設定する逆変換手段23とを設ける。
【0016】
【作用】従来のニユーラルネツトワークを用いても、本
発明で提案する方式を用いても、学習の結果として得ら
れるネツトワーク規模は同程度であるが、それぞれの学
習に要する時間には大きな違いがある。例えば、48×48
ドツトの、p=100 種類の文字パターンをニユーラルネ
ツトで学習しようとする場合、仮に、中間層13の数を
50段とすると、従来の方法では、結合の数が約12万個に
なるのに対し、本発明による文字認識装置を用いれば、
僅か、1万個程度で済むため、学習に要する時間を1/10
以下に短縮することができる。
【0017】
【実施例】以下図面について、本発明の一実施例を詳述
する。
【0018】本発明による文字認識装置20は、図1に
示すように、例えば文字パターン……「A」、「B」、
「C」、「D」、「E」、「F」、「G」……を表す入
力文字パターン群21、認識対象文字パターン22、パ
ターン変換器23及びニユーラルネツトワーク24によ
つて構成されている。文字認識処理をする場合、文字認
識装置20は先ず、入力文字パターン群21に基づいて
パターン変換器23の変換関数を求める。このパターン
変換器23の重みベクトルの変化関数数式は、以下のよ
うにして求まる。
【0019】階層的なニユーラルネツトワーク24にお
いて、Nm次元のパターンpが提示されたときの第k段
目の第i番目のユニツトへの入力の総和をipik、出
力をOpik、第(k−1)段目の層の第i番目のユニ
ツトから第k段目の第j番目のユニツトへの結合の重み
をwijk−1k、第k段目の第j番目のユニツトの閾
値をθjkとすると共に、各ユニツトの入出力関係を与
える関数をfとすると、これらの変換の間の関係は、次
式のように表すことができる。
【0020】
【数8】
【数9】 ここで、パターンの総数をNp 個とすると、それらの平
均パターンの出力は、次式
【0021】
【数10】 となる。この時、Np 個のパターンに対する誤差は
【数11】 となり、その第m主成分ベクトルを(umi k )とする
と、出力Opi k を次のように表すことができる。
【0022】
【数12】
【数13】
【数14】
【0023】
【数15】
【数16】 ここで、出力O1((15)式)は、Np 個のパターン
のうち、m=1番目の主成分ベクトルからm=mt 番目
の主ベクトルまでの範囲の主成分ベクトル群についての
出力であることを表しており、このことはL1次元の入
力文字パターン群の共分散行列のうち、L2 個(L2
1 より小さい)の固有ベクトルを基底とするL2 次元
の部分空間にあるL2 次元変換文字パターン群について
の出力を求めることを意味する。
【0024】これに対して出力O2((16)式)は、
p 個のパターンのうち、m=mt +1番目の主成分ベ
クトルからm=Nm 番目の主成分ベクトルまでの範囲の
主成分ベクトル群についての出力であることを表してお
り、このことはL1 次元の入力文字パターン群の共分散
行列のうち、L1 −L2 個の固有ベクトルを基底とする
1 −L2 次元の部分空間にあるL1 −L2 次元変換文
字パターン群についての出力を求めることを意味する。
そこで、第mt 主成分までとつた時、寄与率が十分大き
くなるように、mt の値を定めると、
【0025】
【数17】 と考えることができる。同じようにして、結合の重みに
ついて
【数18】
【数19】
【0026】
【数20】
【数21】
【数22】 のようにL2 次元の部分空間にあるL2 次元変換文字パ
ターン群についての結合の重みw1((21)式)と、
1 −L2次元の部分空間にあるL1 −L2 次元変換文
字パターン群についての結合の重みw2((22)式)
とに分離するように、結合の重みwij k-1kを表現し直す
ことができる。
【0027】そこで、
【数23】 となるように、mt 次元の部分空間内でニユーラルネツ
トの学習を行なうことにすると、結合の重みについて
【数24】 の関係になるから、(9)式を
【0028】
【数25】 と変形できる。ただし、
【数26】
【数27】 である。
【0029】従つて、部分空間において学習することに
よつて得た結合の重みw1及び閾値θ1を、(24)式
及び(26)式によつて表される変換式に代入すること
によつて元の空間における結合の重みwij k-1k及び閾値
θj k を求めることができる。以上の構成において、学
習時には、入力された認識対象文字パターン22はパタ
ーン変換器23において変換された後、ニユーラルネツ
トワーク24において学習を行なう。
【0030】ここでニユーラルネツトワーク24として
は一般的な構成のものを適用すれば良く、かくしてニユ
ーラルネツトワーク24の学習によつて求めることがで
きた重みベクトル及び閾値を、(24)式及び(26)
式の変換式に代入するような演算処理をすることにより
元の文字空間での重みベクトルを求めることができる。
これに対して入力文字認識時には、このようにして学習
時に得た重みベクトルの値を、図2について上述したニ
ユーラルネツトワークに代入することによつて文字認識
処理をすることができ、その結果従来の手法によつて得
ることができた文字認識機能とほぼ同程度の文字認識機
能をもつネツトワークを構成することができる。
【0031】以上の構成によれば、(17)式及び(2
3)式について上述したように、L1 次元の入力文字パ
ターン群の共分散行列のうち、L1 −L2 次元の部分空
間にあるL1 −L2 次元変換文字パターン群についての
出力O2及び結合の重みw2が0になるような条件の下
に、ニユーラルネツトワークがmt 次元の部分空間につ
いての学習を行うようにしたことにより、結局文字認識
時に実行すべき学習をL2 次元(L2 はL1 より小さ
い)の部分空間にあるL2 次元変換文字パターン群に限
定することができ、この分ニユーラルネツトワークにお
ける学習規模を従来の場合と比較して一段と小規模にす
ることができる。
【0032】
【発明の効果】上述のように本発明によれば、部分空間
学習処理部において、L次元入力文字パターン群の部
分空間から得たL次元変換文字パターン群について学
習することによつて、ユニツト間の結合の強さの係数を
求めて、これを信号処理部全体のユニツト間の結合の強
さの係数に変換するようにしたことにより、従来手法で
は大規模な大型計算機を用いる必要があつたような膨大
な入力データに対する文字パターン認識を、パーソナル
コンピユータ程度の小規模な計算能力の計算機を用いて
行うことができる。
【図面の簡単な説明】
【図1】図1は本発明による文字認識装置の一例構成を
概念的に示すブロツク図である。
【図2】図2は従来用いられているニユーラルネツトワ
ーク及びバツクプロパゲーシヨン学習則の構成を概念的
に示すブロツク図である。
【符号の説明】
11……入力層、12……出力層、13……中間層、1
4……信号処理部、15……学習処理部、21……入力
文字パターン群、22……認識対象文字パターン、23
……パターン変換器、24……ニユーラルネツトワー
ク。

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】各ニユーロンに対応する信号処理を行うL
    1個のユニツトにより構成された入力層、M個のユニツ
    トにより構成された中間層及びN個のユニツトにより構
    成された出力層をもつ文字認識手段を有する文字認識装
    置において、 1 次元の元の空間において、1元入力文字パターンに
    よつて構成されるL1次元入力文字パターン群を、上記
    1次元入力文字パターン群の共分散行列のL2個の固有
    ベクトルを基底とするL1よりも小さいL2次元の部分空
    間内のL2次元変換文字パターン群に変換する変換手段
    と、 ニユーラルネツトワークによつて構成され、上記L 2
    元の部分空間において学習することによつて、上記L 2
    次元変換文字パターン群から上記部分空間における結合
    の強さの係数を求める学習手段と、 上記部分空間における結合の強さの係数を、上記元の空
    間における結合の強さの係数に逆変換して上記文字認識
    手段の上記ユニツト間に設定する逆変換手段と を具える
    ことを特徴とする文字認識装置。
  2. 【請求項2】上記逆変換手段は、次式 によつて結合の強さの係数の変換を行うことを特徴とす
    る請求項1に記載の文字認識装置。
  3. 【請求項3】文字認識時、各ニユーロンに対応する信号
    処理を行うL1個のユニツトにより構成された入力層、
    M個のユニツトにより構成された中間層及びN個のユニ
    ツトにより構成された出力層を有する文字認識手段によ
    つて文字認識処理をする文字認識方法において、 学習時、変換手段によつて、L 1 次元の元の空間におい
    て、1次元入力文字パターンによつて構成されるL1
    入力文字パターン群を、上記L1次元入力文字パターン
    群の共分散行列のL2個の固有ベクトルを基底とするL1
    よりも小さいL2次元の部分空間内のL2次元変換文字パ
    ターン群に変換し、 上記変換手段から得られるL 2 次元変換文字パターン群
    について、ニユーラルネツトワークによつて構成される
    学習手段によつて上記L 2 次元の部分空間において学習
    することによつて、上記L 2 次元変換文字パターン群か
    ら上記部分空間における結合の強さの係数を求め、 逆変換手段によつて、上記部分空間における結合の強さ
    の係数を、上記元の空間における結合の強さの係数に逆
    変換して上記文字認識手段の上記ユニツト間に設定する
    ことを特徴とする文字認識方法。
  4. 【請求項4】上記逆変換は、次式 によつて結合の強さの係数の変換を行うことを特徴とす
    る請求項3に記載の文字認識方法。
JP06123891A 1991-03-02 1991-03-02 文字認識装置及び方法 Expired - Fee Related JP3393511B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06123891A JP3393511B2 (ja) 1991-03-02 1991-03-02 文字認識装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06123891A JP3393511B2 (ja) 1991-03-02 1991-03-02 文字認識装置及び方法

Publications (2)

Publication Number Publication Date
JPH04275690A JPH04275690A (ja) 1992-10-01
JP3393511B2 true JP3393511B2 (ja) 2003-04-07

Family

ID=13165454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06123891A Expired - Fee Related JP3393511B2 (ja) 1991-03-02 1991-03-02 文字認識装置及び方法

Country Status (1)

Country Link
JP (1) JP3393511B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168913A (ja) 1993-12-14 1995-07-04 Chugoku Nippon Denki Software Kk 文字認識システム

Also Published As

Publication number Publication date
JPH04275690A (ja) 1992-10-01

Similar Documents

Publication Publication Date Title
RU2406105C2 (ru) Способ обработки информации в нейронных сетях
CN112529166A (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
JPH06509195A (ja) 分散型比較ニューラル・ネットワーク
JPH08227408A (ja) ニューラルネットワーク
JP3393511B2 (ja) 文字認識装置及び方法
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JP3374476B2 (ja) ニューラルネットワーク構築方法
JP2897220B2 (ja) 信号処理装置
JP2699447B2 (ja) 信号処理装置
JPH076146A (ja) 並列データ処理システム
JPH0272491A (ja) 画像変換処理装置
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH0638200B2 (ja) ダイナミックなニューラルネットワーク
JPH04237388A (ja) ニューロプロセッサ
Jamal Neural network and cellular manufacturing
Tokunaga et al. Modular network SOM: Self-organizing maps in function space
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
JPH09138786A (ja) ニューラルネットワークの学習装置
JPH08249303A (ja) 信号処理装置
JPH05314090A (ja) ニューラルネットを用いたパターン認識方法およびその装置
JP2621916B2 (ja) 神経回路網の学習方法
Boyko et al. Neural Networks: Training with Backpropagation and the Gradient Algorithm
JPH02165285A (ja) パターン認識装置
Phillips Implementing a Neural Network for Supervised Learning with a Random Configuration of Layers and Nodes
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees