JPH03265986A - 文字認識装置 - Google Patents

文字認識装置

Info

Publication number
JPH03265986A
JPH03265986A JP2065055A JP6505590A JPH03265986A JP H03265986 A JPH03265986 A JP H03265986A JP 2065055 A JP2065055 A JP 2065055A JP 6505590 A JP6505590 A JP 6505590A JP H03265986 A JPH03265986 A JP H03265986A
Authority
JP
Japan
Prior art keywords
character
area
small
image information
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2065055A
Other languages
English (en)
Other versions
JP2624558B2 (ja
Inventor
Toru Ueda
徹 上田
Yasushi Ishizuka
康司 石塚
Fumio Togawa
外川 文雄
Takashi Aramaki
荒巻 隆志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2065055A priority Critical patent/JP2624558B2/ja
Priority to US07/667,340 priority patent/US5151951A/en
Publication of JPH03265986A publication Critical patent/JPH03265986A/ja
Priority to US07/871,075 priority patent/US5271068A/en
Application granted granted Critical
Publication of JP2624558B2 publication Critical patent/JP2624558B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、読み取った文字画像情報の1文字の領域を
小領域に分割し、この小領域の特徴量に基づいて文字コ
ードを得る文字認識装置に関する。
〈従来の技術〉 従来、文字認識装置として次のようなものがある。すな
わち、文書等から読み取った文字画像情報の1文字領域
を連続した矩形の小領域に分割する。そして、この分割
された小領域における画像情報の特徴量を抽出し、この
小領域の特徴量に基づいて上記1文字領域の画像情報に
対応する文字コードを識別して読み取った文字を認識す
るのである。
その際に用いられる小領域の画像情報の特徴量の一つと
して小領域の中における平均濃度がある。
この小領域の特徴量として平均濃度を用いる方法はメツ
シュ法と呼ばれる。このメツシュ法は次のようにして読
み取った文字画像情報の文字コードを認識する。すなわ
ち、平均濃度が閾値以上の値を示す小領域の特徴量には
“1”を与える一方、そうでない小領域の特徴量には“
0”を与えたメツシュ・パターンを作成する。そして、
このメツシュ・パターンと標準文字の文字画像情報から
同様にして作成された標準文字パターンとを重ね合わせ
、対応する小領域の値が異なる小領域の数を数える。
そして、一番受ない値を取る標準文字パターンの文字コ
ードを読み取った文字画像情報に対する文字コードであ
ると認識するのである。
〈発明が解決しようとする課題〉 上述のように、上記メッシュ法に代表される文字認識装
置においては、上記小領域における特徴量をその小領域
の画像情報から直接抽出する(すなわち、画像情報その
ものの特徴量を表す)ようにしている。そのために、例
えば特定の平板名の特徴量を抽出する場合、平板名のみ
からなる文章から抽出された上記特定の平板名の特徴量
とJIS第1水準の漢字と平板名とから成る文章から抽
出された上記特定の平板名の特徴量とは全く同じ特徴量
となる。
ところか、平板名(46字)のみから成る文字群の文字
形態差の特徴とJIS第1水準の漢字と平板名とから成
る(合計約3000字)文字群の文字形態差の特徴とは
異なるのである。したがって、特定の平板名文字を認識
する際に、平板名のみから成る文字群において上記特定
の平板名文字を認識する際の特徴量と、JIS第1水準
の漢字と平板名とから成る文字群において上記特定の平
板名文字を認識する際の特@量とは異なって然るべきで
ある。
しかしながら、上述のように従来の文字認識装置におい
ては小領域の特徴量を画像情報から直接抽出するように
しているので、小領域の画像情報の特徴を表すことはで
きるが認識対象文字群の文字形態差の特徴を表すことが
できないのである。
したがって、平板名のみから成る文字群において特定の
平板名を認識する場合と、JIS第1水準の漢字と平板
名とから成る文字群において上記特定の平板名を認識す
る場合との認識能力に差が生じてしまうと言う問題があ
る。
また、1文字領域を小領域に分割する際に、上述のよう
に一律に連続した矩形の小領域に分割しているために、
手書き文字のように文字を形成する線の位置が書き手に
よって変動する場合には、同じ文字を構成する線である
にも拘わらず認識対象文字に係る1文字領域と標準パタ
ーンに係る1文字領域とにおいて異なった小領域に属す
る場合があり、文字認識能力が低下すると言う問題もあ
る。
さらに、上記1文字領域を小領域に分割する際に、矩形
の領域に等分割しているため、個々の小領域は識別対象
の文字群の文字形態差が良く表れる箇所を網羅できるよ
うな形状になっていない。
したがって、上記小領域に係る特徴量は十分に認識対象
文字群の文字形態差を表すことができず、小領域の特徴
量に基づいて文字を認識しようとする場合には1文字領
域を構成する総ての小領域について特徴量を求める必要
があり、文字認識処理の効率が悪いと言う問題もある。
そこで、この発明の目的は、1文字領域を構成する小領
域の特徴量を認識対象文字群の文字形態差を適確に表す
ように算出して、文字群の文字形態差の特徴が異なる種
々の文字群のいずれに対しても高い文字認識能力を有し
、かつ、認識効率の良い文字認識装置を提供することに
ある。
く課題を解決するための手段〉 上記目的を達成するため、第1の発明は、読み取った文
字画像情報から1文字領域の画像情報を切り出し、この
1文字領域の画像情報に基づいて上記文字画像情報に対
応する文字コートを認識する文字認識装置において、上
記1文字領域の画像情報を小領域に分割する領域分割部
と、上記領域分割部によって分割された小領域の画像情
報と認識対象文字群における文字形態差を上記小領域別
に良く表すようなテンプレートとの類似度に基づいて、
上記小領域における特徴量を算出する特徴量算出部と、
上記1文字領域を構成する総ての小領域における上記特
徴量算出部によって算出された特徴量に基づいて、上記
読み取られた文字画像情報に対応する文字コードを認識
する文字コード認識部を備えたことを特徴としている。
また、第2の発明は、上記第1の発明の文字認識装置に
おいて、上記領域分割部は、上記1文字領域の文字画像
情報を小領域に分割する際に、互いに隣接する小領域を
オーバーラツプさせて分割するように成したことを特徴
としている。
また、第3の発明は、上記第1または第2の発明の文字
認識装置において、上記領域分割部は、上記1文字領域
の文字画像情報を小領域に分割する際に、認識対象文字
群における文字形態差が良く表れる箇所を網羅するよう
な種々の形状に分割するように成したことを特徴として
いる。
また、第4の発明は、上記第1乃至第3の発明のいずれ
かの文字認識装置において、学習に際して、入力された
学習用ベクトルの内容に近付くように上記入力された学
習用ベクトルに応した特定のウェイトベクトルの内容を
更新するニューラルネットワークを備えて、上記認識対
象文字群を代表するような複数の学習用文字の文字画像
情報に基らいて上記小領域毎に作成された学習用ベクト
ルを用いて上記ニューラルネットワークを学習し、各学
習用ベクトルの内容に近付くように更新された結果上記
認識対象文字群を代表する各学習用文字の文字形態差を
良く表すように設定されたウェイトベクトルを上記特@
量算出部で上記小領域の特徴量を算出する際に用いるテ
ンプレートとすることを特徴としている。
また、第5の発明は、上記第1乃至第4の発明のいずれ
かの文字認識装置において、上記文字コード認識部は、
上記1文字領域を構成する総ての小領域における上記特
徴量算出部によって算出された特徴量に基づく入力ベク
トルか入力されると、その入力ベクトルが属する文字コ
ードを識別するように学習された文字識別ニューラルネ
ットワークで構成したことを特徴としている。
〈作用〉 第1の発明において、読み取られた文字画像情報から1
文字領域の画像情報が切り出されて領域分割部に入力さ
れる。そして、この領域分割部によって上記1文字領域
の画像情報が小領域に分割される。そうすると、特徴算
出部は、上記領域分割部によって分割された小領域の画
像情報とテンプレートとの類似度に基づいて、上記小領
域における特徴量を算出する。こうして、上記1文字領
域を構成する総ての小領域における特徴量が算出される
と、この1文字領域を構成する総ての小領域における特
徴量に基づいて、上記読み取られた文字画像情報に対応
する文字コードが文字コード認識部によって認識される
その際に、上記テンプレートは認識対象文字群の文字形
態差を良く表すように設定されているので、このテンプ
レートに基づいて算出される各小領域の特徴量は、認識
対象文字群における文字形態差を各小領域毎に良く表し
ているのである。したがって、文字群の文字形態差の特
徴が異なる種々の文字群のいずれにおいても正しく文字
コードが認識される。
また、第2の発明において、上記1文字領域の文字画像
情報が上記領域分割部によって小領域に分割されるに際
し、互いに隣接する小領域かオーバーラツプするように
分割される。
したがって、手書き文字のように文字を形成する線が書
き手によって変動し、かつ、その線が隣接する小領域の
境界付近に位置するような場合であっても、同じ文字を
形成する線は認識対象文字に係る1文字領域と標準パタ
ーンに係る1文字領域とにおける同じ小領域に属するよ
うになる。その結果、認識対象文字の特徴パターンとそ
の文字の標準パターンとの類似度かより高くなるのであ
る。
また、第3の発明において、上記1文字領域の文字画像
情報が上記領域分割部によって小領域に分割されるに際
し、認識対象文字群における文字形態差が良く表れる箇
所を網羅するような種々の形状に分割される。
したがって、上記特徴量算出部によって行われる上記小
領域の特徴量の算出は、認識対象文字群における文字形
態差が良く表れる箇所を網羅するように分割された種々
の形状の小領域のみにおいて、効率良くしかも精度良〈
実施される。
また、第4の発明において、上記認識対象文字群を代表
するような複数の学習用文字の文字画像情報に基づいて
学習用ベクトルが上記小領域毎に作成される。そして、
この学習用ベクトルがニューラルネットワークに入力さ
れてウェイトベクトルの内容か学習用ベクトルの内容に
近付くように学習が行われる。そうすると、上記ニュー
ラルネットワークのウェイトベクトルは上記認識対象文
字群を代表する各学習用文字の文字形態差を良く表すよ
うに更新される。こうして、認識対象文字群を代表する
各学習用文字の文字形態差を良く表すように設定された
ウェイトベクトルは上記特徴量算出部によって上記小領
域の特徴量を算出する際のテンプレートとして用いられ
る。
したかって、上記学習用ベクトルを上記ニューラルネッ
トワークに入力するだけで、認識対象文字群の文字形態
差を良く表すような、テンプレートが自動的に作成され
る。
また、第5の発明において、上記特徴量算出部によって
上記1文字領域を構成する小領域における特徴量が算出
される。そして上記1文字領域を構成する総ての小領域
における特徴量に基づいて入力ベクトルが作成される。
こうして作成された人力ヘクトが、その入力ベクトルが
属する文字コートを識別するように学習された文字識別
ニューラルネットワークに入力される。そうすると、上
記文字識別ニューラルネットワークによって、上記入力
ベクトルか属する文字コートが識別され、上記読み取ら
れた文字画像情報に対応する文字コードが認識される。
したかって、類似度算出等の複雑な処理を実施すること
なく、簡単な処理で上記読み取られた文字画像情報に対
する文字コードが認識される。
〈実施例〉 以下、この発明を図示の実施例により詳細に説明する。
この発明は、切り出された1文字領域の文字画像情報を
構成する小領域の特徴量を求めるに際し、認識対象文字
群の文字形態差を良く表すような特徴量を求めることに
よって、認識対象文字群の内容に因らずに高い文字認識
率を得るものである。
m引り 第1図はこの発明の文字認識装置における−実流側を示
すブロック図である。第り図において、スキャナlは、
呈示された文書等から文字画像情報を読み取り第1バツ
フア2に一時格納する。文字切出し部3は、第1バツフ
ア2に格納された文字画像情報を読み出して1文字領域
に切り出し、この切り出された1文字領域の文字画像情
報を領域分割部4に出力する。領域分割部4は、文字切
出し部3によって切り出された!文字領域の文字画像を
更に小領域に分割し、分割された各小領域毎の画像情報
を第2バツフア5に一時格納する。
特徴量算出部6は、第2バツフア5に格納された各小領
域毎の画像情報のうち一つの小領域の画像情報を順次読
み出し、この読み出した小領域の画像情報とテンプレー
ト・メモリ7に格納されている上記小領域に対応する種
々のテンプレートとの類似度を、後に詳述するようにし
て算出する。
そして、こうして算出された一つの小領域における複数
の類似度から成るベクトルをその小領域の特徴!(特徴
ベクトル)として第3バツフア8に一時格納する。
類似度算出部9は、1文字領域を構成する総ての小領域
の特徴量を第3バツフア8から読み出して1文字の特徴
パターン(特徴ベクトルのパターン)を得る。そして、
1文字の特徴パターンとパターン・メモリlOに格納さ
れた種々の標準文字パターンとの類似度を算出する。こ
こで、上記標準文字パターンは、認識対象文字の標準と
なる文字画像情報から上述と同様にして求めた特徴ベク
トルのパターンである。こうして、類似度算出部9によ
って算出された各標準文字パターンとの類似度(例えば
、両特徴ベクトルの積和等)のうち、最も類似度の大き
な標準文字パターンに対応する文字コードを読み出した
文字画像情報の文字コードであると認識する。すなわち
、上記類似度算出部9および標準パターン・メモリ10
て文字コード認識部を構成するのである。
こうして認識された文字コードは認識結果としてインタ
ーフェース11から外部機器に送出される。
CPU(中央処理装置)12は、上記スキャナl第1バ
ツフア21文字切出し部3.領領域割部4゜12バッフ
ァ5.特徴量算出部6.第3バッファ8類似度算出@9
およびインターフェース11を制御して、次のように文
字認識処理を実行する。
第2図は上記CPU12によって実施される1文字認識
処理動作のフローチャートである。以下、第2図に従っ
て本実施例における1文字認識処理動作について述べる
ステップS1で、文書等からスキャナ1によって文字画
像情報が読み取られて、文字画像が入力される。
ステップS2で、スキャナ1で読み取られた文字画像情
報に基づいて、文字切出し部3によって1文字領域の文
字画像情報が切り出される。
ステップS3で、文字切出し部3で切り出された1文字
領域の文字画像情報が、領域分割ff4によって更に小
領域に分割される。
ステップS4で、領域分割[4で分割された1文字領域
を構成する各小領域の画像情報が1小領域づつ順次特徴
量算出部6によって読み出され、テンプレート・メモリ
7に格納されている上記小領域に対応した種々のテンプ
レートとの類似度か算出される。そして、得られた種々
のテンプレートに係る複数の類似度から成るベクトルを
その小領域の特徴量とする。
その際に実施される類似度の計算方法は種々あるか、例
えばユークリッド距離の値を求めてその値の逆数を取れ
ばよい。
ステップS5で、上記ステップS4において得られた1
文字領域を構成する全小領域の特徴量が類似度算出部9
によって読み出され、その結果得られた1文字の特徴パ
ターンとパターン・メモリ10に格納された種々の標準
文字パターンとの類似度が算出される。
ステップS6で、上記ステップS5において算出された
類似度のうち最も類似度の高い標準文字パターンに対応
する文字コートか、上記ステップS2で切り出された1
文字領域の文字画像に対応する文字コードとして認識さ
れる。そして、こうして認識された文字コートがインタ
ーフェース11を介して外部機器に出力され、1文字認
識処理動作を終了する。
次に具体的な例を挙げて、本実施例における文字認識処
理について、さらに詳細に説明する。
第3図は例えば文字「大」と文字「犬」とから成る文字
群から文字「大」を識別して認識する場合の例である。
第3図(a)は文字「大」の文字画像であり、第3図(
b)は文字「犬jの文字画像である。また、第3図(c
)は、第3図(a)および第3図(b)を4×4のメツ
シュ状の小領域に分割した際における最右上の小領域2
1.21’に対する類似度算出時に用いるテンプレート
である。
まず、第2図におけるステップS4において、例えば小
領域21.21’における類似度算出が次のようにして
行われる。すなわち、小領域21゜21’およびテンプ
レートが更に例えば4×4の16領域の線領域に分割さ
れる。そして、第3図(a)における小領域21あるい
は第3図(b)における小領域21’の各線領域のうち
、第3図(c)に示す各テンプレートにおける16個の
線領域と一致する(両紙領域における平均濃度が閾値に
対して同し側にある)![]領域が幾つ在るかを数える
。そして、得られた値を小領域21あるいは小領域21
°と夫々のテンプレート(イ)、(ロ)、(ハ)、(ニ
)との類似度とするのである。したがって、テンプレー
トの線領域と小領域の線領域とが総て一致すればその小
領域とテンプレートとの類似度は“16”となり、テン
プレートの線領域と小領域の線領域とが総て一致しなけ
ればその小領域とテンプレートとの類似度は“0“とな
る。
第3図(a)における文字画像「大」の小領域21およ
び第3図(b)における文字画像「犬」の小領域21′
と夫々のテンプレート(イ)、(ロ)、(ハ)、(ニ)
とから得られた類似度を第1表に示す。
第1表 同様にして、小領域21.21以外の小領域に対する類
似度の算出か実行される。その際に用いられるテンプレ
ートは、第3図(C)に示すテンプレートとは異なり、
類似度を算出しようとしている小領域に対応するテンプ
レート群が用いられる。
第1表より、テンプレート(ロ)以外の各テンプレート
(イ)、(ハ)、(ニ)と文字画像「大」における小領
域21との類似度の値は、文字画像「犬」における小領
域21’との類似度の値とは大きく異なる。
これは、テンプレート (イ)、(ハ)、(ニ)は文字
群「大」および「犬」の小領域21.21’における文
字形態差を良く表しているからである。そこで、上記文
字画像「大」においては各類似度から成るベクトル(1
6,8,8,0)を小領域21の特徴量とし、文字画像
「犬」においては各類似度から成るベクトル(10,8
,14,6)を小領域21′の特徴量とするのである。
これに対して、文字画像「大」における小領域21以外
の小領域と文字画像「犬」における小領域21°以外の
小領域とはほぼ同じ画像情報を有しているので、各小領
域におけるテンプレートとの類似度も同じ値となる。し
たかって、小領域2121”以外の小領域の特徴量は同
じとなる。すなわち、小領域21.21’の特徴量の差
によって文字−大」と文字「犬」との文字形態差が良く
表れ、文字「大」と文字「犬」とから成る文字群から文
字1大」を識別して認識できるのである。
すなわち、本実施例においては、認識対象文字群に属す
る各文字の画像情報差を良く表すようなテンプレート群
を各小領域毎に用意することによって、各小領域におけ
る画像情報の特徴ではなく画像情報差の特徴を良く表す
ような特徴量を得ることかできるのである。したがって
、例えば平板名のみから成る文字群の文字形態差を表す
種々のテンプレートとJIS第1水準の漢字と平板名と
から成る文字群の文字形態差を表す種々のテンプレート
とを各小領域別に用意することによって、上述のような
各文字群の内容に応じて各文字群の文字形態差を各小領
域毎に良く表す特徴量を得ることができるのである。
つまり、本実施例による小領域の特徴量を用いれば、平
板名のみから成る文字群において特定の平板名を認識す
る場合も、JIS第1水準の漢字と平板名とから成る文
字群において上記特定の平板名を認識する場合も高い認
識能力が得られるのである。
このように、本実施例においては、スキャナlから読み
取られて文字切出し部3によって1文字領域に切り出さ
れた文字画像情報を、領域分割部4によって複数の小領
域に分割する。その後、特徴量算出部6によって、各小
領域毎に小領域の画像情報とテンプレートメモリ7に格
納された上記小領域に対応した種々のテンプレートとの
類似度を算出し、得られた複数の類似度から成るベクト
ルをその小領域の特徴量とする。そして、こうして算出
された1文字領域に係る全小領域の特徴量からなる識別
対象文字の特徴パターンとパターン・メモリlOに格納
された標準文字パターンとの類似度を類似度算出部9に
よって算出し、最も類似度の高い標準文字パターンに対
応した文字コードを識別対象文字のコードであると認識
するようにしている。
し乙がって、認識対象文字群の文字形態差に応した種々
のテンプレートを各小領域別に用意することによって、
識別対象となる文字群の文字形態差を各小領域毎に良く
表すことができるような特徴量を得ることができる。す
なわち、本実施例によれば、文字群の文字形態差の特徴
が異なる種々の識別対象文字群のいずれに対しても高い
文字認識能力を得ることかできるのである。
実施例■ 実施例■は、上述の実施例Iにおいて、第1図に示す領
域分割部4によって実施される1文字領域の小領域への
分割における分割方法に関するものである。
第6図は、従来の方法によって1文字領域を連続した矩
形の小領域に等分割した場合の例を示す。
この場合、第6図(a)においては文字「大」の縦線が
小領域27に存在している。一方、第6図(b)におい
ては文字「大」の縦線か小領域26°に存在している。
したがって、例えば第6図(a)が認識対象の文字画像
であり、第6図(b)が標準文字パターンに係る文字画
像であるとすると、第1図に示す類似度算出部9によっ
て実行される認識対象文字の特徴パターンとその文字の
標準文字パターンとの類似度算出の際に高い類似度が得
られな0のである。上述のような問題は、特に手書き文
字の認識の場合に頻繁に発生する。
そこで、本実施例においては、第4図に示すように、互
いに隣接する小領域(例えば、小領域22と小領域23
)を173ずつオーバーラツプさせるのである。こうす
ることによって、次のような効果が生じる。すなわち、
第5図(a)においては文字「大」の縦線は小領域24
に存在しており、かつ、第5図(b)においても文字「
大」の縦線は小領域24°に存在していることになるの
である。したがって、第1図の類似度算出部9によって
実行される認識対象文字の特徴パターンとその文字の標
準文字パターンとの類似度算出の際に高い類似度が得ら
れるのである。
その際に、第5図(a)における小領域25にも文字「
大」の縦線か存在することになる。しかしながら、この
場合には、第5図(b)における小領域25′には文字
「大」の縦線は存在しないので、小領域25と小領域2
5°との類似度は低い値と成って問題はないのである。
このように、本実施例においては、上述の実施例1にお
ける領域分割部4によって実施される1文字領域の小領
域への分割に際して、隣接する小領域を互いにオーバー
ラツプさせるようにしている。したがって、文字を形成
する線が互いに隣接する小領域の境界部分に存在する場
合であっても、上記文字を構成する線が認識対象の文字
画像と標準文字パターンに係る文字画像との互いに対応
する小領域に存在するようになる。
したがって、第1図における類似度算出部9によって実
行される1文字の特徴パターンに係る類似度算出の際に
高い類似度が得られ、その結果高い文字認識能力が得ら
れる。
上記実施例においては、互いに隣接する小領域をオーバ
ーラツプさせる範囲を小領域の173としているが、こ
の値に限定されるものでないことは言うまでもない。
上記実施例においては、互いに水平方向に隣接する小領
域をオーバーラツプさせているが、互いに垂直方向に隣
接する小領域をオーバーラツプさせても何ら差し支えな
い。
実施例■ 実施例■は、上述の実施例■と同様に、1文字領域の小
領域への分割における分割方法に関するものである。
上述の各実施例においては、1文字領域を複数の小領域
に分割する際に、各小領域を同じ大きさおよび同じ形状
(矩形)の小領域に分割するようにしている。その場合
には、各小領域の形状は認識対象文字群の文字形態差が
良く表れる箇所を網羅できないような一律の形状となる
ので、1〜3個の小領域から得られる特徴量のみでは認
識対象文字群の文字形態差の特徴を表すことかできない
したがって、1文字領域を構成する総ての小領域につい
ての特徴量を求め、その全小領域の特徴量によって表現
される1文字領域のパターンによって1文字の特徴を表
さなければならない。つまり、特徴量算出部6によって
行われる小領域の画像情報とテンプレートとの類似度算
出処理を、1文字領域を形成する16個の小領域の総て
について実行しなければならず、特徴量算出の効率が悪
いのである。
そこで、本実施例においては、第7図に示すように小領
域の形状を、認識対象文字群の文字形態に応じてその文
字形態差が良く表れる箇所を網羅できるような種々の形
状にすることによって、第1図に示す特徴量算出部6に
よる小領域に係る特徴量算出処理を効率良くしかも精度
良く行うものである。第7図は文字「大」を認識する際
に用いられる小領域の例である。この場合には、文字−
大」をこの文字「大」に似た文字(例えば、「犬」、「
木」「水」、「太」、「状」、「伏」等)から容易に識
別できるように、小領域の形状を設定するのである。そ
のために、本実施例においては、小領域28.小領域2
9および小領域30を設ける。
上記小領域28は、略正方形の1文字領域における図中
左側の垂直な辺に沿った帯状を成している。すなわち、
この小領域28は認識対象文字群の1文字領域における
左側の文字形態差を表すための領域であり、文字群「大
」、「犬」、「木J、r水」、「太」等と文字「状」、
「伏」等とを識別するための小領域である。また、小領
域29は、1文字領域における左側の垂直な辺から下側
の水平な辺に沿ってL字形の帯状を成している。すなわ
ち、この小領域29は1文字領域における左側から下側
へかけての文字形態差を表すための領域であり、文字「
大」「犬」等と文字「木」、「水」、「太」、「状」、
「伏j等とを識別するための小領域である。さらに、小
領域30は1文字領域における右上の一角に在って矩形
を成している。すなわち、この小領域30は1文字領域
における右上角の文字形態差を表すための領域であり、
文字「大」と文字「犬」等とを識別するための小領域で
ある。
そして、上記小領域28に対応したテンプレートとして
、文字群「大」、「犬」、「木」、「水」、「太」、「
状」「伏」等の小領域28に対応する領域の文字形態差
を良く表すような種々のテンプレートを用意する。
同様に、上記小領域29あるいは小領域30に対応した
テンプレートとして、文字群「大」、「犬」江木」。
「水」、「太」、「状」、「伏」等の小領域29あるい
は小領域30に対応する領域の文字形態差を良く表すよ
うな種々のテンプレートを用意するのである。
こうして、第2図におけるステップS4において、1文
字領域の上記各小領域2B、29.30における画像情
報と夫々の小領域に対応した種々のテンプレートとの類
似度算出を実施することによって、入力された文字「大
」の文字画像情報に対応する文字コードを文字群「大」
、「犬」、「木」、「水」、「太」「状」、「伏」等の
文字コードの中から適確に識別して認識できるのである
その際に、第7図から明らかなように、本実施例におけ
る小領域28,29.30は上記各実施例の場合のよう
に1文字領域を総て網羅するように形成する必要はなく
、認識対象文字群の文字形態差が良く表れている箇所さ
え網羅していれば十分である。
このように、本実施例においては、上述の実施例1ある
いは実施例■における領域分割部4によって実施される
1文字領域の小領域への分割に際して、認識対象文字群
の文字形態差が良く表れる箇所を網羅できるような種々
の形状の小領域に分割するようにしている。したがって
、特徴量算出に際しては、認識対象文字群の文字形態差
が良く表れるような小領域のみにおいてテンプレートと
の類似度算出を実行すればよいのである。
すなわち、本実施例によれば、1文字領域の特徴量算出
に際して認識対象文字群における文字形態差を十分に表
すような特徴量を算出することができ、かつ、1文字領
域を構成する総ての小領域においてテンプレートとの類
似度算出を実行する必要がなく、小領域に係る特徴量算
出処理を精度良くしかも効率良〈実施できる。
寒監聾■ 実施例■は、例えば上述の実施例Iにおいて、第1図に
示す特重量算出部6で類似度を算出する際に使用される
種々のテンプレートの作成に関する例である。その際に
、本実施例におけるテンプレートの作成は、ニューラル
ネットワークを用いて自動的に作成する。
第8図は本実施例に係る文字認識装置の部分ブロック図
である。この文字認識装置は第1図に示す文字認識装置
にテンプレート・メモリ7に格納されるテンプレートを
作成する自己組織化ニューラルネットワーク31を付加
したちのである。ここで、第8図には第1図のブロック
図における特徴量算出部6およびテンプレート・メモリ
7とそれらに付加された自己組織化ニューラルネットワ
ーク31のみを記載し、その他の部分は第1図と全く同
じであるため記載を省略しである。
第8図において、文字認識に先立って、認識対象文字群
を代表する文字における文字画像情報の上記小領域に対
応する画像情報を表すベクトルが、学習用ベクトルとし
て自己組織化ニューラルネットワーク31に入力される
。そうすると、自己組織化ニューラルネットワーク31
は、後に詳述するように、内部に有している学習ベクト
ルに応じた特定のウェイトベクトルの内容を入力された
学習用ベクトルの内容に近付けるように学習するのであ
る。次に、他の小領域に係る種々の学習用ベクトルが順
次自己組織化ニューラルネットワーク31に入力される
と、同様にして学習が実行され、自己組織化ニューラル
ネットワーク31内には夫々の学習用ベクトルを写像し
た複数のウェイトベクトルが生成されるのである。
つまり、学習済みの自己組織化ニューラルネットワーク
31に生成されたウェイトベクトルは、認識対象文字群
を代表する文字(以下、学習用文字と言う)の文字画像
の各小領域に係る画像情報を良く表すような内容を有す
るのである。このことは、取りも直さず、学習済みの自
己組織化ニューラルネットワーク31内に生成されたウ
ェイトベクトルは上記小領域における類似度算出の際に
用いるテンプレートであると言える。そこで、自己組織
化ニューラルネットワーク31内に生成された各ウェイ
トベクトルを、入力文字画像の各小領域における類似度
算出の際に用いられるテンプレートとして、各小領域と
対応付けてテンプレート・メモリ7に格納するのである
文字認識処理が開始されると、実施例1の場合と同様に
して、1文字の文字画像情報が小領域に分割されて第2
バツフア5に格納される。そして、この第2バツフア5
に格納された小領域の画像情報と、上述のようにして作
成されてテンプレート・メモリ7に格納された上記小領
域に対応したテンプレートとが特徴量算出部6によって
読み出される。そして、上記小領域の画像情報と上記種
々のテンプレートとの類似度が特徴量算出部6によって
算出される。その結果、上述のようにして得られた上記
小領域の特徴量が第3バツフア8に格納されるのである
。その後、実施例Iの場合と同様にして1文字の特徴パ
ターンが求められ、この1文字の特徴パターンと標準文
字パターンとの類似度が算出されるのである。
第9図は本実施例に係る自己組織化ニューラルネットワ
ーク31の概略図である。本実施例における自己組織化
ニューラルネットワーク31としては、自己組織化特徴
写像によって学習が行われるコホーネン型ニューラルネ
ットワークを用いる。
このコホーネン型ニューラル・ネットワークの構造は、
総ての自己組織化ノード32,32.・・・が入力ノー
ド33に対して結合された構造なっている。自己組織化
ノード32は、複数の自己組織化ノード32,32.・
・・に付加された番号iで表すことにする。例えば、自
己組織化ノード32iはi番目の自己組織化ノードを表
す。
上記人力ノード33には上記1文字領域を構成する小領
域の画像情報を表す64次元の学習用ベクトルXが入力
される。そうすると、学習用ベクトル又とウェイトベク
トルWとに基づいて、所定のアルゴリズムに従って出力
値が各結合毎に算出される。ここで、上記ウェイトベク
トルWは自己組織化ノード32に対応付けて設けられて
おり、自己組織化ノード32iに対するウェイトベクト
ルはWi”と表すことにする。
本実施例においては、上記コホーネン型二二一うルネッ
トワークの学習を自己組織化特徴写像によって実施する
。そして、入力ノード33に入力された学習用ベクトル
Xの内容の特徴を上記学習用ベクトルXに応じた特定の
ウェイトベクトルW1の内容に写像することによって、
認識対象文字群を代表する学習用文字に係る各小領域の
画像情報を良く表すようなウェイトベクトルを自己組織
するものである。
上記自己組織化特徴写像による学習は、学習用ベクトル
Xを入力した際に、入力された学習用ベクトルXとの類
似度が最も高いウェイトベクトルWに対して実施される
学習である。すなわち、この自己組織化特徴写像による
学習のアルゴリズムは(1)式によってウェイトベクト
ルWの値を更新することによって行われる教師無し学習
である。
R(X (t)、Wc(t)) =max[R(X (
t)、Wi(t)))とした場合に、 以下余白− ここで、t:学習回数 X:学習用ベクトル W: ウェイトベクトル i:ウェイトベクトル番号 WC:学習用ベクトルXとの類似度が 最大のウェイトベクトル R(A、B):ベクトルAとベクトルBとの類似度を求
める関数 a(t):学習回数tと共に減少する関数Nc:Wcの
近傍に設けられた所定領 域内のベクトル番号の集合 すなわち、自己組織化特徴写像による学習は、学習用ベ
クトルXを入力した際に、この学習用ベクトルXとの類
似度が最大であるウェイトベクトルWcの近傍に設けら
れた所定領域内に存在するウェイトベクトルWi(iE
Nc)の内容を、学習用ベクトルXとの差(X−Wi)
の値を小さくするように更新するのである。こうして学
習が繰り返されることによって、やがてウェイトベクト
ルWiは学習用ベクトルXの内容と同じようになり、ウ
ェイトベクトルWiに学習用ベクトルXの内容の特徴が
写像されるのである。その結果、自己組織化ノード32
iが自己組織されるのである。
次に、上述の自己組織化特徴写像による学習を上記小領
域に係る類似度算出時に使用するテンプレートの作成に
利用する場合について、学習用文字「犬」に係る学習用
ベクトルを入力した場合を例に詳細に説明する。
64X64のマトリックス構造を成すイメージセンサに
よって読み取られた文字画像情報の外枠が一定の大きさ
になるように正規化され、第9図に示すような32X3
2のメッンユ状の!文字「犬」の文字画像情報が得られ
る。さらに、この32×32のメッンユ状の1文字の文
字画像情報が4×4の小領域34.・・・に分割される
。したがって、各小領域は8×8のメツシュから構成さ
れることになる。
次に、例えば、上述のようにして得られた各小領域のう
ち右上の小領域34の画像情報を学習用ベクトルX。と
じた場合について説明する。
上記小領域34の64個のメッ7ュにおける画像情報を
64次元の学習用ベクトルX0の各要素として、入力ノ
ード33に入力する。その際における上記画像情報とし
ては上述の平均濃度を用い、メツシュの平均濃度が閾値
以上であればそのメツシュの画像情報として“ビを与え
る一方閾値より小さければ“0“を与えればよい。そう
すると、各自己組織化ノード32iに対応付けられたウ
ェイトベクトルWi毎に、このウェイトベクトルWiと
学習用ベクトルX0との類似度Rが算出される。
ここで、本実施例における自己組織化ニューラルネット
ワークは次のような概略構造になっている。すなわち、
この自己組織化ニューラルネットワークは一組16個X
16組(=256個)の自己組織化ノード32を有する
(l≦i≦256)。そして、夫々の組に属する16個
の自己組織化ノート32.32.・・・は異なる一つの
入力ノードに結合されると共に、1文字領域を構成する
各小領域のいずれか一つに対応付けられている。第9図
においては小領域34に対応付けられた一組の自己組織
化ノードのみが記載されている。したがって、小領域3
4に係る類似度算出は、第9図に示す一組16個の自己
組織化ノード32i(1≦1≦16)に対応付けられた
ウェイトベクトルW1(1≦i≦16)について実施さ
れる。すなわち、その際の類似度RiはR(X o、W
 i) (1≦i≦16)となる。
こうして、類似度Riが算出された結果、ウェイトベク
トルWi0との類似度が最大であった(すなわち、Rm
ax=Rio=R(Xo、Wio))とすると、ウェイ
トベクトルWi0を中心とした所定領域内のウェイトベ
クトルWi(ieNio)の内容が学習用ベクトルx0
の内容に近付くように更新されるのである。こうした学
習が繰り返された結果、最大類似度Rmaxが閾値以上
になると学習が停止される。
そうすると、その時点で最大類似iRmaxを示してい
るウェイトベクトル(例えば、ウェイトベクトルWi、
)は学習用ベクトルX。の特徴を写像しているのである
同様にして、他の学習用文字の右上の小領域(小領域3
4に対応)の画像情報に基づく学習用ベクトルX+、X
t、・・・が入力ノード33に順次入力されて学習が実
行される。そして、学習が終了した時点で最大類似度R
maxを示しているウェイトベクトル(例えば、ウェイ
トベクトルWi+ * X i2 、・・)は夫々学習
用ベクトルx l+ x 、、・・・の特徴を写像して
いるのである。すなわち、こうして学習用文字「犬」を
含む種々の学習用ベクトルに対応付けられた特定のウェ
イトベクトルW i o 、 W i+ 、 W 1 
t 、・・・は、各学習用文字に係る1文字領域の右上
の小領域の画像情報を写像するように自己組織される。
そこで、本実施例においては、この学習によって学習用
ベクトルX対応付けられた各ウェイトベクトルWi、、
Wi、、Wiy、・・・の内容を右上の小領域に対応し
た種々のテンプレートとするのである。
こうすることによって、上記各学冒用文字群の右上の小
領域における文字形態差を良く表す種々のテンプレート
が得られるのである。
以下、上述と同様にして、文字「犬」含む各学習用文字
の上記右上の小領域とは異なる他の小領域に係る学習用
ベクトルXを、夫々第9図とは異なる自己組織化ノード
の組に対応した入力ノートに入力することによって、上
記学腎用文字群の上記右上の小領域とは異なる他の小領
域における文字形態差を良く表す種々のテンプレートか
得られる。
こうして、順次文字「犬」含む各学習用文字の小領域を
変えて学習用ベクトルXを自己組織化ニューラルネット
ワーク31に入力することによって、上記学習文字群の
総ての各小領域における文字形態差を良く表す種々のテ
ンプレートが各小領域毎に得られるのである。
但し、こうして得られたテンプレートを使用して上記小
領域における画像情報との類似度の算出を行う場合には
、上記小領域における画像情報は認識対象文字の32X
32のメツシュから成る文字画像情報を4X4の小領域
に分割して得たちのを用いなければならない。
このように、本実施例においては、第1図の実施例1に
おけるテンプレート・メモリ7に格納する種々のテンプ
レートを、自己組織化ニューラルネットワーク31によ
って学習用文字の画像情報に基づいて生成するようにし
ている。したがって、認識対象文字群を代表する学習用
文字を用いて自己組織化特徴写像によって自己組織化ニ
ューラルネットワーク31を学習することによって、上
記認識対象文字群の各小領域における文字形態差を良く
表す種々のテンプレートを自動的に得ることができる。
上記実施例においては、1文字領域を構成する一つの小
領域に対応する自己組織化ノード32の数を16個とし
ている。しかしながら、この発明においてはこれに限定
されるもではなく、作成したいテンプレート数(すなわ
ち、学習文字の種類の数)に応じて設定すればよい。
上記実施例においては、上記テンプレートの生成を自己
組織化特徴写像によって学習される自己組織化ニューラ
ルネットワーク31で実施している。しかしながら、こ
の発明においてはこれに限定されるものではなく、例え
ば学習ベクトル量子化(LVQ)や学習ベクトル量子化
2(LVQ2)暮によって学習されるコホーネン型ニュ
ーラルネットワークで実施してもよい。要はウェイトベ
クトルの内容が学習用ベクトルの内容に近付くように学
習されるようなニューラルネットワークの構造と学習ア
ルゴリズムであればよいのである。しかしながら、LV
QやLVQ2による学習は教師有りの学習であるため自
己組織化ができないので、出力ノードの学習用ベクトル
が属するカテゴリへの割り付けや教師データの入力等を
行わなければ成らず、学習が面倒である。したがって、
自己組織化特徴写像による学習の方か自動的にテンプレ
ートが生成されるため優れていると言える。
実施例■ 実施例■は、実施例■において、上記類似度算出部9お
よびパターン・メモリ10によって実施する1文字の特
徴パターンに基づく文字コード認識動作をニューラルネ
ットワークによって実施する例である。
第1O図は、本実施例に係る文字認識装置ブロック図で
ある。この文字認識装置は実施例■における文字認識装
置の類似度算出部9およびパターン・メモリ10で構成
される文字コード認識部を文字識別ニューラルネットワ
ーク44で構成したものである。本実施例における上記
文字識別ニューラルネットワーク44は、LVQ2によ
って学習されたコホーネン型ニューラルネットワークを
用いる。以下、本実施例を上述の実施例■に適応させた
場合について説明する。
このコホーネン型ニューラルネットワークの概略構造は
、第11図に示すように、総ての出力ノード45.45
.・・・が入力ノード46に対して結合された構造なっ
ている。出力ノード46.45.・・・は認識対象文字
群のいずれかの文字の文字コード(カテゴリ)に割り付
けられている。出力ノード45は、この出力ノード45
が割り付けられたカテゴリの番号jとそのカテゴリ内に
含まれる複数の出力ノード45,45.・・・の番号に
とで表すことにする。例えば出力ノード453には“j
”番目のカテゴリに割り付けられた“k”番目の出力ノ
ードを表す。入力ノード46には1文字領域を構成する
小領域数に対応した16次元の入力ベクトルIが入力さ
れる。そうすると、入力ベクトルIとウェイトベクトル
Wとに基づいて、後に詳述するようなアルゴリズムに従
って出力値0が各結合毎に算出され、この算出された出
力値0が各出力ノード45から出力される。そして、最
大値を出力している出力ノード45か割り付けられてい
るカテゴリを、入力ベクトルIが属するカテゴリ(文字
コード)であると識別するのである。ここで、上記ウェ
イトベクトルWは出力ノード45に対応付けられており
、各ウェイトベクトルWは対応する出力ノード(例えば
、出力ノード45jk)と同じ添数字で表す(例えば、
Wjk)ことにする。
上記構成のコホーネン型ニューラルネットワークの出力
値算出アルゴリズムは(2)式のようなアルゴリズムで
ある。
0jk−Σ (I 1xWijk)   ・−(2)i
:1 ここで、l:入力ベクトルIおよびそれに対応したウェ
イトベクトルWの要素の番号 (1≦i≦16) このようなコホーネン型ニューラルネットワークの学習
方法として用いられているLVQ2は、学習用ベクトル
Yを入力した際の出力値Oと、その出力値0に基づく識
別カテゴリに従って、式(3)によってウェイトベクト
ルWの値を更新する方法である。
まず、以下に述べるようにして学習用ベクトルYが作成
される。すなわち、例えば上述の実施例■においてテン
プレート作成時に用いた正規化された32X32のメツ
シュ状の学習用文字「犬」の文字画像情報が、8×8の
メツシュから成る小領域に分割される。そして、実施例
■で述べたようにして作成されてテンプレート・メモリ
43に格納されているテンプレート(64次元ベクトル
)と上記学習用文字「犬」の各小領域における画像情報
(64次元ベクトル)との類似度が特徴量算出部42に
よって算出される。
上記類似度は、例えば当該小領域の画像情報のベクトル
と上記当該小領域に対応するテンプレートのベクトルと
の積和を算出し、この積和の値を類似度とすればよい。
同様にして、当該小領域に対応する総てのテンプレート
との類似度を算出し、得られた複数の類似度から成るベ
クトルを当該小領域の特徴量とする。このような操作を
学習用文字「犬」の1文字領域を構成する総て(16個
)の小領域について実行し、総ての小領域の特徴量を求
める。こうして求めた学習用文字「犬」における16個
の特徴量を、学習用文字「犬」に係る16次元の学習用
ベクトルYとするのである。
上述のようにして求められた学習用ベクトルYを第11
図に示すように文字識別ニューラルネットワーク44の
入力ノード46に入力してニューラルネットワークの学
習が開始される。
すなわち、上記学習用ベクトルYを入力した際の出力ノ
ードからの出力値Ojkのうち、最大出力値をOj+に
+とじ、2番目に大きな出力値をOjpktとしたとき
に、 j、≠学習用ベクトルYが属するカテゴリの番号かつ、 J、−学習用ベクトルYが属するカテゴリの番号ならば
、ウェイトベクトルW j+ k l、 W jy k
 tの内容を夫々、 Wjtkt  =  W32に!+K(Y−Wj2にり
に更新する。
ここで、K:定数あるいは学習回数と共に減少する関数
上記ウェイトベクトルWLk+、WjJtの初期値は学
習用ベクトルYの値とする。
その結果、学習が繰り返されるに連れて、2番目に大き
な値0jJtを出力する出力ノードからの出力値か大き
くなる一方、最大出力値0jlklを出力する出力ノー
ドからの出力値が小さくなるのである。そして、やがて
は学習用ベクトルYと同じカテゴリに属する2番目に大
きな値0Lktを出力した出力ノードからの出力値が、
学習用ベクトルYと異なったカテゴリに属する最大出力
値Oj、kを出力した出力ノートからの出力値よりも大
きくなる。
すなわち、学習用ベクトルYが属するカテゴリjt(文
字「犬」の文字コード)に割り付けられた出力ノードが
最大出力値を出力するようになり、最大出力値に基づい
て学習用ベクトルYが属するカテゴリを正しく識別でき
るようになるのである。
上述と同様に他の学習用文字の文字画像情報に基づいて
文字識別ニューラルネットワーク44の学習が実行され
る。
こうして、文字識別ニューラルネットワーク44の学習
が終了すると、認識対象文字の文字画像がスキャナ41
に入力されて、文字認識動作が開始される。
上記スキャナ41によって読み取られた認識対象文字の
1文字領域の文字画像情報が8×8のメツシュから成る
小領域に分割される。そして、1文字領域を構成する総
ての小領域における画像情報とテンプレート・メモリ4
3に格納されているテンプレートとの類似度が例えば上
述のようにして特徴量算出部42よって算出される。そ
して、その結果に基づいて認識対象文字の1文字領域を
構成する総ての小領域(16個)の特徴量か得られる。
こうして得られた認識対象文字における16個の特徴量
を、認識対象文字に係る16次元の入力ベクトルIとす
るのである。
上記文字識別ニューラルネットワーク44の入力ノード
46に上記16次元の入力ベクトルIが入力されると、
入力ベクトルIと上述の学習によって更新されているウ
ェイトベクトルWとに基づいて、(2)式に従って出力
値Oが各結合毎に算出され、この算出された出力値Oが
各出力ノード45から出力される。そこで、最大値を出
力している出力ノード45が割り付けられているカテゴ
リ(文字コード)を、認識対象文字の文字コードである
と識別して認識するのである。
このように、本実施例においては、特徴量算出部42に
よって算出された各小領域の特徴量に基づいて認識対象
文字の文字コードを認識する文字コード認識部を、1文
字領域を構成する総ての小領域の特徴量に基づく入力ベ
クトルが属する文字コードを識別するように学習された
文字識別ニューラルネットワーク44によって構成して
いる。
したがって、認識対象文字の特徴パターンとその文字の
標準文字パターンとの類似度算出等の処理の必要がなく
、文字識別ニューラルネットワーク44に認識対象文字
における1文字領域を構成する総ての小領域の特徴量に
基づく入力ベクトルを入力するだけの簡単な処理で、効
率良く上記認識対象文字の文字コードを識別して認識で
きる。
上記実施例においては、文字識別ニューラルネットワー
ク44としてLVQ2によって学習するコホーネン型ニ
ューラルネットワークを用いている。
しかしながら、この発明における文字識別二二−ラルネ
ットワークの構造と学習方法は、上記実施例に限定され
るものではない。
上記実施例においては、文字コード認識部を構成する文
字識別ニューラルネットワークを実施例■に適応する例
について説明している。しかしなから、この発明はこれ
に限定されるものではなく、実施例1あるいは実施例■
あるいは実施例mあるいはそれらの組み合わせに適応し
ても何等差し支えない。
〈発明の効果〉 以上より明らかなように、第1の発明の文字認識装置は
、領域分割部、特徴量算出部および文字コード認識部を
有して、読み取った文字画像情報から切り出した1文字
領域を上記領域分割部によって小領域に分割し、上記特
徴量算出部によって、この小領域の画像情報と認識対象
文字群の文字形態差を上記小領域別によく表すようなテ
ンプレートとの類似度に基づいて上記小領域における特
徴量を算出し、上記1文字領域を構成する総ての小領域
における上記特徴量算出部で算出された特徴量に基づい
て、上記読み取られた文字画像情報に対応する文字コー
ドを上記文字コード認識部によって認識するようにした
ので、上記特徴量算出部によって算出される特徴量は認
識対象文字群の文字形態差を良く表している。
したがって、第1の発明の文字認識装置は、文字群の文
字形態差の特徴か異なるような種々の文字群のいずれに
対しても高い文字認識能力を有する。
また、第2の発明の文字認識装置は、上記第1の発明の
文字認識装置における領域分割部を、上記1文字領域の
文字画像情報を小領域に分割する際に互いに隣接する小
領域をオーバーラツプさせて分割するように成したので
、第2の発明の文字認識装置によれば、文字を形成する
線の位置が変動し、かつ、その線が小領域の境界付近に
位置するするような場合であっても、同じ文字を形成す
る線は、認識対象文字に係る1文字領域と標準文字パタ
ーンに係る1文字領域とにおける同じ小領域に属するよ
うになる。
したがって、文字コード認識処理時における認識対象文
字の特徴パターンとその文字の標準文字パターンとの類
似度が高くなり、文字認識能力がより高められる。
また、第3の発明の文字認識装置は、上記第1あるいは
第2の発明の文字認識装置における領域分割部を、上記
1文字領域の文字画像情報を小領域に分割する際に認識
対象文字群の文字形態差が良く表れる箇所を網羅するよ
うな種々の形状に分割するように成したので、上記特徴
量算出部によって行われる上記小領域の特徴量の算出は
、認識対象文字群の文字形態差が良く表れる箇所を網羅
するように分割された種々の形状の小領域のみによって
実施できる。
したがって、第3の発明の文字認識装置によれば、1文
字領域を構成する小領域の特徴量の算出に際して認識対
象文字群における文字形態差をより良く表すように算出
でき、かつ、認識対象文字の1文字領域を構成する総て
の小領域について特徴量を算出する必要がなく、上記小
領域の特徴量算出処理をより精度良くしかも効率良〈実
施できる。
また、第4の発明の文字認識装置は、上記第1乃至第3
のいずれかの発明の文字認識装置にニューラルネットワ
ークを設けて、上記認識対象文字群を代表するような複
数の学習用文字の文字画像情報に基づいて作成された学
習用ベクトルを用いて上記ニューラルネットワークを学
習し、その結果上記各学習用文字の文字形態差を良く表
すように設定されたウェイトベクトルを上記特徴量算出
部で上記小領域の特徴量を算出する際に用いられるテン
プレートとするようにしたので、第4の発明の文字認識
装置によれば、上記ニューラルネットワークに上記学習
用ベクトルを入力するだけで、認識対象文字群の文字形
態差をよく表すようなテンプレートが自動的に得られる
また、第5の発明の文字認識装置は、上記第1乃至第4
のいずれかの発明の文字認識装置における文字コード認
識部を、認識対象文字の1文字領域を構成する総ての小
領域における特徴量に基づく入力ベクトルが入力される
と、その入力ベクトルが属する文字コードを識別するよ
うに学習された文字認識ニューラルネットワークで構成
したので、第5の発明の文字認識によれば、上記認識対
象文字に係る1文字の特徴パターンと標準文字パターン
との類似度等を算出する必要がなく、読み取られた文字
画像情報に対応した文字コードをより簡単な処理で効率
良く認識できる。
【図面の簡単な説明】
第1図はこの発明の文字認識装置における一実施例のブ
ロック図、第2図は第1図におけるCPUによる1文字
認識処理動作のフローチャート、第3図は第1図に係る
小領域とテンプレートの説明図、第4図は小領域の分割
方法の説明図、第5図は第4図に係る小領域の分割方法
における効果の説明図、第6図は従来の小領域の分割方
法の説明図、第7図は第4図とは異なる分割方法の説明
図、第8図は自己組織化ニューラルネットワークによっ
てテンプレートを作成する文字認識装置における部分ブ
ロック図、第9図は第8図における自己組織化ニューラ
ルネットワークの学習の説明図ξ第10図は文字識別ニ
ューラルネットワークによって文字コード識別動作を行
う文字認識装置のブロック図、第11図は第1O図の文
字認識装置における文字識別ニューラルネットワークの
学習の説明図である。 141・・スキャナ、   3・・・文字切出し部、4
・・領域分割部、   6,42・・・特徴量算出部、
743・・テンプレート・メモリ、 9 類似度算出部、 12・・・CPU。 31・自己組織化ニューラルネットワーク、32・・・
自己組織化ノード、 33・・入力ノート、44・・・
文字識別ニューラルネットワーク、45・・出力ノード
、     46・・・入力ノード。

Claims (5)

    【特許請求の範囲】
  1. (1)読み取った文字画像情報から1文字領域の画像情
    報を切り出し、この1文字領域の画像情報に基づいて上
    記文字画像情報に対応する文字コードを認識する文字認
    識装置において、 上記1文字領域の画像情報を小領域に分割する領域分割
    部と、 上記領域分割部によって分割された小領域の画像情報と
    認識対象文字群における文字形態差を上記小領域別に良
    く表すようなテンプレートとの類似度に基づいて、上記
    小領域における特徴量を算出する特徴量算出部と、 上記1文字領域を構成する総ての小領域における上記特
    徴量算出部によって算出された特徴量に基づいて、上記
    読み取られた文字画像情報に対応する文字コードを認識
    する文字コード認識部を備えたことを特徴とする文字認
    識装置。
  2. (2)請求項1に記載の文字認識装置において、上記領
    域分割部は、上記1文字領域の文字画像情報を小領域に
    分割する際に、互いに隣接する小領域をオーバーラップ
    させて分割するように成したことを特徴とする文字認識
    装置。
  3. (3)請求項1または請求項2に記載の文字認識装置に
    おいて、 上記領域分割部は、上記1文字領域の文字画像情報を小
    領域に分割する際に、認識対象文字群における文字形態
    差が良く表れる箇所を網羅するような種々の形状に分割
    するように成したことを特徴とする文字認識装置。
  4. (4)請求項1乃至請求項3のいずれかに記載の文字認
    識装置において、 学習に際して、入力された学習用ベクトルの内容に近付
    くように上記入力された学習用ベクトルに応じた特定の
    ウェイトベクトルの内容を更新するニューラルネットワ
    ークを備えて、 上記認識対象文字群を代表するような複数の学習用文字
    の文字画像情報に基づいて上記小領域毎に作成された学
    習用ベクトルを用いて上記ニューラルネットワークを学
    習し、各学習用ベクトルの内容に近付くように更新され
    た結果上記認識対象文字群を代表する各学習用文字の文
    字形態差を良く表すように設定されたウェイトベクトル
    を上記特徴量算出部で上記小領域の特徴量を算出する際
    に用いるテンプレートとすることを特徴とする文字認識
    装置。
  5. (5)請求項1乃至請求項4のいずれかに記載の文字認
    識装置において、 上記文字コード認識部は、上記1文字領域を構成する総
    ての小領域における上記特徴量算出部によって算出され
    た特徴量に基づく入力ベクトルが入力されると、その入
    力ベクトルが属する文字コードを識別するように学習さ
    れた文字識別ニューラルネットワークで構成したことを
    特徴とする文字認識装置。
JP2065055A 1990-03-15 1990-03-15 文字認識装置 Expired - Fee Related JP2624558B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2065055A JP2624558B2 (ja) 1990-03-15 1990-03-15 文字認識装置
US07/667,340 US5151951A (en) 1990-03-15 1991-03-11 Character recognition device which divides a single character region into subregions to obtain a character code
US07/871,075 US5271068A (en) 1990-03-15 1992-04-20 Character recognition device which divides a single character region into subregions to obtain a character code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2065055A JP2624558B2 (ja) 1990-03-15 1990-03-15 文字認識装置

Publications (2)

Publication Number Publication Date
JPH03265986A true JPH03265986A (ja) 1991-11-27
JP2624558B2 JP2624558B2 (ja) 1997-06-25

Family

ID=13275886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2065055A Expired - Fee Related JP2624558B2 (ja) 1990-03-15 1990-03-15 文字認識装置

Country Status (1)

Country Link
JP (1) JP2624558B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135580A (ja) * 2016-01-28 2017-08-03 京セラドキュメントソリューションズ株式会社 画像出力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135580A (ja) * 2016-01-28 2017-08-03 京セラドキュメントソリューションズ株式会社 画像出力装置

Also Published As

Publication number Publication date
JP2624558B2 (ja) 1997-06-25

Similar Documents

Publication Publication Date Title
CN109840531B (zh) 训练多标签分类模型的方法和装置
US5271068A (en) Character recognition device which divides a single character region into subregions to obtain a character code
CN110929665B (zh) 一种自然场景曲线文本检测方法
US11508173B2 (en) Machine learning prediction and document rendering improvement based on content order
JPH02238588A (ja) 文字認識装置
Escalera et al. Traffic-Sign Recognition Systems
CN110555439A (zh) 标识识别方法及其模型的训练方法、装置和电子系统
CN113869017A (zh) 基于人工智能的表格图像重构方法、装置、设备及介质
CN114241499A (zh) 表格图片识别方法、装置、设备和可读存储介质
CN114092938A (zh) 图像的识别处理方法、装置、电子设备及存储介质
CN111126243B (zh) 一种图像数据检测方法、装置以及计算机可读存储介质
CN114238659A (zh) 智能设计网络安全架构图的方法
CN111144270A (zh) 基于神经网络的手写文本工整度的评测方法与评测装置
CN112241736A (zh) 一种文本检测的方法及装置
KR102083786B1 (ko) 문자열 식별 방법 및 장치, 그리고 이를 이용한 디스플레이 영상 식별 시스템
US11836960B2 (en) Object detection device, object detection method, and program
CN112347957A (zh) 行人重识别方法、装置、计算机设备及存储介质
JPH03265986A (ja) 文字認識装置
CN115797939A (zh) 一种基于深度学习的两阶段斜体字符识别方法及装置
CN113177543A (zh) 证件识别方法、装置、设备及存储介质
JPH04114560A (ja) 自動文書入力装置
van der Zwaag Handwritten digit recognition: A neural network demo
JPH04111085A (ja) パターン認識装置
CN113344097B (zh) 基于多模型的图像处理方法和装置
CN110738522B (zh) 用户画像构建方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees