JP2624558B2 - 文字認識装置 - Google Patents

文字認識装置

Info

Publication number
JP2624558B2
JP2624558B2 JP2065055A JP6505590A JP2624558B2 JP 2624558 B2 JP2624558 B2 JP 2624558B2 JP 2065055 A JP2065055 A JP 2065055A JP 6505590 A JP6505590 A JP 6505590A JP 2624558 B2 JP2624558 B2 JP 2624558B2
Authority
JP
Japan
Prior art keywords
character
area
small
image information
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2065055A
Other languages
English (en)
Other versions
JPH03265986A (ja
Inventor
徹 上田
康司 石塚
文雄 外川
隆志 荒巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2065055A priority Critical patent/JP2624558B2/ja
Priority to US07/667,340 priority patent/US5151951A/en
Publication of JPH03265986A publication Critical patent/JPH03265986A/ja
Priority to US07/871,075 priority patent/US5271068A/en
Application granted granted Critical
Publication of JP2624558B2 publication Critical patent/JP2624558B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 <産業上の利用分野> この発明は、読み取った文字画像情報の1文字の領域
を小領域に分割し、この小領域の特徴量に基づいて文字
コードを得る文字認識装置に関する。
<従来の技術> 従来、文字認識装置として次のようなものがある。す
なわち、文書等から読み取った文字画像情報の1文字領
域を連続した矩形の小領域に分割する。そして、この分
割された小領域における画像情報の特徴量を抽出し、こ
の小領域の特徴量に基づいて上記1文字領域の画像情報
に対応する文字コードを識別して読み取った文字を認識
するのである。
その際に用いられる小領域の画像情報の特徴量の一つ
として小領域の中における平均濃度がある。この小領域
の特徴量として平均濃度を用いる方法はメッシュ法と呼
ばれる。このメッシュ法は次のようにして読み取った文
字画像情報の文字コードを認識する。すなわち、平均濃
度が閾値以上の値を示す小領域の特徴量には“1"を与え
る一方、そうでない小領域の特徴量には“0"を与えたメ
ッシュ・パターンを作成する。そして、このメッシュ・
パターンと標準文字の文字画像情報から同様にして作成
された標準文字パターンとを重ね合わせ、対応する小領
域の値が異なる小領域の数を数える。そして、一番少な
い値を取る標準文字パターの文字コードで読み取った文
字画像情報に対する文字コードであると認識するのであ
る。
<発明が解決しようとする課題> 上述のように、上記メッシュ法に代表される文字認識
装置においては、上記小領域における特徴量をその小領
域の画像情報から直接抽出する(すなわち、画像情報そ
のものの特徴量を表す)ようにしている。そのために、
例えば特定の平仮名の特徴量を抽出する場合、平仮名の
みからなる文章から抽出された上記特定の平仮名の特徴
量とJIS第1水準の漢字と平仮名とから成る文章から抽
出された上記特定の平仮名の特徴量とは全く同じ特徴量
となる。
ところが、平仮名(46文字)のみから成る文字群の文
字形態差の特徴とJIS第1水準の漢字の平仮名とから成
る(合計約3000字)文字群の文字形態差の特徴とは異な
るのである。したがって、特定の平仮名文字を認識する
際に、平仮名のみから成る文字群において上記特定の平
仮名文字を認識する際の特徴量と、JIS第1水準の漢字
と平仮名とから成る文字群において上記特定の平仮名文
字を認識する際の特徴量とは異なって然るべきである。
しかしながら、上述のように従来の文字認識装置にお
いては小領域の特徴量を画像情報から直接抽出するよう
にしているので、小領域の画像情報の特徴を表すことは
できるが認識対象文字群の文字形態差の特徴を表すこと
ができないのである。したがって、平仮名のみから成る
文字群において特定の平仮名を認識する場合と、JIS第
1水準の漢字と平仮名とから成る文字群において上記特
定の平仮名を認識する場合との認識能力に差が生じてし
まうと言う問題がある。
また、1文字領域を小領域に分割する際に、上述のよ
うに一律に連続した矩形の小領域に分割しているため
に、手書き文字のように文字を形成する線の位置が書き
手によって変動する場合には、同じ文字を構成する線で
あるにも拘わらず認識対象文字に係る1文字領域と標準
パターンに係る1文字領域とにおいて異なった小領域に
属する場合があり、文字認識能力が低下すると言う問題
もある。
さらに、上記1文字領域を小領域に分割する際に、矩
形の領域に等分割しているため、個々の小領域は識別対
象の文字群の文字形態差が良く表れる箇所を網羅できる
ような形状になっていない。したがって、上記小領域に
係る特徴量は十分に認識対象文字群の文字形態差を表す
ことができず、小領域の特徴量に基づいて文字を認識し
ようとする場合には1文字領域を構成する総ての小領域
について特徴量を求める必要があり、文字認識処置の効
率が悪いと言う問題もある。
そこで、この発明の目的は、1文字領域を構成する小
領域の特徴量を認識対象文字群の文字形態差を適確に表
すように算出して、文字群の文字形態差の特徴が異なる
種々の文字群のいずれに対しても高い文字認識能力を有
し、かつ、認識効率の良い文字認識装置を提供すること
にある。
<課題を解決するための手段> 上記目的を達成するため、第1の発明は、読み取った
文字画像情報から1文字領域の画像情報を切り出し、こ
の1文字領域の画像情報に基づいて上記文字画像情報に
対応する文字コードを認識する文字認識装置において、
上記1文字領域の画像情報を小領域に分割する領域分割
部と、上記領域分割部によって分割された小領域の画像
情報と認識対象文字群における文字形態差を上記小領域
別に良く表すようなテンプレートとの類似度に基づい
て、上記小領域における特徴量を算出する特徴量算出部
と、上記1文字領域を構成する総ての小領域における上
記特徴量算出部によって算出された特徴量に基づいて、
上記読み取られた文字画像情報に対応する文字コードを
認識する文字コード認識部を備えたことを特徴としてい
る。
また、第2の発明は、上記第1の発明の文字認識装置
において、上記領域分割部は、上記1文字領域の文字画
像情報を小領域に分割する際に、互いに隣接する小領域
をオーバーラップさせて分割するように成したことを特
徴としている。
また、第3の発明は、上記第1または第2の発明の文
字認識装置において、上記領域分割部は、上記1文字領
域の文字画像情報を小領域に分割する際に、認識対象文
字群における文字形態差が良く表れる箇所を網羅するよ
うな種々の形状に分割するように成したことを特徴とし
ている。
また、第4の発明は、上記第1乃至第3の発明のいず
れかに記載の文字認識装置において、学習に際して、入
力された学習用ベクトルの内容に近付くように上記入力
された学習用ベクトルに応じた特定のウエイトベクトル
の内容を更新するニューラルネットワークを備えて、上
記認識対象文字群を代表するような複数の学習用文字の
文字画像情報に基づいて上記小領域毎に作成された学習
用ベクトルを用いて上記ニューラルネットワークを学習
し、各学習用ベクトルの内容に近付くように更新された
結果上記認識対象文字群を代表する各学習用文字の文字
形態差を良く表すように設定されたウエイトベクトルを
上記特徴量算出部で上記小領域の特徴量を算出する際に
用いるテンプレートとすることを特徴としている。
また、第5の発明は、上記1乃至第4の発明のいずれ
かの文字認識装置において、上記文字コード認識部は、
上記1文字領域を構成する総ての小領域における上記特
徴量算出部によって算出された特徴量に基づく入力ベク
トルが入力されると、その入力ベクトルが属する文字コ
ードを識別するように学習された文字識別ニューラルネ
ットワークで構成したことを特徴としている。
<作用> 第1の発明において、読み取られた文字画像情報から
1文字領域の画像情報が切り出されて領域分割部に入力
される。そして、この領域分割部によって上記1文字領
域の画像情報が小領域に分割される。そうすると、特徴
算出部は、上記領域分割部によって分割された小領域の
画像情報とテンプレートとの類似度に基づいて、上記小
領域における特徴量を算出する。こうして、上記1文字
領域を構成する総ての小領域における特徴量が算出され
ると、この1文字領域を構成する総ての小領域における
特徴量に基づいて、上記読み取られた文字画像情報に対
応する文字コードが文字コード認識部によって認識され
る。
その際に、上記テンプレートは認識対象文字群の文字
形態差を良く表すように設定されているので、このテン
プレートに基づいて算出される各小領域の特徴量は、認
識対象文字群における文字形態差を各小領域毎に良く表
しているのである。したがって、文字群の文字形態差の
特徴が異なる種々の文字群のいずれにおいても正しく文
字コードが認識される。
また、第2の発明において、上記1文字領域の文字画
像情報が上記領域分割部によって小領域に分割されるに
際し、互いに隣接する小領域がオーバーラップするよう
に分割される。
したがって、手書き文字のように文字を形成する線が
書き手によって変動し、かつ、その線が隣接する小領域
の境界付近に位置するような場合であっても、同じ文字
を形成する線は認識対象文字に係る1文字領域と標準パ
ターンに係る1文字領域とにおける同じ小領域に属する
ようになる。その結果、認識対象文字の特徴パターンと
その文字の標準パターンとの類似度がより高くなるので
ある。
また、第3の発明において、上記1文字領域の文字画
像情報が上記領域分割部によって小領域に分割されるに
際し、認識対象文字群における文字形態差が良く表れる
箇所を網羅するような種々の形状に分割される。
したがって、上記特徴量算出部によって行われる上記
小領域の特徴量の算出は、認識対象文字群における文字
形態差が良く表れる箇所を網羅するように分割された種
々の形状の小領域のみにおいて、効率良くしかも精度良
く実施される。
また、第4の発明において、上記認識対象文字群を代
表するような複数の学習用文字の文字画像情報に基づい
て学習用ベクトルが上記小領域毎に作成される。そし
て、この学習用ベクトルがニューラルネットワークに入
力されてウエイトベクトルの内容が学習用ベクトルの内
容に近付くように学習が行われる。そうすると、上記ニ
ューラルネットワークのウエイトベクトルは上記認識対
象文字群を代表する各学習用文字の文字形態差を良く表
すように更新される。こうして、認識対象文字群を代表
する各学習用文字の文字形態差を良く表すように設定さ
れたウエイトベクトルは上記特徴量算出部によって上記
小領域の特徴量を算出する際のテンプレートとして用い
られる。
したがって、上記学習用ベクトルを上記ニューラルネ
ットワークに入力するだけで、認識対象文字群の文字形
態差を良く表すようなテンプレートが自動的に作成され
る。
また、第5の発明において、上記特徴量算出部によっ
て上記1文字領域を構成する小領域における特徴量が算
出される。そして上記1文字領域を構成する総ての小領
域における特徴量に基づいて入力ベクトルが作成され
る。こうして作成された入力ベクトルが、その入力ベク
トルが属する文字コードを識別するように学習された文
字識別ニューラルネットワークに入力される。そうする
と、上記文字識別ニューラルネットワークによって、上
記入力ベクトルが属する文字コードが識別され、上記読
み取られた文字画像情報に対応する文字コードが認識さ
れる。
したがって、類似度算出等の複雑な処理を実施するこ
となく、簡単な処理で上記読み取られた文字画像情報に
対する文字コードが認識される。
<実施例> 以下、この発明を図示の実施例により詳細に説明す
る。
この発明は、切り出された1文字領域の文字画像情報
を構成する小領域の特徴量を求めるに際し、認識対象文
字群の文字形態差を良く表すような特徴量を求めること
によって、認識対象文字群の内容に因らずに高い文字認
識率を得るものである。
実施例I 第1図はこの発明の文字認識装置における一実施例を
示すブロック図である。第1図において、スキャナ1
は、呈示された文書等から文画像情報を読み取り第1バ
ッファ2に一時格納する。文字切出し部3は、第1バッ
ファ2に格納された文字画像情報を読み出して1文字領
域に切り出し、この切り出された1文字領域の文字画像
情報を領域分割部4に出力する。領域分割部4は、文字
切出し部3によって切り出された1文字領域の文字画像
を更に小領域に分割し、分割された各少領域毎の画像情
報を第2バッファ5に一時格納する。
特徴量算出部6は、第2バッファ5に格納された各小
領域毎の画像情報のうち一つの小領域の画像情報を順次
読み出し、この読み出した小領域の画像情報とテンプレ
ート・メモリ7に格納されている上記小領域に対応する
種々のテンプレートとの類似度を、後に詳述するように
して算出する。そして、こうして算出された一つの小領
域における複数の類似度から成るベクトルをその小領域
の特徴量(特徴ベクトル)として第3バッファ8に一時
格納する。
類似度算出部9は、1文字領域を構成する総ての小領
域の特徴量を第3バッファ8から読み出して1文字の特
徴パターン(特徴ベクトルのパターン)を得る。そし
て、1文字の特徴パターンとパターン・メモリ10に格納
された種々の標準文字パターンとの類似度を算出する。
ここで、上記標準文字パターンは、認識対象文字の標準
となる文字画像情報から上述と同様にして求めた特徴ベ
クトルのパターンである。こうして、類似度算出部9に
よって算出された各標準文字パターとの類似度(例え
ば、両特徴ベクトルの積和等)のうち、最も類似度の大
きな標準文字パターンに対応する文字コードを読み出し
た文字画像情報の文字コードであると認識する。すなわ
ち、上記類似度算出部9および標準パターン・メモリ10
で文字コード認識部を構成するのである。
こうして認識された文字コードは認識結果としてイン
ターフェース11から外部機器に送出される。
CPU(中央処理装置)12は、上記スキャナ1,第1バッ
ファ2,文字切出し部3,領域分割部4,第2バッファ5,特徴
量算出部6,第3バッファ8,類似度算出部9およびインタ
ーフェース11を制御して、次のように文字認識処理を実
行する。
第2図は上記CPU12によって実施される1文字認識処
理動作のフローチャートである。以下、第2図に従って
本実施例における1文字認識処理動作について述べる。
ステップS1で、文書等からスキャナ1によって文字画
像情報が読み取られて、文字画像が入力される。
ステップS2で、スキャナ1で読み取られた文字画像情
報に基づいて、文字切出し部3によって1文字領域の文
字画像情報が切り出される。
ステップS3で、文字切出り部3で切り出された1文字
領域の文字画像情報が、領域分割部4によって更に小領
域に分割される。
ステップS4で、領域分割部4で分割された1文字領域
を構成する各小領域の画像情報が1小領域づつ順次特徴
量算出部6によって読み出され、テンプレート・メモリ
7に格納されている上記小領域に対応した種々のテンプ
レートとの類似度が算出される。そして、得られた種々
のテンプレートに係る複数の類似度から成るベクトルを
その小領域の特徴量とする。
その際に実施される類似度の計算方法は種々あるが、
例えばユークリッド距離の値を求めてその値の逆数を取
ればよい。
ステップS5で、上記ステップS4において得られた1文
字領域を構成する全小領域の特徴量が類似度算出部9に
よって読み出され、その結果得られた1文字の特徴パタ
ーンとパターン・メモリ10に格納された種々の標準文字
パターンとの類似度が算出される。
ステップS6で、上記ステップS5において算出された類
似度のうち最も類似度の高い標準文字パターンに対応す
る文字コードが、上記ステップS2で切り出された1文字
領域の文字画像に対応する文字コードとして認識され
る。そして、こうして認識された文字コードがインター
フェース11を介して外部機器に出力され、1文字認識処
理動作を終了する。
次に具体的な例を挙げて、本実施例における文字認識
処理について、さらに詳細に説明する。
第3図は例えば文字「大」と文字「犬」とから成る文
字群から文字「大」を識別して認識する場合の例であ
る。第3図(a)は文字「大」の文字画像であり、第3
図(b)は文字「犬」の文字画像である。また、第3図
(c)は、第3図(a)および第3図(b)を4×4の
メッシュ状の小領域に分割した際における最右上の小領
域21,21′に対する類似度算出時に用いるテンプレート
である。
まず、第2図におけるステップS4において、例えば小
領域21,21′における類似度算出が次のようにして行わ
れる。すなわち、小領域21,21′およびテンプレートが
更に例えば4×4の16領域の細領域に分割される。そし
て、第3図(a)における小領域21あるいは第3図
(b)における小領域21′の各細領域のうち、第3図
(c)に示す各テンプレートにおける16個の細領域と一
致する(両細領域における平均濃度が閾値に対して同じ
側にある)細領域が幾つ在るかを数える。そして、得ら
れた値を小領域21あるいは小領域21′と夫々のテンプレ
ート(イ),(ロ),(ハ),(ニ)との類似度とする
のである。したがって、テンプレートの細領域と小領域
の細領域とが総て一致すればその小領域とテンプレート
との類似度は“16"となり、テンプレートの細領域と小
領域の細領域とが総て一致しなければその小領域とテン
プレートとの類似度は“0"となる。
第3図(a)における文字画像「大」の小領域21およ
び第3図(b)における文字画像「犬」の小領域21′と
夫々のテンプレート(イ),(ロ),(ハ),(ニ)と
から得られた類似度を第1表に示す。
同様にして、小領域21,21′以外の小領域に対する類
似度の算出が実行される。その際に用いられるテンプレ
ートは、第3図(c)に示すテンプレートとは異なり、
類似度を算出しようとしている小領域に対応するテンプ
レート群が用いられる。
第1表より、テンプレート(ロ)以外の各テンプレー
ト(イ),(ハ),(ニ)と文字画像「大」における小
領域21との類似度の値は、文字画像「犬」における小領
域21′との類似度の値とは大きく異なる。これは、テン
プレート(イ),(ハ),(ニ)は文字群「大」および
「犬」の小領域21,21′における文字形態差を良く表し
ているからである。そこで、上記文字画像「大」におい
ては各類似度から成るベクトル(16,8,8,0)を小領域21
の特徴量とし、文字画像「犬」においては各類似度から
成るベクトル(10,8,14,6)を小領域21′の特徴量とす
るのである。
これに対して、文字画像「大」における小領域21以外
の小領域と文字画像「犬」における小領域21′以外の小
領域とほぼ同じ画像情報を有しているので、各小領域に
おけるテンプレートとの類似度も同じ値となる。したが
って、小領域21,21′以外の小領域の特徴量は同じとな
る。すなわち、小領域21,21′の特徴量の差によって文
字「大」と文字「犬」との文字形態差が良く表れ、文字
「大」と文字「犬」とから成る文字群から文字「大」を
識別して認識できるのである。
すなわち、本実施例においては、認識対象文字群に属
する各文字の画像情報差を良く表すようなテンプレート
群を各小領域毎に用意することによって、各小領域にお
ける画像情報の特徴ではなく画像情報差の特徴を良く表
すような特徴量を得ることができるのである。したがっ
て、例えば平仮名のみから成る文字群の文字形態差を表
す種々のテンプレートとJIS第1水準の漢字と平仮名と
から成る文字群の文字形態差を表す種々のテンプレート
とを各小領域別に用意することによって、上述のような
各文字群の内容に応じて各文字群の文字形態差を各小領
域毎に良く表す特徴量を得ることができるのである。
つまり、本実施例による小領域の特徴量を用いれば、
平仮名のみから成る文字群において特定の平仮名を認識
する場合も、JIS第1水準の漢字と平仮名とから成る文
字群において上記特定の平仮名を認識する場合も高い認
識能力が得られるのである。
このように、本実施例においては、スキャナ1から読
み取られて文字切出し部3によって1文字領域に切り出
された文字画像情報を、領域分割部4によって複数の小
領域に分割する。その後、特徴量算出部6によって、各
小領域毎に小領域の画像情報とテンプレート・メモリ7
に格納された上記小領域に対応した種々のテンプレート
との類似度を算出し、得られた複数の類似度から成るベ
クトルをその小領域の特徴量とする。そして、こうして
算出された1文字領域に係る全小領域の特徴量からなる
識別対象文字の特徴パターンとパターン・メモリ10に格
納された標準文字パターンとの類似度を類似度算出部9
によって算出し、最も類似度の高い標準文字パターンに
対応した文字コードを識別対象文字のコードであると認
識するようにしている。
したがって、認識対象文字群の文字形態差に応じた種
々のテンプレートを各小領域別に用意することによっ
て、識別対象となる文字群の文字形態差を各小領域毎に
良く表すことができるような特徴量を得ることができ
る。すなわち、本実施例によれば、文字群の文字形態差
の特徴が異なる種々の識別対象文字群のいずれに対して
も高い文字認識能力を得ることができるのである。
実施例II 実施例IIは、上述の実施例Iにおいて、第1図に示す
領域分割部4によって実施される1文字領域の小領域へ
の分割における分割方法に関するものである。
第6図は、従来の方法によって1文字領域を連続した
矩形の小領域に等分割した場合の例を示す。この場合、
第6図(a)においては文字「大」の縦線が小領域27に
存在している。一方、第6図(b)においては文字
「大」の縦線が小領域26′に存在している。したがっ
て、例えば第6図(a)が認識対象の文字画像であり、
第6図(b)が標準文字パターンに係る文字画像である
とすると、第1図に示す類似度算出部9によって実行さ
れる認識対象文字の特徴パターンとその文字の標準文字
パターンとの類似度算出の際に高い類似度が得られない
のである。上述のような問題は、特に手書き文字の認識
の場合に頻繁に発生する。
そこで、本実施例においては、第4図に示すように、
互いに隣接する小領域(例えば、小領域22と小領域23)
を1/3ずつオーバーラップさせるのである。こうするこ
とによって、次のような効果が生じる。すなわち、第5
図(a)においては文字「大」の縦線は小領域24に存在
しており、かつ、第5図(b)においても文字「大」の
縦線は小領域24′に存在していることになるのである。
したがって、第1図の類似度算出部9によって実行され
る認識対象文字の特徴パターンとその文字の標準文字パ
ターンとの類似度算出の際に高い類似度が得られるので
ある。
その際に、第5図(a)における小領域25にも文字
「大」の縦線が存在することになる。しかしながら、こ
の場合には、第5図(b)における小領域25′には文字
「大」の縦線は存在しないので、小領域25と小領域25′
との類似度は低い値と成って問題はないのである。
このように、本実施例においては、上述の実施例Iに
おける領域分割部4によって実施される1文字領域の小
領域への分割に際して、隣接する小領域を互いにオーバ
ーラップさせるようにしている。したがって、文字を形
成する線が互いに隣接する小領域の境界部分に存在する
場合であっても、上記文字を構成する線が認識対象の文
字画像と標準文字パターンに係る文字画像との互いに対
応する小領域に存在するようになる。
したがって、第1図における類似度算出部9によって
実行される1文字の特徴パターンに係る類似度算出の際
に高い類似度が得られ、その結果高い文字認識能力が得
られる。
上記実施例においては、互いに隣接する小領域をオー
バーラップさせる範囲を小領域の1/3としているが、こ
の値に限定されるものでないことは言うまでもない。
上記実施例においては、互いに水平方向に隣接する小
領域をオーバーラップさせているが、互いに垂直方向に
隣接する小領域をオーバーラップさせても何ら差し支え
ない。
実施例III 実施例IIIは、上述の実施例IIと同様に、1文字領域
の小領域への分割における分割方法に関するものであ
る。
上述の各実施例においては、1文字領域を複数の小領
域に分割する際に、各小領域を同じ大きさおよび同じ形
状(矩形)の小領域に分割するようにしている。その場
合には、各小領域の形状は認識対象文字群の文字形態差
が良く表れる箇所を網羅できないような一律の形状とな
るので、1〜3個の小領域から得られる特徴量のみでは
認識対象文字群の文字形態差の特徴を表すことができな
い。したがって、1文字領域を構成する総ての小領域に
ついての特徴量を求め、その全小領域の特徴量によって
表現される1文字領域のパターンによって1文字の特徴
を表さなければならない。つまり、特徴量算出部6によ
って行われる小領域の画像情報とテンプレートとの類似
度算出処理を、1文字領域を形成する16個の小領域の総
てについて実行しなければならず、特徴量算出の効率が
悪いのである。
そこで、本実施例においては、第7図に示すように小
領域の形状を、認識対象文字群の文字形態に応じてその
文字形態差が良く表れる箇所を網羅できるような種々の
形状にすることによって、第1図に示す特徴量算出部6
による小領域に係る特徴量算出処理を効率良くしかも精
度良く行うものである。第7図は文字「大」を認識する
際に用いられる小領域の例である。この場合には、文字
「大」をこの文字「大」に似た文字(例えば、「犬」,
「木」,「水」,「太」,「状」,「伏」等)から容易
に識別できるように、小領域の形状を設定するのであ
る。そのために、本実施例においては、小領域28,小領
域29および小領域30を設ける。
上記小領域28は、略正方形の1文字領域における図中
左側の垂直な辺に沿った帯状を成している。すなわち、
この小領域28は認識対象文字群の1文字領域における左
側の文字形態差を表すための領域であり、文字群
「大」,「犬」,「木」,「水」,「太」等と文字
「状」,「伏」等とを識別するための小領域である。ま
た、小領域29は、1文字領域における左側の垂直な辺か
ら下側の水平な辺に沿ってL字形の帯状を成している。
すなわち、この小領域29は1文字領域における左側から
下側へかけての文字形態差を表すための領域であり、文
字「大」,「犬」等と文字「木」,「水」,「太」,
「状」,「伏」等とを識別するための小領域である。さ
らに、小領域30は1文字領域における右上の一角に在っ
て矩形を成している。すなわち、この小領域30は1文字
領域における右上角の文字形態差を表すための領域であ
り、文字「大」と文字「犬」等とを識別するための小領
域である。
そして、上記小領域28に対応したテンプレートとし
て、文字群「大」,「犬」,「木」,「水」,「太」,
「状」,「伏」等の小領域28に対応する領域の文字形態
差を良く表すような種々のテンプレートを用意する。同
様に、上記小領域29あるいは小領域30に対応したテンプ
レートとして、文字群「大」,「犬」,「木」,
「水」,「太」,「状」,「伏」等の小領域29あるいは
小領域30に対応する領域の文字形態差を良く表すような
種々のテンプレートを用意するのである。
こうして、第2図におけるステップS4において、1文
字領域の上記各小領域28,29,30における画像情報と夫々
の小領域に対応した種々のテンプレートとの類似度算出
を実施することによって、入力された文字「大」の文字
画像情報に対応する文字コードを文字群「大」,
「犬」,「木」,「水」,「太」,「状」,「伏」等の
文字コードの中から適確に識別して認識できるのであ
る。
その際に、第7図から明らかなように、本実施例にお
ける小領域28,29,30は上記各実施例の場合のように1文
字領域を総て網羅するように形成する必要はなく、認識
対象文字群の文字形態差が良く表れている箇所さえ網羅
していれば十分である。
このように、本実施例においては、上述の実施例Iあ
るいは実施例IIにおける領域分割部4によって実施され
る1文字領域の少領域への分割に際して、認識対象文字
群の文字形態差が良く表れる箇所を網羅できるような種
々の形状の小領域に分割するようにしている。したがっ
て、特徴量算出に際しては、認識対象文字群の文字形態
差が良く表れるような小領域のみにおいてテンプレート
との類似度算出を実行すればよいのである。
すなわち、本実施例によれば、1文字領域の特徴量算
出に際して認識対象文字群における文字形態差を十分に
表すような特徴量を算出することができ、かつ、1文字
領域を構成する総ての小領域においてテンプレートとの
類似度算出を実行する必要がなく、小領域に係る特徴量
算出処理を精度良くしかも効率良く実施できる。
実施例IV 実施例IVは、例えば上述の実施例Iにおいて、第1図
に示す特徴量算出部6で類似度を算出する際に使用され
る種々のテンプレートの作成に関する例である。その際
に、本実施例におけるテンプレートの作成は、ニューラ
ルネットワークを用いて自動的に作成する。
第8図は本実施例に係る文字認識装置の部分ブロック
図である。この文字認識装置は第1図に示す文字認識装
置にテンプレート・メモリ7に格納されるテンプレート
を作成する自己組織化ニューラルネットワーク31を付加
したものである。ここで、第8図には第1図のブロック
図における特徴量算出部6およびテンプレート・メモリ
7とそれらに付加された自己組織化ニューラルネットワ
ーク31のみを記載し、その他の部分は第1図と全く同じ
であるため記載を省略してある。
第8図において、文字認識に先立って、認識対象文字
群を代表する文字における文字画像情報の上記小領域に
対応する画像情報を表すベクトルが、学習用ベクトルと
して自己組織化ニューラルネットワーク31に入力され
る。そうすると、自己組織化ニューラルネットワーク31
は、後に詳述するように、内部に有している学習ベクト
ルに応じた特定のウエイトベクトルの内容を入力された
学習用ベクトルの内容に近付けるように学習するのであ
る。次に、他の小領域に係る種々の学習用ベクトルが順
次自己組織化ニューラルネットワーク31に入力される
と、同様にして学習が実行され、自己組織化ニューラル
ネットワーク31内には夫々の学習用ベクトルを写像した
複数のウエイトベクトルが生成されるのである。
つまり、学習済みの自己組織化ニューラルネットワー
ク31に生成されたウエイトベクトルは、認識対象文字群
を代表する文字(以下、学習用文字と言う)の文字画像
の各小領域に係る画像情報を良く表すような内容を有す
るのである。このことは、取りも直さず、学習済みの自
己組織化ニューラルネットワーク31内に生成されたウエ
イトベクトルは上記小領域における類似度算出の際に用
いるテンプレートであると言える。そこで、自己組織化
ニューラルネットワーク31内に生成された各ウエイトベ
クトルを、入力文字画像の各小領域における類似度算出
の際に用いられるテンプレートとして、各小領域と対応
付けてテンプレート・メモリ7に格納するのである。
文字認識処理が開始されると、実施例Iの場合と同様
にして、1文字の文字画像情報が小領域に分割されて第
2バッファ5に格納される。そして、この第2バッファ
5に格納された小領域の画像情報と、上述のようにして
作成されたテンプレート・メモリ7に格納された上記小
領域に対応したテンプレートとが特徴量算出部6によっ
て読み出される。そして、上記小領域の画像情報と上記
種々のテンプレートとの類似度が特徴量算出部6によっ
て算出される。その結果、上述のようにして得られた上
記小領域の特徴量が第3バッファ8に格納されるのであ
る。その後、実施例Iの場合と同様にして1文字の特徴
パターンが求められ、この1文字の特徴パターンと標準
文字パターンとの類似度が算出されるのである。
第9図は本実施例に係る自己組織化ニューラルネット
ワーク31の概略図である。本実施例における自己組織化
ニューラルネットワーク31としては、自己組織化特徴写
像によって学習が行われるコホーネン型ニューラルネッ
トワークを用いる。
このコホーネン型ニューラル・ネットワークの構造
は、総ての自己組織化ノード32,32,…が入力ノード33に
対して結合された構造なっている。自己組織化ノード32
は、複数の自己組織化ノード32,32,…に付加された番号
iで表すことにする。例えば、自己組織化ノード32iは
i番目の自己組織化ノードを表す。
上記入力ノード33には上記1文字領域を構成する小領
域の画像情報を表す64次元の学習用ベクトルXが入力さ
れる。そうすると、学習用ベクトルXとウエイトベクト
ルWとに基づいて、所定のアルゴリズムに従って出力値
が各結合毎に算出される。ここで、上記ウエイトベクト
ルWは自己組織化ノード32に対応付けて設けられてお
り、自己組織化ノード32iに対するウエイトベクトルは
“Wi"と表することにする。
本実施例においては、上記コホーネン型ニューラルネ
ットワークの学習を自己組織化特徴写像によって実施す
る。そして、入力ノード33に入力された学習用ベクトル
Xの内容の特徴を上記学習用ベクトルXに応じた特定の
ウエイトベクトルWiの内容に写像することによって、認
識対象文字群を代表する学習用文字に係る各小領域の画
像情報を良く表すようなウエイトベクトルを自己組織す
るものである。
上記自己組織化特徴写像による学習は、学習用ベクト
ルXを入力した際に、入力された学習用ベクトルXとの
類似度が最も高いウエイトベクトルWに対して実施され
る学習である。すなわち、この自己組織化特徴写像によ
る学習のアルゴリズムは(1)式によってウエイトベク
トルWの値を更新することによって行われる教師無し学
習である。
とした場合に、 ここで、t:学習回数 X:学習用ベクトル W:ウエイトベクトル i:ウエイトベクトル番号 Wc:学習用ベクトルXとの類似度が最大のウエイトベク
トル R{A,B}:ベクトルAとベクトルBとの類似度を求め
る関数 a(t):学習回数tと共に減少する関数 Nc:Wcの近傍に設けられた所定領域内のベクトル番号の
集合 すなわち、自己組織化特徴写像による学習は、学習用
ベクトルXを入力した際に、この学習用ベクトルXとの
類似度が最大であるウエイトベクトルWcの近傍に設けら
れた所定領域内に存在するウエイトベクトルWi(i∈N
c)の内容を、学習用ベクトルXとの差(X−Wi)の値
を小さくするように更新するのである。こうして学習が
繰り返されることによって、やがてウエイトベクトルWi
は学習用ベクトルXの内容と同じようになり、ウエイト
ベクトルWiに学習用ベクトルXの内容の特徴が写像され
るのである。その結果、自己組織化ノード32iが自己組
織されるのである。
次に、上述の自己組織化特徴写像による学習を上記小
領域に係る類似度算出字に使用するテンプレートの作成
に利用する場合について、学習用文字「犬」に係る学習
用ベクトルを入力した場合を例に詳細に説明する。
64×64のマトリックス構造を成すイメージセンサによ
って読み取られた文字画像情報の外枠が一定の大きさに
なるように正規化され、第9図に示すような32×32のメ
ッシュ状の1文字「犬」の文字画像情報が得られる。さ
らに、この32×32のメッシュ状の1文字の文字画像情報
が4×4の小領域34,…に分割される。したがって、各
小領域は8×8のメッシュから構成されることになる。
次に、例えば、上述のようにして得られた各小領域の
うち右上の小領域34の画像情報を学習用ベクトルX0とし
た場合について説明する。
上記小領域34の64個のメッシュにおける画像情報を64
次元の学習用ベクトルX0の各要素として、入力ノード33
に入力する。その際における上記画像情報としては上述
の平均濃度を用い、メッシュの平均濃度が閾値以上であ
ればそのメッシュの画像情報として“1"を与える一方閾
値より小さければ“0"を与えればよい。そうすると、各
自己組織化ノード32iに対応付けられたウエイトベクト
ルWi毎に、このウエイトベクトルWiと学習用ベクトルX0
との類似度Rが算出される。
ここで、本実施例における自己組織化ニューラルネッ
トワークは次のような概略構造になっている。すなわ
ち、この自己組織化ニューラルネットワークは一組16個
×16組(=256個)の自己組織化ノード32を有する(1
≦i≦256)。そして、夫々の組に属する16個の自己組
織化ノード32,32,…は異なる一つの入力ノードに結合さ
れると共に、1文字領域を構成する各小領域のいずれか
一つに対応付けられている。第9図においては小領域34
に対応付けられた一組の自己組織化ノードのみが記載さ
れている。したがって、小領域34に係る類似度算出は、
第9図に示す一組16個の自己組織化ノード32i(1≦i
≦16)に対応付けられたウエイトベクトルWi(1≦i≦
16)について実施される。すなわち、その際の類似度Ri
はR{X0,Wi}(1≦i≦16)となる。
こうして、類似度Riが算出された結果、ウエイトベク
トルWi0との類似度が最大であった(すなわち、Rmax=R
i0=R{X0,Wi0})とすると、ウエイトベルトWi0を中
心とした所定領域内のウエイトベクトルWi(i∈Ni0
の内容が学習用ベクトルX0の内容に近付くように更新さ
れるのである。こうした学習が繰り返された結果、最大
類似度Rmaxが閾値以上になると学習が停止される。そう
すると、その時点で最大類似度Rmaxを示しているウエイ
トベクトル(例えば、ウエイトベクトルWi0)は学習用
ベクトルX0の特徴を写像しているのである。
同様にして、他の学習用文字の右上の小領域(小領域
34に対応)の画像情報に基づく学習用ベクトルX1,X2,…
が入力ノード33に順次入力されて学習が実行される。そ
して、学習が終了した時点で最大類似度Rmaxを示してい
るウエイトベクトル(例えば、ウエイトベクトルWi1,Wi
2,…)は夫々学習用ベクトルX1,X2,…の特徴を写像して
いるのである。すなわち、こうして学習用文字「犬」を
含む種々の学習用ベクトルに対応付けられた特定のウエ
イトベクトルWi0,Wi1,Wi2,…は、各学習用文字に係る1
文字領域の右上の小領域の画像情報を写像するように自
己組織される。
そこで、本実施例においては、この学習によって学習
用ベクトルX対応付けられた各ウエイトベクトルWi0,Wi
1,Wi2,…の内容を右上の小領域に対応した種々のテンプ
レートとするのである。こうすることによって、上記各
学習用文字群の右上の小領域における文字形態差を良く
表す種々のテンプレートが得られるのである。
以下、上述と同様にして、文字「犬」を含む各学習用
文字の上記右上の小領域とは異なる他の小領域に係る学
習用ベクトルXを、夫々第9図とは異なる自己組織化ノ
ードの組に対応した入力ノードに入力することによっ
て、上記学習用文字群の上記右上の小領域とは異なる他
の小領域における文字形態差を良く表す種々のテンプレ
ートが得られる。こうして、順次文字「犬」含む各学習
用文字の小領域を変えて学習用ベクトルXを自己組織化
ニューラルネットワーク31に入力することによって、上
記学習文字群の総ての各小領域における文字形態差を良
く表す種々のテンプレートが各小領域毎に得られるので
ある。
但し、こうして得られたテンプレートを使用して上記
小領域における画像情報との類似度の算出を行う場合に
は、上記小領域における画像情報は認識対象文字の32×
32のメッシュから成る文字画像情報を4×4の小領域に
分割して得たものを用いなければならない。
このように、本実施例においては、第1図の実施例I
におけるテンプレート・メモリ7に格納する種々のテン
プレートを、自己組織化ニューラルネットワーク31によ
って学習用文字の画像情報に基づいて生成するようにし
ている。したがって、認識対象文字群を表する学習用文
字を用いて自己組織化特徴写像によって自己組織化ニュ
ーラルネットワーク31を学習することによって、上記認
識対象文字群の各小領域における文字形態差を良く表す
種々のテンプレートを自動的に得ることができる。
上記実施例においては、1文字領域を構成する一つの
小領域に対応する自己組織化ノード32の数を16個として
いる。しかしながら、この発明においてはこれに限定さ
れるものではなく、作成したいテンプレート数(すなわ
ち、学習文字の種類の数)に応じて設定すればよい。
上記実施例においては、上記テンプレートの生成を自
己組織化特徴写像によって学習される自己組織化ニュー
ラルネットワーク31で実施している。しかしながら、こ
の発明においてはこれに限定されるものではなく、例え
ば学習ベクトル量子化(LVQ)や学習ベクトル量子化2
(LVQ2)等によって学習されるコホーネン型ニューラル
ネットワークで実施してもよい。要はウエイトベクトル
の内容が学習用ベクトルの内容に近付くように学習され
るようなニューラルネットワークの構造と学習アルゴリ
ズムであればよいのである。しかしながら、LVQやLVQ2
による学習は教師有りの学習であるため自己組織化がで
きないので、出力ノードの学習用ベクトルが属するカテ
ゴリへの割り付けや教師データの入力等を行わなければ
成らず、学習が面倒である。したがって、自己組織化特
徴写像による学習の方が自動的にテンプレートが生成さ
れるため優れていると言える。
実施例V 実施例Vは、実施例IVにおいて、上記類似度算出部9
およびパターン・メモリ10によって実施する1文字の特
徴パターンに基づく文字コード認識動作をニューラルネ
ットワークによって実施する例である。
第10図は、本実施例に係る文字認識装置ブロック図で
ある。この文字認識装置は実施例IVにおける文字認識装
置の類似度算出部9およびパターン・メモリ10で構成さ
れる文字コード認識部を文字識別ニューラルネットワー
ク44で構成したものである。本実施例における上記文字
識別ニューラルネットワーク44は、LVQ2によって学習さ
れたコホーネン型ニューラルネットワークを用いる。以
下、本実施例を上述の実施例IVに適応させた場合につい
て説明する。
このコホーネン型ニューラルネットワークの概略構造
は、第11図に示すように、総ての出力ノード45,45,…が
入力ノード46に対して結合された構造なっている。出力
ノード45,45,…は認識対象文字群のいずれかの文字の文
字コード(カテゴリ)に割り付けられている。出力ノー
ド45は、この出力ノード45が割り付けられたカテゴリの
番号jとそのカテゴリ内に含まれる複数の出力ノード4
5,45,…の番号kとで表すことにする。例えば出力ノー
ド45jkは“j"番目のカテゴリに割り付けられた“k"番目
の出力ノードを表す。入力ノード46には1文字領域を構
成する小領域数に対応した16次元の入力ベクトルIが入
力される。そうすると、入力ベクトルIとウエイトベク
トルWとに基づいて、後に詳述するようなアルゴリズム
に従って出力値Oが各結合毎に算出され、この算出され
た出力値Oが各出力ノード45から出力される。そして、
最大値を出力している出力ノード45が割り付けられてい
るカテゴリを、入力ベクトルIが属するカテゴリ(文字
コード)であると識別するのである。ここで、上記ウエ
イトベクトルWは出力ノード45に対応付けられており、
各ウエイトベクトルWは対応する出力ノード(例えば、
出力ノード45jk)と同じ添数字で表す(例えば、Wjk)
ことにする。
上記構成のコホーネン型ニューラルネットワークの出
力値算出アルゴリズムは(2)式のようなアルゴリズム
である。
ここで、i:入力ベクトルIおよびそれに対応したウエ
イトベクトルWの要素の番号(1≦i≦16) このようなコホーネン型ニューラルネットワークの学
習方法として用いられているLVQ2は、学習用ベクトルY
を入力した際の出力値Oと、その出力値Oに基づく識別
カテゴリに従って、式(3)によってウエイトベクトル
Wの値を更新する方法である。
まず、以下に述べるようにして学習用ベクトルYが作
成される。すなわち、例えば上述の実施例IVにおいてテ
ンプレート作成時に用いた正規化された32×32のメッシ
ュ状の学習用文字「犬」の文字画像情報が、8×8のメ
ッシュから成る小領域に分割される。そして、実施例IV
で述べたようにして作成されたテンプレート・メモリ43
に格納されているテンプレート(64次元ベクトル)と上
記学習用文字「犬」の各小領域における画像情報(64次
元ベクトル)との類似度が特徴量算出部42によって算出
される。
上記類似度は、例えば当該小領域の画像情報のベクト
ルと上記当該小領域に対応するテンプレートのベクトル
との積和を算出し、この積和の値を類似度とすればよ
い。同様にして、当該小領域に対応する総てのテンプレ
ートとの類似度を算出し、得られた複数の類似度から成
るベクトルを当該小領域の特徴量とする。このような操
作を学習用文字「犬」の1文字領域を構成する総て(16
個)の小領域について実行し、総ての小領域の特徴量を
求める。こうして求めた学習用文字「犬」における16個
の特徴量を、学習用文字「犬」に係る16次元の学習用ベ
クトルYとするのである。
上述のようにして求められた学習用ベクトルYを第11
図に示すように文字識別ニューラルネットワーク44の入
力ノード46に入力してニューラルネットワークの学習が
開始される。
すなわち、上記学習用ベクトルYを入力した際の出力
ノードからの出力値Ojkのうち、最大出力値Oj1K1とし、
2番目に大きな出力値をOj2k2としたときに、 j1≠学習用ベクトルYが属するカテゴリの番号かつ、 j2≠学習用ベクトルYが属するカテゴリの番号なら
ば、ウエイトベクトルWj1k1,Wj2k2の内容を夫々、 に更新する。
ここで、K:定数あるいは学習回数と共に減少する回
数。
上記ウエイトベクトルWj1k1,Wj2k2の初期値は学習用
ベクトルYの値とする。
その結果、学習が繰り返されるに連れて、2番目に大
きな値Oj2k2を出力する出力ノードからの出力値が大き
くなる一方、最大出力値Oj1k1を出力する出力ノードか
らの出力値が小さくなるのである。そして、やがては学
習用ベクトルYと同じカテゴリに属する2番目に大きな
値Oj2k2を出力した出力ノードからの出力値が、学習用
ベクトルYと異なったカテゴリに属する最大出力値Oj1k
1を出力した出力ノードからの出力値よりも大きくな
る。
すなわち、学習用ベクトルYが属するカテゴリj2(文
字「犬」の文字コード)に割り付けられた出力ノードが
最大出力値を出力するようになり、最大出力値に基づい
て学習用ベクトルYが属するカテゴリを正しく識別でき
るようになるのである。
上述と同様に他の学習用文字の文字画像情報に基づい
て文字識別ニューラルネットワーク44の学習が実行され
る。
こうして、文字識別ニューラルネットワーク44の学習
が終了すると、認識対象文字の文字画像がスキャナ41に
入力されて、文字認識動作が開始される。
上記スキャナ41によって読み取られた認識対象文字の
1文字領域の文字画像情報が8×8のメッシュから成る
小領域に分割される。そして、1文字領域を構成する総
ての小領域における画像情報とテンプレート・メモリ43
に格納されているテンプレートとの類似度が例えば上述
のようにして特徴量算出部42よって算出される。そし
て、その結果に基づいて認識対象文字の1文字領域を構
成する総ての小領域(16個)の特徴量が得られる。こう
して得られた認識対象文字における16個の特徴量を、認
識対象文字に係る16次元の入力ベクトルIとするのであ
る。
上記文字識別ニューラルネットワーク44の入力ノード
46に上記16次元の入力ベクトルIが入力されると、入力
ベクトルIと上述の学習によって更新されているウエイ
トベクトルWとに基づいて、(2)式に従って出力値O
が各結合毎に算出され、この算出された出力値Oが各出
力ノード45から出力される。そこで、最大値を出力して
いる出力ノード45が割り付けられているカテゴリ(文字
コード)を、認識対象文字の文字コードであると識別し
て認識するのである。
このように、本実施例においては、特徴量算出部42に
よって算出された各小領域の特徴量に基づいて認識対象
文字の文字コードを認識する文字コード認識部を、1文
字領域を構成する総ての小領域の特徴量に基づく入力ベ
クトルが属する文字コードを識別するように学習された
文字識別ニューラルネットワーク44によって構成してい
る。したがって、認識対象文字の特徴パターンとその文
字の標準文字パターンとの類似度算出等の処理の必要が
なく、文字識別ニューラルネットワーク44に認識対象文
字における1文字領域を構成する総ての小領域の特徴量
に基づく入力ベクトルを入力するだけの簡単な処理で、
効率良く上記認識対象文字の文字コードを識別して認識
できる。
上記実施例においては、文字識別ニューラルネットワ
ーク44としてLVQ2によって学習するコホーネン型ニュー
ラルネットワークを用いている。しかしながら、この発
明における文字識別ニューラルネットワークの構造と学
習方法は、上記実施例に限定されるものではない。
上記実施例においては、文字コード認識部を構成する
文字識別ニューラルネットワークを実施例IVに適応する
例について説明している。しかしながら、この発明はこ
れに限定されるものではなく、実施例Iあるいは実施例
IIあるいは実施例IIIあるいはそれらの組み合わせに適
応しても何等差し支えない。
<発明の効果> 以上より明らかなように、第1の発明の文字認識装置
は、領域分割部,特徴量算出部および文字コード認識部
を有して、読み取った文字画像情報から切り出した1文
字領域を上記領域分割部によって小領域に分割し、上記
特徴量算出部によって、この小領域の画像情報と認識対
象文字群の文字形態差を上記小領域別によく表すような
テンプレートとの類似度に基づいて上記小領域における
特徴量を算出し、上記1文字領域を構成する総ての小領
域における上記特徴量算出部で算出された特徴量に基づ
いて、上記読み取られた文字画像情報に対応する文字コ
ードを上記文字コード認識部によって認識するようにし
たので、上記特徴量算出部によって算出される特徴量は
認識対象文字群の文字形態差を良く表している。
したがって、第1の発明の文字認識装置は、文字群の
文字形態差の特徴が異なるような種々の文字群のいずれ
に対しても高い文字認識能力を有する。
また、第2の発明の文字認識装置は、上記第1の発明
の文字認識装置における領域分割部を、上記1文字領域
の文字画像情報を小領域に分割する際に互いに隣接する
小領域をオーバーラップさせて分割するように成したの
で、第2の発明の文字認識装置によれば、文字を形成す
る線の位置が変動し、かつ、その線が小領域の境界付近
に位置するするような場合であっても、同じ文字を形成
する線は、認識対象文字に係る1文字領域と標準文字パ
ターンに係る1文字領域とにおける同じ小領域に属する
ようになる。
したがって、文字コード認識処理時における認識対象
文字の特徴パターンとその文字の標準文字パターンとの
類似度が高くなり、文字認識能力がより高められる。
また、第3の発明の文字認識装置は、上記第1あるい
は第2の発明の文字認識装置における領域分割部を、上
記1文字領域の文字画像情報を小領域に分割する際に認
識対象文字群の文字形態差が良く表れる箇所を網羅する
ような種々の形状に分割するように成したので、上記特
徴量算出部によって行われる上記小領域の特徴量の算出
は、認識対象文字群の文字形態差が良く表れる箇所を網
羅するように分割された種々の形状の小領域のみによっ
て実施できる。
したがって、第3の発明の文字認識装置によれば、1
文字領域を構成する小領域の特徴量の算出に際して認識
対象文字群における文字形態差をより良く表すように算
出でき、かつ、認識対象文字の1文字領域を構成する総
ての小領域について特徴量を算出する必要がなく、上記
小領域の特徴量算出処理をより精度良くしかも効率良く
実施できる。
また、第4図の発明の文字認識装置は、上記第1乃至
第3のいずれかの発明の文字認識装置にニューラルネッ
トワークを設けて、上記認識対象文字群を代表するよう
な複数の学習用文字の文字画像情報に基づいて作成され
た学習用ベクトルを用いて上記ニューラルネットワーク
を学習し、その結果上記各学習用文字の文字形態差を良
く表すように設定されたウエイトベクトルを上記特徴量
算出部で上記小領域の特徴量を算出する際に用いられる
テンプレートとするようにしたので、第4の発明の文字
認識装置によれば、上記ニューラルネットワークに上記
学習用ベクトルを入力するだけで、認識対象文字群の文
字形態差をよく表すようなテンプレートが自動的に得ら
れる。
また、第5の発明の文字認識装置は、上記第1乃至第
4のいずれかの発明の文字認識装置における文字コード
認識部を、認識対象文字の1文字領域を構成する総ての
小領域における特徴量に基づく入力ベクトルが入力され
ると、その入力ベクトルが属する文字コードを識別する
ように学習された文字認識ニューラルネットワークで構
成したので、第5の発明の文字認識によれば、上記認識
対象文字に係る1文字の特徴パターンと標準文字パター
ンとの類似度等を算出する必要がなく、読み取られた文
字画像情報に対応した文字コードをより簡単な処理で効
率良く認識できる。
【図面の簡単な説明】
第1図はこの発明の文字認識装置における一実施例のブ
ロック図、第2図は第1図におけるCPUによる1文字認
識処理動作のフローチャート、第3図は第1図に係る小
領域とテンプレートの説明図、第4図は小領域の分割方
法の説明図、第5図は第4図に係る小領域の分割方法に
おける効果の説明図、第6図は従来の小領域の分割方法
の説明図、第7図は第4図とは異なる分割方法の説明
図、第8図は自己組織化ニューラルネットワークによっ
てテンプレートを作成する文字認識装置における部分ブ
ロック図、第9図は第8図における自己組織化ニューラ
ルネットワークの学習の説明図、第10図は文字識別ニュ
ーラルネットワークによって文字コード識別動作を行う
文字認識装置のブロック図、第11図は第10図の文字認識
装置における文字識別ニューラルネットワークの学習の
説明図である。 1,41……スキャナ、3……文字切出し部、 4……領域分割部、6,42……特徴量算出部、 7,43……テンプレート・メモリ、 9……類似度算出部、 12……CPU、 31……自己組織化ニューラルネットワーク、 32……自己組織化ノード、33……入力ノード、 44……文字識別ニューラルネットワーク、 45……出力ノード、46……入力ノード。

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】読み取った文字画像情報から1文字領域の
    画像情報を切り出し、この1文字領域の画像情報に基づ
    いて上記文字画像情報に対応する文字コードを認識する
    文字認識装置において、 上記1文字領域の画像情報を小領域に分割する領域分割
    部と、 上記領域分割部によって分割された小領域の画像情報と
    認識対象文字群における文字形態差を上記小領域別に良
    く表すようなテンプレートとの類似度に基づいて、上記
    小領域における特徴量を算出する特徴量算出部と、 上記1文字領域を構成する総ての小領域における上記特
    徴量算出部によって算出された特徴量に基づいて、上記
    読み取られた文字画像情報に対応する文字コードを認識
    する文字コード認識部を備えたことを特徴とする文字認
    識装置。
  2. 【請求項2】請求項1に記載の文字認識装置において、 上記領域分割部は、上記1文字領域の文字画像情報を小
    領域に分割する際に、互いに隣接する小領域をオーバー
    ラップさせて分割するように成したことを特徴とする文
    字認識装置。
  3. 【請求項3】請求項1または請求項2に記載の文字認識
    装置において、 上記領域分割部は、上記1文字領域の文字画像情報を小
    領域に分割する際に、認識対象文字群における文字形態
    差が良く表れる箇所を網羅するような種々の形状に分割
    するように成したことを特徴とする文字認識装置。
  4. 【請求項4】請求項1乃至請求項3のいずれかに記載の
    文字認識装置において、 学習に際して、入力された学習用ベクトルの内容に近付
    くように上記入力された学習用ベクトルに応じた特定の
    ウエイトベクトルの内容を更新するニューラルネットワ
    ークを備えて、 上記認識対象文字群を代表するような複数の学習用文字
    の文字画像情報に基づいて上記小領域毎に作成された学
    習用ベクトルを用いて上記ニューラルネットンワークを
    学習し、各学習用ベクトルの内容に近付くように更新さ
    れた結果上記認識対象文字群を代表する各学習用文字の
    文字形態差を良く表すように設定されたウエイトベクト
    ルを上記特徴量算出部で上記小領域の特徴量を算出する
    際に用いるテンプレートとすることを特徴とする文字認
    識装置。
  5. 【請求項5】請求項1乃至請求項4のいずれかに記載の
    文字認識装置において、 上記文字コード認識部は、上記1文字領域を構成する総
    ての小領域における上記特徴量算出部によって算出され
    た特徴量に基づく入力ベクトルが入力されると、その入
    力ベクトルが属する文字コードを識別するように学習さ
    れた文字識別ニューラルネットワークで構成したことを
    特徴とする文字認識装置。
JP2065055A 1990-03-15 1990-03-15 文字認識装置 Expired - Fee Related JP2624558B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2065055A JP2624558B2 (ja) 1990-03-15 1990-03-15 文字認識装置
US07/667,340 US5151951A (en) 1990-03-15 1991-03-11 Character recognition device which divides a single character region into subregions to obtain a character code
US07/871,075 US5271068A (en) 1990-03-15 1992-04-20 Character recognition device which divides a single character region into subregions to obtain a character code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2065055A JP2624558B2 (ja) 1990-03-15 1990-03-15 文字認識装置

Publications (2)

Publication Number Publication Date
JPH03265986A JPH03265986A (ja) 1991-11-27
JP2624558B2 true JP2624558B2 (ja) 1997-06-25

Family

ID=13275886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2065055A Expired - Fee Related JP2624558B2 (ja) 1990-03-15 1990-03-15 文字認識装置

Country Status (1)

Country Link
JP (1) JP2624558B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6414091B2 (ja) * 2016-01-28 2018-10-31 京セラドキュメントソリューションズ株式会社 画像出力装置

Also Published As

Publication number Publication date
JPH03265986A (ja) 1991-11-27

Similar Documents

Publication Publication Date Title
US5774580A (en) Document image processing method and system having function of determining body text region reading order
US5799115A (en) Image filing apparatus and method
US5841902A (en) System and method for unconstrained on-line alpha-numerical handwriting recognition
US5271068A (en) Character recognition device which divides a single character region into subregions to obtain a character code
CN111695527B (zh) 一种蒙古文在线手写体识别方法
Chi et al. ID3-derived fuzzy rules and optimized defuzzification for handwritten numeral recognition
CN110929665A (zh) 一种自然场景曲线文本检测方法
CN114092938B (zh) 图像的识别处理方法、装置、电子设备及存储介质
CN116935418B (zh) 一种三维图文模板自动重组方法、设备及系统
JP2003524258A (ja) 電子ドキュメントを処理する方法および装置
CN114730241A (zh) 触摸式用户界面输入中的手势笔画识别
JP5003051B2 (ja) 郵便自動区分機及び郵便自動区分方法
CN114399784A (zh) 一种基于cad图纸的自动识别方法及装置
JP2624558B2 (ja) 文字認識装置
JP3099797B2 (ja) 文字認識装置
JP2940747B2 (ja) 文字切り出し装置
Chi et al. Handwritten digit recognition using combined ID3-derived fuzzy rules and Markov chains
JPH04111085A (ja) パターン認識装置
US11537605B2 (en) Method, apparatus, and system for auto-registration of nested tables from unstructured cell association for table-based documentation
CN117037190B (zh) 一种基于数据分析的印章识别管理系统
JP2812391B2 (ja) パターン処理方法
CN116645535A (zh) 基于超图学习的图案元素分组方法及装置
JP3416975B2 (ja) 文字認識装置及び認識文字の修正方法
Chaudhuri et al. A Novel Rough Set based Technique for Character Spotting on Inscription Images
JP2925303B2 (ja) 画像処理方法及び装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees