JP2004005070A - Character recognition system and character recognition program - Google Patents

Character recognition system and character recognition program Download PDF

Info

Publication number
JP2004005070A
JP2004005070A JP2002158273A JP2002158273A JP2004005070A JP 2004005070 A JP2004005070 A JP 2004005070A JP 2002158273 A JP2002158273 A JP 2002158273A JP 2002158273 A JP2002158273 A JP 2002158273A JP 2004005070 A JP2004005070 A JP 2004005070A
Authority
JP
Japan
Prior art keywords
character
correction
image
character recognition
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002158273A
Other languages
Japanese (ja)
Inventor
Norihiro Kasano
笠野 範博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JAPAN BEST RESCUE SYSTEM KK
OCEAN NETWORK CO Ltd
Original Assignee
JAPAN BEST RESCUE SYSTEM KK
OCEAN NETWORK CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JAPAN BEST RESCUE SYSTEM KK, OCEAN NETWORK CO Ltd filed Critical JAPAN BEST RESCUE SYSTEM KK
Priority to JP2002158273A priority Critical patent/JP2004005070A/en
Publication of JP2004005070A publication Critical patent/JP2004005070A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of precisely recognizing a character displayed with a low resolution without being limited to an object having a character shown thereon. <P>SOLUTION: This character recognition system 1 comprises a digital camera 4 for taking an image of a character; and a recognition device 2 having an input means 7 for inputting the taken image, an imaging information acquiring means 9 for acquiring imaging information 8, a pattern generating means 11 for generating a correction pattern 10 suitable to the taken image, a storage means 13 for storing character definition data 12 or the like, an emphasis correcting means 15 for performing the emphasis correction of the character by contrast correction, brightness correction, sharpness correction and negating correction of the taken image, a pattern detecting means 16 for detecting a designated pattern 5, a range selecting means 18 for selecting a range image 17, a range recognizing means 19 for performing a character recognition, and an output means 21 for outputting the recognized character. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、文字認識システム、及び文字認識プログラムに関するものであり、特に、認識対象の文字をイメージとして撮像し、撮像されたイメージを強調補正した後に文字認識を行う文字認識システム、及び文字認識プログラムに関するものである。
【0002】
【従来の技術】
従来から、紙などの印刷媒体に印刷された文字や記号などを、光学機器を利用して電子データとして読取ることが可能なシステムが開発されている。例えば、店舗などの商品管理及び会計処理を簡略化するために、商品の包装などに表示または貼付されたバーコードを光学式のバーコードリーダによって読取り販売時点情報を管理する所謂「POSシステム」を採用するところがある。さらに、商品管理以外の用途として、レンタルビデオ店などで予め登録した会員に配布した会員証に前述のバーコードを付し、レンタル時に該バーコードの情報を読取ることにより、登録された会員であることを確認している。
【0003】
また、CCD(電荷結合デバイス)などの撮像デバイスを搭載したスキャナーを利用して、書類原稿を画像として取得し、さらにOCRソフト(光学的文字読取りソフト)を用いてコンピュータ上で文字を自動的に認識させる処理が行われている。これらは、紙媒体などの表面に表示された文字を大量にかつ迅速に電子データ化することが可能なものであり、大量の資料及び文献を電子化する必要のある官公庁やオフィスなどで広く普及している。
【0004】
この他にも、例えば、高速道路や一般国道などに設置され、赤外線カメラを利用して通行車両のナンバープレートを撮影し、画像として入力したものから車両登録番号(ナンバー)を自動的に認識することができる、所謂「Nシステム」と呼ばれる車両ナンバー自動読取システムが知られている。これにより、犯罪行為に用いられた車両、或いは犯人が逃走に使用している車両などが、Nシステムの設置された道路を通過すると、係る車両のナンバーを認識し、各警察署などにその位置情報を報知し、犯人検挙を速やかに行うことができる。
【0005】
【発明が解決しようとする課題】
しかしながら、上述したバーコードによって情報を読取って認識するシステムは、以下のような問題があった。すなわち、バーコードを利用した情報の認識システムは、バーコードの線の太さ、間隔、及び配列などをバーコードリーダから照射されたレーザの反射によって読取り、予め記憶されているデータと対応させて価格や品番などの情報を認識させるものであった。この場合、誤認識を避けるためにバーコードの線の太さや間隔などを精細に表示する必要があった。
【0006】
そのため、モニタ画面や液晶画面などに表示された比較的解像度の低いバーコードでは、誤認識を起こしたり、認識処理に時間がかかることがあった。そこで、係る問題を解消するために、バーコードを高解像度に印刷したシールを商品に貼付するなどの対策を採ることがあったが、シールの印刷に係る印刷コストなど余計な経費を要していた。加えて、シールに印刷されたバーコードでは、認識対象となる情報の内容が変更になった場合、新たなシールを用意する必要があり、既に印刷したシールが無駄になるとともに、印刷にかかる時間が必要となることから、変更に速やかに対応することができなかった。
【0007】
一方、スキャナー等を利用した文字認識のシステムは、書類原稿など平面的な対象に表示された文字を認識することは容易であるものの、コンタクトガラスに認識対象の書類原稿を密着させて読取らせるために、凹凸のある立体物に表示された文字を認識することは困難であった。また、スキャナーによって文字を画像として入力し、さらにOCRソフトを用いて文字の認識処理を行うまでに多くの時間を要することがあった。そのため、コンピュータに不得手な操作者は、操作に手間取り、短時間で文字認識させることができないことがあった。
【0008】
一方、Nシステムは、車両のナンバーの認識に特化した汎用性に欠けるシステムであり、一般の用途に適用することが難しかった。
【0009】
そこで、本発明は、上記実情に鑑み、認識対象に限定されることがなく、低解像度で表示された文字でも高精度で認識可能な汎用性の高い文字認識システム、及び文字認識プログラムの提供を課題とするものである。
【0010】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明にかかる文字認識システムは、認識対象の文字を定義した文字定義データを記憶する記憶手段と、前記文字及び前記文字の周囲近傍を撮像する撮像手段と、前記撮像手段によって撮像された前記文字を含む撮像イメージに対し、コントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の少なくともいずれか一つの強調補正を行う強調補正手段と、強調補正された前記撮像イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う文字認識手段と、認識された前記文字を出力する出力手段とを具備するものである。
【0011】
ここで、文字定義データとは、予め認識対象となる数字、アルファベット(大文字・小文字)、平仮名、片仮名、記号、及び漢字などを含む文字を、それぞれ形状、輪郭、線の交わりなどを定義してデータベース化したものであり、撮像イメージの中の画像を文字として認識するための基礎的なデータである。これらは、認識対象が予め判っている場合(例えば、数字+英文字の組合わせなど)、記憶する文字定義データに対応する文字の種類及び数などを限定したものであってもよい。加えて、個々の文字の書体に対応するデータを含んだものであってもよい。
【0012】
また、撮像手段とは、ビデオカメラやデジタルカメラなどの画像入力機器を利用することが可能であり、文字及び文字の周囲近傍を撮像イメージとして取込むことが可能なものである。ここで、撮像イメージには、認識対象となる文字と、文字の周囲近傍とが撮像されている。
【0013】
このとき、撮像時の光の反射や文字と周囲の濃淡差などによって、撮像イメージに文字が明確に示されていない場合があり、その後の文字認識に係る処理に支障をきたすおそれがある。
【0014】
そこで、撮像イメージに含まれる文字の部分を認識容易なように強調するための補正が強調補正手段によって行われる。具体的にはコントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の内で少なくとも一つの画像処理が撮像イメージに対して行われるものである。ここで、コントラスト補正とは、撮像イメージの明暗等の際立ちを調整するものであり、認識対象となる文字とその周囲との色彩や明暗を際立たせ、文字と周囲との違いを明確にするものである。また、ブライトネス補正とは、撮像イメージの輝度(明るさ)を調整するものであり、撮像イメージ全体の明暗を調整し、文字を明確に表示するものである。一方、シャープネス補正とは、撮像イメージの鮮明度を調整するものであり、文字の境界部分などの差を鮮明にするものである。また、ネガ化補正とは、撮像イメージの階調を反転させる、すなわちポジからネガへ反転させる処理であり、これにより撮像イメージ中の文字部分が際立つようになる。
【0015】
したがって、請求項1の発明の文字認識システムによれば、撮像手段によって撮像された撮像イメージをコントラスト補正等の強調補正により文字の部分を強調し、文字定義データに基づいて文字認識が行われる。すなわち、撮像イメージに対し、文字の部分を強調する補正を行い、撮像イメージに含まれる文字に相当する画像部分の輪郭や形状を明確にした後に文字認識をすることにより、取込んだ撮像イメージをそのまま文字認識した場合と比較して、文字の認識精度が高くなり、文字の誤認識が生じる可能性が低くなる。なお、出力手段としてはモニタ画面上に表示するもの以外に、文字情報としてネットワークを通じて送信するものも含まれる。
【0016】
請求項2の発明にかかる文字認識システムは、請求項1に記載の文字認識システムにおいて、前記文字認識手段は、強調補正された前記撮像イメージの中から予め指定した指定図形を検出する図形検出手段と、検出された前記指定図形に囲まれた範囲を範囲イメージとして選択する範囲選択手段と、選択された前記範囲イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う範囲認識手段とをさらに具備するものである。
【0017】
ここで、指定図形は、撮像イメージの中に存在し、さらに認識対象となる文字が該指定図形に囲まれた範囲内にあることが既に判っているものが予め選択される。例えば、車両のナンバーを文字認識しようとする場合、ナンバープレートの横長の長方形状が指定図形として選択され、長方形に囲われた範囲に限定して文字認識の処理が行われる。なお、指定図形としては、前述の長方形以外にも、円形、楕円形、三角形、及び菱形などの種々の図形を選択することが可能である。
【0018】
したがって、請求項2の発明の文字認識システムによれば、請求項1の発明の文字認識システムの作用に加え、撮像イメージの中から指定図形が検出され、指定図形に囲われた範囲イメージの中で文字認識が行われる。これにより、文字認識の対象となる範囲が限定され、文字の誤認識の可能性が低くなるとともに、システムに係る処理の負担が軽減される。
【0019】
請求項3の発明にかかる文字認識システムは、請求項1または請求項2に記載の文字認識システムにおいて、前記強調補正手段は、前記コントラスト補正、前記ブライトネス補正、前記シャープネス補正、及び前記ネガ化補正の順序に従って前記撮像イメージの強調補正を行うものである。
【0020】
したがって、請求項3の発明の文字認識システムによれば、請求項1または請求項2の発明の文字認識システムの作用に加え、撮像イメージの強調補正がコントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の順で行われる。ここで、各補正の順序は、補正後の撮像イメージに対する影響の大きさに基づいて決定されている。
【0021】
すなわち、コントラスト補正は、強く実施すると撮像イメージ全体が黒くなりすぎたり、逆に白っぽくなりすぎたりする傾向がある。つまり、撮像イメージの変化に大きく影響が与える。そのため、仮にシャープネス補正を先に行った後に、コントラスト補正を行った場合、コントラスト補正の影響により既に行ったシャープネス補正が全く無意味になってしまうことがある。さらに、ネガ化補正は、撮像イメージの階調をポジからネガに反転するものであるため、階調反転後にブライトネスやシャープネスの補正を行っても、文字の強調をすることにはほとんどならない。そのため、撮像イメージに対する補正の順序を、予め補正による影響の大きさに応じて決定し、その順序に従って補正を実施することにより適切な撮像イメージの補正が行える。
【0022】
請求項4の発明にかかる文字認識システムは、請求項1乃至請求項3のいずれか一つに記載の文字認識システムにおいて、前記文字及び前記文字の周囲近傍を含んで撮像された前記撮像イメージに基づいた撮像情報を取得する撮像情報取得手段と、前記撮像情報に基づいた補正パターンを生成し、記憶するパターン生成手段と、生成した前記補正パターンを利用して前記撮像イメージの強調補正を行うパターン適用手段とをさらに具備するものである。
【0023】
ここで、撮像イメージは撮像条件及び撮像した対象物によって色調や彩度などが個々に異なっている。そのため、一定の条件で強調補正を行っても、文字が強調補正される場合と、ほとんど強調されない場合がある。そこで、撮像イメージの状態、さらに詳細に説明すると、撮像された時の条件に基づく光や影の投射具合、或いは文字と文字以外の部分の色調や色の種類(同系色や異系色の違い)など、さらに文字が表示された物体の材質、表面の反射具合などの種々の情報を撮像情報として取得し、これに基づいた補正パターンを適用することにより、個々の撮像イメージに適した強調補正が行われるようにする。
【0024】
したがって、請求項4の発明の文字認識システムによれば、請求項1乃至請求項3のいずれか一つの発明の文字認識システムの作用に加え、強調補正する対象となる撮像イメージから撮像情報が取得され、それに基づいた補正パターンが適用される。例えば、撮像イメージが全体的に暗い色調である場合、コントラスト及びブライトネスを強めに調整し、明るさを増したイメージにすることが行われる。逆に全体が明るい色調で表現されている撮像イメージの場合には明るさを若干抑えた補正をすることが行われる。この場合、個々の撮像イメージの明度によって、コントラスト補正及びブライトネス補正の強度がそれぞれ決定される。
【0025】
また、文字と文字以外の部分とが同系色で表現されている場合、換言すれば、文字が文字の周囲に紛れやすく、文字として認識が難しい場合には、シャープネス補正の強度を強くすることによって、文字の境界(輪郭)の部分が明確になるような強調補正を行う。すなわち、個々の撮像イメージに適した補正を撮像情報及び補正パターンに基づいて実施することにより、撮像イメージに含まれる文字がさらに強調され、その後の文字認識の処理が楽に行えるようになる。
【0026】
請求項5の発明にかかる文字認識システムは、請求項4に記載の文字認識システムにおいて、前記撮像情報取得手段、前記パターン生成手段、及び前記パターン適用手段の少なくともいずれか一つは、学習可能なニューラルネットワークが適用されるものである。
【0027】
したがって、請求項5の発明の文字認識システムは、請求項4の発明の文字認識システムの作用に加え、強調補正にニューラルネットワークが適用される。すなわち、学習機能を有するニューラルネットワークを用いることにより、予め学習記憶され、さらに撮像情報や補正パターンの生成などによって新たに習得された学習内容に基づいて、撮像イメージの強調補正が最適なものとされる。すなわち、数多くの強調補正に係る処理を行うことにより、学習効果がより高くなったニューラルネットワークによって撮像イメージに対する強調補正がさらに最適なものとなり、処理時間の短縮化や認識精度の向上などが図られることになる。
【0028】
請求項6の発明にかかる文字認識プログラムは、認識対象の文字を定義した文字定義データを記憶する記憶手段、前記文字及び前記文字の周囲近傍を撮像する撮像手段、前記撮像手段によって撮像された前記文字を含む撮像イメージに対し、コントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化処理補正の少なくともいずれか一つの強調補正を行う強調補正手段、強調補正された前記撮像イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う文字認識手段、及び認識された前記文字を出力する出力手段として、コンピュータを機能させるものである。
【0029】
したがって、請求項6の発明の文字認識プログラムによれば、プログラムを実行すると、コンピュータは請求項1に記載の作用を奏する。
【0030】
請求項7の発明にかかる文字認識プログラムは、請求項6に記載の文字認識プログラムにおいて、強調補正された前記撮像イメージの中から予め指定した指定図形を検出する図形検出手段、検出された前記指定図形に囲まれた範囲を範囲イメージとして選択する範囲選択手段、選択された前記範囲イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う範囲認識手段として、前記コンピュータをさらに機能させるものである。
【0031】
したがって、請求項7の発明の文字認識プログラムは、請求項6の発明の文字認識プログラムの作用に加え、プログラムを実行すると、コンピュータは請求項2に記載の作用を奏する。
【0032】
請求項8の発明にかかる文字認識プログラムは、請求項6または請求項7に記載の文字認識プログラムにおいて、前記文字及び前記文字の周囲近傍を含んで撮像された前記撮像イメージに基づいた撮像情報を取得する撮像情報取得手段、前記撮像情報に基づいた補正パターンを生成し、記憶するパターン生成手段、及び生成した前記補正パターンを利用して前記撮像イメージの強調補正を行うパターン適用手段として、前記コンピュータをさらに機能させるものである。
【0033】
したがって、請求項8の発明の文字認識プログラムは、請求項6または請求項7の発明の文字認識プログラムの作用に加え、プログラムを実行すると、コンピュータは請求項4に記載の作用を奏する。
【0034】
【発明の実施の形態】
以下、本発明の一実施形態である文字認識システム1について図1乃至図4に基づいて説明する。図1は本発明の一実施形態である文字認識システム1の構成を示す説明図であり、図2は文字認識システム1の機能的構成を示すブロック図であり、図3及び図4は認識装置2の処理の流れを示すフローチャートである。
【0035】
本実施形態の文字認識システム1は、図1に示すように、認識対象物(ここでは、車両CのナンバープレートN)の表面に示された数字からなる文字Lを、該文字Lの周囲近傍とともに撮像イメージ3として撮像するデジタルカメラ4と、デジタルカメラ4によって撮像された撮像イメージ3を取込み、強調補正及び指定図形5の検出などによって撮像イメージ3を文字認識に適した状態に処理した後、文字認識を行って認識結果を出力表示する認識装置2とから構成されている。ここで、デジタルカメラ4が本発明における撮像手段に相当する。
【0036】
さらに、認識装置2は機能的構成として、図2に示すように、デジタルカメラ4とケーブル6を介して接続され、該デジタルカメラ4により撮像された撮像イメージ3を入力可能な入力手段7、入力された撮像イメージ3の中から適した強調補正を行うための撮像情報8を学習可能なニューラルネットワークを適用して取得する撮像情報取得手段9、撮像情報8に対応し撮像イメージ3に適する補正パターン10をニューラルネットワークを適用して生成するパターン生成手段11、認識対象となる文字Lを定義した文字定義データ12及び生成した補正パターン10を記憶する記憶手段13を有している。
【0037】
さらに、認識装置2は、予め学習した或いは生成した補正パターン10を強調補正に適用するパターン適用手段14、撮像イメージ3に対しコントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の画像処理を行い、撮像イメージ3に含まれる文字Lを強調する強調補正を行う強調補正手段15、補正後の撮像イメージ3の中から予め指定した指定図形5を検出する図形検出手段16、検出した指定図形5に囲まれた範囲を範囲イメージ17として選択する範囲選択手段18、範囲イメージ17の中から記憶した文字定義データ12に合致する画像(部分)を検出し、係る画像に対して文字認識を行う範囲認識手段19、及び認識した文字Lを信号制御して出力する出力制御手段20及び出力手段21とから構成されている。ここで、図形検出手段16,範囲選択手段18、及び範囲認識手段19が本発明における文字認識手段に相当する。
【0038】
ここで、認識装置2は市販のパーソナルコンピュータが利用され、本実施形態における各構成のうち、入力手段7としてUSB(ユニバーサル・シリアル・バス)、記憶手段13としてハードディスクドライブ、出力手段21としてモニタ、出力制御手段20としてグラフィックボードがそれぞれ利用されている。また、撮像イメージ3に対して強調補正、図形検出、及び範囲イメージ17の検出及び選択を行う各手段は、それぞれ認識装置2に搭載されたCPU22、ROM23、RAM24などのハードウェアによって制御され、実施されている。ここで、ROM23には文字認識を行うための認識プログラム27が格納されており、CPU22などに対して認識に係る処理を実行するように命令が発せられている。一方、RAM24には図形検出手段16によって検出される指定図形5のデータが予め記憶されている。さらに、認識装置2の操作及びデジタルカメラ4の撮像操作などを行うためのキーボード25及びマウス26が取付けられている。加えて、図1に示すように、出力手段21に相当するモニタの画面は、デジタルカメラ4によって撮像した撮像イメージ3を表示する撮像イメージ表示部28と、認識した文字Lを表示する文字表示部29とに分割されている。
【0039】
次に、本実施形態の文字認識システム1における認識装置2の処理の流れについて図3及び図4に基づいて説明する。なお、本実施形態において認識対象となる文字Lとして車両CのナンバープレートNに表示された番号を認識するものについて説明する。ここで、図3及び図4におけるステップS1からステップS16はROM23に格納された認識プログラム27によって実行されている。ここで、認識プログラム27が本発明における文字認識プログラムに相当する。
【0040】
まず、認識装置2は、接続されたデジタルカメラ4が撮像した撮像イメージ3が入力手段7を介して入力されているか否かを検出する(ステップS1)。このとき、車両Cの通行を検知し、撮像するタイミングの検出は、従来から周知のセンサ技術などの検知手段を応用して決定されている。さらに、デジタルカメラ4の焦点及び撮像イメージ3の大きさ(図1における紙面右側の破線に囲まれた部分)は、通行する車両Cの下部に取付けられたナンバープレートNの周囲近傍を含むように予め調整が行われている。
【0041】
デジタルカメラ4からの撮像イメージ3の入力が検出された場合(ステップS1においてYES)、認識装置2は該撮像イメージ3の入力を受付ける(ステップS2)。一方、撮像イメージ3の入力が検出されない場合、(ステップS1においてNO)、以後の処理をキャンセルしステップS15の処理に移る。撮像イメージ3の入力を受付けた認識装置2は、該撮像イメージ3から撮像情報8を取得する(ステップS3)。
【0042】
ここで、撮像情報8は、以降のステップで撮像イメージ3に対して行う強調補正の際に適用される補正パターン10を抽出或いは生成するときの基礎となるものであり、撮像条件に基づく光や影の投射具合、或いは文字と文字以外の部分の色調や含まれる色の数や種類などの種々の情報を取得する。これにより、適用する補正パターン10が選択される。
【0043】
このとき、取得された撮像情報8に対応する補正パターン10が既に生成されているか否かの判断がされる(ステップS4)。すなわち、これまでに同様な条件、認識対象となる文字Lの配置、及び色調等で撮像された撮像イメージ3の強調補正を行った経験または予め学習記憶によって取得した撮像情報8に対応するものがある場合、例えば、本実施形態で示した車両CのナンバープレートNのように、白地に緑の文字Lよって四桁の数字(文字L)が記載されたもの(普通車の場合)を対象とする場合、以前にナンバープレートNに対する文字認識を行った経験があれば、該ナンバープレートNの撮像情報8に対する補正パターン10が既に生成され、記憶されている。さらに、ニューラルネットワークの学習効果により取得した撮像情報8により、撮像イメージ3がナンバープレートNを含んだものであることが認知される。そこで、対応する補正パターン10が生成されている場合(ステップS4においてYES)、記憶手段13に記憶されている補正パターン10を抽出し、撮像イメージ3の強調補正を行う(ステップS5)。
【0044】
一方、対応する補正パターン10が生成されていない場合、すなわち、これまでに類似した撮像情報8を有する撮像イメージ3を実施した経験がない場合(ステップS4においてNO)、撮像情報8に適する補正パターン10を新たに生成し(ステップS6)、記憶手段13に記憶する(ステップS7)。
【0045】
ここで、補正パターン10の生成について具体的に説明すると、取得された撮像情報8に基づいて、以降のステップで実施されるコントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正(詳細については詳述する)の強弱の度合いがパターン生成手段11によって決定されるものであり、例えば、撮像イメージ3が上述したナンバープレートNを含むものである場合、文字Lの緑の部分と、背景となる白い部分とを対比することにより、コントラストの強弱が決定される。この場合、緑と白とは色調が異なるため、文字と背景との対比が明確であり、コントラスト補正を弱い程度で行うよう判断される。
【0046】
さらに撮像イメージ3の全体の明るさに基づいてブライトネス補正の強さが決められる。例えば、撮像イメージ3が全体として明るい色調で構成されている場合、つまり全体が白っぽいイメージである場合は、明度を下げる(暗くする)補正を行う。また、デジタルカメラ4によって撮像された撮像イメージ3にぶれなどが生じていた場合、緑と白との境界が明確でない場合が考えられるため、ぶれの度合いに応じて、すなわち緑と白との境界の鮮明度に応じてシャープネスの補正の強度が決定される。なお、ネガ化補正は、階調を反転させるものであるため、コントラスト補正などのように強弱を付けることができないため、補正パターン10はネガ化処理を実施するか否かの判断のみが含まれている。これにより、撮像情報8に基づいて撮像イメージ3に適するコントラスト補正、ブライトネス補正、及びシャープネス補正の強度及びネガ化補正の実施有無が決定された補正パターン10が生成される。
【0047】
これにより、撮像イメージ3に適した補正パターン10が生成され、強調補正に利用できるとともに、ニューラルネットワークによる学習効果により、以後類似した撮像情報8を有する撮像イメージ3の強調補正を行う場合、新たに補正パターン10を生成する処理を省略することができる。その後、ステップS5の処理に移り、生成した補正パターン10を利用して撮像イメージ3の強調補正を行う。
【0048】
そして、ステップS5において補正パターン10を適用した撮像イメージ3の強調補正が行われる。このとき、適用された補正パターン10に含まれる各補正の強度に基づき、撮像イメージ3の中の明暗などの際立ち度合いが調整され(コントラスト補正:ステップS5a)、明るさ・輝度を調整する(ブライトネス補正:ステップS5b)、鮮明度を調整する(シャープネス補正:ステップS5c)、及び撮像イメージ3の階調をポジからネガへの反転(ネガ化補正:ステップS5d)が順次行われる。
【0049】
ここで、各補正の順序は、撮像イメージ3に対する影響の大きさに基づいて決定されている。すなわち、コントラスト補正S5aは撮像イメージ3に対する影響が大きいため、それ以前に行われた補正(例えば、シャープネス補正など)の効果を失わせてしまうことがある。そのため、撮像イメージ3に対する影響の大きさを考慮し、コントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の順序で行うことにより、前段階で行った強調補正の効果を活かしつつ、さらに適する補正を行うことができるようになる。その結果、最終的に強調補正された補正済みの撮像イメージ3は、文字Lが補正前の撮像イメージ3と比べて明確に強調されたものとなる。
【0050】
それから、補正済みの撮像イメージ3の中から予め設定した指定図形5の検出を行う(ステップS8)。ここで、本実施形態においては、指定図形5として車両Cに取付けられたナンバープレートNの形状である横長の四角形が選択されている。すなわち、ナンバープレートNの四角形に囲まれた範囲には、認識対象となる車両番号の四桁の数字(文字L)が必ず含まれているため、係る指定図形5の範囲を選択することにより、その他の部分の認識処理を省略化することができる。これにより、文字Lの認識精度が高まるとともに、文字認識に係る処理時間を短縮することができる。
【0051】
撮像イメージ3の中から指定図形5が検出される場合(ステップS8においてYES)、検出された指定図形5に囲まれた範囲を範囲イメージ17として選択する(ステップS9)。一方、撮像イメージ3の中から指定図形5が検出されない場合(ステップS8においてNO)、認識対象となる文字Lが撮像イメージ3の中に存在しないものと認識し、以降の処理をキャンセルし、ステップS15の処理に移る。ここで、範囲イメージ17と指定図形5とは同一形状及び大きさを呈するものである(図1参照)。
【0052】
そして、選択された範囲イメージ17の中から記憶手段13に記憶された文字定義データ12に合致する形状及び輪郭などの条件を備える画像の有無を検出する(ステップS10)。ここで、文字定義データ12に合致する条件の画像が検出される場合(ステップS10においてYES)、該当個所の画像を文字Lとして認識する(ステップS11)。一方、文字定義データ12に合致する条件の画像がない場合(ステップS10においてNO)、指定図形5に囲われた範囲イメージ17の中に文字Lは存在しないものと判断し、以降の処理をキャンセルしステップS15の処理に移る。
【0053】
そして、文字Lを認識した後、認識した文字L以外にさらに範囲イメージ17の中に文字定義データに合致する条件の画像の有無を検出する(ステップS12)。このとき、文字定義データ12に合致する条件の画像が検出されない場合(ステップS12においてYES)、文字認識の処理を終了(ステップS13)し次ステップの処理に移る。
【0054】
一方、文字定義データ12に合致する条件の画像がさらに検出される場合(ステップS12においてNO)、前ステップに戻り該当する画像を文字Lとして認識する(ステップS11)。これにより、範囲イメージ17の中に複数の文字Lが存在している場合でもステップS11及びステップS12を繰返し行うことにより、全ての文字Lを文字認識することができる。なお、文字認識の順番は特に限定されないが、認識対象となる文字が英語のように横書きの場合、すなわち、左から右に書かれている時には左から順次文字認識を行い、縦書きの場合は上から下に向かって順次文字認識を行うように設定すればよい。
【0055】
そして、範囲イメージ17の中に含まれる全ての文字を認識した後、文字認識した一つ或いは複数の文字Lを出力制御手段20によって信号制御し、出力手段21であるモニタ画面上に表示する(ステップS14)。これにより、文字認識システム1の操作者は文字認識の結果を画面上で確認することができる。なお、認識した文字Lを別のシステムに情報として出力し、活用することができる。例えば、説明した車両CのナンバープレートNの番号を認識した場合、駐車場の出庫を管理するシステムに適用し、駐車時間の算出を行ったり、高速道路などの料金所に設置して通行料金の算出を行うシステムなどに応用することができる。
【0056】
その後、システムの処理を終了する旨の指示の有無を検出する(ステップS15)。ここで、終了する旨の指示が入力されると(ステップS15においてYES)、システムを終了する(ステップS16)。一方、処理を終了する指示の入力がない場合(ステップS15においてNO)、ステップS1の処理に戻り、新たな撮像イメージ3の入力の有無を継続して検出する。
【0057】
上記したように、本実施形態の文字認識システム1によれば、文字L及び該文字Lの周囲近傍を含んだ撮像イメージ3をデジタルカメラ4によって撮像し、学習可能なニューラルネットワークを適用することによって撮像イメージ3の強調補正に最適化された補正パターン10を生成し、さらに該補正パターン10を適用して強調補正を行うことにより、文字認識に適した状態に撮像イメージを補正し、認識対象となる文字Lを撮像イメージ3の中で強調することができる。これにより、誤認識の少ない認識精度の高い文字認識を行うことができる。
【0058】
また、文字認識を行う対象を予め指定した指定図形5に囲まれた範囲イメージ17の中に限定するため、文字の認識精度の向上とともに、認識に係る処理時間を短縮化することができる。また、従来のバーコードのように高解像で印刷する必要がなくなり、比較的低解像度で出力表示されたモニタ画面や液晶画面上の文字でも容易に認識することができる。したがって、バーコードをシール印刷して貼付するなどの物的コスト及び手間を省くことができる。文字Lの変更があった場合でも、画面に表示する文字Lを変更するだけで済むため、新たにシールを印刷するコストや時間が必要なくなり、速やかな対応をとることができる。
【0059】
以上、本発明について好適な実施形態を挙げて説明したが、本発明はこれらの実施形態に限定されるものではなく、以下に示すように、本発明の要旨を逸脱しない範囲において、種々の改良及び設計の変更が可能である。
【0060】
すなわち、本実施形態の文字認識システム1において、認識対象の文字Lとして車両CのナンバープレートNに示された番号を認識するものについて例示したが、もちろんこれに限定されるものではない。その他、印刷物に記載された文字Lや画面上に表示された種々の文字Lを認識対象とすることができる。さらに、撮像手段としてデジタルカメラ4を利用するものを示したが、ビデオカメラなどその他の画像入力機器を用いるものであっても構わない。また、認識した文字Lを文字情報としてネットワークなどを通じて送信することも可能である。
【0061】
【発明の効果】
以上のように、請求項1の発明の文字認識システムは、文字を含んで撮像された撮像イメージに対してコントラスト等の補正を行い、含まれる文字を強調することができる。そして、文字が強調された撮像イメージに対して文字認識の処理が行われる。これにより、従来と比して精度の高い文字認識をすることができる。
【0062】
請求項2の発明の文字認識システムは、請求項1の発明の文字認識システムの効果に加え、予め指定した指定図形を検出し、さらに検出した指定図形に囲まれた範囲内で文字認識が行われる。これにより、認識対象となる範囲が限定され、認識処理に係る負担が軽減される。そのため、例えば、認識結果の表示を短縮することができる。
【0063】
請求項3の発明の文字認識システムは、請求項1または請求項2の発明の文字認識システムの効果に加え、撮像イメージをコントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の順で強調補正を行うことにより、実施済みの補正の効果を活かしながら、さらに文字を強調することができる。これにより、補正済みの撮像イメージに含まれる文字がより明確となり、文字の認識精度の向上を図ることができる。
【0064】
請求項4の発明の文字認識システムは、請求項1乃至請求項3のいずれか一つの発明の文字認識システムの効果に加え、撮像イメージの撮像情報に基づいて補正パターンが生成される。すなわち、個々の撮像イメージにとって最適化された強調補正が補正パターンに基づいて行われる。これにより、撮像イメージの中の文字が明確に示され、文字認識がさらに容易に行われる。
【0065】
請求項5の発明の文字認識システムは、請求項4の発明の文字認識システムの効果に加え、学習可能なニューラルネットワークが適用されることにより、予め学習された或いは文字認識の過程で取得した補正パターンに基づいて撮像イメージの強調補正を最適化することができる。これにより、認識精度が向上し、認識処理時間の短縮化が図られる。
【0066】
請求項6の発明の文字認識プログラムは、プログラムを実行することにより、コンピュータに請求項1に記載の効果を奏させることができる。
【0067】
請求項7の発明の文字認識プログラムは、請求項6の発明の文字認識プログラムの効果に加え、プログラムを実行することにより、コンピュータに請求項2に記載の効果を奏させることができる。
【0068】
請求項8の発明の文字認識プログラムは、請求項6または請求項7の発明の文字認識プログラムの効果に加え、プログラムを実行することにより、コンピュータに請求項4に記載の効果を奏させることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態である文字認識システムの構成を示す説明図である。
【図2】文字認識システムにおける認識装置の機能的構成を示すブロック図である。
【図3】認識装置の処理の流れを示すフローチャートである。
【図4】認識装置の処理の流れを示すフローチャートである。
【符号の説明】
1 文字認識システム
2 認識装置
3 撮像イメージ
4 デジタルカメラ(撮像手段)
5 指定図形
8 撮像情報
9 撮像情報取得手段
10 補正パターン
11 パターン生成手段
12 文字定義データ
13 記憶手段
14 パターン適用手段
15 強調補正手段
16 図形検出手段(文字認識手段)
17 範囲イメージ
18 範囲選択手段(文字認識手段)
19 範囲認識手段(文字認識手段)
20 出力制御手段
21 出力手段
27 認識プログラム(文字認識プログラム)
L 文字
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a character recognition system and a character recognition program, and more particularly, to a character recognition system and a character recognition program that perform character recognition after capturing a character to be recognized as an image, and enhancing and correcting the captured image. It is about.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, systems capable of reading characters and symbols printed on a print medium such as paper as electronic data using an optical device have been developed. For example, a so-called “POS system” that manages point-of-sale information by reading a barcode displayed or affixed to the packaging of a product with an optical barcode reader in order to simplify product management and accounting processing of stores and the like. There are places to adopt. Further, as a use other than product management, a member card distributed to a member registered in advance at a rental video store or the like is provided with the barcode described above, and the information of the barcode is read at the time of rental, thereby being a registered member. Make sure that.
[0003]
In addition, a document manuscript is obtained as an image using a scanner equipped with an image pickup device such as a CCD (Charge Coupled Device), and characters are automatically input on a computer using OCR software (optical character reading software). The recognition process is being performed. These are capable of rapidly and electronically converting a large number of characters displayed on the surface of a paper medium or the like into electronic data, and are widely used in government offices and offices where large amounts of materials and documents need to be digitized. are doing.
[0004]
In addition, for example, a license plate of a passing vehicle installed on a highway or a general national road is photographed using an infrared camera, and a vehicle registration number (number) is automatically recognized from an image input as an image. A vehicle number automatic reading system called a so-called "N system" is known. With this, when a vehicle used for criminal activity or a vehicle used by a criminal to escape has passed the road where the N system is installed, the number of the vehicle concerned is recognized, and the position of each vehicle is recognized at each police station. Information can be reported, and criminal arrests can be made promptly.
[0005]
[Problems to be solved by the invention]
However, the system for reading and recognizing information using the barcode described above has the following problems. That is, an information recognition system using a barcode reads the line thickness, interval, and arrangement of the barcode by the reflection of the laser beam emitted from the barcode reader, and associates the barcode with the prestored data. It was intended to recognize information such as price and product number. In this case, in order to avoid erroneous recognition, it is necessary to display the bar code line thickness and interval precisely.
[0006]
For this reason, a barcode with a relatively low resolution displayed on a monitor screen, a liquid crystal screen, or the like may cause erroneous recognition or may take a long time for the recognition process. Therefore, in order to solve such a problem, measures such as sticking a sticker on which a barcode is printed at a high resolution to a product have been taken, but extra costs such as printing cost for printing the sticker are required. Was. In addition, in the barcode printed on the sticker, if the content of the information to be recognized is changed, it is necessary to prepare a new sticker, and the already printed sticker is wasted, and the time required for printing , It was not possible to respond quickly to the change.
[0007]
On the other hand, a character recognition system using a scanner or the like can easily recognize a character displayed on a flat object such as a document manuscript, but causes the document manuscript to be read in close contact with the contact glass. Therefore, it is difficult to recognize a character displayed on a three-dimensional object having irregularities. Further, it sometimes takes a long time to input characters as images by a scanner and to perform character recognition processing using OCR software. For this reason, an operator who is not good at computers sometimes takes time to operate and cannot perform character recognition in a short time.
[0008]
On the other hand, the N system is a system lacking in versatility specialized in recognizing a vehicle number, and it has been difficult to apply the system to general uses.
[0009]
In view of the above circumstances, the present invention provides a highly versatile character recognition system and a character recognition program capable of recognizing characters displayed at a low resolution with high accuracy without being limited to recognition targets. It is an issue.
[0010]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, a character recognition system according to the present invention comprises a storage unit for storing character definition data defining a character to be recognized, and an imaging unit for imaging the character and the vicinity of the character. And enhancement correction means for performing at least one of contrast correction, brightness correction, sharpness correction, and negative correction on a captured image including the character captured by the imaging means, The image processing apparatus includes a character recognizing unit that detects an image that matches the character definition data from the captured image and performs character recognition, and an output unit that outputs the recognized character.
[0011]
Here, the character definition data defines characters, including numbers, alphabets (upper / lowercase), hiragana, katakana, symbols, kanji, etc., to be recognized in advance by defining their shapes, outlines, intersections of lines, and the like. It is a database and is basic data for recognizing an image in a captured image as a character. If the recognition target is known in advance (for example, a combination of numerals and English characters), the type and number of characters corresponding to the stored character definition data may be limited. In addition, it may include data corresponding to the typeface of each character.
[0012]
Further, the imaging means can use an image input device such as a video camera or a digital camera, and can capture a character and the vicinity of the character as a captured image. Here, in the captured image, a character to be recognized and the vicinity of the character are captured.
[0013]
At this time, the character may not be clearly shown in the captured image due to the reflection of light at the time of image capturing or the difference in shading between the character and the surroundings, which may hinder the subsequent processing related to character recognition.
[0014]
Therefore, correction for emphasizing the character portion included in the captured image so that it can be easily recognized is performed by the emphasis correction unit. Specifically, at least one of image processing among contrast correction, brightness correction, sharpness correction, and negative correction is performed on a captured image. Here, the contrast correction adjusts the contrast of the captured image, such as lightness and darkness, and emphasizes the color and contrast between the character to be recognized and its surroundings, and clarifies the difference between the character and the surroundings. It is. The brightness correction is to adjust the brightness (brightness) of a captured image, to adjust the brightness of the entire captured image, and to display characters clearly. On the other hand, the sharpness correction is for adjusting the sharpness of a captured image, and for sharpening a difference between character boundary portions and the like. In addition, the negative correction is a process of inverting the gradation of the captured image, that is, inverting the image from a positive image to a negative image, so that a character portion in the captured image becomes prominent.
[0015]
Therefore, according to the character recognition system of the first aspect of the present invention, a character portion is emphasized by an enhancement correction such as a contrast correction on an image captured by the imaging unit, and character recognition is performed based on the character definition data. That is, the captured image is corrected by emphasizing the character portion, and after clarifying the outline and shape of the image portion corresponding to the character included in the captured image, and performing character recognition, the captured image is captured. Compared with the case where the character is recognized as it is, the recognition accuracy of the character is increased, and the possibility that the character is erroneously recognized is reduced. It should be noted that the output means includes not only those output on the monitor screen but also those transmitted through the network as character information.
[0016]
A character recognition system according to a second aspect of the present invention is the character recognition system according to the first aspect, wherein the character recognition unit detects a designated graphic designated in advance from the emphasized corrected captured image. A range selecting means for selecting a range surrounded by the detected designated figure as a range image; and a range for detecting an image matching the character definition data from the selected range image and performing character recognition. And recognition means.
[0017]
Here, the designated graphic is selected in advance that exists in the captured image and that is already known that the character to be recognized is within the range surrounded by the designated graphic. For example, when character recognition is to be performed on a vehicle number, a horizontally long rectangular shape of a license plate is selected as a designated graphic, and character recognition processing is performed only in a range surrounded by the rectangle. Note that, as the designated figure, various figures such as a circle, an ellipse, a triangle, and a rhombus can be selected in addition to the above-described rectangle.
[0018]
Therefore, according to the character recognition system of the second aspect of the present invention, in addition to the operation of the character recognition system of the first aspect of the present invention, the designated figure is detected from the captured image, and Performs character recognition. As a result, the target range of character recognition is limited, the possibility of erroneous character recognition is reduced, and the processing load on the system is reduced.
[0019]
The character recognition system according to a third aspect of the present invention is the character recognition system according to the first or second aspect, wherein the emphasis correction unit includes the contrast correction, the brightness correction, the sharpness correction, and the negative correction. Is performed in accordance with the order of the above.
[0020]
Therefore, according to the character recognition system of the third aspect of the present invention, in addition to the operation of the character recognition system of the first or second aspect of the present invention, enhancement correction of a captured image is performed by contrast correction, brightness correction, sharpness correction, and negative correction. The correction is performed in the order. Here, the order of each correction is determined based on the magnitude of the influence on the captured image after correction.
[0021]
That is, if the contrast correction is performed strongly, the entire captured image tends to be too black or vice versa. That is, the change in the captured image is greatly affected. Therefore, if the contrast correction is performed after the sharpness correction is performed first, the already performed sharpness correction may be completely meaningless due to the influence of the contrast correction. Further, since the negative correction is to invert the gradation of the captured image from positive to negative, even if the brightness or the sharpness is corrected after the grayscale inversion, the character is hardly emphasized. Therefore, the order of correction to the captured image is determined in advance in accordance with the magnitude of the influence of the correction, and the correction of the captured image can be performed appropriately by performing the correction in accordance with the order.
[0022]
A character recognition system according to a fourth aspect of the present invention is the character recognition system according to any one of the first to third aspects, wherein the character image and the captured image including the vicinity of the character are captured. Imaging information acquisition means for acquiring imaging information based on the image information; pattern generation means for generating and storing a correction pattern based on the imaging information; and a pattern for performing enhancement correction of the captured image using the generated correction pattern. And application means.
[0023]
Here, the captured image has different color tone, saturation, and the like depending on the imaging conditions and the captured object. For this reason, even when the emphasis correction is performed under certain conditions, there are cases where characters are emphasized and corrected, and cases where characters are hardly emphasized. Therefore, the state of the captured image, and more specifically, the degree of projection of light and shadow based on the conditions at the time of image capture, or the color tone and color type of characters and parts other than characters (difference between similar colors and different colors) ), Etc., as well as various kinds of information such as the material of the object on which the character is displayed, the degree of reflection on the surface, etc., are acquired as imaging information, and a correction pattern based on the information is applied, so that enhancement correction suitable for each captured image is obtained. Is done.
[0024]
Therefore, according to the character recognition system of the fourth aspect, in addition to the operation of the character recognition system of any one of the first to third aspects, imaging information is obtained from an imaging image to be enhanced and corrected. And a correction pattern based thereon is applied. For example, when the captured image has a dark color tone as a whole, the contrast and the brightness are adjusted to be stronger, and an image with increased brightness is performed. Conversely, in the case of a captured image in which the whole is expressed in a bright color tone, the correction is performed with the brightness being slightly suppressed. In this case, the intensity of the contrast correction and the intensity of the brightness correction are determined depending on the brightness of each captured image.
[0025]
In addition, when the character and the part other than the character are represented by similar colors, in other words, when the character is easily confused around the character and it is difficult to recognize the character, the sharpness correction strength is increased. The emphasis correction is performed so that the boundary (outline) of the character becomes clear. That is, by performing a correction suitable for each captured image based on the captured information and the correction pattern, characters included in the captured image are further emphasized, and subsequent character recognition processing can be performed easily.
[0026]
A character recognition system according to a fifth aspect of the present invention is the character recognition system according to the fourth aspect, wherein at least one of the imaging information acquisition unit, the pattern generation unit, and the pattern application unit is capable of learning. A neural network is applied.
[0027]
Therefore, in the character recognition system according to the fifth aspect of the invention, in addition to the operation of the character recognition system according to the fourth aspect of the present invention, a neural network is applied to the enhancement correction. In other words, by using a neural network having a learning function, the enhancement correction of the captured image is optimized based on the learning content that is previously learned and stored, and is further learned by generating imaging information and a correction pattern. You. In other words, by performing a number of processes related to the enhancement correction, the neural network with a higher learning effect makes the enhancement correction for the captured image more optimal, thereby shortening the processing time and improving the recognition accuracy. Will be.
[0028]
7. The character recognition program according to claim 6, wherein the storage unit stores character definition data defining a character to be recognized, an imaging unit that captures an image of the character and the vicinity of the character, and the image that is captured by the imaging unit. Enhancement correction means for performing at least any one of contrast correction, brightness correction, sharpness correction, and negative processing correction on a captured image including characters, and the character definition data from the emphasized corrected captured image The computer functions as a character recognizing unit that detects an image that matches the character string and performs character recognition and an output unit that outputs the recognized character.
[0029]
Therefore, according to the character recognition program of the invention of claim 6, when the program is executed, the computer has the effect of claim 1.
[0030]
A character recognition program according to a seventh aspect of the present invention is the character recognition program according to the sixth aspect, wherein the figure detection means detects a designated figure designated in advance from the emphasized-corrected picked-up image. Range selection means for selecting a range surrounded by a figure as a range image; detecting, from the selected range image, an image matching the character definition data; and performing range recognition on the computer as range recognition means for character recognition. To make it work.
[0031]
Therefore, when the character recognition program according to the seventh aspect of the present invention executes the program in addition to the action of the character recognition program according to the sixth aspect of the invention, the computer performs the action according to the second aspect.
[0032]
The character recognition program according to an eighth aspect of the present invention is the character recognition program according to the sixth or seventh aspect, wherein the imaging information based on the imaging image captured including the character and the vicinity of the character is stored. The computer as an imaging information acquisition unit to acquire, a pattern generation unit to generate and store a correction pattern based on the imaging information, and a pattern application unit to perform enhancement correction of the captured image using the generated correction pattern. Is to function further.
[0033]
Therefore, when the character recognition program of the invention of claim 8 executes the program in addition to the operation of the character recognition program of the invention of claim 6 or 7, the computer performs the operation of claim 4.
[0034]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a character recognition system 1 according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an explanatory diagram showing a configuration of a character recognition system 1 according to an embodiment of the present invention, FIG. 2 is a block diagram showing a functional configuration of the character recognition system 1, and FIGS. 6 is a flowchart illustrating a flow of a second process.
[0035]
As shown in FIG. 1, the character recognition system 1 of the present embodiment converts a character L consisting of a number shown on the surface of a recognition target (here, a license plate N of a vehicle C) into a vicinity of the character L. And a digital camera 4 that captures the captured image 3 as a captured image 3, and captures the captured image 3 captured by the digital camera 4 and processes the captured image 3 in a state suitable for character recognition by performing enhancement correction, detection of a designated figure 5, and the like. And a recognition device 2 that performs character recognition and outputs and displays a recognition result. Here, the digital camera 4 corresponds to an imaging unit in the present invention.
[0036]
Further, as shown in FIG. 2, the recognition device 2 is connected to a digital camera 4 via a cable 6 as a functional configuration, and an input unit 7 capable of inputting a captured image 3 captured by the digital camera 4. An imaging information acquisition unit 9 for acquiring imaging information 8 for performing appropriate enhancement correction from a captured image 3 by applying a neural network capable of learning, a correction pattern corresponding to the imaging information 8 and suitable for the imaging image 3 The apparatus includes a pattern generation unit 11 that generates a character 10 by applying a neural network, character definition data 12 that defines a character L to be recognized, and a storage unit 13 that stores the generated correction pattern 10.
[0037]
Further, the recognition device 2 applies a pattern learning unit 14 that applies a previously learned or generated correction pattern 10 to enhancement correction, and performs image processing of contrast correction, brightness correction, sharpness correction, and negative correction on the captured image 3. An emphasis correction unit 15 that performs emphasis correction for emphasizing a character L included in the captured image 3; a graphic detection unit 16 that detects a designated graphic 5 specified in advance from the corrected captured image 3; Range selection means 18 for selecting an enclosed range as a range image 17; range recognition for detecting an image (part) matching the stored character definition data 12 from the range image 17 and performing character recognition on the image; Means 19, and an output control means 20 and an output means 21 for signal-controlling and outputting the recognized character L. . Here, the figure detecting means 16, the range selecting means 18, and the range recognizing means 19 correspond to the character recognizing means in the present invention.
[0038]
Here, a commercially available personal computer is used as the recognition device 2, and among the components in this embodiment, a USB (universal serial bus) as the input means 7, a hard disk drive as the storage means 13, a monitor as the output means 21, Graphic boards are used as the output control means 20, respectively. Each unit for performing enhancement correction, graphic detection, and detection and selection of the range image 17 on the captured image 3 is controlled by hardware such as a CPU 22, a ROM 23, and a RAM 24 mounted on the recognition device 2, respectively. Have been. Here, a recognition program 27 for performing character recognition is stored in the ROM 23, and a command is issued to the CPU 22 and the like to execute processing relating to recognition. On the other hand, the data of the designated figure 5 detected by the figure detecting means 16 is stored in the RAM 24 in advance. Further, a keyboard 25 and a mouse 26 for performing operations of the recognition device 2 and imaging operations of the digital camera 4 are attached. In addition, as shown in FIG. 1, a monitor screen corresponding to the output unit 21 includes a captured image display unit 28 that displays a captured image 3 captured by the digital camera 4 and a character display unit that displays recognized characters L. 29.
[0039]
Next, a processing flow of the recognition device 2 in the character recognition system 1 of the present embodiment will be described with reference to FIGS. In the present embodiment, a description will be given of a case where a number displayed on a license plate N of a vehicle C is recognized as a character L to be recognized. Here, steps S1 to S16 in FIGS. 3 and 4 are executed by the recognition program 27 stored in the ROM 23. Here, the recognition program 27 corresponds to a character recognition program in the present invention.
[0040]
First, the recognition device 2 detects whether or not the captured image 3 captured by the connected digital camera 4 has been input via the input unit 7 (Step S1). At this time, the detection of the timing at which the traffic of the vehicle C is detected and the image is captured is determined by applying a detection means such as a conventionally known sensor technology. Further, the focus of the digital camera 4 and the size of the captured image 3 (portion surrounded by a broken line on the right side of the paper in FIG. 1) include the vicinity of the license plate N attached to the lower part of the passing vehicle C. The adjustment has been performed in advance.
[0041]
When the input of the captured image 3 from the digital camera 4 is detected (YES in step S1), the recognition device 2 receives the input of the captured image 3 (step S2). On the other hand, when the input of the captured image 3 is not detected (NO in step S1), the subsequent processing is canceled, and the process proceeds to step S15. The recognition device 2 that has received the input of the captured image 3 acquires the imaging information 8 from the captured image 3 (Step S3).
[0042]
Here, the imaging information 8 is a basis for extracting or generating a correction pattern 10 applied at the time of the enhancement correction performed on the captured image 3 in the subsequent steps. Various information such as the degree of shadow projection, the color tones of characters and parts other than characters, and the number and types of colors included are acquired. Thereby, the correction pattern 10 to be applied is selected.
[0043]
At this time, it is determined whether or not the correction pattern 10 corresponding to the acquired imaging information 8 has already been generated (step S4). In other words, those corresponding to the experience of performing the enhancement correction of the captured image 3 captured under the same conditions, the arrangement of the characters L to be recognized, the color tone, and the like, or the imaging information 8 previously acquired through learning and storage. In some cases, for example, a four-digit number (letter L) with a green letter L on a white background, such as a license plate N of a vehicle C shown in the present embodiment (in the case of an ordinary car) is targeted. In this case, if there is experience in performing character recognition on the license plate N before, the correction pattern 10 for the imaging information 8 of the license plate N has already been generated and stored. Furthermore, it is recognized from the imaging information 8 acquired by the learning effect of the neural network that the captured image 3 includes the license plate N. Therefore, when the corresponding correction pattern 10 has been generated (YES in step S4), the correction pattern 10 stored in the storage unit 13 is extracted and the enhancement correction of the captured image 3 is performed (step S5).
[0044]
On the other hand, when the corresponding correction pattern 10 has not been generated, that is, when there is no experience of executing the captured image 3 having the similar imaging information 8 (NO in step S4), the correction pattern suitable for the imaging information 8 10 is newly generated (step S6) and stored in the storage unit 13 (step S7).
[0045]
Here, the generation of the correction pattern 10 will be specifically described. Based on the acquired imaging information 8, contrast correction, brightness correction, sharpness correction, and negative correction performed in the subsequent steps (details are described in detail). The degree of strength is determined by the pattern generation unit 11. For example, when the captured image 3 includes the above-described license plate N, the green portion of the character L and the white portion serving as the background By contrast, the strength of the contrast is determined. In this case, since the color tone is different between green and white, the contrast between the character and the background is clear, and it is determined that the contrast correction is performed to a weak degree.
[0046]
Further, the intensity of the brightness correction is determined based on the overall brightness of the captured image 3. For example, when the captured image 3 is entirely composed of a bright color tone, that is, when the entire image is a whitish image, correction for lowering (darkening) the brightness is performed. Also, if the image 3 captured by the digital camera 4 is blurred, the boundary between green and white may not be clear. Therefore, the boundary between green and white, that is, the boundary between green and white, may be considered. The intensity of the sharpness correction is determined according to the sharpness of the image. In addition, since the negative correction is for inverting the gradation, it is not possible to add strength such as contrast correction, and therefore, the correction pattern 10 includes only a determination as to whether or not to perform the negative processing. ing. As a result, the correction pattern 10 in which the intensity of the contrast correction, the brightness correction, and the sharpness correction suitable for the captured image 3 and whether or not to perform the negative correction is determined based on the imaging information 8 is generated.
[0047]
As a result, a correction pattern 10 suitable for the captured image 3 is generated and can be used for enhancement correction. In addition, when the enhancement of the captured image 3 having similar imaging information 8 is subsequently performed by the learning effect of the neural network, the correction pattern 10 is newly added. The process of generating the correction pattern 10 can be omitted. Thereafter, the process proceeds to step S5, in which the captured image 3 is subjected to enhancement correction using the generated correction pattern 10.
[0048]
Then, in step S5, enhancement correction of the captured image 3 to which the correction pattern 10 is applied is performed. At this time, the degree of prominence such as lightness and darkness in the captured image 3 is adjusted based on the strength of each correction included in the applied correction pattern 10 (contrast correction: step S5a), and brightness and luminance are adjusted (brightness). Correction: step S5b), adjustment of sharpness (sharpness correction: step S5c), and inversion of the tone of the captured image 3 from positive to negative (negative correction: step S5d) are sequentially performed.
[0049]
Here, the order of each correction is determined based on the magnitude of the influence on the captured image 3. That is, since the contrast correction S5a has a large effect on the captured image 3, the effect of the correction (for example, the sharpness correction) performed before that may be lost. Therefore, by taking into account the magnitude of the effect on the captured image 3 and performing the contrast correction, the brightness correction, the sharpness correction, and the negative correction in this order, a more appropriate correction can be made while utilizing the effect of the enhancement correction performed in the previous stage. Will be able to do. As a result, the corrected captured image 3 that has been finally emphasized and corrected has the character L clearly emphasized compared to the captured image 3 before correction.
[0050]
Then, the designated figure 5 set in advance is detected from the corrected captured image 3 (step S8). Here, in the present embodiment, a horizontally long rectangle which is the shape of the license plate N attached to the vehicle C is selected as the designated graphic 5. That is, since the range surrounded by the rectangle of the license plate N always includes the four-digit number (character L) of the vehicle number to be recognized, the range of the designated figure 5 is selected by Recognition processing of other parts can be omitted. As a result, the recognition accuracy of the character L can be increased, and the processing time for character recognition can be reduced.
[0051]
When the designated figure 5 is detected from the captured image 3 (YES in step S8), a range surrounded by the detected designated figure 5 is selected as the range image 17 (step S9). On the other hand, if the designated figure 5 is not detected from the captured image 3 (NO in step S8), it is recognized that the character L to be recognized does not exist in the captured image 3, and the subsequent processing is canceled. The process proceeds to S15. Here, the range image 17 and the designated figure 5 have the same shape and size (see FIG. 1).
[0052]
Then, the presence or absence of an image having conditions such as a shape and an outline matching the character definition data 12 stored in the storage means 13 is detected from the selected range image 17 (step S10). Here, when an image of a condition matching the character definition data 12 is detected (YES in step S10), the image at the corresponding location is recognized as a character L (step S11). On the other hand, if there is no image satisfying the condition that matches the character definition data 12 (NO in step S10), it is determined that the character L does not exist in the range image 17 surrounded by the designated graphic 5, and the subsequent processing is cancelled. Then, the process proceeds to step S15.
[0053]
Then, after recognizing the character L, the presence or absence of an image of a condition that matches the character definition data in the range image 17 is detected in addition to the recognized character L (step S12). At this time, if an image satisfying the condition that matches the character definition data 12 is not detected (YES in step S12), the character recognition process ends (step S13), and the process proceeds to the next step.
[0054]
On the other hand, when an image with a condition that matches the character definition data 12 is further detected (NO in step S12), the process returns to the previous step and the corresponding image is recognized as a character L (step S11). Thus, even when a plurality of characters L exist in the range image 17, all the characters L can be recognized by repeating Steps S11 and S12. The order of character recognition is not particularly limited, but when the character to be recognized is written horizontally as in English, that is, when written from left to right, character recognition is performed sequentially from the left, and when written vertically, What is necessary is just to set so that character recognition may be performed sequentially from top to bottom.
[0055]
Then, after recognizing all the characters included in the range image 17, one or a plurality of recognized characters L are signal-controlled by the output control means 20 and displayed on the monitor screen as the output means 21 ( Step S14). Thereby, the operator of the character recognition system 1 can check the result of the character recognition on the screen. The recognized character L can be output to another system as information and used. For example, when the number of the license plate N of the vehicle C described above is recognized, the system is applied to a system for managing parking lot exits, and the parking time is calculated. The present invention can be applied to a calculation system and the like.
[0056]
Thereafter, the presence or absence of an instruction to end the processing of the system is detected (step S15). Here, when an instruction to end is input (YES in step S15), the system is ended (step S16). On the other hand, when there is no input of an instruction to end the process (NO in step S15), the process returns to step S1, and the presence or absence of the input of a new captured image 3 is continuously detected.
[0057]
As described above, according to the character recognition system 1 of the present embodiment, the captured image 3 including the character L and the vicinity of the character L is captured by the digital camera 4 and a learnable neural network is applied. By generating a correction pattern 10 optimized for enhancement correction of the captured image 3 and applying the correction pattern 10 to perform enhancement correction, the captured image is corrected to a state suitable for character recognition, and Can be emphasized in the captured image 3. As a result, character recognition with little erroneous recognition and high recognition accuracy can be performed.
[0058]
In addition, since the target for character recognition is limited to the range image 17 surrounded by the designated figure 5 specified in advance, the accuracy of character recognition can be improved and the processing time for recognition can be shortened. Further, it is not necessary to print at a high resolution unlike a conventional barcode, and characters on a monitor screen or a liquid crystal screen output and displayed at a relatively low resolution can be easily recognized. Therefore, it is possible to save physical costs and labor such as sticking and printing the barcode. Even if the character L is changed, it is only necessary to change the character L displayed on the screen, so that the cost and time for printing a new sticker are not required, and a prompt response can be taken.
[0059]
As described above, the present invention has been described with reference to the preferred embodiments. However, the present invention is not limited to these embodiments, and various improvements can be made without departing from the gist of the present invention as described below. And design changes are possible.
[0060]
That is, in the character recognition system 1 of the present embodiment, an example is described in which the number indicated on the license plate N of the vehicle C is recognized as the character L to be recognized. However, the present invention is not limited to this. In addition, characters L written on printed matter and various characters L displayed on the screen can be recognized. Further, although the digital camera 4 is used as the image pickup means, another image input device such as a video camera may be used. Further, the recognized character L can be transmitted as character information through a network or the like.
[0061]
【The invention's effect】
As described above, the character recognition system according to the first aspect of the invention can correct the contrast or the like of the captured image including the character, and can emphasize the included character. Then, a character recognition process is performed on the captured image in which the characters are emphasized. As a result, it is possible to perform character recognition with higher accuracy than before.
[0062]
According to a second aspect of the present invention, in addition to the effects of the first aspect of the present invention, the character recognition system according to the first aspect of the present invention detects a designated figure specified in advance, and performs character recognition within a range surrounded by the detected designated figure. Be done. Thereby, the range to be recognized is limited, and the burden on the recognition process is reduced. Therefore, for example, the display of the recognition result can be shortened.
[0063]
According to a third aspect of the present invention, in addition to the effects of the first or second aspect of the present invention, a character recognition system enhances a captured image in the order of contrast correction, brightness correction, sharpness correction, and negative correction. The character can be further emphasized while utilizing the effect of the correction that has been performed. As a result, the characters included in the corrected captured image become clearer, and the accuracy of character recognition can be improved.
[0064]
According to the character recognition system of the fourth aspect, in addition to the effect of the character recognition system of any one of the first to third aspects, a correction pattern is generated based on imaging information of a captured image. That is, enhancement correction optimized for each captured image is performed based on the correction pattern. Thereby, the characters in the captured image are clearly shown, and the character recognition is more easily performed.
[0065]
A character recognition system according to a fifth aspect of the present invention has the effect of the character recognition system according to the fourth aspect of the present invention, and further includes a correction that is learned in advance or obtained in a character recognition process by applying a learnable neural network. The enhancement correction of the captured image can be optimized based on the pattern. As a result, the recognition accuracy is improved, and the recognition processing time is reduced.
[0066]
According to the character recognition program of the invention of claim 6, by executing the program, it is possible to cause a computer to exert the effects described in claim 1.
[0067]
A character recognition program according to a seventh aspect of the present invention can cause a computer to achieve the effects described in the second aspect by executing the program in addition to the effects of the character recognition program according to the sixth aspect of the present invention.
[0068]
The character recognition program according to the eighth aspect of the present invention can cause the computer to achieve the effects described in the fourth aspect by executing the program in addition to the effects of the character recognition program according to the sixth or seventh aspect of the present invention. it can.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram illustrating a configuration of a character recognition system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a functional configuration of a recognition device in the character recognition system.
FIG. 3 is a flowchart illustrating a flow of processing of the recognition device.
FIG. 4 is a flowchart showing a flow of processing of the recognition device.
[Explanation of symbols]
1 Character recognition system
2 Recognition device
3 Imaging image
4 Digital camera (imaging means)
5 Designated figure
8 Imaging information
9 Imaging information acquisition means
10 Correction pattern
11 Pattern generation means
12 Character definition data
13 Storage means
14 Pattern application means
15 Emphasis correction means
16 Figure detection means (character recognition means)
17 Range image
18 Range selection means (character recognition means)
19 Range recognition means (character recognition means)
20 Output control means
21 Output means
27 Recognition program (character recognition program)
L letter

Claims (8)

認識対象の文字を定義した文字定義データを記憶する記憶手段と、
前記文字及び前記文字の周囲近傍を撮像する撮像手段と、
前記撮像手段によって撮像された前記文字を含む撮像イメージに対し、コントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化補正の少なくともいずれか一つの強調補正を行う強調補正手段と、
強調補正された前記撮像イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う文字認識手段と、
認識された前記文字を出力する出力手段と
を具備することを特徴とする文字認識システム。
Storage means for storing character definition data defining a character to be recognized;
Imaging means for imaging the character and surroundings of the character;
For a captured image including the character captured by the image capturing unit, contrast correction, brightness correction, sharpness correction, and enhancement correction unit that performs at least one of the negative correction,
A character recognition unit that detects an image that matches the character definition data from the captured image that has been enhanced and corrected, and performs character recognition.
Output means for outputting the recognized character.
前記文字認識手段は、
強調補正された前記撮像イメージの中から予め指定した指定図形を検出する図形検出手段と、
検出された前記指定図形に囲まれた範囲を範囲イメージとして選択する範囲選択手段と、
選択された前記範囲イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う範囲認識手段と
をさらに具備することを特徴とする請求項1に記載の文字認識システム。
The character recognition means,
A figure detecting means for detecting a designated figure designated in advance from the emphasized corrected captured image,
Range selection means for selecting a range surrounded by the detected designated figure as a range image,
2. The character recognition system according to claim 1, further comprising: a range recognition unit that detects an image matching the character definition data from the selected range image and performs character recognition.
前記強調補正手段は、
前記コントラスト補正、前記ブライトネス補正、前記シャープネス補正、及び前記ネガ化補正の順序に従って前記撮像イメージの強調補正を行うことを特徴とする請求項1または請求項2に記載の文字認識システム。
The emphasis correction means,
3. The character recognition system according to claim 1, wherein the contrast correction, the brightness correction, the sharpness correction, and the negative correction are performed in the order of the enhancement of the captured image.
前記文字及び前記文字の周囲近傍を含んで撮像された前記撮像イメージに基づいた撮像情報を取得する撮像情報取得手段と、
前記撮像情報に基づいた補正パターンを生成し、記憶するパターン生成手段と、
生成した前記補正パターンを利用して前記撮像イメージの強調補正を行うパターン適用手段と
をさらに具備することを特徴とする請求項1乃至請求項3のいずれか一つに記載の文字認識システム。
Imaging information obtaining means for obtaining imaging information based on the image captured including the vicinity of the character and the surroundings of the character,
A pattern generation unit that generates and stores a correction pattern based on the imaging information;
4. The character recognition system according to claim 1, further comprising a pattern application unit configured to perform enhancement correction of the captured image using the generated correction pattern. 5.
前記撮像情報取得手段、前記パターン生成手段、及び前記パターン適用手段の少なくともいずれか一つは、学習可能なニューラルネットワークが適用されることを特徴とする請求項4に記載の文字認識システム。The character recognition system according to claim 4, wherein at least one of the imaging information acquisition unit, the pattern generation unit, and the pattern application unit employs a learnable neural network. 認識対象の文字を定義した文字定義データを記憶する記憶手段、前記文字及び前記文字の周囲近傍を撮像する撮像手段、前記撮像手段によって撮像された前記文字を含む撮像イメージに対し、コントラスト補正、ブライトネス補正、シャープネス補正、及びネガ化処理補正の少なくともいずれか一つの強調補正を行う強調補正手段、強調補正された前記撮像イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う文字認識手段、及び認識された前記文字を出力する出力手段として、コンピュータを機能させることを特徴とする文字認識プログラム。Storage means for storing character definition data defining a character to be recognized; imaging means for imaging the character and the vicinity of the character; contrast correction and brightness for an image including the character imaged by the imaging means Enhancement means for performing at least any one of correction, sharpness correction, and negative processing correction, and detects an image matching the character definition data from the emphasized corrected captured image and performs character recognition. A character recognition program for causing a computer to function as character recognition means and output means for outputting the recognized characters. 強調補正された前記撮像イメージの中から予め指定した指定図形を検出する図形検出手段、検出された前記指定図形に囲まれた範囲を範囲イメージとして選択する範囲選択手段、選択された前記範囲イメージの中から前記文字定義データに合致する画像を検出し、文字認識を行う範囲認識手段として、前記コンピュータをさらに機能させることを特徴とする請求項6に記載の文字認識プログラム。A figure detecting means for detecting a designated figure designated in advance from the emphasized corrected picked-up image; a range selecting means for selecting a range surrounded by the detected designated figure as a range image; The computer-readable storage medium according to claim 6, wherein the computer further functions as a range recognition unit that detects an image that matches the character definition data and performs character recognition. 前記文字及び前記文字の周囲近傍を含んで撮像された前記撮像イメージに基づいた撮像情報を取得する撮像情報取得手段、前記撮像情報に基づいた補正パターンを生成し、記憶するパターン生成手段、及び生成した前記補正パターンを利用して前記撮像イメージの強調補正を行うパターン適用手段として、前記コンピュータをさらに機能させることを特徴とする請求項6または請求項7に記載の文字認識プログラム。Imaging information acquisition means for acquiring imaging information based on the character and the captured image including the vicinity of the character; pattern generation means for generating and storing a correction pattern based on the imaging information; The computer-readable storage medium according to claim 6, wherein the computer further functions as a pattern application unit that performs the enhancement correction of the captured image using the correction pattern.
JP2002158273A 2002-05-30 2002-05-30 Character recognition system and character recognition program Pending JP2004005070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002158273A JP2004005070A (en) 2002-05-30 2002-05-30 Character recognition system and character recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002158273A JP2004005070A (en) 2002-05-30 2002-05-30 Character recognition system and character recognition program

Publications (1)

Publication Number Publication Date
JP2004005070A true JP2004005070A (en) 2004-01-08

Family

ID=30428655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002158273A Pending JP2004005070A (en) 2002-05-30 2002-05-30 Character recognition system and character recognition program

Country Status (1)

Country Link
JP (1) JP2004005070A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108200102A (en) * 2018-03-15 2018-06-22 贵州电网有限责任公司 A kind of data safety based on screen character identification obtains system
KR102062579B1 (en) 2019-09-23 2020-01-06 주식회사 아프로시스템즈 Vehicle license-plate recognition system that recognition of Vehicle license-plate damaged by shadow and light reflection through the correction

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108200102A (en) * 2018-03-15 2018-06-22 贵州电网有限责任公司 A kind of data safety based on screen character identification obtains system
KR102062579B1 (en) 2019-09-23 2020-01-06 주식회사 아프로시스템즈 Vehicle license-plate recognition system that recognition of Vehicle license-plate damaged by shadow and light reflection through the correction

Similar Documents

Publication Publication Date Title
EP2288135B1 (en) Deblurring and supervised adaptive thresholding for print-and-scan document image evaluation
JP6139396B2 (en) Method and program for compressing binary image representing document
EP1014677B1 (en) An artifact removal technique for skew corrected images
JP4261005B2 (en) Region-based image binarization system
US8331670B2 (en) Method of detection document alteration by comparing characters using shape features of characters
JP2003145898A (en) Method, system and program for judging image quality
US20210064859A1 (en) Image processing system, image processing method, and storage medium
US11341739B2 (en) Image processing device, image processing method, and program recording medium
JP5182182B2 (en) Color correction method and imaging system
CN110210467B (en) Formula positioning method of text image, image processing device and storage medium
JP3582988B2 (en) Non-contact image reader
JP2010186246A (en) Image processing apparatus, method, and program
JP2004005070A (en) Character recognition system and character recognition program
JP2020042466A (en) Recognition processing device and program
EP3296925A1 (en) Document data processing including image-based tokenization
JP2015176252A (en) Image processor and image processing method
US20160132724A1 (en) Image processing device, image processing method, and program
CA2648054C (en) Apparatus and method for detection and analysis of imagery
JP7212207B1 (en) Image processing system, image processing method, and program
JP6797763B2 (en) Character recognition device
KR20080041056A (en) Image forming apparatus and image forming method
Avgunštincic et al. Optical Character Recognition for Expiration Dates Validation
JP3281786B2 (en) Braille copying machine
US10147260B2 (en) Image processing device, image processing method, and program for capturing images printed with various inks
JP2015046001A (en) Character recognition device, character recognition system, character recognition method and character recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080826