JP2004310251A - Character recognition method and device, and its program - Google Patents
Character recognition method and device, and its program Download PDFInfo
- Publication number
- JP2004310251A JP2004310251A JP2003099966A JP2003099966A JP2004310251A JP 2004310251 A JP2004310251 A JP 2004310251A JP 2003099966 A JP2003099966 A JP 2003099966A JP 2003099966 A JP2003099966 A JP 2003099966A JP 2004310251 A JP2004310251 A JP 2004310251A
- Authority
- JP
- Japan
- Prior art keywords
- character
- matching
- pattern
- character string
- character pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、画像情報に含まれる文字パターン情報を検出する文字認識方法、文字認識装置および文字認識プログラムに関する。
【0002】
【従来の技術】
近年、画像情報に含まれる文字画像情報を読み取り、文字コード情報に変換する、いわゆるOCR(Optical Character Recognition)の技術が進歩しつつある。この技術は、例えば医療画像の分野においては、患者の断層画像情報に含まれる患者の氏名、撮影年月日等の属性情報を、読み取る際に用いられる。
【0003】
この読み取りにおいては、文字画像情報の文字パターンを文字ごとに辞書部に準備し、この文字パターンごとに、目的とする画像情報のすべての領域でマッチング検索を行い、マッチングが生じた位置に文字パターンに対応する文字画像情報があるとして、文字コード情報を出力する。しかしながら、このマッチング検索は、画像情報の画素数および文字の種類が増加するにつれて多大な検索時間を要するものとなる。ここで、例えば、画像情報の画素値を2値化すること、あるいはマッチング領域を限定することによりマッチング検索時間の高速化および高精度を計ることが行われる(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開平10―011536号公報、(第3〜4頁、図1〜3)
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来技術によれば、高速化に限界がある。すなわち、画像情報のすべての領域に対してマッチング検索を行うために、たとえ個々のマッチングに要する時間を減らしても、マッチングの回数を減らすことが出来ない。
【0006】
特に、近年の画像情報の高精細化による画素数の増大および文字情報の多様化によりマッチング回数は、増大する傾向にあり、同時にマッチング検索の時間もさらに増大しつつある。
【0007】
これらのことから、マッチング回数を減らしてマッチング検索の高速化を計る文字認識方法、文字認識装置および文字認識プログラムをいかに実現するかが重要となる。
【0008】
この発明は、上述した従来技術による課題を解決するためになされたものであり、マッチング回数を減らしてマッチング検索の高速化を計る文字認識方法、文字認識装置および文字認識プログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するために、請求項1に記載の発明にかかる文字認識方法は、複数の文字パターン群と、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを、前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、前記文字列を含む画像情報から前記文字列を抽出する際に、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、
前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることを特徴とする。
【0010】
この請求項1に記載の発明よれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0011】
また、請求項2に記載の発明にかかる文字認識装置は、複数の文字パターン群を登録する辞書部と、前記文字パターン群の文字パターンが文字列をなす画像情報に、前記文字パターンをパターンマッチングし、前記文字パターンを特定するマッチング部と、を備える文字認識装置であって、前記辞書部は、前記文字パターン群ごとに、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる前記文字パターンごとの距離情報とを有し、前記マッチング部は、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングを、前記文字列と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることを特徴とする。
【0012】
この請求項2に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0013】
また、請求項3に記載の発明にかかる文字認識装置は、さらに文字領域認識部を備え、前記文字領域認識部は、前記画像情報から文字列が存在する文字列領域を抽出することを特徴とする。
【0014】
この請求項3に記載の発明によれば、文字認識装置は、さらに文字領域認識部を備え、この文字領域認識部は、画像情報から文字列が存在する文字列領域を抽出することとしているので、文字パターンのマッチングを行う領域を文字列領域に限定することができる。
【0015】
また、請求項4に記載の発明にかかる文字認識装置は、前記マッチング部が、前記文字列領域でのみマッチングを行うことを特徴とする。
【0016】
この請求項4に記載の発明によれば、マッチング部は、文字列領域でのみマッチングを行うこととしているので、マッチング回数を減らすことができる。
【0017】
また、請求項5に記載の発明にかかる文字認識装置は、前記マッチング部が、前記文字列領域の文字列方向の端部から前記最初の垂直方向のマッチングを行うことを特徴とする。
【0018】
この請求項5に記載の発明によれば、マッチング部は、文字列領域の文字列方向の端部から最初の垂直方向のマッチングを行うこととしているので、漏れのないマッチングを行うことができる。
【0019】
また、請求項6に記載の発明にかかる文字認識プログラムは、文字認識装置のコンピュータを、複数の文字パターン群と、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる前記文字パターンごとの距離情報とを、前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、前記文字列を含む画像情報から前記文字列を抽出する際に、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることとして機能させることを特徴とする。
【0020】
この請求項6に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0021】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる文字認識方法、文字認識装置および文字認識プログラムの好適な実施の形態について説明する。なお、これにより本発明が限定されるものではない。
【0022】
まず、本実施の形態にかかる文字認識装置を含む一例として、医用画像ゲートウェイおよびこの医用画像ゲートウェイを含むシステムの全体構成について説明する。図2は、本実施の形態にかかるシステムを示す図である。本システムは、X線CT装置110、アンギオ装置140、イメージャ130、サーバー180、端末170、医用画像ゲートウェイ(以下、ゲートウェイと称する)100、120および150、並びにLAN(Local Area Network)160等を含む。ここで、X線CT装置110およびアンギオ装置140は、画像情報を出力する側の装置をなし、イメージャ130および端末170は、画像情報を受信する側の装置をなし、サーバー180は、画像情報を受信および送信する装置をなしている。
【0023】
X線CT装置110は、被検体の断層撮影を行い、取得した画像情報をゲートウェイ100に出力する。ゲートウェイ100は、この画像情報を、例えばDICOM(Digital Imaging and Communications in Medicine)規格の仕様(以下、DICOM仕様と称する)にフォーマット変換した後に、LAN160上に出力する。なお、DICOM規格とは、米国放射線学会(ACR)および北米電子機器工業界(NEMA)により開発された医用画像と通信に関するNEMAの標準規格である。
【0024】
アンギオ装置140は、被検体の血管造影を行い、取得した画像情報をゲートウェイ150に出力する。ゲートウェイ150は、ゲートウェイ100と同様に、DICOM仕様にフォーマット変換の後に、LAN160上に画像情報を出力する。なお、図2では、X線CT装置110およびアンギオ装置140を例示したが、その他の画像撮影装置、例えば磁気共鳴撮像装置あるいはガンマカメラ等をゲートウェイを介してLAN160に接続することもできる。
【0025】
イメージャ130は、LAN160を介して取得した画像情報を、レーザによりプリント用紙上に画像形成し、画像情報のハードコピーを作成する。なお、イメージャ130がDICOM仕様の入力部を備えていない際には、図2に示した様に、DICOM仕様の画像情報は、ゲートウェイ120を介してを入力される。また、イメージャ130が、DICOM仕様の入力部を備える際には、ゲートウェイ120を省くことができる。
【0026】
サーバー180は、大容量の画像メモリを有しており、LAN160を介して取得した画像情報を、蓄積し保存する。端末170は、LCD等の画像表示装置を有し、LAN160を介して取得した画像情報を、画面上に表示するビューワの役割を有する。
【0027】
LAN160は、医療施設内で通信ケーブルを用いて行うネットワークであり、CSMA/CD方式等を用いて、画像入出力装置間で画像情報の送受信を行う。
【0028】
つづいて、図1にゲートウェイ100の機能ブロック図を示す。ゲートウェイ100は、画像情報入力部220、文字認識装置230、属性情報入力部210、設定手段240およびフォーマット変換部280を含む。ゲートウェイ100は、画像情報を、例えばX線CT装置110から取得する。この画像情報は、例えば、セントロニクス等のパラレルインターフェイスにより取得され画像情報入力部220に格納される。
【0029】
ここで、ゲートウェイ100では、文字認識装置230により、画像情報の指定領域に画像情報として記録された文字情報、例えば患者識別番号(以下、患者IDと称する)、患者名、撮影日時等を、入力された画像情報から読み取り、文字コードへの変換を行う。
【0030】
文字認識装置230により読み取られた文字コードは、属性情報として、属性情報入力部210に入力される。その後、属性情報入力部210の属性情報および読み取りを終了した画像情報は、フォーマット変換部280へ送られる。そこで、DICOM仕様の画像情報およびこの画像情報のヘッダー情報への変換が行われた後に、LAN160上に出力される。
【0031】
画像情報入力部220に格納される画像情報は、画像撮影装置および撮影条件により異なるが、8〜12ビット程度の濃淡階調情報で、概ね320×320程度の画素数を有する。
【0032】
画像情報に含まれる文字情報を読み取る文字認識装置230は、文字領域認識手段231、マッチング部232および辞書部223を含む。ここで、文字領域認識手段231は、画像情報の指定領域に含まれる文字列の概略位置を決定する。
【0033】
マッチング部232および辞書部223は、文字領域認識手段231で概略位置が決定された文字列に対して、辞書部223から文字パターンを読み出し、文字パターンの対象領域において、文字列領域とのマッチングを行う。これにより、文字パターンおよび文字パターン位置を検知し、属性情報入力部210に転送する。
【0034】
辞書部223には、文字パターン情報および文字コード情報との対応表が登録文字辞書224に格納されており、文字パターン情報にリンクされた、後述する距離情報が距離情報部225に格納されている。マッチング部232は、辞書部223の登録文字辞書224および距離情報部225を参照しつつ、文字パターンのマッチングを行い、読み取り情報を文字コードに変換する。なお、登録文字辞書224には、例えば、英数字あるいはカタカナの文字コードが、小文字あるいは大文字等の文字種ごとに、文字パターン群を形成し登録される。
【0035】
設定手段240は、ゲートウェイ100に接続されるLCDおよびキーボード等の表示および入力装置のインターフェースからなり、LCDおよびキーボード等の表示および入力装置が接続される。また、これらLCDあるいはキーボードから、辞書部223の登録文字辞書224の設定および距離情報部225に登録文字の文字パターンごとの後述する基準線からの距離の設定を行う。
【0036】
つづいて、図3のフローチャートを用いて、文字認識装置230の動作を説明する。図3は、文字認識装置230の動作を示すフローチャートである。まず、文字認識装置230は、設定手段240を用いて、辞書部223の登録文字辞書224および距離情報部225に設定を行う(ステップS301)。この登録文字辞書224および距離情報部225には、文字パターンと文字コードの対応表、文字パターンとリンクされたこの文字パターンの基準線との距離が、文字パターン群ごとに設定される。
【0037】
また、文字パターンの基準線との距離は、後述する横書きされた文字列のマッチングを行う際に文字パターンの縦位置を決めるものである。図4(A)に、英小文字の文字列と基準線との関係を示す。図4(A)の横書きされた文字列は、縦方向の相互位置が、画像情報に記載される標準的な横方向の文字列に準じている。ここで、文字列が形成される横方向と平行な基準線が設定される。なお、この文字列と基準線との距離は、特に限定されないが、本実施の形態を通して固定される。
【0038】
また、図4(B)には、登録文字辞書224に設定される文字パターンおよび距離情報部225に設定される、この文字パターンと基準線との距離が、英小文字のa,bおよびgの場合に例示されている。図4(B)に例示されるように、文字パターンの縦方向の長さおよび横方向の長さは、文字パターンにより異なる。従って、文字パターンの中に記載される文字を、図4(A)に示す文字列の様に横方向にそろえて配列する際には、文字パターンごとに基準線からの縦方向の距離を指定する必要がある。なお、後述するマッチングにより確定されるのは、この文字パターンの位置である。
【0039】
図4(B)には、文字パターンの上端部を基点とした基準線との距離が、a,bおよびgの文字パターンの場合に例示されている。a,bおよびgの文字パターンは、各々l1、l2、l3の異なる距離を有し、横書きのそろった文字列として記載されるa,bおよびgは、基準線からl1、l2、l3、の縦方向の距離に位置にする。また、基準線との距離は文字パターンごとに異なり、設定手段240から、文字パターンにリンクされて距離情報部225に保存される。なお、図4(B)では、文字パターン上端部と基準線との距離を求めたが、文字パターン下端部と基準線との距離とすることもできる。
【0040】
図4(C)に英大文字の場合の横書き文字列および基準線を例示した。英大文字の場合には、文字パターンは、縦方向にすべて同じ長さを有し、基準線との距離もすべて同一となる。また、カタカナ、数字の距離情報も同様にして決定される。
【0041】
図3に戻り、その後、ゲートウェイ100は、画像情報を、X線CT装置110から読み取る(ステップS302)。図5に、X線CT装置110から読み取られる画像情報の一例を図示する。図5(A)は、画像情報入力部220に入力された画像情報の例である。画像中心部には、患者の断層画像が位置し、周辺部の指定された指定領域には、患者情報あるいは撮像条件等の属性情報が文字パターン情報として入力されている。ここで、指定領域は、断層画像が存在する確率が低い取得画像の四隅に概ね設定され、断層画像と重なり合うことが抑止される。
【0042】
図5(B)は、取得画像の四隅に位置する指定領域に記述される文字画像情報の一例を示した。この指定領域には、撮影日時、患者名、性別、年齢および患者ID等が記載されている。なお、図5(B)には、横方向の文字列が記載されているが、縦方向の文字列とすることもできる。
【0043】
その後、文字認識装置230は、文字領域認識手段231を用いて、画像情報の指定領域から文字列領域の抽出を行う(ステップS303)。この抽出には、例えば、文字列領域では、ピクセル値のピクセル間での変化量が大きいので、この性質を用いて抽出がなされる。これにより、指定領域に記述される文字列領域を検出する。そして、マッチング部232は、この文字列領域に対して、マッチング処理を行う(ステップS304)。マッチング部232は、このマッチング処理により、文字列領域から文字列を検出し、これら文字列の文字コード情報を属性情報入力部210に出力する(ステップS304)。
【0044】
つづいて、ステップS304のマッチング処理について詳しく説明する前に、登録文字辞書224に登録されている文字パターン、対象領域および画像情報のマッチングについて説明する。登録文字辞書224には、登録文字ごとに文字パターンが保存されている。これら文字パターンは、図6(A)に示すように文字画像を囲む領域のピクセル値を指定することにより形成される。
【0045】
また、画像情報に含まれる文字情報は、背景をなす画像情報に応じて、影文字、囲み文字および反転文字等の異なる文字種が適宜用いられる。これは、特に医用画像の場合に、画像情報の指定領域に含まれる文字パターンは、背景となる医用画像との混同を生じやすく、これを防止するために上述の文字パターンが背景に応じて用いられるためである。こ
マッチング部232は、これら異なる文字種に対しては、登録された文字パターンに影部分が形成された影文字パターン、あるいは文字パターンを囲むパターン有する囲み文字パターン等が生成され、マッチングに用いられる。図6(B)に、英大文字であるAおよびHを用いた場合の、影文字パターンおよび囲みパターンの例を示す。
【0046】
また、文字パターンのマッチングに際しては、図6に例示されるような文字パターンを画像情報にマッチングし、マッチング位置ごとにヒット率を算出する。そして、このヒット率が閾値を越える際に、このマッチング位置に文字パターンがあるとする。ここで、ヒット率は、影文字パターン、囲み文字パターンあるいは反転文字パターン等の文字パターンごとに異なる計算式が用いられる。一例として、影文字パターンを用いたマッチングの際には、
で定義される。
【0047】
つづいて、ステップS304のマッチング処理について、図7のフローチャートおよび図8、9を用いて説明する。図7は、マッチング処理の動作を示すフローチャートである。まず、マッチング部232は、登録文字辞書224から、マッチングを行う文字パターンを読み出す(ステップS601)。そして、この文字パターンから影文字パターンあるいは囲み文字パターン等の文字パターンを導出して対象領域を確定し、ステップS303で抽出された文字列領域の端部から、縦方向に対象領域を1ピクセルずつ移動させながらマッチングを行う(ステップS602)。
【0048】
図8(A)に、このマッチングの様子を示した。図8(A)には、画像情報から抽出された文字列領域が図示されている。そして、この文字列領域には、abghipqyからなる英小文字の文字列が横書きされている。ここで、この文字列から、英小文字aをマッチングにより抽出する様子が図示されている。文字パターンaは、文字列領域の左端上部からマッチングが開始され、縦方向に1ピクセルずつ移動しながら、各マッチングごとにヒット率が計算される。
【0049】
その後、マッチング部232は、文字パターンがマッチングしたどうか、すなわちヒット率が閾値を越える縦位置が存在したかどうかを判定する(ステップS603)。文字パターンがマッチングする縦位置が存在しない場合には(ステップS603否定)、縦方向のマッチングラインを横方向に1ピクセルずらし(ステップS604)、再度、ステップS602の縦方向のマッチングを行う。そして、文字パターンがマッチングする縦位置が存在する迄、ステップS602〜604のステップを繰り返す。図8(A)の文字列領域に図示される矢印で、これらステップが例示されている。
【0050】
その後、マッチング部232は、文字パターンがマッチングする縦位置が存在した場合には(ステップS603肯定)、この文字パターンから、この文字パターンが属する文字パターン群を特定する(ステップS610)。そして、この文字パターンの縦位置情報および距離情報部225に存在する特定された文字パターン群に属するこの文字パターンにリンクされた距離情報に基づいて、文字列領域内に基準線を設定する(ステップS605)。図8(B)に、文字パターンaがマッチングする縦位置が存在した場合を例示する。ここで、文字パターンaの属する英小文字の文字パターン群が特定され、この文字パターン群にリンクされる文字パターンaの距離情報は、図4(B)において文字パターンの上端部からの距離と定義されているので、図8(B)の英小文字a場合には、文字パターンaの上端部から距離l1 だけ下方に基準線が設定される。なお、この基準線は、文字列領域内に設定され、他の文字パターンのマッチングを行う際に、マッチング位置を決定する基準となる。
【0051】
その後、マッチング部232は、マッチングした縦位置から、基準線に平行な横方向を中心とした近傍領域にマッチングを行う(ステップS606)。図8(C)に、文字パターンaがマッチングする縦位置から横方向にマッチングを行う例を示す。図中に示す矢印の方向がマッチング方向を示している。これにより、この文字列にさらに文字パターンaが含まれる際には、検出を行うことができる。
【0052】
その後、マッチング部232は、目的とする文字パターンすべてのマッチングを行ったかどうかを判定する(ステップS607)。目的とする文字パターンすべてのマッチングが終了していない場合には(ステップS607否定)、マッチングを行っていない新たな文字パターンを登録文字辞書224から読み出す(ステップS608)。そして、マッチング部は、基準線および新たな文字パターンにリンクする距離情報から横方向のマッチングを行う際の縦位置を算出する(ステップS609)。
【0053】
図9(A)に、新たな文字パターンbを横方向にマッチングする際の縦位置を例示する。距離情報部225に登録される、図4(B)に示された文字パターンbの距離情報に基づいて、基準線から距離l2の上方に文字パターンbの上端部が設定される。なお、この文字列上に文字パターンbが存在する場合には、この縦位置から基準線に沿った横方向のいずれかの位置に存在する。
【0054】
その後、マッチング部232は、ステップS606に移行し、文字列領域の左端部から横方向に1ピクセルずつ移動しながらマッチングを行い、ヒット率を算出する。ここで、ヒット率が閾値を越えるピクセル位置に新たな文字パターンが存在する。
【0055】
そして、ステップS606〜609を、目的とする文字パターンすべてについて行う。ここで、さらに特徴的な文字パターンの例として、文字パターンgを用いた場合を、図9(B)に示す。文字パターンgは、基準線から、図4(B)に示す距離l3、の縦位置で横方向にマッチングを行う。この横方向のマッチングでは、1ピクセルずつ文字パターンを移動しながらマッチングを行い、ヒット率を算出する。なお、この文字列は、基準線に対して、図4(A)に示した文字列と同じ縦位置に配列されるので、文字列内の文字パターンgは、図9(B)の文字列領域内に図示した矢印で示される様に、横方向のマッチングで検出される。
【0056】
その後、マッチング部232は、目的とする文字パターンすべてのマッチングが終了した場合に(ステップS607肯定)、本処理を終了し、図3のステップS305に移行し、文字コード情報を出力する。
【0057】
上述してきたように、本実施の形態では、画像情報から抽出される横書きの文字列領域に、文字列と垂直をなす縦方向に文字パターンのマッチングを行って文字列の縦位置を検出し、この縦位置から文字パターンにリンクされる距離情報を用いて基準線の位置を確定し、また、この縦位置から文字列をなす横方向にマッチングを行い、さらにこの文字パターン以外の新たな文字パターンのマッチングを行う際には、新たな文字パターンにリンクされる距離情報および前記基準線から文字パターンの縦位置を算出し、この縦位置から横方向にマッチングを行うこととしているので、マッチングを行う文字列領域の文字を、基準線から求まる縦位置での横方向マッチングのみから漏れなく検出し、文字検出の信頼性を損なうことなくマッチング回数を減らすことができる。
【0058】
また、本実施の形態では、英小文字の場合を例示したが、英大文字の場合には、文字パターンにリンクされた距離情報はすべて同一となるので、すべての英大文字に対して、最初の縦方向のマッチングで検出された縦位置から横方向にマッチングすることで文字列内の文字パターンが検出される。
【0059】
また、本実施の形態では、文字列が横書きの場合を例示したが、文字列が縦書きの場合にも全く同様のマッチングにより、少ないマッチング回数で、漏れのない確実なマッチングを行うことができる。
【0060】
また、本実施の形態では、マッチング処理は、メインルーチン上にすべて配設されたが、各処理をサブルーチン化し、簡易な構成とすることもできる。
【0061】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0062】
請求項2に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0063】
請求項3に記載の発明によれば、文字認識装置は、さらに文字領域認識部を備え、この文字領域認識部は、画像情報から文字列が存在する文字列領域を抽出することとしているので、文字パターンのマッチングを行う領域を文字列領域に限定することができる。
【0064】
請求項4に記載の発明によれば、マッチング部は、文字列領域でのみマッチングを行うこととしているので、マッチング回数を減らすことができる。
【0065】
請求項5に記載の発明によれば、マッチング部は、文字列領域の文字列方向の端部から最初の垂直方向のマッチングを行うこととしているので、漏れのないマッチングを行うことができる。
【0066】
請求項6に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【図面の簡単な説明】
【図1】文字認識装置を含むゲートウェイの全体構成を示す図である。
【図2】ゲートウェイが配置されるシステム構成を示すブロック図である。
【図3】実施の形態のゲートウェイの動作を示すフローチャートである。
【図4】文字列と基準線の位置関係および文字パターンと距離情報を例示する図である。
【図5】画像情報および画像情報の指定領域を示す図である。
【図6】文字パターン、影文字パターンおよび囲み文字パターンの例を示す図である。
【図7】マッチング部の動作を示すフローチャートである。
【図8】文字パターンのマッチングの様子を示す図である(その1)。
【図9】文字パターンのマッチングの様子を示す図である(その2)。
【符号の説明】
100、120、150 ゲートウェイ
110 X線CT装置
130 イメージャ
140 アンギオ装置
170 端末
180 サーバー
210 属性情報入力部
220 画像情報入力部
223 辞書部
224 登録文字辞書
225 距離情報部
230 文字認識装置
231 文字領域認識手段
232 マッチング部
240 設定手段
280 フォーマット変換部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a character recognition method for detecting character pattern information included in image information, a character recognition device, and a character recognition program.
[0002]
[Prior art]
In recent years, so-called OCR (Optical Character Recognition) technology for reading character image information included in image information and converting the character image information into character code information has been advanced. This technique is used, for example, in the field of medical images when reading attribute information such as a patient's name and imaging date included in tomographic image information of the patient.
[0003]
In this reading, the character pattern of the character image information is prepared in the dictionary unit for each character, a matching search is performed for all the regions of the target image information for each character pattern, and the character pattern is located at the position where the matching occurs. And character code information is output. However, this matching search requires a long search time as the number of pixels of image information and the types of characters increase. Here, for example, binarization of the pixel value of the image information or limitation of the matching area is performed to shorten the matching search time and measure the accuracy (for example, see Patent Document 1).
[0004]
[Patent Document 1]
JP-A-10-01536, (pages 3 and 4, FIGS. 1 to 3)
[0005]
[Problems to be solved by the invention]
However, according to the above-mentioned conventional technology, there is a limit to speeding up. That is, since the matching search is performed for all regions of the image information, the number of times of matching cannot be reduced even if the time required for individual matching is reduced.
[0006]
In particular, the number of matchings tends to increase due to the increase in the number of pixels and the diversification of character information due to the recent increase in definition of image information.
[0007]
From these facts, it is important how to realize a character recognition method, a character recognition device, and a character recognition program for reducing the number of times of matching and speeding up the matching search.
[0008]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems of the related art, and has as its object to provide a character recognition method, a character recognition device, and a character recognition program that reduce the number of times of matching and speed up the matching search. And
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problem and achieve the object, a character recognition method according to the invention according to claim 1, wherein a plurality of character pattern groups and a character string when one of the character pattern groups forms a character string A reference line provided in a predetermined positional relationship with the direction, distance information of the reference line and a character pattern included in the character pattern group, and registered for each of the character pattern groups in association with the character pattern group, When extracting the character string from the image information including the character string, first, the character pattern group is specified based on information that has been subjected to pattern matching with the character string, and then the character string is specified. Pattern matching with the individual character patterns of the character pattern group determined in the direction orthogonal to the character string direction, determine a reference line position corresponding to the specified character pattern group,
A pattern matching start position is determined based on distance information between the reference line position and the character pattern.
[0010]
According to the first aspect of the present invention, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. Since matching is performed only there, it is possible to reduce the number of times of matching to shorten the matching time, and to achieve a highly reliable matching without omission.
[0011]
A character recognition apparatus according to a second aspect of the present invention includes a dictionary unit for registering a plurality of character pattern groups, and pattern matching of the character patterns with image information in which the character patterns of the character pattern groups form a character string. And a matching unit that specifies the character pattern, wherein the dictionary unit includes, for each of the character pattern groups, a character string direction when one of the character pattern groups forms a character string. It has a reference line provided in a predetermined positional relationship, and distance information for each of the character patterns included in the reference line and the character pattern group, and the matching unit first performs pattern matching with the character string. The character pattern group is specified based on the information, and then the pattern match between the character string and the individual character patterns of the specified character pattern group is performed. Determining a reference line position corresponding to the specified character pattern group in a direction orthogonal to the character string, and determining a pattern matching start position based on distance information between the reference line position and the character pattern. It is characterized by.
[0012]
According to the second aspect of the present invention, the position of another character pattern on a character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. However, since matching is performed only there, it is possible to reduce the number of times of matching and shorten the matching time, and to achieve a highly reliable matching without omission.
[0013]
Further, the character recognition device according to the third aspect of the present invention further includes a character region recognition unit, wherein the character region recognition unit extracts a character string region where a character string exists from the image information. I do.
[0014]
According to the third aspect of the present invention, the character recognition device further includes a character region recognizing unit, and the character region recognizing unit extracts a character string region where a character string exists from the image information. In addition, the region where character pattern matching is performed can be limited to a character string region.
[0015]
The character recognition device according to the invention of claim 4 is characterized in that the matching unit performs matching only in the character string region.
[0016]
According to the fourth aspect of the present invention, since the matching unit performs matching only in the character string area, the number of times of matching can be reduced.
[0017]
The character recognition device according to the invention of claim 5 is characterized in that the matching unit performs the first vertical matching from the end of the character string area in the character string direction.
[0018]
According to the fifth aspect of the present invention, since the matching section performs the first vertical matching from the end in the character string direction of the character string area, it is possible to perform matching without omission.
[0019]
According to a sixth aspect of the present invention, there is provided a character recognition program for controlling a computer of a character recognition apparatus to include a plurality of character pattern groups, a character string direction when one of the character pattern groups forms a character string, and a predetermined position. A reference line provided in a relationship and distance information for each of the character patterns included in the reference line and the character pattern group are registered for each of the character pattern groups in association with the character pattern group, and the character string is registered. When extracting the character string from the image information including, first, based on the information matched with the character string, the character pattern group is specified, and then, the character string and the specified character pattern The pattern matching with the individual character patterns of the group determines a reference line position corresponding to the specified character pattern group in a direction orthogonal to the character string direction, Based on the distance information between the character pattern and the directrix position, characterized in that function as to define a pattern matching the start position.
[0020]
According to this invention, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. However, since matching is performed only there, it is possible to reduce the number of times of matching and shorten the matching time, and to achieve a highly reliable matching without omission.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Preferred embodiments of a character recognition method, a character recognition device, and a character recognition program according to the present invention will be described below with reference to the accompanying drawings. Note that the present invention is not limited by this.
[0022]
First, as an example including the character recognition device according to the present embodiment, a medical image gateway and an overall configuration of a system including the medical image gateway will be described. FIG. 2 is a diagram illustrating a system according to the present embodiment. The present system includes an
[0023]
The
[0024]
The
[0025]
The
[0026]
The
[0027]
The
[0028]
Next, FIG. 1 shows a functional block diagram of the
[0029]
Here, in the
[0030]
The character code read by the character recognition device 230 is input to the attribute
[0031]
The image information stored in the image
[0032]
The character recognition device 230 that reads character information included in image information includes a character
[0033]
The
[0034]
In the
[0035]
The
[0036]
Next, the operation of the character recognition device 230 will be described with reference to the flowchart of FIG. FIG. 3 is a flowchart showing the operation of the character recognition device 230. First, the character recognition device 230 sets the
[0037]
The distance between the character pattern and the reference line determines the vertical position of the character pattern when matching a horizontally written character string described later. FIG. 4A shows the relationship between a lowercase character string and a reference line. In the character string written horizontally in FIG. 4A, the mutual position in the vertical direction conforms to the standard character string in the horizontal direction described in the image information. Here, a reference line parallel to the horizontal direction in which the character string is formed is set. The distance between the character string and the reference line is not particularly limited, but is fixed throughout the present embodiment.
[0038]
FIG. 4B shows the character pattern set in the registered
[0039]
FIG. 4B illustrates a case where the distance from the reference line starting from the upper end of the character pattern is a, b, and g. The character patterns a, b and g have different distances of l 1 , l 2 and l 3 , respectively, and a, b and g described as horizontally aligned character strings are l 1 , l It is located at a distance of 2 , 13 in the vertical direction. The distance from the reference line differs for each character pattern, and is linked from the
[0040]
FIG. 4C illustrates a horizontal writing character string and a reference line in the case of English capital letters. In the case of uppercase letters, the character patterns all have the same length in the vertical direction, and all have the same distance from the reference line. In addition, katakana and numerical distance information are determined in the same manner.
[0041]
Referring back to FIG. 3, thereafter, the
[0042]
FIG. 5B shows an example of the character image information described in the designated areas located at the four corners of the acquired image. In this designated area, the shooting date and time, patient name, gender, age, patient ID and the like are described. Although FIG. 5B shows a character string in the horizontal direction, a character string in the vertical direction may be used.
[0043]
After that, the character recognition device 230 extracts a character string region from the designated region of the image information by using the character region recognition means 231 (step S303). In this extraction, for example, in a character string region, the amount of change in pixel value between pixels is large, and thus extraction is performed using this property. Thus, the character string area described in the specified area is detected. Then, the
[0044]
Next, before describing the matching process in step S304 in detail, the matching between the character pattern, the target area, and the image information registered in the registered
[0045]
Further, as the character information included in the image information, different character types such as a shadow character, a surrounding character, and a reverse character are appropriately used according to the image information constituting the background. This is because, especially in the case of a medical image, the character pattern included in the designated area of the image information is likely to be confused with the medical image serving as the background, and the above-described character pattern is used according to the background to prevent this. This is because For these different character types, the
[0046]
In matching character patterns, a character pattern as illustrated in FIG. 6 is matched with image information, and a hit ratio is calculated for each matching position. When the hit ratio exceeds the threshold, it is assumed that a character pattern exists at the matching position. Here, a different calculation formula is used for the hit ratio for each character pattern such as a shadow character pattern, a surrounding character pattern, or a reversed character pattern. As an example, when matching using a shadow character pattern,
Is defined by
[0047]
Next, the matching processing in step S304 will be described with reference to the flowchart in FIG. 7 and FIGS. FIG. 7 is a flowchart showing the operation of the matching process. First, the
[0048]
FIG. 8A shows the state of this matching. FIG. 8A shows a character string area extracted from image information. In this character string area, a lowercase English character string consisting of abbhipqy is written horizontally. Here, a state in which lowercase a is extracted from this character string by matching is shown. Matching of the character pattern a is started from the upper left end of the character string area, and the hit rate is calculated for each matching while moving one pixel in the vertical direction.
[0049]
Thereafter, the
[0050]
After that, when there is a vertical position where the character pattern matches (Yes at Step S603), the
[0051]
After that, the
[0052]
After that, the
[0053]
FIG. 9A illustrates a vertical position when a new character pattern b is matched in the horizontal direction. Distance is registered in the
[0054]
Thereafter, the
[0055]
Then, steps S606 to S609 are performed for all target character patterns. Here, FIG. 9B shows a case where a character pattern g is used as an example of a more characteristic character pattern. Character pattern g is from the reference line, to match in the transverse direction by a distance l 3, the vertical position of which is shown in FIG. 4 (B). In this horizontal matching, matching is performed while moving the character pattern one pixel at a time, and the hit rate is calculated. Note that this character string is arranged at the same vertical position as the character string shown in FIG. 4A with respect to the reference line, so that the character pattern g in the character string is the character string in FIG. As indicated by the arrows shown in the area, detection is performed by matching in the horizontal direction.
[0056]
After that, when the matching of all the target character patterns is completed (Yes at Step S607), the
[0057]
As described above, in the present embodiment, in a horizontally written character string area extracted from image information, character pattern matching is performed in the vertical direction perpendicular to the character string to detect the vertical position of the character string, The position of the reference line is determined using the distance information linked to the character pattern from this vertical position, and matching is performed in the horizontal direction forming a character string from this vertical position, and a new character pattern other than this character pattern is added. When performing the matching, the vertical position of the character pattern is calculated from the distance information linked to the new character pattern and the reference line, and the matching is performed in the horizontal direction from this vertical position. The characters in the character string area are detected without omission only from the horizontal matching at the vertical position obtained from the reference line, and matching can be performed without impairing the reliability of character detection. It is possible to reduce the.
[0058]
Also, in the present embodiment, the case of lowercase letters has been exemplified, but in the case of uppercase letters, all distance information linked to the character pattern is the same. A character pattern in a character string is detected by matching horizontally from a vertical position detected by direction matching.
[0059]
In this embodiment, the case where the character string is written horizontally is illustrated. However, even when the character string is written vertically, the exact same matching can be performed with a small number of matching times and without any omission. .
[0060]
Further, in the present embodiment, all the matching processes are provided in the main routine, but each process may be formed as a subroutine to have a simple configuration.
[0061]
【The invention's effect】
As described above, according to the first aspect of the present invention, one character pattern detected on a character string is replaced with another character on the character string without performing matching in all regions of the image information. Since the position of the pattern is estimated and the matching is performed only at that position, the number of times of matching can be reduced to shorten the matching time, and the matching can be performed without omission and with high reliability.
[0062]
According to the second aspect of the present invention, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. Since matching is performed only there, it is possible to reduce the number of times of matching to shorten the matching time, and to achieve a highly reliable matching without omission.
[0063]
According to the third aspect of the present invention, the character recognition device further includes a character region recognizing unit. Since the character region recognizing unit extracts a character string region in which a character string exists from image information, The region where the character pattern is matched can be limited to the character string region.
[0064]
According to the fourth aspect of the present invention, since the matching unit performs matching only in the character string region, the number of times of matching can be reduced.
[0065]
According to the fifth aspect of the present invention, since the matching section performs the first vertical matching from the end of the character string area in the character string direction, it is possible to perform matching without omission.
[0066]
According to the invention described in claim 6, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all areas of the image information. Since matching is performed only there, the number of times of matching can be reduced to shorten the matching time, and furthermore, matching can be performed without omission and with high reliability.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a gateway including a character recognition device.
FIG. 2 is a block diagram showing a system configuration in which a gateway is arranged.
FIG. 3 is a flowchart illustrating an operation of the gateway according to the embodiment.
FIG. 4 is a diagram exemplifying a positional relationship between a character string and a reference line, and a character pattern and distance information.
FIG. 5 is a diagram illustrating image information and a designated area of the image information.
FIG. 6 is a diagram showing an example of a character pattern, a shadow character pattern, and a surrounding character pattern.
FIG. 7 is a flowchart illustrating an operation of a matching unit.
FIG. 8 is a diagram showing how character patterns are matched (part 1).
FIG. 9 is a diagram showing a state of character pattern matching (part 2).
[Explanation of symbols]
100, 120, 150
Claims (6)
前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、
前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを、
前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、
前記文字列を含む画像情報から前記文字列を抽出する際に、
最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、
つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、
前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定める文字認識方法。A plurality of character pattern groups,
A reference line provided in a predetermined positional relationship with a character string direction when one of the character pattern groups forms a character string;
The reference line and the distance information of the character pattern included in the character pattern group,
Registered for each character pattern group in association with the character pattern group,
When extracting the character string from the image information including the character string,
First, the character pattern group is specified based on the information obtained by pattern matching with the character string,
Subsequently, in the pattern matching between the character string and the individual character patterns of the specified character pattern group, a reference line position corresponding to the specified character pattern group is determined in a direction orthogonal to the character string direction. ,
A character recognition method for determining a pattern matching start position based on distance information between the reference line position and the character pattern.
前記文字パターン群の文字パターンが文字列をなす画像情報に、前記文字パターンをパターンマッチングし、前記文字パターンを特定するマッチング部と、
を備える文字認識装置であって、
前記辞書部は、前記文字パターン群ごとに、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを有し、
前記マッチング部は、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングを、前記文字列と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることを特徴とする文字認識装置。A dictionary unit for registering a plurality of character pattern groups,
A matching unit that performs pattern matching of the character pattern on image information in which the character pattern of the character pattern group forms a character string, and specifies the character pattern,
A character recognition device comprising:
The dictionary unit includes, for each of the character pattern groups, a reference line provided in a predetermined positional relationship with a character string direction when one of the character pattern groups forms a character string; and a reference line and the character pattern group. And distance information of the included character pattern,
The matching unit first specifies the character pattern group based on the information obtained by pattern matching with the character string, and then sets a pattern between the character string and the individual character pattern of the specified character pattern group. For matching, a reference line position corresponding to the specified character pattern group is determined in a direction orthogonal to the character string, and a pattern matching start position is determined based on distance information between the reference line position and the character pattern. A character recognition device characterized in that:
複数の文字パターン群と、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを、前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、
前記文字列を含む画像情報から前記文字列を抽出する際に、
最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、
つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、
前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めること、
として機能させるための文字認識プログラム。Computer of character recognition device,
A plurality of character pattern groups, a reference line provided in a predetermined positional relationship with a character string direction when one of the character pattern groups forms a character string, and a character pattern included in the reference line and the character pattern group. The distance information is registered for each of the character pattern groups in association with the character pattern group,
When extracting the character string from the image information including the character string,
First, the character pattern group is specified based on the information obtained by pattern matching with the character string,
Subsequently, in the pattern matching between the character string and the individual character patterns of the specified character pattern group, a reference line position corresponding to the specified character pattern group is determined in a direction orthogonal to the character string direction. ,
Determining a pattern matching start position based on distance information between the reference line position and the character pattern;
Character recognition program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003099966A JP2004310251A (en) | 2003-04-03 | 2003-04-03 | Character recognition method and device, and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003099966A JP2004310251A (en) | 2003-04-03 | 2003-04-03 | Character recognition method and device, and its program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004310251A true JP2004310251A (en) | 2004-11-04 |
Family
ID=33464230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003099966A Pending JP2004310251A (en) | 2003-04-03 | 2003-04-03 | Character recognition method and device, and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004310251A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355177A (en) * | 2016-08-17 | 2017-01-25 | 天津德闻数据科技有限公司 | Method for automatically extracting item information from medical examination reports |
WO2017013719A1 (en) * | 2015-07-17 | 2017-01-26 | 楽天株式会社 | Character recognition device, character recognition method, and character recognition program |
KR101917525B1 (en) | 2017-07-04 | 2018-11-09 | 포항공과대학교 산학협력단 | Method and apparatus for identifying string |
-
2003
- 2003-04-03 JP JP2003099966A patent/JP2004310251A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017013719A1 (en) * | 2015-07-17 | 2017-01-26 | 楽天株式会社 | Character recognition device, character recognition method, and character recognition program |
JPWO2017013719A1 (en) * | 2015-07-17 | 2018-03-08 | 楽天株式会社 | Character recognition device, character recognition method, and character recognition program |
US20180211127A1 (en) * | 2015-07-17 | 2018-07-26 | Rakuten, Inc. | Character recognition device, character recognition method, and character recognition program |
US10657404B2 (en) * | 2015-07-17 | 2020-05-19 | Rakuten, Inc. | Character recognition device, character recognition method, and character recognition program |
CN106355177A (en) * | 2016-08-17 | 2017-01-25 | 天津德闻数据科技有限公司 | Method for automatically extracting item information from medical examination reports |
CN106355177B (en) * | 2016-08-17 | 2019-05-10 | 天津德闻数据科技有限公司 | A kind of inspection item information automation extraction method of medical inspection list |
KR101917525B1 (en) | 2017-07-04 | 2018-11-09 | 포항공과대학교 산학협력단 | Method and apparatus for identifying string |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2651144C2 (en) | Data input from images of the documents with fixed structure | |
US6470336B1 (en) | Document image search device and recording medium having document search program stored thereon | |
CN103177249B (en) | Image processing apparatus and image processing method | |
CN106170799B (en) | Extracting information from images and including information in clinical reports | |
US20090297038A1 (en) | Image Direction Judging Device, Image Direction Judging Method and Image Direction Judging Program | |
US9159143B2 (en) | Apparatus and method for generating character collage message | |
US20160255235A1 (en) | Global registration of filled-out content in an application form | |
JPWO2004055713A1 (en) | Bar code recognition device | |
JP2009282985A (en) | Method of identifying orientation of digital image | |
CN106056028A (en) | Rapid scanning and waybill recording method and device thereof | |
JP5962449B2 (en) | Determination program, determination method, and determination apparatus | |
JP4419426B2 (en) | Medical imaging system | |
JP2004310251A (en) | Character recognition method and device, and its program | |
JP4163406B2 (en) | Bar code recognition device | |
CN107092907B (en) | Growth curve processing method, device and system for blood bacteria culture | |
US20050094861A1 (en) | Positional synchronization in a multivoting character recognition environment | |
JP2016200899A (en) | Information processing apparatus, information processing method, and program | |
JP2004310250A (en) | Character recognition method and device | |
CN108734167B (en) | Method for recognizing characters on contaminated film | |
JP5223739B2 (en) | Portable character recognition device, character recognition program, and character recognition method | |
US10726317B2 (en) | Methods and systems for adding new content in an electronic document generated by scanning | |
JP2003058822A (en) | Character information extraction device and its method, program and storage medium | |
CN112019847A (en) | Decoding method and electronic equipment | |
JP2003058827A (en) | Character information extraction device and its method, program and storage medium | |
JPH10171917A (en) | Device and method for character recognition and its recording medium |