JP2004310251A - Character recognition method and device, and its program - Google Patents

Character recognition method and device, and its program Download PDF

Info

Publication number
JP2004310251A
JP2004310251A JP2003099966A JP2003099966A JP2004310251A JP 2004310251 A JP2004310251 A JP 2004310251A JP 2003099966 A JP2003099966 A JP 2003099966A JP 2003099966 A JP2003099966 A JP 2003099966A JP 2004310251 A JP2004310251 A JP 2004310251A
Authority
JP
Japan
Prior art keywords
character
matching
pattern
character string
character pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003099966A
Other languages
Japanese (ja)
Inventor
Toshio Yamazaki
俊夫 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2003099966A priority Critical patent/JP2004310251A/en
Publication of JP2004310251A publication Critical patent/JP2004310251A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character recognition method, a character recognition device and a character recognition program for quickening the matched retrieval by reducing the number of matching times. <P>SOLUTION: A matching part 232 makes the matching of a character pattern to a vertical direction perpendicular to a character string to detect the vertical position of the character string in a horizontally written character area extracted from image information by a character area recognizing means 231, and decides the position of a reference line by using the distance information of a distance information part 225 from the vertical position. Also, the matching part 232 operates matching to a horizontal direction constituting the character string from the vertical position, and when operating the matching of a new character pattern other than the character pattern, calculates the vertical position of the character pattern from the distance information linked to the new character pattern and the reference line, thereby realizing matching to the horizontal direction from the vertical position. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、画像情報に含まれる文字パターン情報を検出する文字認識方法、文字認識装置および文字認識プログラムに関する。
【0002】
【従来の技術】
近年、画像情報に含まれる文字画像情報を読み取り、文字コード情報に変換する、いわゆるOCR(Optical Character Recognition)の技術が進歩しつつある。この技術は、例えば医療画像の分野においては、患者の断層画像情報に含まれる患者の氏名、撮影年月日等の属性情報を、読み取る際に用いられる。
【0003】
この読み取りにおいては、文字画像情報の文字パターンを文字ごとに辞書部に準備し、この文字パターンごとに、目的とする画像情報のすべての領域でマッチング検索を行い、マッチングが生じた位置に文字パターンに対応する文字画像情報があるとして、文字コード情報を出力する。しかしながら、このマッチング検索は、画像情報の画素数および文字の種類が増加するにつれて多大な検索時間を要するものとなる。ここで、例えば、画像情報の画素値を2値化すること、あるいはマッチング領域を限定することによりマッチング検索時間の高速化および高精度を計ることが行われる(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開平10―011536号公報、(第3〜4頁、図1〜3)
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来技術によれば、高速化に限界がある。すなわち、画像情報のすべての領域に対してマッチング検索を行うために、たとえ個々のマッチングに要する時間を減らしても、マッチングの回数を減らすことが出来ない。
【0006】
特に、近年の画像情報の高精細化による画素数の増大および文字情報の多様化によりマッチング回数は、増大する傾向にあり、同時にマッチング検索の時間もさらに増大しつつある。
【0007】
これらのことから、マッチング回数を減らしてマッチング検索の高速化を計る文字認識方法、文字認識装置および文字認識プログラムをいかに実現するかが重要となる。
【0008】
この発明は、上述した従来技術による課題を解決するためになされたものであり、マッチング回数を減らしてマッチング検索の高速化を計る文字認識方法、文字認識装置および文字認識プログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するために、請求項1に記載の発明にかかる文字認識方法は、複数の文字パターン群と、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを、前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、前記文字列を含む画像情報から前記文字列を抽出する際に、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、
前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることを特徴とする。
【0010】
この請求項1に記載の発明よれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0011】
また、請求項2に記載の発明にかかる文字認識装置は、複数の文字パターン群を登録する辞書部と、前記文字パターン群の文字パターンが文字列をなす画像情報に、前記文字パターンをパターンマッチングし、前記文字パターンを特定するマッチング部と、を備える文字認識装置であって、前記辞書部は、前記文字パターン群ごとに、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる前記文字パターンごとの距離情報とを有し、前記マッチング部は、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングを、前記文字列と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることを特徴とする。
【0012】
この請求項2に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0013】
また、請求項3に記載の発明にかかる文字認識装置は、さらに文字領域認識部を備え、前記文字領域認識部は、前記画像情報から文字列が存在する文字列領域を抽出することを特徴とする。
【0014】
この請求項3に記載の発明によれば、文字認識装置は、さらに文字領域認識部を備え、この文字領域認識部は、画像情報から文字列が存在する文字列領域を抽出することとしているので、文字パターンのマッチングを行う領域を文字列領域に限定することができる。
【0015】
また、請求項4に記載の発明にかかる文字認識装置は、前記マッチング部が、前記文字列領域でのみマッチングを行うことを特徴とする。
【0016】
この請求項4に記載の発明によれば、マッチング部は、文字列領域でのみマッチングを行うこととしているので、マッチング回数を減らすことができる。
【0017】
また、請求項5に記載の発明にかかる文字認識装置は、前記マッチング部が、前記文字列領域の文字列方向の端部から前記最初の垂直方向のマッチングを行うことを特徴とする。
【0018】
この請求項5に記載の発明によれば、マッチング部は、文字列領域の文字列方向の端部から最初の垂直方向のマッチングを行うこととしているので、漏れのないマッチングを行うことができる。
【0019】
また、請求項6に記載の発明にかかる文字認識プログラムは、文字認識装置のコンピュータを、複数の文字パターン群と、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる前記文字パターンごとの距離情報とを、前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、前記文字列を含む画像情報から前記文字列を抽出する際に、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることとして機能させることを特徴とする。
【0020】
この請求項6に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0021】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる文字認識方法、文字認識装置および文字認識プログラムの好適な実施の形態について説明する。なお、これにより本発明が限定されるものではない。
【0022】
まず、本実施の形態にかかる文字認識装置を含む一例として、医用画像ゲートウェイおよびこの医用画像ゲートウェイを含むシステムの全体構成について説明する。図2は、本実施の形態にかかるシステムを示す図である。本システムは、X線CT装置110、アンギオ装置140、イメージャ130、サーバー180、端末170、医用画像ゲートウェイ(以下、ゲートウェイと称する)100、120および150、並びにLAN(Local Area Network)160等を含む。ここで、X線CT装置110およびアンギオ装置140は、画像情報を出力する側の装置をなし、イメージャ130および端末170は、画像情報を受信する側の装置をなし、サーバー180は、画像情報を受信および送信する装置をなしている。
【0023】
X線CT装置110は、被検体の断層撮影を行い、取得した画像情報をゲートウェイ100に出力する。ゲートウェイ100は、この画像情報を、例えばDICOM(Digital Imaging and Communications in Medicine)規格の仕様(以下、DICOM仕様と称する)にフォーマット変換した後に、LAN160上に出力する。なお、DICOM規格とは、米国放射線学会(ACR)および北米電子機器工業界(NEMA)により開発された医用画像と通信に関するNEMAの標準規格である。
【0024】
アンギオ装置140は、被検体の血管造影を行い、取得した画像情報をゲートウェイ150に出力する。ゲートウェイ150は、ゲートウェイ100と同様に、DICOM仕様にフォーマット変換の後に、LAN160上に画像情報を出力する。なお、図2では、X線CT装置110およびアンギオ装置140を例示したが、その他の画像撮影装置、例えば磁気共鳴撮像装置あるいはガンマカメラ等をゲートウェイを介してLAN160に接続することもできる。
【0025】
イメージャ130は、LAN160を介して取得した画像情報を、レーザによりプリント用紙上に画像形成し、画像情報のハードコピーを作成する。なお、イメージャ130がDICOM仕様の入力部を備えていない際には、図2に示した様に、DICOM仕様の画像情報は、ゲートウェイ120を介してを入力される。また、イメージャ130が、DICOM仕様の入力部を備える際には、ゲートウェイ120を省くことができる。
【0026】
サーバー180は、大容量の画像メモリを有しており、LAN160を介して取得した画像情報を、蓄積し保存する。端末170は、LCD等の画像表示装置を有し、LAN160を介して取得した画像情報を、画面上に表示するビューワの役割を有する。
【0027】
LAN160は、医療施設内で通信ケーブルを用いて行うネットワークであり、CSMA/CD方式等を用いて、画像入出力装置間で画像情報の送受信を行う。
【0028】
つづいて、図1にゲートウェイ100の機能ブロック図を示す。ゲートウェイ100は、画像情報入力部220、文字認識装置230、属性情報入力部210、設定手段240およびフォーマット変換部280を含む。ゲートウェイ100は、画像情報を、例えばX線CT装置110から取得する。この画像情報は、例えば、セントロニクス等のパラレルインターフェイスにより取得され画像情報入力部220に格納される。
【0029】
ここで、ゲートウェイ100では、文字認識装置230により、画像情報の指定領域に画像情報として記録された文字情報、例えば患者識別番号(以下、患者IDと称する)、患者名、撮影日時等を、入力された画像情報から読み取り、文字コードへの変換を行う。
【0030】
文字認識装置230により読み取られた文字コードは、属性情報として、属性情報入力部210に入力される。その後、属性情報入力部210の属性情報および読み取りを終了した画像情報は、フォーマット変換部280へ送られる。そこで、DICOM仕様の画像情報およびこの画像情報のヘッダー情報への変換が行われた後に、LAN160上に出力される。
【0031】
画像情報入力部220に格納される画像情報は、画像撮影装置および撮影条件により異なるが、8〜12ビット程度の濃淡階調情報で、概ね320×320程度の画素数を有する。
【0032】
画像情報に含まれる文字情報を読み取る文字認識装置230は、文字領域認識手段231、マッチング部232および辞書部223を含む。ここで、文字領域認識手段231は、画像情報の指定領域に含まれる文字列の概略位置を決定する。
【0033】
マッチング部232および辞書部223は、文字領域認識手段231で概略位置が決定された文字列に対して、辞書部223から文字パターンを読み出し、文字パターンの対象領域において、文字列領域とのマッチングを行う。これにより、文字パターンおよび文字パターン位置を検知し、属性情報入力部210に転送する。
【0034】
辞書部223には、文字パターン情報および文字コード情報との対応表が登録文字辞書224に格納されており、文字パターン情報にリンクされた、後述する距離情報が距離情報部225に格納されている。マッチング部232は、辞書部223の登録文字辞書224および距離情報部225を参照しつつ、文字パターンのマッチングを行い、読み取り情報を文字コードに変換する。なお、登録文字辞書224には、例えば、英数字あるいはカタカナの文字コードが、小文字あるいは大文字等の文字種ごとに、文字パターン群を形成し登録される。
【0035】
設定手段240は、ゲートウェイ100に接続されるLCDおよびキーボード等の表示および入力装置のインターフェースからなり、LCDおよびキーボード等の表示および入力装置が接続される。また、これらLCDあるいはキーボードから、辞書部223の登録文字辞書224の設定および距離情報部225に登録文字の文字パターンごとの後述する基準線からの距離の設定を行う。
【0036】
つづいて、図3のフローチャートを用いて、文字認識装置230の動作を説明する。図3は、文字認識装置230の動作を示すフローチャートである。まず、文字認識装置230は、設定手段240を用いて、辞書部223の登録文字辞書224および距離情報部225に設定を行う(ステップS301)。この登録文字辞書224および距離情報部225には、文字パターンと文字コードの対応表、文字パターンとリンクされたこの文字パターンの基準線との距離が、文字パターン群ごとに設定される。
【0037】
また、文字パターンの基準線との距離は、後述する横書きされた文字列のマッチングを行う際に文字パターンの縦位置を決めるものである。図4(A)に、英小文字の文字列と基準線との関係を示す。図4(A)の横書きされた文字列は、縦方向の相互位置が、画像情報に記載される標準的な横方向の文字列に準じている。ここで、文字列が形成される横方向と平行な基準線が設定される。なお、この文字列と基準線との距離は、特に限定されないが、本実施の形態を通して固定される。
【0038】
また、図4(B)には、登録文字辞書224に設定される文字パターンおよび距離情報部225に設定される、この文字パターンと基準線との距離が、英小文字のa,bおよびgの場合に例示されている。図4(B)に例示されるように、文字パターンの縦方向の長さおよび横方向の長さは、文字パターンにより異なる。従って、文字パターンの中に記載される文字を、図4(A)に示す文字列の様に横方向にそろえて配列する際には、文字パターンごとに基準線からの縦方向の距離を指定する必要がある。なお、後述するマッチングにより確定されるのは、この文字パターンの位置である。
【0039】
図4(B)には、文字パターンの上端部を基点とした基準線との距離が、a,bおよびgの文字パターンの場合に例示されている。a,bおよびgの文字パターンは、各々l、l、lの異なる距離を有し、横書きのそろった文字列として記載されるa,bおよびgは、基準線からl、l、l3、の縦方向の距離に位置にする。また、基準線との距離は文字パターンごとに異なり、設定手段240から、文字パターンにリンクされて距離情報部225に保存される。なお、図4(B)では、文字パターン上端部と基準線との距離を求めたが、文字パターン下端部と基準線との距離とすることもできる。
【0040】
図4(C)に英大文字の場合の横書き文字列および基準線を例示した。英大文字の場合には、文字パターンは、縦方向にすべて同じ長さを有し、基準線との距離もすべて同一となる。また、カタカナ、数字の距離情報も同様にして決定される。
【0041】
図3に戻り、その後、ゲートウェイ100は、画像情報を、X線CT装置110から読み取る(ステップS302)。図5に、X線CT装置110から読み取られる画像情報の一例を図示する。図5(A)は、画像情報入力部220に入力された画像情報の例である。画像中心部には、患者の断層画像が位置し、周辺部の指定された指定領域には、患者情報あるいは撮像条件等の属性情報が文字パターン情報として入力されている。ここで、指定領域は、断層画像が存在する確率が低い取得画像の四隅に概ね設定され、断層画像と重なり合うことが抑止される。
【0042】
図5(B)は、取得画像の四隅に位置する指定領域に記述される文字画像情報の一例を示した。この指定領域には、撮影日時、患者名、性別、年齢および患者ID等が記載されている。なお、図5(B)には、横方向の文字列が記載されているが、縦方向の文字列とすることもできる。
【0043】
その後、文字認識装置230は、文字領域認識手段231を用いて、画像情報の指定領域から文字列領域の抽出を行う(ステップS303)。この抽出には、例えば、文字列領域では、ピクセル値のピクセル間での変化量が大きいので、この性質を用いて抽出がなされる。これにより、指定領域に記述される文字列領域を検出する。そして、マッチング部232は、この文字列領域に対して、マッチング処理を行う(ステップS304)。マッチング部232は、このマッチング処理により、文字列領域から文字列を検出し、これら文字列の文字コード情報を属性情報入力部210に出力する(ステップS304)。
【0044】
つづいて、ステップS304のマッチング処理について詳しく説明する前に、登録文字辞書224に登録されている文字パターン、対象領域および画像情報のマッチングについて説明する。登録文字辞書224には、登録文字ごとに文字パターンが保存されている。これら文字パターンは、図6(A)に示すように文字画像を囲む領域のピクセル値を指定することにより形成される。
【0045】
また、画像情報に含まれる文字情報は、背景をなす画像情報に応じて、影文字、囲み文字および反転文字等の異なる文字種が適宜用いられる。これは、特に医用画像の場合に、画像情報の指定領域に含まれる文字パターンは、背景となる医用画像との混同を生じやすく、これを防止するために上述の文字パターンが背景に応じて用いられるためである。こ
マッチング部232は、これら異なる文字種に対しては、登録された文字パターンに影部分が形成された影文字パターン、あるいは文字パターンを囲むパターン有する囲み文字パターン等が生成され、マッチングに用いられる。図6(B)に、英大文字であるAおよびHを用いた場合の、影文字パターンおよび囲みパターンの例を示す。
【0046】
また、文字パターンのマッチングに際しては、図6に例示されるような文字パターンを画像情報にマッチングし、マッチング位置ごとにヒット率を算出する。そして、このヒット率が閾値を越える際に、このマッチング位置に文字パターンがあるとする。ここで、ヒット率は、影文字パターン、囲み文字パターンあるいは反転文字パターン等の文字パターンごとに異なる計算式が用いられる。一例として、影文字パターンを用いたマッチングの際には、

Figure 2004310251
で定義される。
【0047】
つづいて、ステップS304のマッチング処理について、図7のフローチャートおよび図8、9を用いて説明する。図7は、マッチング処理の動作を示すフローチャートである。まず、マッチング部232は、登録文字辞書224から、マッチングを行う文字パターンを読み出す(ステップS601)。そして、この文字パターンから影文字パターンあるいは囲み文字パターン等の文字パターンを導出して対象領域を確定し、ステップS303で抽出された文字列領域の端部から、縦方向に対象領域を1ピクセルずつ移動させながらマッチングを行う(ステップS602)。
【0048】
図8(A)に、このマッチングの様子を示した。図8(A)には、画像情報から抽出された文字列領域が図示されている。そして、この文字列領域には、abghipqyからなる英小文字の文字列が横書きされている。ここで、この文字列から、英小文字aをマッチングにより抽出する様子が図示されている。文字パターンaは、文字列領域の左端上部からマッチングが開始され、縦方向に1ピクセルずつ移動しながら、各マッチングごとにヒット率が計算される。
【0049】
その後、マッチング部232は、文字パターンがマッチングしたどうか、すなわちヒット率が閾値を越える縦位置が存在したかどうかを判定する(ステップS603)。文字パターンがマッチングする縦位置が存在しない場合には(ステップS603否定)、縦方向のマッチングラインを横方向に1ピクセルずらし(ステップS604)、再度、ステップS602の縦方向のマッチングを行う。そして、文字パターンがマッチングする縦位置が存在する迄、ステップS602〜604のステップを繰り返す。図8(A)の文字列領域に図示される矢印で、これらステップが例示されている。
【0050】
その後、マッチング部232は、文字パターンがマッチングする縦位置が存在した場合には(ステップS603肯定)、この文字パターンから、この文字パターンが属する文字パターン群を特定する(ステップS610)。そして、この文字パターンの縦位置情報および距離情報部225に存在する特定された文字パターン群に属するこの文字パターンにリンクされた距離情報に基づいて、文字列領域内に基準線を設定する(ステップS605)。図8(B)に、文字パターンaがマッチングする縦位置が存在した場合を例示する。ここで、文字パターンaの属する英小文字の文字パターン群が特定され、この文字パターン群にリンクされる文字パターンaの距離情報は、図4(B)において文字パターンの上端部からの距離と定義されているので、図8(B)の英小文字a場合には、文字パターンaの上端部から距離lだけ下方に基準線が設定される。なお、この基準線は、文字列領域内に設定され、他の文字パターンのマッチングを行う際に、マッチング位置を決定する基準となる。
【0051】
その後、マッチング部232は、マッチングした縦位置から、基準線に平行な横方向を中心とした近傍領域にマッチングを行う(ステップS606)。図8(C)に、文字パターンaがマッチングする縦位置から横方向にマッチングを行う例を示す。図中に示す矢印の方向がマッチング方向を示している。これにより、この文字列にさらに文字パターンaが含まれる際には、検出を行うことができる。
【0052】
その後、マッチング部232は、目的とする文字パターンすべてのマッチングを行ったかどうかを判定する(ステップS607)。目的とする文字パターンすべてのマッチングが終了していない場合には(ステップS607否定)、マッチングを行っていない新たな文字パターンを登録文字辞書224から読み出す(ステップS608)。そして、マッチング部は、基準線および新たな文字パターンにリンクする距離情報から横方向のマッチングを行う際の縦位置を算出する(ステップS609)。
【0053】
図9(A)に、新たな文字パターンbを横方向にマッチングする際の縦位置を例示する。距離情報部225に登録される、図4(B)に示された文字パターンbの距離情報に基づいて、基準線から距離lの上方に文字パターンbの上端部が設定される。なお、この文字列上に文字パターンbが存在する場合には、この縦位置から基準線に沿った横方向のいずれかの位置に存在する。
【0054】
その後、マッチング部232は、ステップS606に移行し、文字列領域の左端部から横方向に1ピクセルずつ移動しながらマッチングを行い、ヒット率を算出する。ここで、ヒット率が閾値を越えるピクセル位置に新たな文字パターンが存在する。
【0055】
そして、ステップS606〜609を、目的とする文字パターンすべてについて行う。ここで、さらに特徴的な文字パターンの例として、文字パターンgを用いた場合を、図9(B)に示す。文字パターンgは、基準線から、図4(B)に示す距離l3、の縦位置で横方向にマッチングを行う。この横方向のマッチングでは、1ピクセルずつ文字パターンを移動しながらマッチングを行い、ヒット率を算出する。なお、この文字列は、基準線に対して、図4(A)に示した文字列と同じ縦位置に配列されるので、文字列内の文字パターンgは、図9(B)の文字列領域内に図示した矢印で示される様に、横方向のマッチングで検出される。
【0056】
その後、マッチング部232は、目的とする文字パターンすべてのマッチングが終了した場合に(ステップS607肯定)、本処理を終了し、図3のステップS305に移行し、文字コード情報を出力する。
【0057】
上述してきたように、本実施の形態では、画像情報から抽出される横書きの文字列領域に、文字列と垂直をなす縦方向に文字パターンのマッチングを行って文字列の縦位置を検出し、この縦位置から文字パターンにリンクされる距離情報を用いて基準線の位置を確定し、また、この縦位置から文字列をなす横方向にマッチングを行い、さらにこの文字パターン以外の新たな文字パターンのマッチングを行う際には、新たな文字パターンにリンクされる距離情報および前記基準線から文字パターンの縦位置を算出し、この縦位置から横方向にマッチングを行うこととしているので、マッチングを行う文字列領域の文字を、基準線から求まる縦位置での横方向マッチングのみから漏れなく検出し、文字検出の信頼性を損なうことなくマッチング回数を減らすことができる。
【0058】
また、本実施の形態では、英小文字の場合を例示したが、英大文字の場合には、文字パターンにリンクされた距離情報はすべて同一となるので、すべての英大文字に対して、最初の縦方向のマッチングで検出された縦位置から横方向にマッチングすることで文字列内の文字パターンが検出される。
【0059】
また、本実施の形態では、文字列が横書きの場合を例示したが、文字列が縦書きの場合にも全く同様のマッチングにより、少ないマッチング回数で、漏れのない確実なマッチングを行うことができる。
【0060】
また、本実施の形態では、マッチング処理は、メインルーチン上にすべて配設されたが、各処理をサブルーチン化し、簡易な構成とすることもできる。
【0061】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0062】
請求項2に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【0063】
請求項3に記載の発明によれば、文字認識装置は、さらに文字領域認識部を備え、この文字領域認識部は、画像情報から文字列が存在する文字列領域を抽出することとしているので、文字パターンのマッチングを行う領域を文字列領域に限定することができる。
【0064】
請求項4に記載の発明によれば、マッチング部は、文字列領域でのみマッチングを行うこととしているので、マッチング回数を減らすことができる。
【0065】
請求項5に記載の発明によれば、マッチング部は、文字列領域の文字列方向の端部から最初の垂直方向のマッチングを行うこととしているので、漏れのないマッチングを行うことができる。
【0066】
請求項6に記載の発明によれば、画像情報のすべての領域でマッチングを行うことなく、文字列上で検出された1つの文字パターンから、文字列上の他の文字パターンの位置を推定し、そこでのみマッチングを行うので、マッチング回数を減らしてマッチング時間の短縮を計り、しかも漏れのない信頼性の高いマッチングとすることができる。
【図面の簡単な説明】
【図1】文字認識装置を含むゲートウェイの全体構成を示す図である。
【図2】ゲートウェイが配置されるシステム構成を示すブロック図である。
【図3】実施の形態のゲートウェイの動作を示すフローチャートである。
【図4】文字列と基準線の位置関係および文字パターンと距離情報を例示する図である。
【図5】画像情報および画像情報の指定領域を示す図である。
【図6】文字パターン、影文字パターンおよび囲み文字パターンの例を示す図である。
【図7】マッチング部の動作を示すフローチャートである。
【図8】文字パターンのマッチングの様子を示す図である(その1)。
【図9】文字パターンのマッチングの様子を示す図である(その2)。
【符号の説明】
100、120、150 ゲートウェイ
110 X線CT装置
130 イメージャ
140 アンギオ装置
170 端末
180 サーバー
210 属性情報入力部
220 画像情報入力部
223 辞書部
224 登録文字辞書
225 距離情報部
230 文字認識装置
231 文字領域認識手段
232 マッチング部
240 設定手段
280 フォーマット変換部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a character recognition method for detecting character pattern information included in image information, a character recognition device, and a character recognition program.
[0002]
[Prior art]
In recent years, so-called OCR (Optical Character Recognition) technology for reading character image information included in image information and converting the character image information into character code information has been advanced. This technique is used, for example, in the field of medical images when reading attribute information such as a patient's name and imaging date included in tomographic image information of the patient.
[0003]
In this reading, the character pattern of the character image information is prepared in the dictionary unit for each character, a matching search is performed for all the regions of the target image information for each character pattern, and the character pattern is located at the position where the matching occurs. And character code information is output. However, this matching search requires a long search time as the number of pixels of image information and the types of characters increase. Here, for example, binarization of the pixel value of the image information or limitation of the matching area is performed to shorten the matching search time and measure the accuracy (for example, see Patent Document 1).
[0004]
[Patent Document 1]
JP-A-10-01536, (pages 3 and 4, FIGS. 1 to 3)
[0005]
[Problems to be solved by the invention]
However, according to the above-mentioned conventional technology, there is a limit to speeding up. That is, since the matching search is performed for all regions of the image information, the number of times of matching cannot be reduced even if the time required for individual matching is reduced.
[0006]
In particular, the number of matchings tends to increase due to the increase in the number of pixels and the diversification of character information due to the recent increase in definition of image information.
[0007]
From these facts, it is important how to realize a character recognition method, a character recognition device, and a character recognition program for reducing the number of times of matching and speeding up the matching search.
[0008]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems of the related art, and has as its object to provide a character recognition method, a character recognition device, and a character recognition program that reduce the number of times of matching and speed up the matching search. And
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problem and achieve the object, a character recognition method according to the invention according to claim 1, wherein a plurality of character pattern groups and a character string when one of the character pattern groups forms a character string A reference line provided in a predetermined positional relationship with the direction, distance information of the reference line and a character pattern included in the character pattern group, and registered for each of the character pattern groups in association with the character pattern group, When extracting the character string from the image information including the character string, first, the character pattern group is specified based on information that has been subjected to pattern matching with the character string, and then the character string is specified. Pattern matching with the individual character patterns of the character pattern group determined in the direction orthogonal to the character string direction, determine a reference line position corresponding to the specified character pattern group,
A pattern matching start position is determined based on distance information between the reference line position and the character pattern.
[0010]
According to the first aspect of the present invention, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. Since matching is performed only there, it is possible to reduce the number of times of matching to shorten the matching time, and to achieve a highly reliable matching without omission.
[0011]
A character recognition apparatus according to a second aspect of the present invention includes a dictionary unit for registering a plurality of character pattern groups, and pattern matching of the character patterns with image information in which the character patterns of the character pattern groups form a character string. And a matching unit that specifies the character pattern, wherein the dictionary unit includes, for each of the character pattern groups, a character string direction when one of the character pattern groups forms a character string. It has a reference line provided in a predetermined positional relationship, and distance information for each of the character patterns included in the reference line and the character pattern group, and the matching unit first performs pattern matching with the character string. The character pattern group is specified based on the information, and then the pattern match between the character string and the individual character patterns of the specified character pattern group is performed. Determining a reference line position corresponding to the specified character pattern group in a direction orthogonal to the character string, and determining a pattern matching start position based on distance information between the reference line position and the character pattern. It is characterized by.
[0012]
According to the second aspect of the present invention, the position of another character pattern on a character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. However, since matching is performed only there, it is possible to reduce the number of times of matching and shorten the matching time, and to achieve a highly reliable matching without omission.
[0013]
Further, the character recognition device according to the third aspect of the present invention further includes a character region recognition unit, wherein the character region recognition unit extracts a character string region where a character string exists from the image information. I do.
[0014]
According to the third aspect of the present invention, the character recognition device further includes a character region recognizing unit, and the character region recognizing unit extracts a character string region where a character string exists from the image information. In addition, the region where character pattern matching is performed can be limited to a character string region.
[0015]
The character recognition device according to the invention of claim 4 is characterized in that the matching unit performs matching only in the character string region.
[0016]
According to the fourth aspect of the present invention, since the matching unit performs matching only in the character string area, the number of times of matching can be reduced.
[0017]
The character recognition device according to the invention of claim 5 is characterized in that the matching unit performs the first vertical matching from the end of the character string area in the character string direction.
[0018]
According to the fifth aspect of the present invention, since the matching section performs the first vertical matching from the end in the character string direction of the character string area, it is possible to perform matching without omission.
[0019]
According to a sixth aspect of the present invention, there is provided a character recognition program for controlling a computer of a character recognition apparatus to include a plurality of character pattern groups, a character string direction when one of the character pattern groups forms a character string, and a predetermined position. A reference line provided in a relationship and distance information for each of the character patterns included in the reference line and the character pattern group are registered for each of the character pattern groups in association with the character pattern group, and the character string is registered. When extracting the character string from the image information including, first, based on the information matched with the character string, the character pattern group is specified, and then, the character string and the specified character pattern The pattern matching with the individual character patterns of the group determines a reference line position corresponding to the specified character pattern group in a direction orthogonal to the character string direction, Based on the distance information between the character pattern and the directrix position, characterized in that function as to define a pattern matching the start position.
[0020]
According to this invention, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. However, since matching is performed only there, it is possible to reduce the number of times of matching and shorten the matching time, and to achieve a highly reliable matching without omission.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Preferred embodiments of a character recognition method, a character recognition device, and a character recognition program according to the present invention will be described below with reference to the accompanying drawings. Note that the present invention is not limited by this.
[0022]
First, as an example including the character recognition device according to the present embodiment, a medical image gateway and an overall configuration of a system including the medical image gateway will be described. FIG. 2 is a diagram illustrating a system according to the present embodiment. The present system includes an X-ray CT apparatus 110, an angiography apparatus 140, an imager 130, a server 180, a terminal 170, medical image gateways (hereinafter, referred to as gateways) 100, 120, and 150, a LAN (Local Area Network) 160, and the like. . Here, the X-ray CT apparatus 110 and the angio apparatus 140 form a device on the side that outputs image information, the imager 130 and the terminal 170 form a device on the side that receives image information, and the server 180 stores the image information. It has a receiving and transmitting device.
[0023]
The X-ray CT apparatus 110 performs tomographic imaging of the subject, and outputs the acquired image information to the gateway 100. The gateway 100 converts the image information into, for example, DICOM (Digital Imaging and Communications in Medicine) standard specifications (hereinafter, referred to as DICOM specifications), and outputs the converted information to the LAN 160. The DICOM standard is a NEMA standard for medical images and communications developed by the American Society of Radiology (ACR) and the North American Electronics Industry (NEMA).
[0024]
The angio apparatus 140 performs angiography of the subject, and outputs the acquired image information to the gateway 150. The gateway 150 outputs image information to the LAN 160 after format conversion to the DICOM specification, similarly to the gateway 100. Although the X-ray CT apparatus 110 and the angio apparatus 140 are illustrated in FIG. 2, other image capturing apparatuses, such as a magnetic resonance imaging apparatus or a gamma camera, can be connected to the LAN 160 via a gateway.
[0025]
The imager 130 forms an image of the image information obtained via the LAN 160 on a print sheet using a laser, and creates a hard copy of the image information. When the imager 130 does not include the input unit of the DICOM specification, the image information of the DICOM specification is input via the gateway 120 as shown in FIG. Further, when the imager 130 includes the input unit of the DICOM specification, the gateway 120 can be omitted.
[0026]
The server 180 has a large-capacity image memory, and accumulates and stores image information acquired via the LAN 160. The terminal 170 has an image display device such as an LCD, and has a role of a viewer for displaying image information acquired via the LAN 160 on a screen.
[0027]
The LAN 160 is a network performed in a medical facility using a communication cable, and transmits and receives image information between image input / output devices using a CSMA / CD method or the like.
[0028]
Next, FIG. 1 shows a functional block diagram of the gateway 100. The gateway 100 includes an image information input unit 220, a character recognition device 230, an attribute information input unit 210, a setting unit 240, and a format conversion unit 280. The gateway 100 acquires image information from, for example, the X-ray CT apparatus 110. This image information is acquired by, for example, a parallel interface such as Centronics and stored in the image information input unit 220.
[0029]
Here, in the gateway 100, character information recorded as image information in a designated area of the image information, such as a patient identification number (hereinafter, referred to as a patient ID), a patient name, and a photographing date and time, is input by the character recognition device 230 in the gateway 100. It reads from the image information thus obtained and converts it into a character code.
[0030]
The character code read by the character recognition device 230 is input to the attribute information input unit 210 as attribute information. After that, the attribute information of the attribute information input unit 210 and the image information that has been read are sent to the format conversion unit 280. Therefore, after the image information of the DICOM specification and the conversion of the image information into the header information are performed, the image information is output onto the LAN 160.
[0031]
The image information stored in the image information input unit 220 differs depending on the image photographing apparatus and photographing conditions, but is gray-scale gradation information of about 8 to 12 bits and has about 320 × 320 pixels.
[0032]
The character recognition device 230 that reads character information included in image information includes a character area recognition unit 231, a matching unit 232, and a dictionary unit 223. Here, the character area recognizing unit 231 determines the approximate position of the character string included in the specified area of the image information.
[0033]
The matching unit 232 and the dictionary unit 223 read a character pattern from the dictionary unit 223 for the character string whose approximate position is determined by the character region recognizing unit 231, and perform matching with the character string region in the target region of the character pattern. Do. Thus, the character pattern and the character pattern position are detected and transferred to the attribute information input unit 210.
[0034]
In the dictionary unit 223, a correspondence table between the character pattern information and the character code information is stored in the registered character dictionary 224, and distance information (described later) linked to the character pattern information is stored in the distance information unit 225. . The matching unit 232 performs character pattern matching while referring to the registered character dictionary 224 and the distance information unit 225 of the dictionary unit 223, and converts read information into a character code. In the registered character dictionary 224, for example, alphanumeric characters or katakana character codes are registered by forming a character pattern group for each character type such as lowercase or uppercase.
[0035]
The setting unit 240 includes an interface of a display and input device such as an LCD and a keyboard connected to the gateway 100, and is connected to a display and input device such as an LCD and a keyboard. Further, from the LCD or the keyboard, the setting of the registered character dictionary 224 of the dictionary unit 223 and the setting of the distance from a later-described reference line for each character pattern of the registered characters in the distance information unit 225 are performed.
[0036]
Next, the operation of the character recognition device 230 will be described with reference to the flowchart of FIG. FIG. 3 is a flowchart showing the operation of the character recognition device 230. First, the character recognition device 230 sets the registered character dictionary 224 and the distance information unit 225 of the dictionary unit 223 using the setting unit 240 (step S301). In the registered character dictionary 224 and the distance information section 225, a correspondence table between a character pattern and a character code, and a distance between the character pattern and a reference line of the character pattern linked to the character pattern are set for each character pattern group.
[0037]
The distance between the character pattern and the reference line determines the vertical position of the character pattern when matching a horizontally written character string described later. FIG. 4A shows the relationship between a lowercase character string and a reference line. In the character string written horizontally in FIG. 4A, the mutual position in the vertical direction conforms to the standard character string in the horizontal direction described in the image information. Here, a reference line parallel to the horizontal direction in which the character string is formed is set. The distance between the character string and the reference line is not particularly limited, but is fixed throughout the present embodiment.
[0038]
FIG. 4B shows the character pattern set in the registered character dictionary 224 and the distance between the character pattern and the reference line set in the distance information section 225. The case is illustrated. As illustrated in FIG. 4B, the vertical length and the horizontal length of the character pattern differ depending on the character pattern. Therefore, when the characters described in the character pattern are arranged in the horizontal direction like the character string shown in FIG. 4 (A), the vertical distance from the reference line is specified for each character pattern. There is a need to. It is the position of this character pattern that is determined by matching described later.
[0039]
FIG. 4B illustrates a case where the distance from the reference line starting from the upper end of the character pattern is a, b, and g. The character patterns a, b and g have different distances of l 1 , l 2 and l 3 , respectively, and a, b and g described as horizontally aligned character strings are l 1 , l It is located at a distance of 2 , 13 in the vertical direction. The distance from the reference line differs for each character pattern, and is linked from the setting unit 240 to the character pattern and stored in the distance information unit 225. In FIG. 4B, the distance between the upper end portion of the character pattern and the reference line is obtained, but the distance between the lower end portion of the character pattern and the reference line may be used.
[0040]
FIG. 4C illustrates a horizontal writing character string and a reference line in the case of English capital letters. In the case of uppercase letters, the character patterns all have the same length in the vertical direction, and all have the same distance from the reference line. In addition, katakana and numerical distance information are determined in the same manner.
[0041]
Referring back to FIG. 3, thereafter, the gateway 100 reads the image information from the X-ray CT apparatus 110 (Step S302). FIG. 5 illustrates an example of image information read from the X-ray CT apparatus 110. FIG. 5A is an example of image information input to the image information input unit 220. A tomographic image of a patient is located at the center of the image, and patient information or attribute information such as imaging conditions is input as character pattern information in a designated area around the patient. Here, the designated area is generally set at each of the four corners of the acquired image in which the probability that the tomographic image is present is low, and overlapping with the tomographic image is suppressed.
[0042]
FIG. 5B shows an example of the character image information described in the designated areas located at the four corners of the acquired image. In this designated area, the shooting date and time, patient name, gender, age, patient ID and the like are described. Although FIG. 5B shows a character string in the horizontal direction, a character string in the vertical direction may be used.
[0043]
After that, the character recognition device 230 extracts a character string region from the designated region of the image information by using the character region recognition means 231 (step S303). In this extraction, for example, in a character string region, the amount of change in pixel value between pixels is large, and thus extraction is performed using this property. Thus, the character string area described in the specified area is detected. Then, the matching unit 232 performs a matching process on the character string area (Step S304). The matching unit 232 detects a character string from the character string region by this matching process, and outputs the character code information of the character string to the attribute information input unit 210 (Step S304).
[0044]
Next, before describing the matching process in step S304 in detail, the matching between the character pattern, the target area, and the image information registered in the registered character dictionary 224 will be described. The registered character dictionary 224 stores a character pattern for each registered character. These character patterns are formed by designating pixel values of a region surrounding the character image as shown in FIG.
[0045]
Further, as the character information included in the image information, different character types such as a shadow character, a surrounding character, and a reverse character are appropriately used according to the image information constituting the background. This is because, especially in the case of a medical image, the character pattern included in the designated area of the image information is likely to be confused with the medical image serving as the background, and the above-described character pattern is used according to the background to prevent this. This is because For these different character types, the matching unit 232 generates a shadow character pattern in which a shadow portion is formed in a registered character pattern, a surrounding character pattern having a pattern surrounding a character pattern, and the like, and is used for matching. FIG. 6B shows an example of a shadow character pattern and an enclosing pattern when uppercase letters A and H are used.
[0046]
In matching character patterns, a character pattern as illustrated in FIG. 6 is matched with image information, and a hit ratio is calculated for each matching position. When the hit ratio exceeds the threshold, it is assumed that a character pattern exists at the matching position. Here, a different calculation formula is used for the hit ratio for each character pattern such as a shadow character pattern, a surrounding character pattern, or a reversed character pattern. As an example, when matching using a shadow character pattern,
Figure 2004310251
Is defined by
[0047]
Next, the matching processing in step S304 will be described with reference to the flowchart in FIG. 7 and FIGS. FIG. 7 is a flowchart showing the operation of the matching process. First, the matching unit 232 reads a character pattern to be matched from the registered character dictionary 224 (Step S601). Then, a character pattern such as a shadow character pattern or an enclosing character pattern is derived from the character pattern to determine the target area. From the end of the character string area extracted in step S303, the target area is vertically shifted one pixel at a time. Matching is performed while moving (step S602).
[0048]
FIG. 8A shows the state of this matching. FIG. 8A shows a character string area extracted from image information. In this character string area, a lowercase English character string consisting of abbhipqy is written horizontally. Here, a state in which lowercase a is extracted from this character string by matching is shown. Matching of the character pattern a is started from the upper left end of the character string area, and the hit rate is calculated for each matching while moving one pixel in the vertical direction.
[0049]
Thereafter, the matching unit 232 determines whether or not the character pattern is matched, that is, whether or not there is a vertical position where the hit ratio exceeds the threshold (step S603). If there is no vertical position where the character pattern matches (No at Step S603), the vertical matching line is shifted by one pixel in the horizontal direction (Step S604), and the vertical matching at Step S602 is performed again. Steps S602 to S604 are repeated until there is a vertical position where the character pattern matches. These steps are illustrated by arrows illustrated in the character string area of FIG.
[0050]
After that, when there is a vertical position where the character pattern matches (Yes at Step S603), the matching unit 232 specifies a character pattern group to which the character pattern belongs from the character pattern (Step S610). Then, based on the vertical position information of the character pattern and the distance information linked to the character pattern belonging to the specified character pattern group existing in the distance information section 225, a reference line is set in the character string area (step). S605). FIG. 8B illustrates a case where there is a vertical position where the character pattern a matches. Here, a lower-case character pattern group to which the character pattern a belongs is specified, and the distance information of the character pattern a linked to this character pattern group is defined as the distance from the upper end of the character pattern in FIG. because they are, when lower case letters a of FIG. 8 (B), the reference line downward from the upper end of the character pattern a distance l 1 is set. The reference line is set in the character string area, and serves as a reference for determining a matching position when matching other character patterns.
[0051]
After that, the matching unit 232 performs matching from the matched vertical position to a nearby area centered on the horizontal direction parallel to the reference line (step S606). FIG. 8C shows an example in which matching is performed in the horizontal direction from the vertical position where the character pattern a matches. The direction of the arrow shown in the figure indicates the matching direction. Thus, when the character string further includes the character pattern a, detection can be performed.
[0052]
After that, the matching unit 232 determines whether or not matching has been performed for all the target character patterns (step S607). If matching of all target character patterns has not been completed (No at Step S607), a new character pattern that has not been matched is read from the registered character dictionary 224 (Step S608). Then, the matching unit calculates a vertical position when performing horizontal matching from the reference line and the distance information linked to the new character pattern (step S609).
[0053]
FIG. 9A illustrates a vertical position when a new character pattern b is matched in the horizontal direction. Distance is registered in the information section 225, based on the distance information of the character pattern b shown in FIG. 4 (B), the upper end portion of the character pattern b from the reference line above the distance l 2 is set. When the character pattern b exists on this character string, it exists at any position in the horizontal direction from this vertical position along the reference line.
[0054]
Thereafter, the matching unit 232 proceeds to step S606, performs matching while moving one pixel at a time in the horizontal direction from the left end of the character string area, and calculates a hit ratio. Here, a new character pattern exists at a pixel position where the hit ratio exceeds the threshold.
[0055]
Then, steps S606 to S609 are performed for all target character patterns. Here, FIG. 9B shows a case where a character pattern g is used as an example of a more characteristic character pattern. Character pattern g is from the reference line, to match in the transverse direction by a distance l 3, the vertical position of which is shown in FIG. 4 (B). In this horizontal matching, matching is performed while moving the character pattern one pixel at a time, and the hit rate is calculated. Note that this character string is arranged at the same vertical position as the character string shown in FIG. 4A with respect to the reference line, so that the character pattern g in the character string is the character string in FIG. As indicated by the arrows shown in the area, detection is performed by matching in the horizontal direction.
[0056]
After that, when the matching of all the target character patterns is completed (Yes at Step S607), the matching unit 232 ends this processing, proceeds to Step S305 in FIG. 3, and outputs character code information.
[0057]
As described above, in the present embodiment, in a horizontally written character string area extracted from image information, character pattern matching is performed in the vertical direction perpendicular to the character string to detect the vertical position of the character string, The position of the reference line is determined using the distance information linked to the character pattern from this vertical position, and matching is performed in the horizontal direction forming a character string from this vertical position, and a new character pattern other than this character pattern is added. When performing the matching, the vertical position of the character pattern is calculated from the distance information linked to the new character pattern and the reference line, and the matching is performed in the horizontal direction from this vertical position. The characters in the character string area are detected without omission only from the horizontal matching at the vertical position obtained from the reference line, and matching can be performed without impairing the reliability of character detection. It is possible to reduce the.
[0058]
Also, in the present embodiment, the case of lowercase letters has been exemplified, but in the case of uppercase letters, all distance information linked to the character pattern is the same. A character pattern in a character string is detected by matching horizontally from a vertical position detected by direction matching.
[0059]
In this embodiment, the case where the character string is written horizontally is illustrated. However, even when the character string is written vertically, the exact same matching can be performed with a small number of matching times and without any omission. .
[0060]
Further, in the present embodiment, all the matching processes are provided in the main routine, but each process may be formed as a subroutine to have a simple configuration.
[0061]
【The invention's effect】
As described above, according to the first aspect of the present invention, one character pattern detected on a character string is replaced with another character on the character string without performing matching in all regions of the image information. Since the position of the pattern is estimated and the matching is performed only at that position, the number of times of matching can be reduced to shorten the matching time, and the matching can be performed without omission and with high reliability.
[0062]
According to the second aspect of the present invention, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all regions of the image information. Since matching is performed only there, it is possible to reduce the number of times of matching to shorten the matching time, and to achieve a highly reliable matching without omission.
[0063]
According to the third aspect of the present invention, the character recognition device further includes a character region recognizing unit. Since the character region recognizing unit extracts a character string region in which a character string exists from image information, The region where the character pattern is matched can be limited to the character string region.
[0064]
According to the fourth aspect of the present invention, since the matching unit performs matching only in the character string region, the number of times of matching can be reduced.
[0065]
According to the fifth aspect of the present invention, since the matching section performs the first vertical matching from the end of the character string area in the character string direction, it is possible to perform matching without omission.
[0066]
According to the invention described in claim 6, the position of another character pattern on the character string is estimated from one character pattern detected on the character string without performing matching in all areas of the image information. Since matching is performed only there, the number of times of matching can be reduced to shorten the matching time, and furthermore, matching can be performed without omission and with high reliability.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a gateway including a character recognition device.
FIG. 2 is a block diagram showing a system configuration in which a gateway is arranged.
FIG. 3 is a flowchart illustrating an operation of the gateway according to the embodiment.
FIG. 4 is a diagram exemplifying a positional relationship between a character string and a reference line, and a character pattern and distance information.
FIG. 5 is a diagram illustrating image information and a designated area of the image information.
FIG. 6 is a diagram showing an example of a character pattern, a shadow character pattern, and a surrounding character pattern.
FIG. 7 is a flowchart illustrating an operation of a matching unit.
FIG. 8 is a diagram showing how character patterns are matched (part 1).
FIG. 9 is a diagram showing a state of character pattern matching (part 2).
[Explanation of symbols]
100, 120, 150 Gateway 110 X-ray CT apparatus 130 Imager 140 Angio apparatus 170 Terminal 180 Server 210 Attribute information input section 220 Image information input section 223 Dictionary section 224 Registered character dictionary 225 Distance information section 230 Character recognition apparatus 231 Character area recognition means 232 matching unit 240 setting unit 280 format conversion unit

Claims (6)

複数の文字パターン群と、
前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、
前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを、
前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、
前記文字列を含む画像情報から前記文字列を抽出する際に、
最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、
つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、
前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定める文字認識方法。
A plurality of character pattern groups,
A reference line provided in a predetermined positional relationship with a character string direction when one of the character pattern groups forms a character string;
The reference line and the distance information of the character pattern included in the character pattern group,
Registered for each character pattern group in association with the character pattern group,
When extracting the character string from the image information including the character string,
First, the character pattern group is specified based on the information obtained by pattern matching with the character string,
Subsequently, in the pattern matching between the character string and the individual character patterns of the specified character pattern group, a reference line position corresponding to the specified character pattern group is determined in a direction orthogonal to the character string direction. ,
A character recognition method for determining a pattern matching start position based on distance information between the reference line position and the character pattern.
複数の文字パターン群を登録する辞書部と、
前記文字パターン群の文字パターンが文字列をなす画像情報に、前記文字パターンをパターンマッチングし、前記文字パターンを特定するマッチング部と、
を備える文字認識装置であって、
前記辞書部は、前記文字パターン群ごとに、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを有し、
前記マッチング部は、最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングを、前記文字列と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めることを特徴とする文字認識装置。
A dictionary unit for registering a plurality of character pattern groups,
A matching unit that performs pattern matching of the character pattern on image information in which the character pattern of the character pattern group forms a character string, and specifies the character pattern,
A character recognition device comprising:
The dictionary unit includes, for each of the character pattern groups, a reference line provided in a predetermined positional relationship with a character string direction when one of the character pattern groups forms a character string; and a reference line and the character pattern group. And distance information of the included character pattern,
The matching unit first specifies the character pattern group based on the information obtained by pattern matching with the character string, and then sets a pattern between the character string and the individual character pattern of the specified character pattern group. For matching, a reference line position corresponding to the specified character pattern group is determined in a direction orthogonal to the character string, and a pattern matching start position is determined based on distance information between the reference line position and the character pattern. A character recognition device characterized in that:
前記文字認識装置は、さらに文字領域認識部を備え、前記文字領域認識部は、前記画像情報から文字列が存在する文字列領域を抽出することを特徴とする請求項2に記載の文字認識装置。The character recognition device according to claim 2, wherein the character recognition device further includes a character region recognition unit, and the character region recognition unit extracts a character string region in which a character string exists from the image information. . 前記マッチング部は、前記文字列領域でのみパターンマッチングを行うことを特徴とする請求項3に記載の文字認識装置。The character recognition device according to claim 3, wherein the matching unit performs pattern matching only in the character string region. 前記マッチング部は、前記文字列領域の文字列方向の端部から前記直交方向のマッチングを行うことを特徴とする請求項4に記載の文字認識装置。The character recognition device according to claim 4, wherein the matching unit performs the matching in the orthogonal direction from an end of the character string area in the character string direction. 文字認識装置のコンピュータを、
複数の文字パターン群と、前記文字パターン群の1つが文字列をなす際の文字列方向と既定の位置関係に設けられた基準線と、前記基準線と前記文字パターン群に含まれる文字パターンの距離情報とを、前記文字パターン群と対応付けて前記文字パターン群ごとに登録し、
前記文字列を含む画像情報から前記文字列を抽出する際に、
最初に、前記文字列とパターンマッチングした情報に基づいて、前記文字パターン群を特定し、
つづいて、前記文字列と前記特定された文字パターン群の個々の文字パターンとのパターンマッチングは、前記文字列方向と直交する方向に、前記特定された文字パターン群に対応する基準線位置を定め、
前記基準線位置と前記文字パターンとの距離情報に基づいて、パターンマッチング開始位置を定めること、
として機能させるための文字認識プログラム。
Computer of character recognition device,
A plurality of character pattern groups, a reference line provided in a predetermined positional relationship with a character string direction when one of the character pattern groups forms a character string, and a character pattern included in the reference line and the character pattern group. The distance information is registered for each of the character pattern groups in association with the character pattern group,
When extracting the character string from the image information including the character string,
First, the character pattern group is specified based on the information obtained by pattern matching with the character string,
Subsequently, in the pattern matching between the character string and the individual character patterns of the specified character pattern group, a reference line position corresponding to the specified character pattern group is determined in a direction orthogonal to the character string direction. ,
Determining a pattern matching start position based on distance information between the reference line position and the character pattern;
Character recognition program to function as.
JP2003099966A 2003-04-03 2003-04-03 Character recognition method and device, and its program Pending JP2004310251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003099966A JP2004310251A (en) 2003-04-03 2003-04-03 Character recognition method and device, and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003099966A JP2004310251A (en) 2003-04-03 2003-04-03 Character recognition method and device, and its program

Publications (1)

Publication Number Publication Date
JP2004310251A true JP2004310251A (en) 2004-11-04

Family

ID=33464230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003099966A Pending JP2004310251A (en) 2003-04-03 2003-04-03 Character recognition method and device, and its program

Country Status (1)

Country Link
JP (1) JP2004310251A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355177A (en) * 2016-08-17 2017-01-25 天津德闻数据科技有限公司 Method for automatically extracting item information from medical examination reports
WO2017013719A1 (en) * 2015-07-17 2017-01-26 楽天株式会社 Character recognition device, character recognition method, and character recognition program
KR101917525B1 (en) 2017-07-04 2018-11-09 포항공과대학교 산학협력단 Method and apparatus for identifying string

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017013719A1 (en) * 2015-07-17 2017-01-26 楽天株式会社 Character recognition device, character recognition method, and character recognition program
JPWO2017013719A1 (en) * 2015-07-17 2018-03-08 楽天株式会社 Character recognition device, character recognition method, and character recognition program
US20180211127A1 (en) * 2015-07-17 2018-07-26 Rakuten, Inc. Character recognition device, character recognition method, and character recognition program
US10657404B2 (en) * 2015-07-17 2020-05-19 Rakuten, Inc. Character recognition device, character recognition method, and character recognition program
CN106355177A (en) * 2016-08-17 2017-01-25 天津德闻数据科技有限公司 Method for automatically extracting item information from medical examination reports
CN106355177B (en) * 2016-08-17 2019-05-10 天津德闻数据科技有限公司 A kind of inspection item information automation extraction method of medical inspection list
KR101917525B1 (en) 2017-07-04 2018-11-09 포항공과대학교 산학협력단 Method and apparatus for identifying string

Similar Documents

Publication Publication Date Title
RU2651144C2 (en) Data input from images of the documents with fixed structure
US6470336B1 (en) Document image search device and recording medium having document search program stored thereon
CN103177249B (en) Image processing apparatus and image processing method
CN106170799B (en) Extracting information from images and including information in clinical reports
US20090297038A1 (en) Image Direction Judging Device, Image Direction Judging Method and Image Direction Judging Program
US9159143B2 (en) Apparatus and method for generating character collage message
US20160255235A1 (en) Global registration of filled-out content in an application form
JPWO2004055713A1 (en) Bar code recognition device
JP2009282985A (en) Method of identifying orientation of digital image
CN106056028A (en) Rapid scanning and waybill recording method and device thereof
JP5962449B2 (en) Determination program, determination method, and determination apparatus
JP4419426B2 (en) Medical imaging system
JP2004310251A (en) Character recognition method and device, and its program
JP4163406B2 (en) Bar code recognition device
CN107092907B (en) Growth curve processing method, device and system for blood bacteria culture
US20050094861A1 (en) Positional synchronization in a multivoting character recognition environment
JP2016200899A (en) Information processing apparatus, information processing method, and program
JP2004310250A (en) Character recognition method and device
CN108734167B (en) Method for recognizing characters on contaminated film
JP5223739B2 (en) Portable character recognition device, character recognition program, and character recognition method
US10726317B2 (en) Methods and systems for adding new content in an electronic document generated by scanning
JP2003058822A (en) Character information extraction device and its method, program and storage medium
CN112019847A (en) Decoding method and electronic equipment
JP2003058827A (en) Character information extraction device and its method, program and storage medium
JPH10171917A (en) Device and method for character recognition and its recording medium