JP3786221B2 - Image data management device - Google Patents

Image data management device Download PDF

Info

Publication number
JP3786221B2
JP3786221B2 JP17261496A JP17261496A JP3786221B2 JP 3786221 B2 JP3786221 B2 JP 3786221B2 JP 17261496 A JP17261496 A JP 17261496A JP 17261496 A JP17261496 A JP 17261496A JP 3786221 B2 JP3786221 B2 JP 3786221B2
Authority
JP
Japan
Prior art keywords
character
image
image data
information
data management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17261496A
Other languages
Japanese (ja)
Other versions
JPH1021365A (en
Inventor
達也 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP17261496A priority Critical patent/JP3786221B2/en
Publication of JPH1021365A publication Critical patent/JPH1021365A/en
Application granted granted Critical
Publication of JP3786221B2 publication Critical patent/JP3786221B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データ管理装置に関するものであり、詳細には診断用の画像の外に撮影用や患者に関するデータ等の文字を含む医用画像等のように、被写体画像の外に文字情報を含む画像を担持する画像データをファイリングする画像データ管理装置に関するものである。
【0002】
【従来の技術】
従来より、人体等の被写体をCT、MRI等によって撮影して得られた医用画像の画像データを、各画像データに適切な画像処理を施した後、画像を再生記録することが行われており、これらの画像データに基づき被写体の画像を写真感光材料等の記録材料、CRT等に可視像として出力させる画像記録再生システムがすでに実用化されている。
【0003】
これらの画像記録再生システムにおいては、各種モダリティ(CT、MRI等の撮影方法や装置)によって撮影された画像等が記憶されており、記憶されている画像データの中から常時、必要な画像データを検索して再生することが行われている。
【0004】
画像データを検索可能に蓄積する装置は、一般にファイリング装置と呼ばれるものであり、上記画像記録再生システムもファイリング装置を備えてなるものである。医用画像の画像データ検索に用いられる検索情報は、一般に患者名、ID番号、撮影日、生年月日等のID情報であり、画像データはこれらのID情報と対応付けて記憶されている。なお、これらのID情報は、通常医用画像撮影時に付されるものであり、漢字、かな、英文字、数字、記号等(以下「文字」と総称する)から構成される。
【0005】
【発明が解決しようとする課題】
しかしながら、従来このファイリング装置によるファイリング時における画像データとID情報との対応付けは、外部入力装置から人手によりID情報を入力することによって行われており操作者側の負担となっていた。そのため、通常撮影時に画像中に付されるID情報を画像から認識して自動的にID情報と画像データを対応付けてファイリングすることができるファイリング装置すなわち画像データ管理装置が望まれている。
【0006】
本発明は、上記事情に鑑みてなされたものであって、画像と該画像中に付されている文字を対応付けて自動的にファイリングすることのできる画像データ管理装置を提供することを目的とするものである。
【0007】
【課題を解決するための手段】
本発明の画像データ管理装置は、各種装置で撮影された文字情報を含む画像を担持する画像データを前記文字情報と対応付けて記憶する画像データ管理装置において、
前記画像から前記文字情報を認識する文字認識手段と、
前記認識された文字情報と前記画像データとを自動的に対応付けるファイリング手段とを備えることを特徴とするものである。
【0008】
ここで、画像データとは、各種装置で撮影された原画像を担持する画像データであってもよいし、原画像データに対して所定の処理が施された処理済画像データであってもよい。
【0009】
本発明の画像データ管理装置が内包する文字認識手段は、各種装置によって生成された文字を含む画像中から該文字を認識する文字認識手段であって、前記各種装置毎に定められている前記画像中の文字領域および文字間隔を含む文字位置情報と前記各種装置とを対応させて記憶している文字位置情報記憶手段と、前記画像を生成した装置の情報が入力され、該入力された情報に応じて前記文字位置情報を前記文字位置情報記憶手段から選択する文字位置情報選択手段と、前記文字位置情報に基づいて、前記画像中の文字領域に対して、各種、各サイズの文字のテンプレートを用いて文字パターンマッチングさせることにより文字を認識するマッチング手段とを備えてなるものとすることができる。
【0010】
またこのとき、前記テンプレートを前記文字間隔分ずつ移動させて文字パターンマッチングさせてもよい。
【0011】
なお、ここで文字領域とは文字が付されうる領域のことをいい、実際の文字が付されているかどうかを問わない。また、文字間隔とは一文字の中心と次の文字の中心との間隔のことをいう。
【0012】
さらに、前記各種装置毎の固有の文字のテンプレートを備えた辞書と、前記画像を生成した装置の情報が入力され、該入力された情報に応じて該装置に固有の文字のテンプレートを前記辞書から選択するテンプレート選択手段とを備え、前記画像中の文字に対して前記テンプレートを用いて文字パターンマッチングさせるようにしてもよい。
【0013】
ここで、各種装置毎の固有の文字のテンプレートとは、各種装置が画像撮影時に該画像にID情報等の文字情報を付するのに用いている文字の種類、大きさ等を含む文字フォントについてのテンプレートのことをいう。
【0014】
なお、上述の文字位置情報選択手段とテンプレート選択手段は別個に設けてもよいし、一つの選択手段が両者を兼ねるものであってもよい。
【0015】
また、前記画像を2値化して、2値化画像を生成する2値化画像生成手段を備え、前記マッチングを前記2値化画像に対してマッチングさせる形態であってもよい。
【0016】
なお、前記2値化画像生成手段は、画像の輪郭を抽出する手段を含むものであることが望ましい。特に、前記2値化画像生成手段が、前記画像の各画素毎に該画素の所定近傍範囲中の画素濃度の最大値と最小値との差を求める演算手段と、前記濃度差と所定の閾値との比較により前記各画素を2値化して画像の輪郭を抽出する2値化手段とから成るものとするのが望ましい。この場合、各画素毎に該画素の所定近傍範囲中の画素濃度の最大値と最小値との差を所定の閾値と比較して2値化することにより画像中の文字の輪郭を抽出し、その輪郭に対してパターンマッチングさせて文字認識を行うことを特徴とするものである。
【0017】
そのほか、輪郭の抽出方法としては、例えば一次微分フィルタ(ロバーツのフィルタ、ブレヴィットのフィルタ、ソーベルのフィルタ等)あるいはラプラシアンフィルタ等を用いる方法が挙げられる。
【0018】
なお、ここで画像とは文字および絵柄が混在したものをいう。
【0019】
【発明の効果】
本発明の画像データ管理装置は、画像上の文字情報を認識する文字認識装置を備えており、自動的に画像上の文字情報を認識して、画像データをその文字情報と対応付けてファイリングするので、ファイリング時に外部入力手段によって人手により検索情報を入力する必要がないため、作業効率を向上させることができる。
【0020】
【発明の実施の形態】
以下、本発明の画像データ管理装置の具体的な実施の形態を図面を参照して説明する。
【0021】
図1に示すように、本発明の画像データ管理装置70は、CT、MRI等の各種モダリティ9(以下、撮像装置という)で撮像された原画像を担持する原画像データSが入力され、原画像に付されている文字情報、すなわちID情報を認識するID認識手段(文字認識手段)10と、原画像データSとその原画像に付されID認識手段10によって認識されたID情報Iとの対応付けをして後述の記憶手段65に記憶させるファイリング手段60と、ファイリング手段60によって対応付けされた原画像データSとそのID情報Iとを記憶するハードディスク等の記憶手段65とからなるものである。
【0022】
撮像装置9で撮像された画像は、デジタル化されて原画像データSとして画像データ管理装置70に入力される。この際、その画像を生成した装置情報も同時に入力手段50より入力される。画像データ管理装置70においては、まず、ID認識装置10において、入力手段50から入力された装置情報を基に、画像に付されているID情報Iが認識される(文字認識についての詳細は後述する)。ID認識装置10において認識されたID情報Iは原画像データSと共にファイリング手段60に送られる。ファイリング手段60においては、ID認識装置10において認識されたID情報Iと原画像データSとを対応付けてハードディスク等の記憶手段65にファイリングする。ファイリングされた原画像データSは、常時検索可能であり、検索には検索情報として原画像データSと対応付けられて記憶されているID情報Iを用いる。
【0023】
このように、本発明の画像データ管理装置においては、画像中のID情報を認識して、そのID情報と画像データを対応付けて自動的にファイリングするので、画像データを生成した撮像装置の情報さえ入力しておけば、外部からID情報を入力する必要がなく、作業効率を上げることができる。
【0024】
なお、検索情報として画像データと対応付けられるのは認識されたID情報の全てであってもよいし、またその一部であってもよい。例えば、ID情報として画像に付されている情報が、患者名、ID番号、撮影日等、複数であった場合、それぞれの情報を検索情報とすることができるように対応付けしてもよいし、これらのうちの一つを選んで、例えばID番号のみを検索情報として対応付けをしてファイリングしてもよい。さらに、複数の文字からなる各ID情報の最初の数文字のみを用いて検索情報として対応付けすることも可能である。
【0025】
次に、本発明の画像データ管理装置が内包するID認識手段(文字認識手段)の詳細を説明する。
【0026】
文字認識手段の第一の形態を図2に示す。本文字認識手段10は、原画像データSが入力され、該原画像データSに基づく原画像を2値化して2値化画像を生成する2値化画像生成手段20と、原画像を生成する各種装置の固有の文字フォントのテンプレート5を備えた辞書35と、原画像を生成する各種装置毎に定められている画像中の文字領域および文字間隔等の文字位置情報を有する文字位置情報記憶手段38と、外部入力手段50から入力された装置情報に応じた文字フォントのテンプレート5を辞書35から選択し、装置情報に応じた文字位置情報を文字位置情報記憶手段38から選択する選択手段40と、2値化画像生成手段20によって生成された2値化画像に対して、選択手段40によって選択されたテンプレート5を用いて、同様に選択された文字位置情報に基づいて文字パターンマッチングさせることにより文字を認識するマッチング手段30とから成る。
【0027】
2値化画像生成手段20は、詳しくは原画像の各画素毎の濃度を検出する濃度検出手段22と、該濃度検出手段22により検出された濃度と所定の閾値との比較により前記各画素を2値化する2値化手段24とからなる。
【0028】
本文字認識手段の第一の形態による文字認識手段10は、原画像データSが入力され、同時に外部入力手段50により認識すべき文字を含む原画像A(原画像データSに対応する画像)を生成した装置の情報が入力される。まず、2値化画像生成手段20において、原画像Aから2値化画像Bが生成される(図3(i) )。画像の2値化は、まず、濃度検出手段22により原画像Aの各画素の濃度を検出し、その後、2値化手段24において、検出された濃度と所定の閾値との比較により各画素を2値化することによって行われる。例えば、濃度を表す帯グラフ8に示すbの濃度に閾値を設け、bより濃い部分を「1」薄い部分を「0」として2値化する。その結果2値化画像Bが得られる。
【0029】
次に、選択手段40によって、外部入力手段50により入力された装置情報に応じたテンプレート、すなわち原画像Aを生成した装置が用いている文字フォントのテンプレート5が辞書35から選択され、同時にその装置情報に応じた文字位置情報が文字位置情報記憶手段38から選択されて、マッチング手段30において、選択されたテンプレート5を用いて、2値化画像Bの文字領域6に対してマッチングが行われる(図4)。
【0030】
各種装置固有の文字位置情報には、文字領域6のほか文字間隔に関する情報も含むため、文字領域に付されうる文字同志の間隔すなわちそれぞれマッチングすべき文字の中心位置が明らかである。マッチングは、文字の中心位置とテンプレートの中心位置を一致させて行えば十分であり、そのため、図4に示すように文字領域のマッチング開始位置から文字間隔分ずつテンプレート5を移動させてマッチングさせればよい。これによって、一画素毎にずらせてマッチングさせる場合と比較して、高速に処理することができる。
【0031】
また、選択された、すなわち非常に限られた数のテンプレートについてのみマッチングすればよいため、高速な識別が可能となる。
【0032】
ここで、従来の一般的なテンプレートマッチングによる認識方法を説明する。画像パターンfとテンプレートパターンgが、それぞれ図5に示すような大きさと位置関係にあるとき、画像の点(m,n)における画像パターンfと、テンプレートパターンgの類似度は、以下に示す評価関数で表される。
【0033】
【数1】

Figure 0003786221
【0034】
ここで通常、R(m,n)は相互相関係数と呼ばれ、領域Dは、|i-m|<M/2,|j-n|<N/2を満たす(i,j) の範囲である。画像上でテンプレートを動かして順次、画像とテンプレートとの類似度を上記の相互相関係数Rにより判別する。相互相関係数Rの値は大きいほど画像の(m,n)を中心としてテンプレートに近い図形が存在すること、すなわち、画像とテンプレートとの相関が強いことを示し、画像とテンプレートとが完全一致で1の値、全くの不一致で0の値をとる。通常、最も相互相関係数Rの大きいものを認識結果とする。しかしながら、上記のテンプレートマッチング方法では、上記式に示されるように2乗や平方根の計算が必要であることから、計算量が多くなり認識に時間がかかるという欠点がある。
【0035】
しかし本ID認識手段においては、2値化された画像に対してマッチングを行うため、排他的積和(exclusive or)による類似度評価関数R’を用いることができ、計算時間をさらに短縮することができる。なおこの時、画像上の点(m,n)における画像パターンfとテンプレートgの類似度評価関数R'(m,n)は、
【0036】
【数2】
Figure 0003786221
【0037】
で表されるものである。ただし領域Dは、|i-m|<M/2,|j-n|<N/2を満たす(i,j )の範囲である。上述のRの場合とは逆にR’が最も小さいテンプレートが認識結果とされる。
【0038】
なお、上述の2値化の際に、「1」,「0」ではなく、「1」,「−1」に2値化して単純な積和値を評価関数に用いてもよい。その場合の評価関数R"(m,n)は、
【0039】
【数3】
Figure 0003786221
【0040】
で表され、R”が最も大きいテンプレートが認識結果とされる。
【0041】
また、患者名、ID番号、撮影日等のID情報が付さた画像において、特定のID情報のみ、例えばID番号のみを認識させたい場合には、ID番号に使用される文字のみをテンプレートとして有し、文字領域のうちID番号が付された領域のみに対してマッチングさせる形態をとることもできる(他のID情報についても同様である)。
【0042】
このようにして、文字の認識が行われ、認識されたID番号等のID情報Iが出力される。
【0043】
しかしながら、上記第一の形態のID認識手段10においてなされる単なる閾値による2値化方法では、文字と絵柄が重なった画像等において文字の抽出がうまくいかず正確な文字認識が困難な場合がある。その一例として図6に示す黒文字1および白文字2を含む原画像Dをある濃度閾値により2値化する場合について説明する。例えば、濃度を表す帯グラフ8に示すeの濃度に閾値を設け、eより濃い部分を「1」薄い部分を「0」として2値化する。その結果2値化画像Eが得られる。また、fに閾値を設けて同様の処理を行うと2値化画像Fが得られる。この時、2値化画像Eでは黒文字1は明確に抽出されるが、白文字2はその一部が絵柄の白い部分と重なり抽出不能になってしまう。一方、2値化画像Fでは白文字2は明確に抽出されるが黒文字1はその一部が絵柄と重なって抽出不能になってしまう。このように、単に画像データを所定の濃度閾値で2値化する従来の方法では黒文字1と白文字2を同時に明確に抽出することができない。当然ながら、2値化によって画像中の文字を明確に抽出できない場合にはテンプレートマッチングの精度があがらず文字認識に支障をきたすものとなる。
【0044】
そこで、文字と絵柄が重なった画像や黒、白文字を含む画像等においては、以下に説明する第二の形態に係る文字認識手段10’が適する。
【0045】
文字認識手段の第二の形態10’を図7に示す。以下、上記の第一の形態の文字認識手段10との相違点のみを説明する。
【0046】
本文字認識手段10' の2値化画像生成手段20' は、原画像の各画素毎に該画素の所定近傍範囲中の画素濃度の最大値と最小値との差を求める演算手段26と、該演算手段26によって求められた濃度差と所定の閾値との比較により各画素を2値化して画像の輪郭を抽出する2値化手段28とから成る。なお、辞書35’の有するテンプレートは各種装置に固有の文字のフォントに対応する2値化された中抜き文字のテンプレート5’である。
【0047】
2値化画像生成手段20' においては、入力された原画像データSについて、まず演算手段26において画像の各画素の所定の近傍範囲中における濃度の最大値と最小値との差が求められる。例えば注目画素を2×2画素マスク中の左下に位置させた場合、その2×2画素マスク(所定近傍範囲)中の計4画素における階調濃度(原画像データS)の最大値および最小値を求め、これを注目画素の濃度差とする。当然ながら、2×2という範囲は一例であり、これに限る必要はない。次に、2値化手段28において、前記演算手段26によって求められた前記濃度差を所定の閾値と比較して、例えば閾値より濃度差が大きい場合を「1」、小さい場合を「0」として注目画素を2値化する。この2値化を画像中の各画素について行うことにより、画像中の近傍画素同志の濃度差の大きい部分、すなわち画像の輪郭が抽出され、原画像Aから2値化画像Cが生成される(図3(ii))。通常、文字と周辺画像の濃度差は大きいため、文字の輪郭が抽出される。
【0048】
なお、一次微分フィルタ、ラプラシアンフィルタ等を用いて画像の輪郭を抽出し、抽出された輪郭部分の画素を「1」、輪郭部分以外の画素を「0」として各画素の2値化を行うことによっても、上記第二の実施の形態において生成される2値化画像Cと同様の、輪郭が抽出された2値化画像を生成することができる。
【0049】
その後、選択手段40によって、外部入力手段50により入力された装置の情報に応じたテンプレート、すなわち原画像Aを生成した装置が用いている文字フォントに対応するテンプレート5’が辞書35’から選択され、マッチング手段30’において、2値化画像Cの文字領域に対してテンプレート5’を用いてマッチングが行われる。このようにして認識されたID情報Iが出力される。
【0050】
なお、以下に本発明の画像データ管理装置70を内包した医用画像記録再生システムについて説明する。
【0051】
図8に示す医用画像記録再生システム100 は、CT、MRI等の各種撮像装置9で撮像された原画像を担持する原画像データSが入力され、該原画像に付されているID情報Iを認識するID認識手段(文字認識手段)10と、原画像データSに所定の信号処理を施すフォーマッタ80と、該フォーマッタ80で所定の信号処理が施された画像データ(以下、処理済画像データという)S’を再生するプリンタ、CRT等のイメージャー85と、原画像データSおよび処理済画像データS’をID認識手段10によって認識されたID情報と対応させて記憶手段にファイリングするファイリング手段60とからなる。なお、画像データ入力時には、その画像データを生成した装置に関する装置情報を入力手段50よって画像記録再生システム100 のID認識手段10に入力する必要がある。
【0052】
ここでフォーマッタ80とは、例えば、一枚のフイルムを互いに異なる4つの小さい領域に分けて、その各領域にそれぞれ異なる4つの画像を縮小してプリントするフォーマット、1枚のフイルム上に1つの大きな画像をそのままプリントするフォーマット等、画像を再生するにあたっての各種のフォーマットに適合するように原画像データを信号処理するものである。
【0053】
撮像装置9で撮像された画像は、デジタル化されて原画像データSとして画像記録再生システム100 に入力される。この際、その画像を生成した装置情報も同時に入力手段50より入力される。画像記録再生システム100 においては、まず、ID認識装置10において、入力手段50から入力された装置情報を基に、画像に付されているID情報が認識される(ID認識は上述の方法による)。認識されたID情報Iは原画像データSと共にファイリング手段60およびフォーマッタ80に送られる。フォーマッタ80では、原画像データSに対して所定の信号処理が施され、処理済画像データS’が生成され、処理済画像データS’を基にイメージャー85のおいて可視画像が再生される。ファイリング手段60によって、ID認識手段10において認識されたID情報Iと原画像データSおよび/またはフォーマッタで処理された処理済画像データS’との対応付けをして記憶手段65にファイリングする。ファイリングされた画像データS、S’は、常時検索可能であり、検索には検索情報として画像データと対応付けられて記憶されているID情報を用いる。
【図面の簡単な説明】
【図1】本発明の画像データ管理装置の構成概略図
【図2】本発明の画像データ管理装置に内包される文字認識手段の第一の形態を示すブロック図
【図3】第一および第二の形態の文字認識手段によって生成される2値化画像を説明する図
【図4】パターンマッチング時に文字間隔ずつテンプレートを移動させてマッチングさせる様子を説明する図
【図5】文字パターンマッチング方法を説明する図
【図6】第一の形態の文字認識手段によって画像の2値化を行った場合の問題点を説明する図
【図7】本発明の画像データ管理装置に内包される文字認識手段の第二の形態を示すブロック図
【図8】本発明の画像データ管理装置を内包する画像記録再生システムの構成概略図
【符号の説明】
5 テンプレート
9 医用画像撮像装置
10 ID認識手段(文字認識手段)
20 2値化画像生成手段
22 濃度検出手段
24 2値化手段
30 マッチング手段
35 辞書
38 文字位置情報記憶手段
40 選択手段
50 入力手段
60 ファイリング手段
65 記憶手段
70 画像データ管理装置
80 フォーマッタ
85 イメージャー
100 画像記録再生システム[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data management apparatus, and more specifically, includes character information outside a subject image, such as a medical image including characters such as data for photographing or patient in addition to a diagnostic image. The present invention relates to an image data management apparatus for filing image data carrying an image.
[0002]
[Prior art]
Conventionally, medical image data obtained by imaging a subject such as a human body by CT, MRI or the like is subjected to appropriate image processing on each image data, and then the image is reproduced and recorded. An image recording / reproducing system for outputting an image of a subject as a visible image to a recording material such as a photographic photosensitive material, a CRT or the like based on these image data has already been put into practical use.
[0003]
In these image recording / playback systems, images taken by various modalities (CT, MRI and other imaging methods and devices) are stored, and necessary image data is always stored from the stored image data. Searching and playing is done.
[0004]
An apparatus for storing image data so as to be searchable is generally called a filing apparatus, and the image recording / reproducing system also includes a filing apparatus. Search information used for image data search of medical images is generally ID information such as a patient name, ID number, imaging date, date of birth, etc., and image data is stored in association with these ID information. These pieces of ID information are usually given at the time of photographing a medical image, and are composed of kanji, kana, English characters, numbers, symbols, etc. (hereinafter collectively referred to as “characters”).
[0005]
[Problems to be solved by the invention]
However, the association between image data and ID information at the time of filing by this filing device has been performed by manually inputting ID information from an external input device, which has been a burden on the operator side. Therefore, there is a demand for a filing device, that is, an image data management device that can recognize ID information attached to an image during normal shooting from the image and automatically file the ID information and image data in association with each other.
[0006]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image data management apparatus capable of automatically filing an image and characters attached to the image in association with each other. To do.
[0007]
[Means for Solving the Problems]
The image data management device of the present invention is an image data management device that stores image data carrying an image including character information photographed by various devices in association with the character information.
Character recognition means for recognizing the character information from the image;
And filing means for automatically associating the recognized character information with the image data.
[0008]
Here, the image data may be image data carrying an original image taken by various devices, or processed image data obtained by performing a predetermined process on the original image data. .
[0009]
The character recognition means included in the image data management device of the present invention is character recognition means for recognizing characters from images including characters generated by various devices, and the image defined for each of the various devices. Character position information storage means for storing the character position information including the character area and the character spacing therein and the various devices in association with each other, and information on the device that generated the image are input, and the input information In response, character position information selection means for selecting the character position information from the character position information storage means, and character templates of various sizes for character areas in the image based on the character position information. Matching means for recognizing characters by using the character pattern matching can be provided.
[0010]
At this time, the template may be moved by the character interval to match the character pattern.
[0011]
Here, the character area means an area to which a character can be attached, regardless of whether an actual character is attached. Also, the character spacing refers to the distance between the center of one character and the center of the next character.
[0012]
Furthermore, a dictionary including a unique character template for each of the various devices and information on the device that generated the image are input, and a character template specific to the device is retrieved from the dictionary according to the input information. Template selection means for selecting, and character pattern matching may be performed on characters in the image using the template.
[0013]
Here, a unique character template for each type of device refers to a character font that includes the type, size, etc. of characters used by various devices to attach character information such as ID information to the image at the time of image capture. This is a template.
[0014]
The character position information selection unit and the template selection unit described above may be provided separately, or one selection unit may serve as both.
[0015]
Further, a binarized image generating unit that binarizes the image and generates a binarized image may be provided, and the matching may be matched with the binarized image.
[0016]
The binarized image generating means preferably includes means for extracting the contour of the image. In particular, the binarized image generating means is configured to calculate, for each pixel of the image, a difference between a maximum value and a minimum value of a pixel density in a predetermined neighborhood range of the pixel, and the density difference and a predetermined threshold value. It is preferable that the image forming apparatus includes binarizing means for binarizing each pixel to extract an image outline. In this case, for each pixel, the difference between the maximum value and the minimum value of the pixel density in the predetermined neighborhood range of the pixel is compared with a predetermined threshold value and binarized to extract the outline of the character in the image, Characteristic recognition is performed by pattern matching with respect to the contour.
[0017]
In addition, examples of the contour extracting method include a method using a first-order differential filter (Roberts filter, Brevit filter, Sobel filter, etc.) or a Laplacian filter.
[0018]
Here, the image means an image in which characters and patterns are mixed.
[0019]
【The invention's effect】
The image data management apparatus according to the present invention includes a character recognition device that recognizes character information on an image, automatically recognizes character information on the image, and files the image data in association with the character information. Therefore, it is not necessary to input search information manually by an external input means at the time of filing, so that work efficiency can be improved.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments of the image data management apparatus of the present invention will be described with reference to the drawings.
[0021]
As shown in FIG. 1, an image data management device 70 of the present invention receives original image data S carrying an original image captured by various modalities 9 (hereinafter referred to as imaging devices) such as CT, MRI, etc. Character information attached to an image, that is, ID recognition means (character recognition means) 10 for recognizing ID information, original image data S and ID information I attached to the original image and recognized by the ID recognition means 10 A filing unit 60 that associates and stores in a storage unit 65 to be described later, and a storage unit 65 such as a hard disk that stores the original image data S and the ID information I associated by the filing unit 60. is there.
[0022]
The image picked up by the image pickup device 9 is digitized and input to the image data management device 70 as original image data S. At this time, the device information that generated the image is also input from the input means 50 at the same time. In the image data management device 70, first, in the ID recognition device 10, the ID information I attached to the image is recognized based on the device information input from the input means 50 (details regarding character recognition will be described later). To do). The ID information I recognized by the ID recognition device 10 is sent to the filing means 60 together with the original image data S. In the filing unit 60, the ID information I recognized by the ID recognition device 10 and the original image data S are associated and filed in the storage unit 65 such as a hard disk. The original image data S filed can be searched at all times, and the search uses the ID information I stored in association with the original image data S as search information.
[0023]
As described above, the image data management apparatus according to the present invention recognizes the ID information in the image and automatically files the ID information and the image data in association with each other. Even if it is input, it is not necessary to input ID information from the outside, and work efficiency can be improved.
[0024]
Note that all of the recognized ID information may be associated with the image data as the search information, or a part thereof may be used. For example, when there are a plurality of pieces of information such as a patient name, an ID number, and an imaging date, the information attached to the image as the ID information may be associated so that each piece of information can be used as search information. Alternatively, one of these may be selected and, for example, only the ID number may be associated as search information for filing. Furthermore, it is also possible to make it correspond as search information using only the first few characters of each ID information composed of a plurality of characters.
[0025]
Next, details of the ID recognition means (character recognition means) included in the image data management apparatus of the present invention will be described.
[0026]
A first form of the character recognition means is shown in FIG. The character recognition unit 10 receives the original image data S, binarizes the original image based on the original image data S and generates a binarized image, and generates an original image. Character position information storage means having character position information such as a character area and a character interval in an image defined for each device for generating an original image, and a dictionary 35 having a character font template 5 unique to each device. 38, a selection unit 40 for selecting a character font template 5 corresponding to the device information input from the external input unit 50 from the dictionary 35, and selecting character position information corresponding to the device information from the character position information storage unit 38; Using the template 5 selected by the selection unit 40 for the binarized image generated by the binarized image generation unit 20, the character pattern matching is performed based on the selected character position information. Comprising characters from recognizing the matching means 30. By.
[0027]
More specifically, the binarized image generating means 20 includes a density detecting means 22 for detecting the density of each pixel of the original image, and comparing the density detected by the density detecting means 22 with a predetermined threshold value. It comprises binarization means 24 for binarization.
[0028]
The character recognizing means 10 according to the first form of the character recognizing means receives an original image A (an image corresponding to the original image data S) containing the characters to be recognized by the external input means 50 at the same time as the original image data S is input. Information on the generated device is input. First, the binarized image generating means 20 generates a binarized image B from the original image A (FIG. 3 (i)). In the binarization of the image, first, the density detection means 22 detects the density of each pixel of the original image A, and then the binarization means 24 compares each detected density with a predetermined threshold value. This is done by binarizing. For example, a threshold value is provided for the density of b shown in the band graph 8 indicating density, and the portion darker than b is “1” and the portion lighter than “b” is binarized. As a result, a binarized image B is obtained.
[0029]
Next, the selection unit 40 selects from the dictionary 35 a template corresponding to the device information input by the external input unit 50, that is, the character font template 5 used by the device that generated the original image A. Character position information corresponding to the information is selected from the character position information storage means 38, and matching is performed on the character area 6 of the binarized image B using the selected template 5 in the matching means 30 ( FIG. 4).
[0030]
Since the character position information unique to various devices includes information related to the character spacing in addition to the character region 6, the spacing between characters that can be attached to the character region, that is, the center position of the character to be matched is clear. It is sufficient to perform matching by matching the center position of the character with the center position of the template. Therefore, as shown in FIG. 4, the template 5 can be moved by the character interval from the matching start position of the character area and matched. That's fine. As a result, processing can be performed at a higher speed than in the case of matching by shifting for each pixel.
[0031]
Further, since it is only necessary to perform matching for a selected number of templates, that is, a very limited number of templates, high-speed identification is possible.
[0032]
Here, a conventional recognition method by general template matching will be described. When the image pattern f and the template pattern g are in the size and positional relationship as shown in FIG. 5, the similarity between the image pattern f and the template pattern g at the point (m, n) of the image is evaluated as follows. Expressed as a function.
[0033]
[Expression 1]
Figure 0003786221
[0034]
Here, R (m, n) is usually called a cross-correlation coefficient, and the region D is a range of (i, j) that satisfies | im | <M / 2, | jn | <N / 2. The template is moved on the image, and the similarity between the image and the template is sequentially discriminated by the cross-correlation coefficient R. The larger the value of the cross-correlation coefficient R, the closer to the template there is the center of the image (m, n), that is, the stronger the correlation between the image and the template. Takes a value of 1 and a value of 0 with no discrepancy. Usually, the recognition result is the one having the largest cross-correlation coefficient R. However, the above template matching method has a drawback that the calculation amount increases and recognition takes time because calculation of square or square root is required as shown in the above formula.
[0035]
However, in this ID recognition means, since the binarized image is matched, the similarity evaluation function R ′ by exclusive product sum (exclusive or) can be used, and the calculation time can be further reduced. Can do. At this time, the similarity evaluation function R ′ (m, n) between the image pattern f and the template g at the point (m, n) on the image is
[0036]
[Expression 2]
Figure 0003786221
[0037]
It is represented by However, the region D is a range of (i, j) that satisfies | im | <M / 2, | jn | <N / 2. In contrast to the case of R described above, a template having the smallest R ′ is taken as the recognition result.
[0038]
Note that, in the above binarization, instead of “1” and “0”, binarization to “1” and “−1” and a simple product sum value may be used for the evaluation function. In that case, the evaluation function R "(m, n) is
[0039]
[Equation 3]
Figure 0003786221
[0040]
The template with the largest R ″ is taken as the recognition result.
[0041]
In addition, when it is desired to recognize only specific ID information, for example, only an ID number, in an image with ID information such as a patient name, an ID number, and an imaging date, only a character used for the ID number is used as a template. It is also possible to take a form of matching only the area with the ID number in the character area (the same applies to other ID information).
[0042]
In this way, characters are recognized, and ID information I such as recognized ID numbers is output.
[0043]
However, in the binarization method based on a simple threshold performed by the ID recognition means 10 of the first embodiment, character extraction may not be successful in an image or the like where characters and images overlap, and accurate character recognition may be difficult. . As an example, a case where the original image D including the black character 1 and the white character 2 shown in FIG. 6 is binarized by a certain density threshold will be described. For example, a threshold value is provided for the density of e shown in the band graph 8 indicating the density, and the portion darker than e is “1” and the portion lighter than “0” is binarized. As a result, a binarized image E is obtained. Further, if a similar process is performed by setting a threshold value for f, a binarized image F is obtained. At this time, the black character 1 is clearly extracted in the binarized image E, but the white character 2 partially overlaps with the white portion of the pattern and cannot be extracted. On the other hand, in the binarized image F, the white character 2 is clearly extracted, but the black character 1 partly overlaps the pattern and cannot be extracted. Thus, the conventional method of simply binarizing image data with a predetermined density threshold cannot clearly extract black character 1 and white character 2 simultaneously. Of course, if the characters in the image cannot be clearly extracted by the binarization, the template matching accuracy is not improved and the character recognition is hindered.
[0044]
Therefore, the character recognition means 10 ′ according to the second embodiment described below is suitable for an image in which a character and a pattern overlap or an image including black and white characters.
[0045]
FIG. 7 shows a second form 10 ′ of character recognition means. Only the differences from the first embodiment of the character recognition means 10 will be described below.
[0046]
The binarized image generating means 20 ′ of the character recognizing means 10 ′ includes a calculating means 26 for obtaining a difference between the maximum value and the minimum value of the pixel density in a predetermined neighborhood range of each pixel of the original image, The image forming apparatus comprises binarizing means 28 for binarizing each pixel by extracting the contour of the image by comparing the density difference obtained by the calculating means 26 with a predetermined threshold value. Note that the template of the dictionary 35 'is a binarized character template 5' corresponding to character fonts unique to various devices.
[0047]
In the binarized image generating means 20 ′, the difference between the maximum value and the minimum value of the density in a predetermined vicinity range of each pixel of the image is first obtained in the calculating means 26 for the input original image data S. For example, when the target pixel is positioned at the lower left in the 2 × 2 pixel mask, the maximum value and the minimum value of the gradation density (original image data S) in a total of four pixels in the 2 × 2 pixel mask (predetermined neighborhood range) And this is taken as the density difference of the pixel of interest. Of course, the range of 2 × 2 is an example, and is not limited to this. Next, in the binarizing means 28, the density difference obtained by the computing means 26 is compared with a predetermined threshold value. For example, when the density difference is larger than the threshold value, “1” is set, and when it is smaller, “0” is set. The target pixel is binarized. By performing this binarization for each pixel in the image, a portion having a large density difference between neighboring pixels in the image, that is, the contour of the image is extracted, and a binarized image C is generated from the original image A ( FIG. 3 (ii)). Usually, since the density difference between the character and the surrounding image is large, the outline of the character is extracted.
[0048]
Note that the contour of the image is extracted using a first-order differential filter, a Laplacian filter, etc., and binarization of each pixel is performed by setting the extracted contour portion pixel to “1” and the pixels other than the contour portion to “0”. Also, the binarized image from which the contour is extracted, similar to the binarized image C generated in the second embodiment, can be generated.
[0049]
After that, the selection unit 40 selects from the dictionary 35 ′ a template 5 ′ corresponding to the character font used by the device that generated the original image A, according to the device information input by the external input unit 50. In the matching means 30 ′, the character area of the binarized image C is matched using the template 5 ′. The ID information I recognized in this way is output.
[0050]
A medical image recording / reproducing system including the image data management device 70 of the present invention will be described below.
[0051]
A medical image recording / reproducing system 100 shown in FIG. 8 receives original image data S carrying an original image captured by various imaging devices 9 such as CT and MRI, and receives ID information I attached to the original image. ID recognizing means (character recognizing means) 10 for recognizing, formatter 80 for performing predetermined signal processing on the original image data S, and image data subjected to predetermined signal processing by the formatter 80 (hereinafter referred to as processed image data) ) Imager 85 such as a printer or CRT for reproducing S ′, and filing means 60 for filing the original image data S and processed image data S ′ in the storage means in association with the ID information recognized by the ID recognition means 10 It consists of. When inputting image data, it is necessary to input device information relating to the device that generated the image data to the ID recognition unit 10 of the image recording / reproducing system 100 by the input unit 50.
[0052]
Here, the formatter 80 is, for example, a format in which a film is divided into four different small areas, and four different images are reduced and printed in each of the areas, one large on one film. The original image data is signal-processed so as to conform to various formats for reproducing an image, such as a format for printing an image as it is.
[0053]
The image picked up by the image pickup device 9 is digitized and input to the image recording / reproducing system 100 as original image data S. At this time, the device information that generated the image is also input from the input means 50 at the same time. In the image recording / reproducing system 100, first, the ID recognition device 10 recognizes the ID information attached to the image based on the device information input from the input means 50 (ID recognition is performed by the above method). . The recognized ID information I is sent to the filing means 60 and the formatter 80 together with the original image data S. In the formatter 80, predetermined signal processing is performed on the original image data S, processed image data S ′ is generated, and a visible image is reproduced in the imager 85 based on the processed image data S ′. . The filing unit 60 associates the ID information I recognized by the ID recognizing unit 10 with the original image data S and / or the processed image data S ′ processed by the formatter, and files the data to the storage unit 65. The filed image data S and S ′ can always be searched, and the search uses ID information stored in association with the image data as search information.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of a configuration of an image data management apparatus according to the present invention. FIG. 2 is a block diagram showing a first form of character recognition means included in the image data management apparatus according to the present invention. The figure explaining the binarized image produced | generated by the character recognition means of two forms [FIG. 4] The figure explaining a mode that a template is moved according to a character space | interval at the time of pattern matching, and FIG. 5 is a character pattern matching method. FIG. 6 is a diagram for explaining a problem when the image is binarized by the character recognition unit of the first embodiment. FIG. 7 is a character recognition unit included in the image data management apparatus of the present invention. FIG. 8 is a block diagram showing the second embodiment of the present invention. FIG. 8 is a schematic diagram of the configuration of an image recording / reproducing system including the image data management apparatus of the present invention.
5 Template 9 Medical imaging device
10 ID recognition means (character recognition means)
20 Binary image generation means
22 Concentration detection means
24 Binarization means
30 Matching means
35 dictionary
38 Character position information storage means
40 selection methods
50 Input means
60 Filing means
65 Storage means
70 Image data management device
80 Formatter
85 Imager
100 image recording and playback system

Claims (6)

各種装置で撮影された文字情報を含む画像を担持する画像データを前記文字情報と対応付けて記憶する画像データ管理装置において、
前記画像から前記文字情報を認識する文字認識手段と、
前記認識された文字情報と前記画像データとを自動的に対応付けて記憶するファイリング手段とを備え、
前記文字認識手段が、各種装置によって生成された文字を含む画像中から該文字を認識する文字認識手段であって、前記各種装置毎に定められている前記画像中の文字領域および文字間隔を含む文字位置情報と前記各種装置とを対応させて記憶している文字位置情報記憶手段と、前記画像を生成した装置の情報が入力され、該入力された情報に応じて前記文字位置情報を前記文字位置情報記憶手段から選択する文字位置情報選択手段と、前記文字位置情報に基づく前記画像中の文字領域に対して、各種、各サイズの文字のテンプレートを用いて文字パターンマッチングさせることにより文字を認識するマッチング手段とを備えてなることを特徴とする画像データ管理装置。
In an image data management device for storing image data carrying an image including character information photographed by various devices in association with the character information,
Character recognition means for recognizing the character information from the image;
Filing means for automatically storing the recognized character information and the image data in association with each other,
The character recognition means is a character recognition means for recognizing characters from images including characters generated by various devices, and includes character regions and character intervals in the images determined for the various devices. Character position information storage means for storing character position information and the various devices in association with each other and information on the device that generated the image are input, and the character position information is converted into the character according to the input information. Character position recognition is performed by character pattern matching using character templates of various sizes for character regions in the image based on the character position information and character position information selecting means selected from the position information storage means. An image data management device comprising: matching means for performing
前記文字認識手段が、前記画像を2値化して2値化画像を生成する2値化画像生成手段を備え、前記2値化画像に対して文字パターンマッチングを行うものであることを特徴とする請求項1記載の画像データ管理装置。  The character recognition unit includes a binarized image generation unit that binarizes the image to generate a binarized image, and performs character pattern matching on the binarized image. The image data management apparatus according to claim 1. 前記2値化画像生成手段が、画像の輪郭を抽出する手段を含むものであることを特徴とする請求項2記載の画像データ管理装置。  3. The image data management apparatus according to claim 2, wherein the binarized image generating means includes means for extracting an outline of an image. 前記2値化画像生成手段が、前記画像の各画素毎に該画素の所定近傍範囲中の画素濃度の最大値と最小値との差を求める演算手段と、
前記濃度差と所定の閾値との比較により前記各画素を2値化して画像の輪郭を抽出する2値化手段とから成るものであることを特徴とする請求項3記載の画像データ管理装置。
The binarized image generating means calculates a difference between a maximum value and a minimum value of pixel density in a predetermined neighborhood range of each pixel of the image;
4. The image data management apparatus according to claim 3, further comprising: binarizing means for binarizing each pixel by extracting the contour of the image by comparing the density difference with a predetermined threshold.
前記文字認識手段が前記各種装置毎の固有の文字のテンプレートを備えた辞書と、
前記画像を生成した装置の情報が入力され、該入力された情報に応じて該装置に固有の文字のテンプレートを前記辞書から選択するテンプレート選択手段とを備えていることを特徴とする請求項1から4いずれか記載の画像データ管理装置。
The dictionary the character recognition means, having a specific character templates for each of the various devices,
The image is input information of the device that generated the claim 1, characterized in that in response to the input information and a template selecting means for selecting a template for the specific character from the dictionary to the system 5. The image data management device according to any one of 4 to 4.
前記文字認識手段が、前記テンプレートを前記文字間隔分ずつ移動させて文字パターンマッチングさせるものであることを特徴とする請求項1〜5いずれか記載の画像データ管理装置。Said character recognition means, the image data management apparatus according to any one of claims 1 to 5, characterized in that the template is intended to the one by character spacing minutes by moving character pattern matching.
JP17261496A 1996-07-02 1996-07-02 Image data management device Expired - Fee Related JP3786221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17261496A JP3786221B2 (en) 1996-07-02 1996-07-02 Image data management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17261496A JP3786221B2 (en) 1996-07-02 1996-07-02 Image data management device

Publications (2)

Publication Number Publication Date
JPH1021365A JPH1021365A (en) 1998-01-23
JP3786221B2 true JP3786221B2 (en) 2006-06-14

Family

ID=15945150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17261496A Expired - Fee Related JP3786221B2 (en) 1996-07-02 1996-07-02 Image data management device

Country Status (1)

Country Link
JP (1) JP3786221B2 (en)

Also Published As

Publication number Publication date
JPH1021365A (en) 1998-01-23

Similar Documents

Publication Publication Date Title
JP4073156B2 (en) Image search device
Kegelmeyer Jr et al. Computer-aided mammographic screening for spiculated lesions.
US7574028B2 (en) Method for recognizing projection views of radiographs
JP3619270B2 (en) Method to detect the histogram area and improve the reproduction of the tone scale of the digital radiography image
EP0899680B1 (en) Method for automatic detection of human eyes in digital images
US7564999B2 (en) Method for identifying markers in radiographic images
US11023708B2 (en) Within document face verification
US5943435A (en) Body part recognition in radiographic images
CN105719243A (en) Image processing device and method
US8355583B2 (en) Image processing apparatus and apparatus for searching operator
JP2005537101A (en) Patient identification method for X-ray film user interface
CN114445843A (en) Card image character recognition method and device of fixed format
CN111611994A (en) Image extraction method, image extraction device, electronic equipment and storage medium
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP4419426B2 (en) Medical imaging system
JP3786221B2 (en) Image data management device
US8144965B2 (en) Image processing apparatus, image processing method, and computer storage medium
JP3819074B2 (en) Character recognition device
JPH1119077A (en) Method and device for detection of tumor shadow in radiation image
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
JPH1011536A (en) Character recognizer
JPH1063779A (en) Character recognition method, and device therefor
JPH10134071A (en) Picture recording/reproducing device
JPH1021334A (en) Device for recognizing character
JPH1063787A (en) Character recognition method, and device therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100331

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100331

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130331

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees