JP2007179196A - 医用情報処理装置 - Google Patents
医用情報処理装置 Download PDFInfo
- Publication number
- JP2007179196A JP2007179196A JP2005375496A JP2005375496A JP2007179196A JP 2007179196 A JP2007179196 A JP 2007179196A JP 2005375496 A JP2005375496 A JP 2005375496A JP 2005375496 A JP2005375496 A JP 2005375496A JP 2007179196 A JP2007179196 A JP 2007179196A
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- character
- medical
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Input (AREA)
Abstract
【課題】医用画像における文字認識精度を向上させる。
【解決手段】医用情報処理装置では、カラー色で表される文字画像を含む医用画像において、当該文字画像の文字色を基準とし、当該文字色と前記医用画像の画像色との色差を算出し(ステップC3)、その算出された色差に基づいて、前記医用画像を2値化した2値化画像を作成し(ステップC4)、この作成された2値化画像を用いて、前記医用画像に含まれる文字画像を抽出し、当該文字画像が構成する文字を認識する(ステップC5)。
【選択図】図9
【解決手段】医用情報処理装置では、カラー色で表される文字画像を含む医用画像において、当該文字画像の文字色を基準とし、当該文字色と前記医用画像の画像色との色差を算出し(ステップC3)、その算出された色差に基づいて、前記医用画像を2値化した2値化画像を作成し(ステップC4)、この作成された2値化画像を用いて、前記医用画像に含まれる文字画像を抽出し、当該文字画像が構成する文字を認識する(ステップC5)。
【選択図】図9
Description
本発明は、文字画像の文字認識を行う医用情報処理装置に関する。
医療の分野では、X線撮影装置等で撮影された医用画像上に撮影条件や患者を識別するためのIDを示す文字の画像を重畳して出力することが行われている。従来は、医用画像はグレー画像(白、黒の無彩色により表される画像)が多かったため、2値化を行うことによりこのような画像から文字認識を行うことは容易であった。
しかしながら、内視鏡撮影や超音波撮影等においてはカラー画像(白、黒の無彩色及びそれ以外の有彩色により表される画像)化が実現されており、このようなカラー画像においては文字の視認性を高めるため、文字画像をカラーで出力することが可能となっている。そのため、従来のような単なる2値化による手法では、医用画像から文字認識を行うことはできない。
このような問題に対し、従来からカラー画像の文字色とその背景色との色差を算出し、この色差と閾値とからカラー画像の2値化を行う方法が考案されている(例えば、特許文献1参照)。この方法では、閾値を固定値とするのではなく、カラー画像を出力する台紙等の色を考慮して動的に定めることにより、台紙の色によって文字認識精度が低下することを防止している。
特開平9−167176号公報
しかしながら、上記特許文献1に記載の方法では文字色と背景色の2色を対象として文字画像の認識を行っているが、カラーの医用画像では、文字の背景部分に患者の撮影領域(以下、被写体領域という)が重なる場合があり、背景色は常に一色とは限らない。そのため、単純に文字色とある一部の背景色との色差から2値化を行った場合、文字でない画像領域まで文字と同値になってしまい、文字画像を正確に抽出することができなくなってしまう。
例えば、図12(a)に示すように、赤の文字色に青の背景色が使用され、背景の一部が桃色の被写体領域からなる場合を考える。青の背景色と文字色との色差が10、背景色と被写体領域との色差が9.5であった場合、文字色と背景色との色差10から閾値を9と決定し、2値化を行うと、図12(b)に示すように背景色との色差が9.5の被写体領域も文字と同値となってしまう。これでは、正確に文字認識が行えない。
本発明の課題は、医用画像における文字認識精度を向上させることである。
請求項1に記載の発明は、医用情報処理装置において、
カラー色で表される文字画像を含む医用画像において、当該文字画像の文字色と医用画像の画像色の色情報の差異を、当該文字色を基準として算出する算出手段と、
前記算出された色情報の差異に基づいて、前記医用画像を2値化した2値化画像を作成する2値化手段と、
前記作成された2値化画像を用いて、前記医用画像に含まれる文字画像を抽出し、当該文字画像が構成する文字を認識する文字認識手段と、
を備えることを特徴とする。
カラー色で表される文字画像を含む医用画像において、当該文字画像の文字色と医用画像の画像色の色情報の差異を、当該文字色を基準として算出する算出手段と、
前記算出された色情報の差異に基づいて、前記医用画像を2値化した2値化画像を作成する2値化手段と、
前記作成された2値化画像を用いて、前記医用画像に含まれる文字画像を抽出し、当該文字画像が構成する文字を認識する文字認識手段と、
を備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の医用情報処理装置において、
前記算出手段は、前記文字色のカラー色情報を変換して得られるグレー色情報と前記医用画像のカラー色情報を変換して得られるグレー色情報との差異を算出し、
前記2値化手段は、前記算出されたグレー色情報の差異に基づき、前記医用画像を2値化する。
前記算出手段は、前記文字色のカラー色情報を変換して得られるグレー色情報と前記医用画像のカラー色情報を変換して得られるグレー色情報との差異を算出し、
前記2値化手段は、前記算出されたグレー色情報の差異に基づき、前記医用画像を2値化する。
請求項3に記載の発明は、請求項2に記載の医用情報処理装置において、
前記算出手段は、カラー色情報をグレー色情報に変換する変換式であって、文字色のグレー色情報と文字画像の背景色のグレー色情報との差異が識別レベル以上となる変換式を作成し、この変換式を用いて前記医用画像のカラー色情報をグレー色情報に変換し、
前記2値化手段は、前記識別レベルを基に前記グレー色情報に変換された医用画像の2値化を行うことを特徴とする。
前記算出手段は、カラー色情報をグレー色情報に変換する変換式であって、文字色のグレー色情報と文字画像の背景色のグレー色情報との差異が識別レベル以上となる変換式を作成し、この変換式を用いて前記医用画像のカラー色情報をグレー色情報に変換し、
前記2値化手段は、前記識別レベルを基に前記グレー色情報に変換された医用画像の2値化を行うことを特徴とする。
請求項4に記載の発明は、請求項1に記載の医用情報処理装置において、
前記算出手段は、文字色を基準とし、当該文字色と前記医用画像の画像色との色差を算出し、
前記2値化手段は、前記算出された色差に基づき、前記医用画像を2値化した2値化画像を作成することを特徴とする。
前記算出手段は、文字色を基準とし、当該文字色と前記医用画像の画像色との色差を算出し、
前記2値化手段は、前記算出された色差に基づき、前記医用画像を2値化した2値化画像を作成することを特徴とする。
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の医用情報処理装置において、
前記医用画像から文字認識の対象領域を抽出する抽出手段を備え、
前記算出手段は、前記抽出された対象領域画像の画像色と文字色との差異を算出することを特徴とする。
前記医用画像から文字認識の対象領域を抽出する抽出手段を備え、
前記算出手段は、前記抽出された対象領域画像の画像色と文字色との差異を算出することを特徴とする。
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の医用情報処理装置において、
前記文字認識手段による文字認識結果の情報を、前記医用画像に付加する情報付加手段を備えることを特徴とする。
前記文字認識手段による文字認識結果の情報を、前記医用画像に付加する情報付加手段を備えることを特徴とする。
請求項1に記載の発明によれば、文字色を基準とした文字認識を行うことができ、カラー色の文字画像とその背景画像との識別性能を向上させることができる。従って、文字認識精度を向上させることができる。
請求項2、3に記載の発明によれば、文字色のグレー色情報を基準にその差異が識別レベル以上となるように予めグレー変換式を設計することにより、2値化により確実に文字画像を識別可能なグレー色情報を算出することができる。これにより、文字画像の識別性能が向上し、文字認識精度の向上を図ることができる。
請求項4に記載の発明によれば、文字色を基準として色差を算出することにより、背景色との色差の拡大を図ることができ、文字画像の背景が多色からなる場合であっても、文字画像と背景画像とのを識別することが可能となる。よって、文字認識精度を向上させることができる。
請求項5に記載の発明によれば、抽出画像にのみ文字認識処理を行うので、文字認識に係る所要時間を短縮化することができる。
請求項6に記載の発明によれば、医用画像の配信先においても、当該医用画像に付加された文字認識結果の情報を参照することにより、文字により示される当該医用画像に関する情報等を取得することが可能となる。
〈第1実施形態〉
第1実施形態では、文字画像を含むカラー画像をグレー画像に変換し、その変換されたグレー画像を用いて文字認識を行う場合を説明する。
第1実施形態では、文字画像を含むカラー画像をグレー画像に変換し、その変換されたグレー画像を用いて文字認識を行う場合を説明する。
まず、構成を説明する。
図1に、本実施形態における医用情報処理装置を含む医用画像システム10を示す。
図1に示すように、医用画像システム10は、各種撮影装置1a〜1d、DICOM(Digital Imaging and Communication in Medicine)変換装置2、医用情報処理装置3、フィルム出力装置4、表示装置5、プリンタ6、サーバ7を備えて構成されている。
図1に、本実施形態における医用情報処理装置を含む医用画像システム10を示す。
図1に示すように、医用画像システム10は、各種撮影装置1a〜1d、DICOM(Digital Imaging and Communication in Medicine)変換装置2、医用情報処理装置3、フィルム出力装置4、表示装置5、プリンタ6、サーバ7を備えて構成されている。
以下、各構成装置について説明する。
この医用画像システム10は、X線撮影装置1a、超音波/内視鏡撮影装置1b、X線撮影装置1c、超音波/内視鏡撮影装置1dで生成された医用画像をフィルム出力装置4、表示装置5、プリンタ6(以下、総称して出力装置という)の各出力装置4〜6により出力するものである。
この医用画像システム10は、X線撮影装置1a、超音波/内視鏡撮影装置1b、X線撮影装置1c、超音波/内視鏡撮影装置1dで生成された医用画像をフィルム出力装置4、表示装置5、プリンタ6(以下、総称して出力装置という)の各出力装置4〜6により出力するものである。
撮影装置1a〜1dは、撮影動作を行うとともに、その撮影により医用画像のデータを生成するものである。撮影装置1a〜1dの中にはそれぞれDICOM対応(X線撮影装置1c、超音波/内視鏡撮影装置1d)とDICOM非対応(X線撮影装置1a、超音波/内視鏡撮影装置1b)のものがある。
DICOMとは医用画像と通信に関する標準規格であり、これに非対応のものについてはDICOM変換装置2を介して医用情報処理装置3に接続される。DICOM非対応の撮影装置1a、1bから医用情報処理装置3へ向けてデータを送信する場合には、このDICOM変換装置2によりDICOM対応のデータ規格に変換されて医用情報処理装置3へ送出される。一方、DICOM対応の撮影装置1c、1dでは、各装置1c、1dにおいてDICOM規格に対応したデータが生成されるので、直接医用情報処理装置3へ送信される。
X線撮影装置1a、1cは、被写体(患者)にX線を照射して撮影を行い、そのX線画像を生成する。X線画像はグレー画像で生成される。ここで、グレー画像とは、白、黒の無彩色又はその中間色からなる画像をいう。
これに対し、超音波/内視鏡撮影装置1b、1dは、超音波撮影及び内視鏡撮影が可能な撮影装置であり、超音波撮影又は内視鏡撮影による撮影画像を生成する。これら撮影画像はカラー画像で生成される。ここで、カラー画像とは、白、黒の無彩色に加え、赤、緑、青等の有彩色又はそれらの中間色からなる画像をいう。
これに対し、超音波/内視鏡撮影装置1b、1dは、超音波撮影及び内視鏡撮影が可能な撮影装置であり、超音波撮影又は内視鏡撮影による撮影画像を生成する。これら撮影画像はカラー画像で生成される。ここで、カラー画像とは、白、黒の無彩色に加え、赤、緑、青等の有彩色又はそれらの中間色からなる画像をいう。
各撮影装置1a〜1dでは、撮影画像上に文字画像を重ねる画像処理が可能である。例えば、撮影対象の患者の患者IDや撮影日付、撮影条件等を撮影装置1a〜1dに入力することにより、各撮影装置1a〜1dでは入力情報に対応する文字画像を生成して撮影画像上の所定の位置に配置し、撮影画像と合成する。文字画像の配置位置は、例えば撮影画像の左上等、統計的に撮影画像中の被写体領域との重複が少ない位置に予め設定されている。
文字画像を含む撮影画像は、その後医用情報処理装置3に送信される。
文字画像を含む撮影画像は、その後医用情報処理装置3に送信される。
医用情報処理装置3は、各撮影装置1a〜1dから送信された撮影画像から撮影画像に含まれる文字画像を抽出し、これを文字認識して付帯情報として撮影画像に付帯させて各出力装置4〜6、サーバ7に出力するものである。
図2に、医用情報処理装置3の内部構成を示す。
図2に示すように、医用情報処理装置3は、制御部31、操作部32、表示部33、通信部34、記憶部35、画像メモリ36を備えて構成されている。
図2に示すように、医用情報処理装置3は、制御部31、操作部32、表示部33、通信部34、記憶部35、画像メモリ36を備えて構成されている。
制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等からなる。制御部31は、記憶部35に記憶されている各種制御プログラムを読み出し、これら制御プログラムに従って各種演算を行う或いは各部32〜36の動作を集中制御する。
操作部32は、キーボードやマウス等を備えて構成され、これらが操作されると、その操作に対応する操作信号を生成して制御部31に出力する。
表示部33は、LCD(Liquid Crystal Display)等の表示ディスプレイを備え、制御部31の表示制御に従って撮影画像の他、操作画面や制御部31の処理結果等の各種表示情報を表示する。
通信部34は、通信用のインターフェイスを備え、外部装置と相互に通信を行う。例えば、通信部34は各撮影装置1a〜1dから撮影画像を受信し、出力装置4〜6、サーバ7へ撮影画像を送信する。
記憶部35は、上記制御プログラムの他、プログラムの実行に必要なパラメータやデータ、制御部31の処理結果等の各種情報を記憶する。
例えば、記憶部35は文字認識処理の際に必要な基本変換式の情報を記憶している。基本変換式はカラー画像をグレー画像に変換する変換式の基本となるものである。この基本変換式から各文字色に応じたグレー変換式が作成されるが、その詳細については後述する。
例えば、記憶部35は文字認識処理の際に必要な基本変換式の情報を記憶している。基本変換式はカラー画像をグレー画像に変換する変換式の基本となるものである。この基本変換式から各文字色に応じたグレー変換式が作成されるが、その詳細については後述する。
また、記憶部35は文字認識処理の際に必要な文字色テーブル351を記憶している。
文字色テーブル351には、図3に示すように、文字色及びその背景色として予め設定された色の組み合わせに応じて作成された、グレー変換式を構成する係数α、β、γの値が記憶されている。また、その文字色と背景色との組み合わせに対応する識別レベルの値が記憶されている。識別レベルは、グレー変換後の画像について2値化を行う際の閾値となるものである。
文字色テーブル351には、図3に示すように、文字色及びその背景色として予め設定された色の組み合わせに応じて作成された、グレー変換式を構成する係数α、β、γの値が記憶されている。また、その文字色と背景色との組み合わせに対応する識別レベルの値が記憶されている。識別レベルは、グレー変換後の画像について2値化を行う際の閾値となるものである。
画像メモリ36は、撮影画像を一時的に記憶するためのメモリである。
出力装置4〜6は、医用情報処理装置3から入力された撮影画像の出力動作を行うものであり、フィルム出力装置4はフィルム媒体に、表示装置5は表示ディスプレイに、プリンタ6は紙媒体に出力する。
サーバ7は、大容量メモリを備え、このメモリに医用情報処理装置3から送信された撮影画像をその撮影画像に付帯された付帯情報と対応付けて保存し、その入出力を管理するものである。
次に、動作について説明する。
最初に、文字認識のための前処理として、医用情報処理装置3において文字色と背景色を登録する文字色登録処理について説明する。この文字色登録処理は、制御部31と記憶部35に記憶されている文字色登録処理プログラムとの協働により実現されるソフトウェア処理である。
図4は、文字色登録処理を説明するフローチャートである。
最初に、文字認識のための前処理として、医用情報処理装置3において文字色と背景色を登録する文字色登録処理について説明する。この文字色登録処理は、制御部31と記憶部35に記憶されている文字色登録処理プログラムとの協働により実現されるソフトウェア処理である。
図4は、文字色登録処理を説明するフローチャートである。
図4に示す文字色登録処理では、まず制御部31により文字色と背景色の登録が行われる(ステップA1)。撮影画像は、被写体が撮影により可視化された被写体画像、被写体画像以外の背景画像からなり、その左上部に文字画像が合成されている。この文字画像の色を文字色といい、背景画像の色を背景色という。また、画像色とは背景画像の色及び被写体画像の色等、撮影画像を構成する各画素が有する色をいう。色の登録は、予め医用情報処理装置3において色見本を備えておき、その色見本の中から、技師が各撮影装置1a〜1dで文字色、背景色として使用される色をそれぞれ指定入力する。医用情報処理装置3では、文字色、背景色として指定された色が文字色テーブル351に設定登録される。
次いで、制御部31により記憶部35から下記式(1)に示す基本変換式が読み出される。そして、当該基本変換式により登録された文字色と背景色のカラー色情報(RGBで数値化されたカラー画像信号値)がグレー色情報(Grで数値化されたグレー画像信号値(輝度値))に変換される(ステップA2)。
Gr=α*R+β*G+γ*B・・・(1)
ここで、基本変換式におけるα、β、γは、
α=0.298912、β=0.586611、γ=0.114478
である。
Gr=α*R+β*G+γ*B・・・(1)
ここで、基本変換式におけるα、β、γは、
α=0.298912、β=0.586611、γ=0.114478
である。
この基本変換式は、一般的に使用される加重平均法(NTSC法)による変換式であり、3つのカラー色情報RGBを係数α、β、γにより重み付けしながら1つのグレー色情報Grに変換するための式である。
すなわち、上記α〜γの係数により構成される基本変換式(1)に文字色及び背景色を数値化したRGB値をそれぞれ入力することにより、カラー画像信号(RGB値)からグレー画像信号値(Gr値)が得られる。カラー画像はカラー画像信号値からなる画像であり、グレー画像はグレー画像信号値からなる画像である。
文字認識は、例えば図5(a)に示すようにグレー画像において文字画像とその背景画像とで異なるGr値となったとき、そのGr値の差異により文字画像を抽出し、抽出された文字画像から文字認識を行うというものである。
文字認識は、例えば図5(a)に示すようにグレー画像において文字画像とその背景画像とで異なるGr値となったとき、そのGr値の差異により文字画像を抽出し、抽出された文字画像から文字認識を行うというものである。
登録された文字色及び背景色のGr値がそれぞれ得られると、制御部31において文字色のGr値と背景色のGr値の差異が求められ、その差異は識別レベル以上か否かが判別される(ステップA3)。差異が識別レベル未満の場合は(ステップA3;N)、ステップA4の処理へ移行し、差異が識別レベル以上の場合は(ステップA3;Y)、ステップA7の処理に移行する。なお、識別レベルとは上述したようにグレー画像を2値化する際に用いられる閾値であるが、具体的な値は経験的又は実験的に求めて適宜設定すればよい。
まず、差異が識別レベル未満である場合から説明する。
例えば、文字色が赤(RGB値は(255、0、0))、背景色が青(RGB値は(0、79、255))である場合、上記基本変換式(1)により求められた文字色のGr値は何れも76になる。よって、その差異は0になるが、前述したように文字認識はGr値の差異を基に行うところ、差異が0となった場合、図5(b)に示すようにグレー画像において文字画像と背景画像の差異が見いだせず、文字認識できないこととなる。
例えば、文字色が赤(RGB値は(255、0、0))、背景色が青(RGB値は(0、79、255))である場合、上記基本変換式(1)により求められた文字色のGr値は何れも76になる。よって、その差異は0になるが、前述したように文字認識はGr値の差異を基に行うところ、差異が0となった場合、図5(b)に示すようにグレー画像において文字画像と背景画像の差異が見いだせず、文字認識できないこととなる。
そこで、このような場合には、文字色及び背景色のGr値に少なくとも識別レベル以上の差異が生じるように、基本変換式(1)の係数α、β、γの変更を行う。
まず、制御部31において文字色と背景色のそれぞれについて目標とするGr値が設定され、この目標Gr値が基本変換式(1)に入力されて目標変換式が作成される。次いで、この2つの目標変換式を満たす係数α、β、γが算出される(ステップA4)。
まず、制御部31において文字色と背景色のそれぞれについて目標とするGr値が設定され、この目標Gr値が基本変換式(1)に入力されて目標変換式が作成される。次いで、この2つの目標変換式を満たす係数α、β、γが算出される(ステップA4)。
上述した例で説明すると、例えば文字色及び背景色のGr値が識別レベル128以上の差異となるようにする場合には、赤の文字色の目標Gr値が204(元々のGr値76+識別レベル128)、青の背景色の目標Gr値が76(元々のGr値)に設定され、下記の2つの目標変換式(2)、(3)が作成される。
文字色の目標変換式:204=α*255+β*0+γ*0・・・(2)
背景色の目標変換式:76=α*0+β*79+γ*0・・・(3)
文字色の目標変換式:204=α*255+β*0+γ*0・・・(2)
背景色の目標変換式:76=α*0+β*79+γ*0・・・(3)
係数α、β、γの算出方法については、以下に示す方法が挙げられる。
1)最適な係数を検索
α(−1〜+1)、β(−1〜+1)、γ(−1〜+1)と、代入範囲を設定し、この代入範囲の中で上記式(2)、(3)中のα、β、γに段階的に値を代入していく(例えば、1段階で0.001づつインクリメントする)。そして、式(2)、(3)を満たす最適なα、β、γを探索する。
1)最適な係数を検索
α(−1〜+1)、β(−1〜+1)、γ(−1〜+1)と、代入範囲を設定し、この代入範囲の中で上記式(2)、(3)中のα、β、γに段階的に値を代入していく(例えば、1段階で0.001づつインクリメントする)。そして、式(2)、(3)を満たす最適なα、β、γを探索する。
2)連立方程式の解を算出
文字色、背景色の他に、白色の関係式(下記式(4)に示す)を追加し、3つの連立方程式(2)〜(4)により、解α、β、γを求める。
白色の関係式:255=α*255+β*0+γ*0・・・(4)
文字色、背景色の他に、白色の関係式(下記式(4)に示す)を追加し、3つの連立方程式(2)〜(4)により、解α、β、γを求める。
白色の関係式:255=α*255+β*0+γ*0・・・(4)
3)回帰分析
文字色、背景色以外にGr値が判明している複数のサンプル色1〜nの関係式(下記式(5)〜(6)に示す)を追加し、回帰分析により最適な係数α、β、γを求める。
サンプル色1(RGB値(1、1、1))の関係式:
2=α*1+β*1+γ*1・・・(5)
〜
サンプル色n(RGB値(255、255、255))の関係式:
255=α*255+β*255*γ*255・・・(6)
文字色、背景色以外にGr値が判明している複数のサンプル色1〜nの関係式(下記式(5)〜(6)に示す)を追加し、回帰分析により最適な係数α、β、γを求める。
サンプル色1(RGB値(1、1、1))の関係式:
2=α*1+β*1+γ*1・・・(5)
〜
サンプル色n(RGB値(255、255、255))の関係式:
255=α*255+β*255*γ*255・・・(6)
その他、α、β、γの調整が可能な画像表示ツールにより、文字色と背景色のGr値の差異が識別レベル以上となる係数α、β、γを技師が探索し、これを操作部32から設定入力する構成としてもよい。
そして、最適な係数α、β、γが算出されると基本変換式(1)中のα、β、γが、算出された係数値に置換されたグレー変換式が作成される(ステップA5)。次いで、文字色テーブル351において、文字色と背景色の組み合わせに対応付けて算出されたα、β、γの係数値が記憶されると(ステップA6)、本処理を終了する。すなわち、作成されたグレー変換式が記憶されることとなる。
次に、ステップA3において文字色と背景色のGr値の差異が識別レベル以上であった場合について説明する。
この場合、文字色及び背景色のGr値は、識別レベルにより文字画像及び背景画像を識別できる十分な差異があるので、基本変換式(1)がこの文字色と背景色の際のグレー変換式として設定され、その基本変換式(1)のα、β、γの係数値が文字色及び背景色の組み合わせに対応付けて文字色テーブル351に記憶される(ステップA7)。
この場合、文字色及び背景色のGr値は、識別レベルにより文字画像及び背景画像を識別できる十分な差異があるので、基本変換式(1)がこの文字色と背景色の際のグレー変換式として設定され、その基本変換式(1)のα、β、γの係数値が文字色及び背景色の組み合わせに対応付けて文字色テーブル351に記憶される(ステップA7)。
次に、文字認識の対象画像が入力された際に、医用情報処理装置3において実行される文字認識処理について説明する。
各撮影装置1a〜1dでは患者の撮影が行われると、その撮影画像が生成される。そして、撮影時に技師により入力された患者ID等の入力情報に応じた文字画像が生成され、撮影画像上の所定の位置に配置され、合成される。文字画像が合成された撮影画像は医用情報処理装置3に送信される。
医用情報処理装置3では、撮影画像が入力されると、図6に示す文字認識処理が実行される。文字認識処理は、制御部31と記憶部35に記憶されている文字認識処理プログラムとの協働により実現されるソフトウェア処理である。
各撮影装置1a〜1dでは患者の撮影が行われると、その撮影画像が生成される。そして、撮影時に技師により入力された患者ID等の入力情報に応じた文字画像が生成され、撮影画像上の所定の位置に配置され、合成される。文字画像が合成された撮影画像は医用情報処理装置3に送信される。
医用情報処理装置3では、撮影画像が入力されると、図6に示す文字認識処理が実行される。文字認識処理は、制御部31と記憶部35に記憶されている文字認識処理プログラムとの協働により実現されるソフトウェア処理である。
図6に示す文字認識処理では、文字認識の対象画像から文字画像が位置する領域として予め定められている画像領域が抽出される(ステップB1)。次いで、制御部31において文字色テーブル351が参照され、登録されている文字色と背景色の組み合わせのうち、一の組み合わせに対応するグレー変換式の係数α〜γが読み出され、これら係数α〜γが基本式(1)に代入されたグレー変換式が構成される。そして、このグレー変換式により対象画像のカラー画像信号(RGB値)が1画素づつグレー画像信号(Gr値)に変換される(ステップB2)。すなわち、カラー画像からグレー画像が作成される。
次いで、登録文字色と背景色との組み合わせに対して設定されている識別レベルが文字色テーブル351から読み出され、この識別レベル及び変換後のGr値に基づいて2値化が行われ、グレー画像から2値化画像が作成される(ステップB3)。対象画像のグレー画像は、対象画像中の文字画像の文字色とその背景色との組み合わせが、登録文字色と背景色との組み合わせと一致している場合には、Gr値に識別レベル分の差異が生じるはずである。この場合、識別レベルを閾値として例えばGr値が識別レベル以上の場合は「1」の値に、識別レベル未満の場合は「0」の値に2値化すると、図5(a)に示すように文字画像が高信号「1」、背景画像が低信号「0」となる。
制御部31では、そのような2値化画像から高信号部分の画素を抽出する等して文字画像の抽出が行われる。そして、この抽出された文字画像と辞書とのマッチングが行われて文字認識が行われる(ステップB4)。すなわち、文字画像と辞書に登録されている各種登録文字画像とのマッチングの結果、一致する登録文字画像があればその登録文字画像の文字であると認識される。
このようにして一の登録文字色と背景色との組み合わせについて文字認識が終了すると、制御部31において他の登録文字色と背景色との組み合わせの有無が判断され(ステップB5)、他の登録文字色と背景色との組み合わせが有る場合には(ステップB5;Y)、ステップB2の処理に戻り、その組み合わせについて再度ステップB2〜B4の処理が繰り返される。
一方、全ての登録文字色と背景色との組み合わせについて文字認識が終了した場合(ステップB5;N)、各登録文字色と背景色との組み合わせによる文字認識結果のうち、最適な一の文字認識結果が決定される(ステップB6)。決定方法としては、例えば認識文字数が最多のもの、もしくは他の文字認識結果と比較して一致する文字数が最も多いもの等を選択する方法を挙げられる。
決定された文字認識結果は対象画像の付帯情報として対象画像のヘッダ領域に書き込まれる等して付帯され、通信部34を介して各出力装置4〜6、サーバ7等の送信先へ送信される(ステップB7)。
以上のように、本実施形態によれば、カラー画像をグレー画像に変換し、これを2値化することでカラー画像に含まれる文字画像を抽出し、文字認識を行う。グレー変換の際には登録文字色のグレー変換値Grを基準に、背景色のGr値が識別レベル以上となるようにグレー変換式を作成するので、2値化により文字画像を背景画像から識別することが可能となる。従って、文字画像の抽出が正確かつ確実となり、カラー画像における文字認識精度の向上を図ることができる。
また、グレー変換式は登録された文字色と背景色との関係から予め作成しておくので、文字認識処理時には撮影画像の各画素について複雑な信号処理を行う必要がなく、グレー変換式を用いてグレー変換のみすればよいため、処理効率が良い。
また、文字認識は、撮影画像から文字画像が含まれている所定領域を抽出し、この抽出画像に対してのみ行うので、処理時間の短縮化を図ることができる。
また、文字認識は、撮影画像から文字画像が含まれている所定領域を抽出し、この抽出画像に対してのみ行うので、処理時間の短縮化を図ることができる。
また、文字認識結果は撮影画像に付帯されるので、当該撮影画像の受信先においてその付帯情報を参照することにより撮影画像に合成された文字が示す患者情報や撮影条件等の情報を取得することができるので、これらの情報を活用することができる。
なお、上述した説明は本発明を適用した好適な一例であり、これに限定されない。
例えば、医用情報処理装置3において各撮影装置1a〜1dから文字に関する文字関連情報を取得する構成としてもよい。各撮影装置1a〜1dにおいて、撮影画像中の文字画像を作成するので、その文字色、フォント、サイズ等の文字画像に関する情報を撮影画像に付帯させて医用情報処理装置3に送信する。医用情報処理装置3では撮影画像に付帯された文字関連情報を参照することにより、文字画像に使用された文字色を認識することが可能となる。よって、上記のように全ての登録文字色と背景色との組み合わせについて文字認識する必要がなく、処理効率が向上する。
例えば、医用情報処理装置3において各撮影装置1a〜1dから文字に関する文字関連情報を取得する構成としてもよい。各撮影装置1a〜1dにおいて、撮影画像中の文字画像を作成するので、その文字色、フォント、サイズ等の文字画像に関する情報を撮影画像に付帯させて医用情報処理装置3に送信する。医用情報処理装置3では撮影画像に付帯された文字関連情報を参照することにより、文字画像に使用された文字色を認識することが可能となる。よって、上記のように全ての登録文字色と背景色との組み合わせについて文字認識する必要がなく、処理効率が向上する。
また、対象画像はグレー画像、カラー画像の何れも入力される環境下においては、対象画像が入力された際に当該対象画像がカラー画像かグレー画像かを判別し、グレー画像であればグレー変換式によるグレー画像信号への変換処理は省略すればよい。
また、上記実施形態では、文字認識結果を撮影画像に情報として付帯することとしていたが、これに限らず、文字認識結果から得られた情報を加工し、さらに撮影画像にオーバーレイする等、医用情報処理装置3において文字認識結果を利用することとしてもよい。
また、撮影直後の撮影画像について文字認識を行う例を説明したが、CT(Computed Tomography)で撮影されたCT画像等は、3次元化され、カラー化されることも多い。よって、このような画像を文字認識の処理対象としてもよい。
〈第2実施形態〉
第2実施形態では、文字画像を含むカラー画像において文字色と画像色との色差を算出し、当該色差に基づいて文字認識を行う場合を説明する。
第2実施形態では、文字画像を含むカラー画像において文字色と画像色との色差を算出し、当該色差に基づいて文字認識を行う場合を説明する。
第2実施形態における医用情報処理装置及び医用画像システムは、第1実施形態における医用情報処理装置3及び医用画像システム10と略同一構成であり、その動作が異なるので、同一構成部分には同一の符号を付してその図示を省略し、異なる部分のみ説明する。
第2実施形態では、医用情報処理装置3の記憶部35において文字色テーブル351(図3参照)に代えて図7に示す文字色テーブル352が記憶されている。
文字色テーブル352には、図7に示すように、登録文字色毎にその登録文字色について算出されたL*、a*、b*の色情報が記憶されている。また、登録文字色について予め設定された識別レベルが記憶されている。この識別レベルは撮影画像を2値化する際の閾値となるものである。
文字色テーブル352には、図7に示すように、登録文字色毎にその登録文字色について算出されたL*、a*、b*の色情報が記憶されている。また、登録文字色について予め設定された識別レベルが記憶されている。この識別レベルは撮影画像を2値化する際の閾値となるものである。
次に、第2実施形態の動作について説明する。
まず、医用情報処理装置3において文字色を登録する文字色登録処理が行われる。
文字色登録処理では、制御部31により文字色の登録が行われる。図8に示すように、撮影画像は被写体が撮影により可視化された被写体画像g13、被写体画像以外の背景画像g12からなり、その左上に文字画像g11が合成されている。色の登録は、予め医用情報処理装置3において色見本を備えておき、その色見本の中から、技師が各撮影装置1a〜1dで文字色として使用される文字の色とその背景色を指定入力する。医用情報処理装置3では、文字色として指定された色が文字色テーブル352に設定登録される。
まず、医用情報処理装置3において文字色を登録する文字色登録処理が行われる。
文字色登録処理では、制御部31により文字色の登録が行われる。図8に示すように、撮影画像は被写体が撮影により可視化された被写体画像g13、被写体画像以外の背景画像g12からなり、その左上に文字画像g11が合成されている。色の登録は、予め医用情報処理装置3において色見本を備えておき、その色見本の中から、技師が各撮影装置1a〜1dで文字色として使用される文字の色とその背景色を指定入力する。医用情報処理装置3では、文字色として指定された色が文字色テーブル352に設定登録される。
次いで、医用情報処理装置3では、制御部31により登録された各文字色に対応するL*、a*、b*の色情報が、その文字色と対応付けられて文字色テーブル352に記憶される。
ここで、L*、a*、b*とは、色を数値化した表色系の一つであり、L*は明度指数、a*、b*はクロマティクネス指数であり、それぞれ色相と彩度を表す指標値である。L*、a*、b*は、下記式(7)〜(9)により表される。
式中、
X、Y、Zは試料のXYZ表色系における三刺激値であり、
Xn、Yn、Znは完全拡散反射面の三刺激値である。
X、Y、Zは試料のXYZ表色系における三刺激値であり、
Xn、Yn、Znは完全拡散反射面の三刺激値である。
これらL*、a*、b*の値は、予め色見本について求めておき、医用情報処理装置3に登録しておくこととする。色見本についてのL*、a*、b*は、例えばモニタや紙媒体に出力した色見本の色を色彩計で測色し、L*、a*、b*の値を得ればよい。
また、識別レベルの設定は、実験的又は経験的に具体的な値を求めて設定すればよい。識別レベルの値は小さければ小さいほど識別性能が上がるが、誤差分の余地を含めて設定することが好ましい。
次に、文字認識の対象画像が入力された際に、医用情報処理装置3において実行される文字認識処理について説明する。
各撮影装置1a〜1dでは患者の撮影が行われると、その撮影画像が生成される。そして、撮影時に技師により入力された患者ID等の入力情報に応じた文字画像が生成され、撮影画像上の所定の位置に配置され、合成される。文字画像が合成された撮影画像は医用情報処理装置3に送信される。
医用情報処理装置3では、撮影画像が入力されると文字認識処理が実行される。
各撮影装置1a〜1dでは患者の撮影が行われると、その撮影画像が生成される。そして、撮影時に技師により入力された患者ID等の入力情報に応じた文字画像が生成され、撮影画像上の所定の位置に配置され、合成される。文字画像が合成された撮影画像は医用情報処理装置3に送信される。
医用情報処理装置3では、撮影画像が入力されると文字認識処理が実行される。
図9に、第2実施形態における文字認識処理のフローチャートを示す。
図9に示す文字認識処理では、文字認識の対象画像から文字画像が位置する領域として予め定められている画像領域が抽出(図8参照)される(ステップC1)。このとき、図8に示すように、抽出画像g14には文字画像g11及び背景画像g12の他、被写体画像g13が含まれる場合がある。
図9に示す文字認識処理では、文字認識の対象画像から文字画像が位置する領域として予め定められている画像領域が抽出(図8参照)される(ステップC1)。このとき、図8に示すように、抽出画像g14には文字画像g11及び背景画像g12の他、被写体画像g13が含まれる場合がある。
次いで、抽出画像のカラー画像信号(RGB値)が一画素毎にL*、a*、b*のカラー色情報に変換される(ステップC2)。この変換方法としては、例えば予め様々なRGB値に対し、対応するL*、a*、b*の値を設定した変換テーブルを備えておき、この変換テーブルに基づいて抽出画像のRGB値をL*、a*、b*の値に変換することとしてもよいし、sRGB等の既に規格化された変換テーブルを用いてもよい。また、モニタや紙媒体に出力した各種RGB値を色彩計で測色し、L*、a*、b*の計測結果を得て重回帰分析による変換式を求めておくこととしてもよい。
次いで、文字色テーブル352が参照され、登録されている各登録文字色のうちの一の文字色についての色情報が読み出される。そして、変換されたL*、a*、b*の色情報と登録文字色の色情報とに基づき、登録文字色との色差が算出される(ステップC3)。
色差は、下記式(10)により算出することができる。
色差は、下記式(10)により算出することができる。
図10に、色差の算出例を示す。
図10(a)は文字色が赤、背景色が青の場合のパターン(これをパターン1とする)例であり、図10(b)は文字色が緑、背景色が青の場合のパター(これをパターン2という)例である。何れのパターン1、2でも抽出画像には背景画像の他、桃色の被写体画像が含まれている。この抽出画像において左上の頂点を原点としてX方向、Y方向の座標系を導入し、各画素の位置を座標(xn、yn)で示して、各画素についてのカラー画像信号値(RGB値)、L*、a*、b*の値及び文字色との色差ΔE*abの算出結果を図10(c)に示す。
図10(a)は文字色が赤、背景色が青の場合のパターン(これをパターン1とする)例であり、図10(b)は文字色が緑、背景色が青の場合のパター(これをパターン2という)例である。何れのパターン1、2でも抽出画像には背景画像の他、桃色の被写体画像が含まれている。この抽出画像において左上の頂点を原点としてX方向、Y方向の座標系を導入し、各画素の位置を座標(xn、yn)で示して、各画素についてのカラー画像信号値(RGB値)、L*、a*、b*の値及び文字色との色差ΔE*abの算出結果を図10(c)に示す。
〈パターン1〉
赤の文字色のL*、a*、b*はそれぞれ54、81、70である。このL*、a*、b*値を基準に色差ΔE*abを算出すると、文字色の赤と同じ色情報を有する画素については色差は0又は0に近い値となるはずである。一方、文字色の赤とは異なる色情報を有する場合にはその色差は大きな差異が生じると予想される。例えば、座標(64、30)の画素は文字画像の画素であるが、登録文字色との色差は「0」となっている。一方、座標(1、1)の画素は背景画像の画素であり、登録文字色とは「170.04」と色差が大きい。また、座標(128、30)の画素は被写体画像の画素であり、見た目の色は登録文字色と類似しているものの、その色差は「130.69」とやはり大きな色差を示す。
赤の文字色のL*、a*、b*はそれぞれ54、81、70である。このL*、a*、b*値を基準に色差ΔE*abを算出すると、文字色の赤と同じ色情報を有する画素については色差は0又は0に近い値となるはずである。一方、文字色の赤とは異なる色情報を有する場合にはその色差は大きな差異が生じると予想される。例えば、座標(64、30)の画素は文字画像の画素であるが、登録文字色との色差は「0」となっている。一方、座標(1、1)の画素は背景画像の画素であり、登録文字色とは「170.04」と色差が大きい。また、座標(128、30)の画素は被写体画像の画素であり、見た目の色は登録文字色と類似しているものの、その色差は「130.69」とやはり大きな色差を示す。
〈パターン2〉
パターン2についても同様の結果が得られている。すなわち、緑の登録文字色のL*、a*、b*を基準に各画素のL*、a*、b*との色差を算出すると、文字画像の画素(座標(64、30))については色差が「0」となるのに対し、背景画像、被写体画像の画素(座標(1、1)、(128、30))については色差「215.69」、「224.16」と大きくなっている。
パターン2についても同様の結果が得られている。すなわち、緑の登録文字色のL*、a*、b*を基準に各画素のL*、a*、b*との色差を算出すると、文字画像の画素(座標(64、30))については色差が「0」となるのに対し、背景画像、被写体画像の画素(座標(1、1)、(128、30))については色差「215.69」、「224.16」と大きくなっている。
よって、算出された色差ΔE*abについて、登録文字色に対して予め定められている識別レベルを閾値として2値化が行われ、抽出画像の2値化画像が作成される(ステップC4)。上記パターン1又は2の例では、色差ΔE*abが識別レベル以上の画素については「0」、識別レベル未満の画素については「1」となるような信号が割り当てられ、2値化されると、図11に示すような2値化画像が得られる。背景画像及び被写体画像は識別レベルを超える大きな色差ΔE*abが生じるため、文字画像と異なる信号値となる。
制御部31では、そのような2値化画像から信号「1」の画素を抽出する等して文字画像の抽出が行われる。そして、この抽出された文字画像と辞書とのマッチングが行われて文字認識が行われる(ステップC5)。すなわち、文字画像と辞書に登録されている各種登録文字画像とのマッチングの結果、一致する登録文字画像があればその登録文字画像の文字であると認識される。
このようにして一の登録文字色を基準とした文字認識が終了すると、制御部31において他の登録文字色の有無が判断され(ステップC6)、他の登録文字色が有る場合には(ステップC6;Y)、ステップC3の処理に戻り、その他の登録文字色について再度ステップC3〜C5の処理が繰り返される。
一方、全ての登録文字色について文字認識が終了した場合(ステップC6;N)、各登録文字色による文字認識結果のうち、最適な一の文字認識結果が決定される(ステップC7)。決定方法としては、例えば認識文字数が最多のもの、もしくは他の文字認識結果と比較して一致する文字数が最も多いもの等を選択する方法を挙げられる。
決定された文字認識結果は対象画像の付帯情報として対象画像のヘッダ領域に書き込まれる等して付帯され、通信部34を介して各出力装置4〜6、サーバ7等の送信先へ送信される(ステップC8)。
以上のように、本実施形態によれば、文字色を基準にカラー画像の各画素について色差を算出し、その色差を基に2値化することでカラー画像に含まれる文字画像を抽出し、文字認識を行う。文字色を基準とした色差を求めるため、文字画像の背景に被写体画像が含まれている場合であっても、文字を正確かつ確実に認識することが可能となる。
また、文字認識は、撮影画像から文字画像が含まれている所定領域を抽出し、この抽出画像に対してのみ行うので、処理時間の短縮化を図ることができる。
また、文字認識結果は撮影画像に付帯されるので、当該撮影画像の受信先においてその付帯情報を参照することにより撮影画像に合成された文字が示す患者情報や撮影条件等の情報を取得することができるので、これらの情報を活用することができる。
また、本実施形態の手法によれば、登録文字色としてグレー色(黒〜白間の中間色)の色情報を登録しておくことにより、カラー画像に限らずグレー画像についても同様に文字認識を行うことができる。
なお、上述した説明は本発明を適用した好適な一例であり、これに限定されない。
例えば、上記実施形態では複数の文字色を登録可能とし、対象画像の各画素について各登録文字色との色差を求めることとしたが、これに限らず、各撮影装置1a〜1dから撮影画像とともに撮影画像中の文字画像に用いた文字色及びその色情報を取得し、これを基に色差を算出することとしてもよい。この場合、全ての登録文字色について色差を算出する必要がないため、処理効率が向上する。
例えば、上記実施形態では複数の文字色を登録可能とし、対象画像の各画素について各登録文字色との色差を求めることとしたが、これに限らず、各撮影装置1a〜1dから撮影画像とともに撮影画像中の文字画像に用いた文字色及びその色情報を取得し、これを基に色差を算出することとしてもよい。この場合、全ての登録文字色について色差を算出する必要がないため、処理効率が向上する。
また、最初に対象画像についてカラー画像かグレー画像かを判別し、カラー画像用とグレー画像用とで文字の認識方法を切り替えることとしてもよい。
また、上記実施形態では、文字認識結果を撮影画像に情報として付帯することとしていたが、これに限らず、文字認識結果から得られた情報を加工し、さらに撮影画像にオーバーレイする等、医用情報処理装置3において文字認識結果を利用することとしてもよい。
また、撮影直後の撮影画像について文字認識を行う例を説明したが、CT(Computed Tomography)で撮影されたCT画像等は、3次元化され、カラー化されることも多い。よって、このような画像を文字認識の処理対象としてもよい。
10 医用画像システム
1a〜1d 撮影装置
3 医用情報処理装置
31 制御部
35 記憶部
351 文字色テーブル(第1実施形態)
352 文字色テーブル(第2実施形態)
4 フィルム出力装置
5 表示装置
6 プリンタ
7 サーバ
1a〜1d 撮影装置
3 医用情報処理装置
31 制御部
35 記憶部
351 文字色テーブル(第1実施形態)
352 文字色テーブル(第2実施形態)
4 フィルム出力装置
5 表示装置
6 プリンタ
7 サーバ
Claims (6)
- カラー色で表される文字画像を含む医用画像において、当該文字画像の文字色と医用画像の画像色の色情報の差異を、当該文字色を基準として算出する算出手段と、
前記算出された色情報の差異に基づいて、前記医用画像を2値化した2値化画像を作成する2値化手段と、
前記作成された2値化画像を用いて、前記医用画像に含まれる文字画像を抽出し、当該文字画像が構成する文字を認識する文字認識手段と、
を備えることを特徴とする医用情報処理装置。 - 前記算出手段は、前記文字色のカラー色情報を変換して得られるグレー色情報と前記医用画像のカラー色情報を変換して得られるグレー色情報との差異を算出し、
前記2値化手段は、前記算出されたグレー色情報の差異に基づき、前記医用画像を2値化する請求項1に記載の医用情報処理装置。 - 前記算出手段は、カラー色情報をグレー色情報に変換する変換式であって、文字色のグレー色情報と文字画像の背景色のグレー色情報との差異が識別レベル以上となる変換式を作成し、この変換式を用いて前記医用画像のカラー色情報をグレー色情報に変換し、
前記2値化手段は、前記識別レベルを基に前記グレー色情報に変換された医用画像の2値化を行うことを特徴とする請求項2に記載の医用情報処理装置。 - 前記算出手段は、文字色を基準とし、当該文字色と前記医用画像の画像色との色差を算出し、
前記2値化手段は、前記算出された色差に基づき、前記医用画像を2値化した2値化画像を作成することを特徴とする請求項1に記載の医用情報処理装置。 - 前記医用画像から文字認識の対象領域を抽出する抽出手段を備え、
前記算出手段は、前記抽出された対象領域画像の画像色と文字色との差異を算出することを特徴とする請求項1〜4の何れか一項に記載の医用情報処理装置。 - 前記文字認識手段による文字認識結果の情報を、前記医用画像に付加する情報付加手段を備えることを特徴とする請求項1〜5の何れか一項に記載の医用情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005375496A JP2007179196A (ja) | 2005-12-27 | 2005-12-27 | 医用情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005375496A JP2007179196A (ja) | 2005-12-27 | 2005-12-27 | 医用情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007179196A true JP2007179196A (ja) | 2007-07-12 |
Family
ID=38304334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005375496A Pending JP2007179196A (ja) | 2005-12-27 | 2005-12-27 | 医用情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007179196A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242114A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 文字识别方法及装置 |
-
2005
- 2005-12-27 JP JP2005375496A patent/JP2007179196A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242114A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 文字识别方法及装置 |
CN111242114B (zh) * | 2020-01-08 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 文字识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8591414B2 (en) | Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program | |
JP5871325B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラム及び記録媒体 | |
EP1774910A1 (en) | Medical image diagnosis assisting system, device and image processing program | |
US20040081342A1 (en) | Image processing apparatus, image processing method, program, and recording medium | |
CN112189236B (zh) | 内窥镜用学习数据收集装置、内窥镜用学习数据收集方法和记录介质、学习系统、学习完毕模型、以及内窥镜图像处理装置 | |
EP2333655A2 (en) | Printed matter examination apparatus, a printed matter examination method, a storage medium, and a printed matter examination system | |
CN103945755B (zh) | 图像处理装置 | |
JP5442542B2 (ja) | 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体 | |
JP5557091B2 (ja) | 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム | |
US8265398B2 (en) | Image analysis system and image analysis program | |
CN109464148B (zh) | 测量脊柱弯曲的装置及系统 | |
JPWO2013179581A1 (ja) | 画像計測装置、画像計測方法及び画像計測システム | |
JP2010009420A (ja) | 画像処理装置及び画像処理方法 | |
CN105718931A (zh) | 用于确定采集图像中的杂斑的系统和方法 | |
JP2017123015A (ja) | 情報処理装置、画像処理方法およびプログラム | |
JP6807869B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US11678869B2 (en) | Biopsy support device, endoscope device, biopsy support method, and biopsy support program | |
US20210012491A1 (en) | Image Processing Method, Image Processing Device, and Program | |
JP6935663B1 (ja) | 口腔粘膜疾患診断支援システム,方法およびプログラム | |
JP2001076141A (ja) | 画像認識方法および画像処理装置 | |
US20200126224A1 (en) | Image processing device, recording medium, and image processing method | |
JP2007179196A (ja) | 医用情報処理装置 | |
US20220020208A1 (en) | Measurement method, measurement device, and recording medium | |
JP2001314374A (ja) | 角膜内皮細胞測定装置 | |
JP5910637B2 (ja) | 生体画像解析システム、生体画像解析方法および生体画像解析プログラム |