JP4832927B2 - 医療用画像処理装置及び医療用画像処理方法 - Google Patents

医療用画像処理装置及び医療用画像処理方法 Download PDF

Info

Publication number
JP4832927B2
JP4832927B2 JP2006069816A JP2006069816A JP4832927B2 JP 4832927 B2 JP4832927 B2 JP 4832927B2 JP 2006069816 A JP2006069816 A JP 2006069816A JP 2006069816 A JP2006069816 A JP 2006069816A JP 4832927 B2 JP4832927 B2 JP 4832927B2
Authority
JP
Japan
Prior art keywords
candidate
surface model
reliability
medical image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006069816A
Other languages
English (en)
Other versions
JP2007244517A (ja
Inventor
秀樹 田中
博一 西村
健次 中村
涼子 井上
美穂 沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2006069816A priority Critical patent/JP4832927B2/ja
Priority to EP07714978A priority patent/EP1994876B1/en
Priority to PCT/JP2007/053585 priority patent/WO2007119295A1/ja
Priority to CN2007800068267A priority patent/CN101389260B/zh
Publication of JP2007244517A publication Critical patent/JP2007244517A/ja
Priority to US12/208,827 priority patent/US8184146B2/en
Application granted granted Critical
Publication of JP4832927B2 publication Critical patent/JP4832927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本発明は、2次元画像から生成された3次元の表面モデルにおける各部の信頼度を処理する医療用画像処理装置及び医療用画像処理方法に関する。
体腔内に挿入された内視鏡により得られる内視鏡画像は、観察部位の診断に広く利用される。
内視鏡により得られる内視鏡画像は、2次元画像であるため、例えば特開8−252217号公報に開示されている従来例のように、取得した画像情報から3次元の表面モデルを作成して、作成した表面モデルを表示することにより、より診断し易い画像情報を提供する装置がある。
特開8−252217号公報
上記のように3次元の表面モデルを作成して表示した場合には、2次元の内視鏡画像の場合よりも診断し易い画像となる。しかし、2次元の内視鏡画像から3次元の表面モデルを構築するため、例えば内視鏡が挿入されて観察された体腔内部位が内視鏡の照明窓或いは観察(撮像)窓から遠く離れた距離になると、照明光源からの照明光の照射量が低下する。
このため、遠く離れた距離で、撮像された画像データ部分から生成された表面モデルのデータ部分の精度は、近い距離で撮像された画像データ部分から生成された表面モデルのデータ部分より低下する。
また、体腔内、特に管腔形状の場合には、管腔部分に襞や隆起物があると、その陰となる位置は視点となる位置(つまり、観察窓)からは見えない。このため、当該箇所に対応する表面モデル上の位置を作成する場合には、その位置の近隣データ等による推定値により作成するため、生成された表面モデルの精度が低下する。
従来例においては、このような精度を考慮していないため、表面モデルを診断に利用する場合、その信頼性の確認がし難い。また、画像処理により表面モデルを用いて病変部の特徴量を有する病変候補の検出や判定を行おうとする場合に、その信頼性の確認若しくは向上が困難になる。
(発明の目的)
本発明は上述した点に鑑みてなされたもので、表面モデルを病変候補の検出等に利用する場合における信頼性の確認若しくは向上を可能とする医療用画像処理装置及び医療用画像処理方法を提供することを目的とする。
本発明の医療用画像処理装置は、2次元の医療用画像から3次元の表面モデルの生成処理を行う表面モデル生成手段と、
前記表面モデルを複数の領域に区分けして、複数の領域におけるデータの信頼度を算出する領域信頼度算出手段と、
を具備したことを特徴とする。
上記構成により、2次元の医療用画像から生成された3次元の表面モデルにおける複数の領域におけるデータの信頼度を算出するようにして、3次元の表面モデルを病変候補の検出等を行う場合におけるその信頼性の確認や向上を可能にしている。
本発明の医療用画像処理装置は、2次元の医療用画像から3次元の表面モデルの生成処理を行う表面モデル生成ステップと、
前記表面モデルを複数の領域に区分けして、複数の領域におけるデータの信頼度を算出する領域信頼度算出ステップと、
を具備したことを特徴とする。
上記構成により、2次元の医療用画像から生成された3次元の表面モデルにおける複数の領域におけるデータの信頼度を算出するようにして、3次元の表面モデルを病変候補の検出等を行う場合におけるその信頼性の確認や向上を可能にしている。
本発明によれば、3次元の表面モデルを病変候補の検出等を行う場合におけるその信頼性の確認や向上を可能にする。
以下、図面を参照して本発明の実施例を説明する。
図1ないし図17は本発明の実施例1に係り、図1は本発明の実施例1を備えた内視鏡システムの構成を示し、図2は大腸のような管状部位内に挿入された内視鏡により撮像する様子を示し、図3は図2の内視鏡に設けられた撮像装置により撮像された内視鏡画像を示し、図4は図3の内視鏡画像から生成される表面モデルを示し、図5はCPUによる画像解析処理機能を示し、図6は表面モデルを生成する為の処理手順を示し、図7は撮像された画像の各画素に対応する物体上の対応点と光源等との位置関係を示す。
また、図8は光源からの光を物体の面で反射する様子などを示し、図9は対応点の周囲に設定される複数の法線ベクトルを示し、図10は図8(B)のベクトルmが2次元画像上の位置を通ることを示し、図11は図6のステップS2で生成される表面モデルを示し、図12はボクセル信頼度マップを生成する処理内容及び使用されるデータ等を示し、図13は図12のステップS12による距離算出の説明図を示し、図14はポリープ抽出候補判定を行う処理内容及び生成/使用される画像等を示し、図15は図14のステップS24の動作説明図を示し、図16は図14のステップS26のポリープ候補判定の処理内容を示し、図17は図16の処理の説明図を示す。
図1に示す内視鏡システム1は、内視鏡観察装置2と、この内視鏡観察装置2により得られた医療用画像としての内視鏡画像に対して画像処理を行うパーソナルコンピュータ等により構成される医療用画像処理装置(以下、単に画像処理装置と略記)3と、この画像処理装置3により画像処理された画像を表示する表示モニタ4とから構成される。
内視鏡観察装置2は、体腔内に挿入される内視鏡6と、この内視鏡6に照明光を供給する光源装置7と、内視鏡6の撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)8と、このCCU8から出力される映像信号が入力されることにより、撮像素子で撮影した内視鏡画像を表示するモニタ9とを有する。
内視鏡6は、体腔内に挿入される挿入部11と、この挿入部11の後端に設けられた操作部12とを有する。また、挿入部11内には照明光を伝送するライトガイド13が挿通されている。
このライドガイド13の後端は、光源装置7に接続される。そして、この光源装置7から供給される照明光をライトガイド13により転送し、挿入部11の先端部14に設けた照明窓に取り付けられた先端面から(伝送した照明光を)出射し、患部等の被写体を照明する。
照明窓に隣接する観察窓に取り付けた対物レンズ15と、この対物レンズ15の結像位置に配置された固体撮像素子としての例えば電荷結合素子(CCDと略記)16とによる撮像装置17が設けてある。そして、このCCD16の撮像面に結蔵された光学像は、このCCD16により光電変換される。
このCCD16は、信号線を介してCCU8と接続され、このCCU8からCCD駆動信号が印加されることにより、CCD16は光電変換した画像信号を出力する。この画像信号は、CCU8内の映像処理回路により信号処理され、映像信号に変換される。この映像信号はモニタ9に出力され、モニタ9の表示面には、内視鏡画像が表示される。この映像信号は、画像処理装置3にも入力される。
この画像処理装置3は、内視鏡観察装置2から入力される内視鏡画像に対応する映像信号が入力される画像入力部21と、この画像入力部21から入力された画像データに対する画像処理を行う中央演算処理装置としてのCPU22と、このCPU22により画像処理を実行させる処理プログラム(制御プログラム)を記憶する処理プログラム記憶部23とを有する。
また、この画像処理装置3は、画像入力部21から入力される画像データ等を記憶する画像記憶部24と、CPU22により処理された情報等を記憶する情報記憶部25と、CPU22により処理された画像データ及び情報等を記憶装置インターフエース26を介して記憶する記憶装置としてのハードディスク27と、CPU22により処理された画像データ等を表示するための表示処理を行う表示処理部28と、ユーザが画像処理のパラメータ等のデータ入力や指示操作を行うキーボード等からなる入力操作部29とを有する。 そして、この表示処理部28により生成された映像信号は、表示モニタ4に表示され、この表示モニタ4の表示面には画像処理された処理画像が表示される。なお、画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28、入力操作部29は、データバス30を介して互いに接続されている。
本実施例においては、図2に示すように、例えば大腸31のような管状部位(管状器官)に直視型の内視鏡6の挿入部11が挿入され、撮像装置17により撮像される。
図3は、この直視型の内視鏡6によって撮像された内視鏡画像の1例を示している。この内視鏡画像には、襞や隆起性の凸部が存在する。尚、斜線で示す部分は深部側に延びる管腔暗部を示す。
本実施例では、大腸31のような管状器官を直視型等の内視鏡6によって撮像し、撮像された2次元の内視鏡画像から対象物(具体的には大腸の管腔形状の内面)の3次元形状の表面モデルを推定する。推定された表面モデルの例を、例えば図4に示す。図4には、図3の凸部に対応する凸部G1、G2が生成されている。
図3の2次元の内視鏡画像の画像データから図4に示すような3次元形状としての表面モデルを生成する場合、内視鏡6の先端面の照明窓の位置からの距離が大きい部分では、距離が小さい部分と比較して照明強度が低下しているので、その部分に対応して生成される表面モデルにおける3次元データの精度が低下する。
また、管腔に襞や隆起した凸部があると、その陰となる位置は、視点位置となる観察窓からは見えないため、推定などで生成される表面モデルの3次元データの精度が低下する。
本実施例では、これらの点を考慮して、生成される3次元の表面モデルにおける各点(後述するように小領域としてのボクセル)の面ないしは位置のデータの信頼度を表す信頼度マップを生成する。
そして、生成された3次元の表面モデルの各部におけるそのデータの信頼度の情報を、病変の検出若しくは判定等に有効に利用できるようにする。
このため、本実施例における画像処理装置を構成するCPU22は、図5に示すような画像処理機能を有する。
CPU22は、2次元の内視鏡画像から3次元形状としての表面モデルを生成(推定)する処理を行う表面モデル生成機能22aと、生成された表面モデルの表面データ各部における小領域としてのボクセルに対するそのボクセル部分でのそのデータの信頼度を表すボクセル信頼度マップを生成するボクセル信頼度マップ生成機能22bと、表面モデルの表面データから病変候補、具体的にはポリープ候補を抽出して、ポリープである可能性の判定処理(或いは検出処理)を行うポリープ候補判定機能(ポリープ候補検出機能)22cとを有する。
本実施例ではこのように、3次元の表面モデルを生成し、その表面モデルの表面データ各部をボクセルの集合体と見なし、各ボクセル部分におけるその3次元データの信頼度(ボクセル信頼度)を算出する。
そして、例えば生成された3次元の表面モデルからポリープ等の病変を検出若しくは判定する画像処理を行う場合、この信頼度の情報を利用することにより、より信頼性のある検出若しくは判定を行えるようにする。
また、術者は提示されたポリープ等の病変の検出若しくは判定の結果に、信頼度の情報が提示されるため、ポリープ等の診断を行う際、より有効に利用できる。そして、より的確な診断を行い易くなる。
本実施例においては、図5に示した各機能をソフトウェア的に実現している。つまり、処理プログラム記憶部23に記憶(格納)された処理プログラムをCPU22は読み出し、CPU22は、この処理プログラムに従って処理を行うことにより、図6に示す表面モデル生成機能22aに対応するフローチャートの処理等を実行する。
次に本実施例の動作を説明する。
画像処理装置3の動作が開始すると、CPU22は処理プログラム記憶部23の処理プログラムを読み出し、その処理プログラムに従った処理を開始する。図6に示すようにCPU22は最初のステップS1において、内視鏡観察装置2のCCU8から画像入力部21を経て入力される内視鏡画像を原画像の画像データとして取得する。
そして、次のステップS2においてCPU22は、取得された画像データに対して歪曲収差補正(特開平8−256295号公報)や、ノイズ除去等の前処理を行う。ステップS3においてCPU22は、画像内の画素に対応する対象物体の3次元位置を以下の手順で求める。
図7に示すように視点Oにある撮像手段によって撮影された画像の3画素に対応する対象物体上の画素対応点E1、E2,E3を抽出し、画素対応点E1、E2,E3の3次元位置と光源Q及び視点Oとの位置関係から以下の式(1)が求められる。
Figure 0004832927
ただし、画素対応点E1、E2,E3の3次元位置のベクトルをk1m1、k2m2、k3m3(m1,m2,m3:大きさ1の単位ベクトル)、視点Oから光源Qへのベクトルをd、光源Qから3画素対応点E1、E2,E3の3次元位置へのベクトルをr1、r2、r3とする。
画素対応点E1、E2,E3の3次元位置で構成される平面の法線ベクトルをnとすると、式(1)よりベクトルnは、次の式(2)のようになり、ベクトル成分k1、k2、k3の比率で表される。
Figure 0004832927
ただし、点E1から点E2へのベクトルをl12,点E2から点E3へのベクトルをl23,×は外積を表す。また、図8(A)に示すように撮像対象となる(大腸内面等の)対象物体の表面は、全方向に均一に光を反射する拡散反射率と仮定すると、画素対応点E1、E2,E3の輝度値I1、I2,I3は、次の式(3)で表される。
Figure 0004832927
ただし、hは対象物体の表面の拡散反射率、Iqは光源Qの光度、βは点Pにおける対象物体の表面の法線ベクトルnと光源Qから点Pに至るベクトルrとのなす角である。なお、図8(A)の点Pは、図7の画素対応点E1、E2,E3を代表している(このため、ベクトルrは、図7のベクトルr1、r2、r3を代表している)。
次に以下の条件(a)及び(b)を設定して、これらの条件(a)及び(b)を満たす仮定のもとで、撮像される画素に対応する対象物体の3次元位置の算出を行う。
今、条件(a)視点Oと光源Qの距離≪視点Oと画素対応点E1、E2,E3の3次元位置との距離、つまり、|d|≪|rm|(或いは|d|≪|r|ここでm=1〜3)、及び
条件(b)画素対応点E1、E2,E3の3次元位置が近接している、
の両条件(a),(b)が成立する場合、以下の近似式(4)が得られる。
Figure 0004832927
上記条件(a)は、図8(B)に示すようにdの絶対値に比べてrの絶対値が大きければ成立する。また、条件(b)は、食道等の管状の内面を撮像する場合においては、殆どの場合において成立すると考えられる。なお、図8(B)は、挿入部の先端部14における先端面部分を拡大して示す。
この先端面には、ライトガイド13の先端面(或いは照明レンズ)が取り付けられた照明窓13aが臨み、ここから照明光を出射する。つまり、このライトガイド13の先端面等の照明窓13aは、図7及び図8(A)の光源Qに相当する。また、この照明窓13aに隣接した視点Oは、撮像手段(撮像装置17)の対物レンズ15が配置された観察窓(撮像窓)となっている。
上記式(4)よりk1、k2、k3の比率が求められ、法線ベクトルnが求められる。
画像内の各画素に対応する対象物体の表面上の画素対応点は、隣接する画素対応点が複数存在する為、図9に示すように1つの画素対応点Paの周囲の点Pb〜Peにおける各3点により形成される各面に対してそれぞれ法線ベクトルn1〜n4が求められる。よって、これら複数の法線ベクトルn1〜n4の平均ベクトルを算出し、その平均ベクトルを画素対応点の法線ベクトルとしてもよい。
図8(A)に示したように対象物体の表面を拡散反射と仮定し、さらに角βを書き換えることにより、各画素対応点P(x,y)の輝度値I(x,y)は以下のような式(5)で表すことができる。
Figure 0004832927
ただし、hは対象表面の拡散反射率、Iqは光源Qの光度、βは点Pにおける対象物体の表面の法線ベクトルn(x,y)と光源方向r(x,y)のなす角である。
また、点Pにおける光源方向r(x,y)は、以下のような式(6)で表すことができる。
Figure 0004832927
ただし、図8(B)に示すように対物レンズ15の視点Oから光源Qへのベクトルをd、視点Oから対象物体(具体的には大腸の管腔表面)の位置Pへの単位ベクトルをm(x,y)、距離OPをk(x,y)とする。
ベクトルm(x,y)は、図10に示すように(CCD16の)撮像面42の画像上の位置(x,y)を通ることから、以下の式(7)に示すように
Figure 0004832927
となる。ただし、fは撮像装置17の焦点距離である。従って画像上の各画素の輝度値I(x,y)は次のような式(8)で表すことができる。
Figure 0004832927
上記式(8)においてk(x,y)以外は全て既知であることから、式(8)よりk(x,y)を算出し、画像上の各画素(x,y)に対応する3次元位置(X,Y,Z)を、以下の式(9)のように算出する。
Figure 0004832927
このようにして、図11に示すような3次元形状としての表面モデルが生成される。図11に示す3次元の表面モデルの内面上の各位置Pは、図10に示したように撮像面42の2次元の画像上の位置(x、y)を通ると共に、この画像上の各位置(x,y)のデータを用いて生成される。このため、各位置Pにおける小領域のボクセルB内に含まれるこの部分を生成(構成)するために用いられた2次元の画像中のデータ点数は、視点O或いは撮像面42からの距離が大きくなるほど少なくなる。
また、このデータ点数は、各位置Pの面が撮像面42と成す角度などにより、変化することになる。この場合のデータ点数がそのボクセルBの3次元位置の信頼度を表す情報量に密接に関係すると考えられる。
このため本実施例においては、以下に説明するように生成された3次元形状の内面上に設定したボクセルBに対して、その信頼度を表すボクセル信頼度を算出する場合、このデータ点数を考慮する。このようにすることにより、生成された3次元の表面モデルを用いて、病変候補を検出或いは病変候補判定を行う場合、その検出結果或いは判定結果の信頼度の情報を提供して、検出結果等に対する信頼性の確認若しくは向上ができるようにしている。
また、図11に示す3次元の表面モデルの内面は、その内面部分が内側に凸となっている部分(図11でG1,G2で示す)がある場合には、視点O側から見た場合におけるその部分より後方側となる背後の内面部分を隠す状態となり、この背後の部分は陰となって隠れた状態、いわゆるオクルージョンとなり、オクルージョン部分H1,H2はデータが欠落した部分となる。
そして、CPU22は、図6のステップS3により生成した3次元形状のデータをスキャンして、ステップS4に示すようにオクルージョン部分H1,H2などに対する補間処理を行う。この場合、補間処理により生成された表面位置のデータ点に対しては1より小さい係数wを、その表面データと関連付けて格納する。
このようにして欠落部分が補間されて図4に示すような表面モデルが生成され、この表面モデルのデータ(表面モデルデータと言う)は、例えば図1の情報記憶部25に格納される。
そして、CPU22は図12に示すボクセル信頼度マップ生成の処理を行う。この処理が開始すると、CPU22はステップS11において初期設定(以下の位置パラメータsを初期値siniに設定)を行った後、次のステップS12において情報記憶部25の表面モデルデータ記憶部25aに格納された表面モデルデータを用いて、図13に示すように表面モデル上に各ボクセルBxyz(Bsと略記)を設定して、そのボクセルBsの中心位置と観察位置(つまり視点O)との距離Lsを算出する。
この距離Lsは、撮像された内視鏡画像の管腔形状部分の直径を実際に撮像された大腸31の平均的な直径の値を当てはめることにより客観的な数値として算出できる。また、ここでは、ボクセルBsの中心位置と観察位置(或いは視点O)との距離Lsを算出しているが、図8(B)に示すように、OQのベクトルdの値を用いてボクセルBsの中心位置と光源Q(照明窓)との距離(Lsqとする)を算出するようにしても良い。また、ベクトルdの大きさは、距離Lsqに比較して小さいとして、Ls≒Lsqとしても良いし、この距離Lsとして内視鏡先端面からボクセルBsの中心位置までの距離と見なしても良い。
観察位置を視点Oとして表面モデル生成の原点(0,0,0)に設定した場合、ボクセルBsは、その中心の座標位置を(Vx+l/2,Vy+l/2,Vz+l/2)で表すと、Vx≦X<Vx+l,Vy≦Y<Vy+l、Vz≦Z<Vz+lの一辺の長さがlの小領域となる。この小領域について、以下の処理が行われる(添え字sは3次元の座標位置(Vx+l/2,Vy+l/2,Vz+l/2)が異なる表面モデル上のボクセルBsの位置を簡略化して示している)。
そして、CPU22は次のステップS13において、各ボクセルBsに対して表面モデルデータを構成する構成データ点数(データ点数と略記)Nsを取得する。この場合、補間処理により構成されているデータ点数Nshに対しては、1より小さい係数wを乗じてデータ点数Nsを算出する。
次のステップS14においてCPU22は、ボクセルBsに対するボクセル信頼度ρsを算出する。
このρsは、例えば
ρs=(1/Ls)(Ns/l・l・l)α (10)
である。ここで、αは正規化する因子を表し、また、データ点数Nsは、補間処理を用いていない真性のデータ点数Nsiと、補間処理により生成されたデータ点数Nshに(1よりも小さい)係数wが乗算されたものとの和となる。
つまり
Ns=Nsi+w・Nsh (11)
となる。そして、CPU22は、算出したボクセル信頼度ρsの値を情報記憶部25に設けたボクセル信頼度マップ記憶部25bに、ボクセルBsの位置データと関連付けて格納する。
上記ボクセル信頼度ρsは、光源Q若しくは観察位置(観察窓)からの距離Lsが大きくなると、その値が小さくなり、かつそのボクセルBs内のデータ点数が少ない程、その値が小さくなる。従って、生成された表面モデル上の各部の点(小領域)における信頼度を適切に評価する評価手段となっている。
そして、次のステップS15においてCPU22は、表面モデルデータの全てに対してボクセルBsの設定を行ったか否かの条件判定を行う(換言すると最終のパラメータ値sfinまで行ったかの条件判定を行う)。この条件に該当しない場合にはステップS16に示すようにパラメータsの値を1つ変更してステップS12に戻る。
このようにして全ての表面モデルデータに対してボクセル信頼度ρsを算出する処理を終了すると、ボクセル信頼度マップ記憶部25bには表面モデル上の各点(小領域としてのボクセル)における信頼度が算出されたボクセル信頼度マップが生成される。
このようにして、生成されたボクセル信頼度マップによる利用方法として、大きく分けて主に2つある。
その1つは、生成された表面モデルの表面形状を、例えば算出されたボクセル信頼度マップのボクセル信頼度ρsで擬似カラー化して表示する。
例えば、通常の表面モデルの表示画像と、ボクセル信頼度ρsで擬似カラー化した表面モデルとを並べて表示する。この場合、同じサイズで表示しても良い。
その変形例として、術者等のユーザが、表面モデル上における病変候補として注目する部位や領域を図示しないマウス等の指示手段で指示した場合、CPU22は指示された領域部分に該当するボクセル信頼度をボクセル信頼度マップから読み出して表示するようにしても良い。
このように表面モデル上における各領域の信頼度を提示することができるので、術者が表面モデルを用いて病変診断等を行う場合、その信頼性の情報を提供でき、信頼性の確認を可能にすると共に信頼性を向上することができる。
次に2つ目の利用方法として、画像処理により、表面モデルを用いて病変候補の検出或いは病変候補の病変判断を行う場合、その検出結果或いは判断結果に対する信頼度の情報を提供する。
この場合の例として以下にボクセル信頼度マップを使用して大腸内のポリープ候補を抽出し、さらに検出(判定)する場合で説明する。
図14は本実施例におけるポリープ候補抽出判定処理プログラムと、これに使用されるデータを示すブロック図である。
この処理が開始すると、CPU22は、図1の処理プログラム記憶部23に格納されたポリープ候補抽出判定処理プログラムを読み出し、このプログラムに従って図5に示すポリープ候補判定処理22cを開始する。
図14に示すように最初のステップS21においてCPU22は、画像処理装置3内にの画像記憶部24(図1参照)に格納された原画像51の例えばR信号成分を取り込み、エッジ抽出処理を行う。この場合、例えばR信号成分に対してバンドパスフィルタを適用することによりエッジ画像52を生成する。バンドパスフィルタによるエッジ抽出手法は公知の技術である。また、R信号成分の代わりに、原画像51の輝度成分を用いてエッジ画像52を生成しても良い。
次のステップS22においてCPU22は、エッジ画像52に対して2値化処理を行う。そして、この2値化処理により、2値化画像53を生成する。本実施例における2値化処理は、エッジ画像52の各画素の画素値と、規定の或いは所定の閾値との大小比較結果により、2値化画像53の各画素を0または1に決定する。
次のステップS23においてCPU22は、2値化画像53に対して公知の細線化手法を適用して、細線化画像54を生成する。
次のステップS24においてCPU22は、2次元画像としての細線化画像54から例えば隆起性病変としてのポリープの候補など屈曲したエッジ形状等、所定の特徴量を有する候補点を抽出する抽出処理を行う。この場合、CPU22は、細線化画像54から注目するエッジの端の2点とその中点、エッジ上の端2点を結ぶ直線上の中点を抽出して2次元画像の病変の候補点の情報55として保存する処理を行う。
この処理を図15を参照して説明する。図15(A)は細線化画像54を示し、CPU22は、この細線化画像54から判定処理を行おうとするエッジ部分を取得し、次に図15(B)に示すように、エッジの端2点t1とt2の抽出を行う。次にCPU22は、エッジの画素数を線分長D1(図示せず)として算出し、さらに1/2×D1となる中点t(図15(C)を算出する。
次にCPU22は、t1とt2を結ぶ直線を抽出し、その線分長D2(図示せず)を算出し、その後1/2×D2となる中点p(図15(D)を算出する。
次にCPU22は、算出した2次元画像の候補点の情報(エッジの端の2点t1、t2、その中点t、エッジ上の端2点t1,t2を結ぶ直線上の中点p)を保存する。
次に図14に示すステップS25においてCPU22は、2次元画像上の候補点に対応する3次元画像(表面モデル)上での候補点のデータを抽出する処理を行う。
つまり3次元表面モデル上における2次元画像上の候補点(エッジの端2点t1、t2、その中点t、エッジ上の端2点を結ぶ直線上の中点p)の座標を取得し、その候補点の座標の情報(3次元)56を保存する。
そして次のステップS26においてCPU22は、候補点の情報56を用いて(画像処理による)隆起性病変としてのポリープ候補の可能性の判定、つまりポリープ候補判定処理を行う。
このポリープ候補判定処理を図16に示す。なお、以下の説明では、2次元画像上における2点t1及びt2を結ぶ直線がx軸と平行となっている場合で説明する。
最初のステップS31においてCPU22は、上述の3次元の表面モデル上の候補点56の座標の情報を取得し、次のステップS32においてエッジの端2点t1,t2を結ぶ直線上の中点pのy座標pyを算出し、このpyと2点t1、t2を含むxz平面を算出する。中点pはエッジの端2点t1,t2を結ぶ直線上のy座標と同じ値であると近似する。
この場合の表面モデル上における候補点56付近を図17に示す。なお、この部分は例えば図13の符号G1で示す部分に該当する。
次のステップS33においてCPU22は、点tから点t1、t2、pyで決定されるxz平面に垂線を引き、この垂線の高さhを算出する。そして図17に示すように次のステップS34においてCPU22は、高さhと所定の閾値Tthとの大小を判定する。h>Tthであれば、ステップS35に進み、これ以外、つまりh≦Tthであれば、そのエッジ部分はポリープ候補ではないと判定して、この処理を終了する。
なお、ステップS33における点tは2次元画像上で点t1とt2との中点に設定された点(位置)であり、3次元の表面モデル上での点tの周辺部においても垂線の値を求め、その最大値を高さhとして算出するようにしても良い。
ステップS35においてCPU22は、図14のステップS24の処理において取得したエッジ部分をポリープ候補であると判定する。
なお、上記2点t1,t2がx軸と平行でない場合には、上記高さhの他に、点tからyz平面に至る高さ(hyとする)を算出して、これら2つの2乗した値の平方根を算出し、この算出値を閾値Tthと大小比較すれば良い。
次のステップS36においてCPU22は、例えば上記ポリープ候補であると判定に用いられたエッジ部分(点t1,t2,t、p(py)など)に対応する(ボクセルの)ボクセル信頼度をボクセル信頼度マップから抽出して、それらの平均値ρaを算出する。
そして、次のステップS37においてCPU22は、ポリープ候補と判定した部分を例えば他の部分とは異なる色等でユーザに分かるように表示モニタ4等で提示すると共に、その判定に対する信頼度を示す情報として、この平均値ρaを提示する。
そして、細線化画像に別のエッジがあれば同様の処理を行う。そして、全てのエッジに対して同様の処理を行った後、ポリープ候補判定の処理を終了する。
このように画像処理装置3により、例えば大腸検査による隆起性病変としての大腸ポリープ候補を提示する際に、同時にその判定結果に対する信頼度を示す情報を、例えば上記平均値ρaで提示する。
この平均値ρaは、ポリープ候補と判定する場合に用いられた部分のボクセル信頼度ρsを用いて算出されているため、ポリープ候補の判定結果を適切に評価する評価手段の1つとなる。
従って、術者は、該当する大腸ポリープ候補の信頼性を定量的に判断することが可能となる。このように、大腸ポリープ候補の判定機能の信頼度を定量的に判断することが可能になるため、術者による病変判定を補助する場合に有効な資料或いは情報となる。
なお、上述の説明において、例えばボクセル信頼度ρsを算出する場合、2次元画像上における輝度値の情報も含めるようにしても良い。
例えば、暗部とハレーションに該当する値(輝度値)を除外し、その場合における輝度値が大きいもの程大きな重み付け係数でボクセル信頼度に反映させるようにしても良い。つまり、輝度値が大きい部分は、輝度値が低い部分よりもノイズなどによる影響が少ないため、より信頼性が高い部分となる。このため、輝度値の情報をボクセル信頼度に反映させるようにしても良い。
なお、上述した実施例における変形例として、ボクセル信頼度マップとして、表面モデル上の全ての部分に対して(ボクセル信頼度の)マップを算出する場合に限らず、代表的な点のみで算出したものでも良い。或いは、病変の検出(判定)に用いる部分のボクセル信頼度のみを算出するようにしても良い。
なお、上述した例では、隆起性病変としてのポリープの候補を判定する場合で説明したが、本実施例は陥凹性病変の候補に対しても同様に適用することができる。この場合には高さhの代わりに深さh′を算出する。そして、この深さh′が閾値Tth′より大きい場合には、陥凹性病変の候補の判定を行い、これ以外の場合には候補でないと判定するようにすれば良い。
また、上述した実施例においては、例えばポリープ候補判定処理として、高さの閾値Tthの情報を用いて判定を行うようにしているが、この他に曲面形状を表す特徴量であるShape Index及びCurvednessを用いて、判定(検出)するようにしても良い。
この場合にも隆起性病変の場合に限らず、陥凹性病変の候補の判定を行うようにしても良い。また、高さの閾値Tthのみで判定する場合に限らず、その領域の大きさを表す例えばCurvednessの閾値を用いて、判定(検出)するようにしても良い。
また、上述した実施例の内容をその要旨を変更することなく組み合わせる等して変形した場合も本発明に属する。
[付記]
1.請求項7において、前記候補検出ステップは、前記所定の特徴量を有する候補として、隆起性若しくは陥凹性の特徴量を有する候補部位を検出(判定)する。
2.請求項4において、前記候補検出手段は、隆起性若しくは陥凹性の特徴量を有する部分を候補として抽出し、抽出した部分の高さ若しくは深さが閾値以上の場合に隆起性病変若しくは陥凹性病変として検出(判定)する。
画像処理により、2次元の内視鏡画像等の医療用画像から3次元の表面モデルを生成し、生成した表面モデルのデータを用いてポリープ等の病変候補の検出若しくは病変の可能性を判定する場合、その検出結果若しくは判定結果に用いた表面モデル各部のデータの信頼度を考慮して、検出結果等に対する信頼度の情報を提示する。これにより、術者は、より診断を適切に行い易くなる。
本発明の実施例1を備えた内視鏡システムの構成を示すブロック図。 大腸のような管状部位内に挿入された内視鏡により撮像する様子を示す図。 図2の内視鏡に設けられた撮像装置により撮像された内視鏡画像を示す図。 図3の内視鏡画像から生成される表面モデルを示す図。 CPUによる画像解析処理機能を示すブロック図。 表面モデルを生成する為の処理手順を示すフローチャート図。 撮像された画像の各画素に対応する物体上の対応点と光源等との位置関係を示す図。 光源からの光を物体の面で反射する様子などを示す図。 対応点の周囲に設定される複数の法線ベクトルを示す図。 図8(B)のベクトルmが2次元画像上の位置を通ることを示す図。 図6のステップS2で生成される表面モデルを示す図。 ボクセル信頼度マップを生成する処理内容及び使用されるデータ等を示す図。 図12のステップS12による距離算出の説明図。 ポリープ候補抽出判定を行う処理内容及び生成/使用される画像等を示す図。 図14のステップS24の動作説明図。 図14のステップS26のポリープ候補判定の処理内容を示すフローチャート図。 図16の処理の説明図。
符号の説明
1…内視鏡システム
2…内視鏡観察装置
3…(医療用)画像処理装置
4…表示モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
15…対物レンズ
16…CCD
17…撮像装置
21…画像入力部
22…CPU
22a…表面モデル生成機能
22b…ボクセル信頼度マップ生成機能
22c…ポリープ候補判定機能(ポリープ候補検出機能)
23…処理プログラム記憶部
24…画像記憶部
25…情報記憶部
25a…表面モデルデータ記憶部
25b…ボクセル信頼度マップ記憶部
27…ハードディスク
28…表示処理部
29…入力操作部
31…大腸
42…撮像面

Claims (7)

  1. 2次元の医療用画像から3次元の表面モデルの生成処理を行う表面モデル生成手段と、
    前記表面モデルを複数の領域に区分けして、複数の各領域におけるデータの信頼度を算出する領域信頼度算出手段と、
    を具備したことを特徴とする医療用画像処理装置。
  2. 前記2次元の医療用画像は、内視鏡により撮像された内視鏡画像であり、前記領域信頼度算出手段は、前記各領域と前記内視鏡の照明窓若しくは撮像窓との間の距離の情報、及び前記領域内に含まれる前記表面モデルを構成する構成データ点数の情報との少なくとも一方の情報を用いて前記領域信頼度を算出することを特徴とする請求項1に記載の医療用画像処理装置。
  3. さらに前記2次元の医療用画像若しくは前記表面モデルから、所定の特徴量を有する候補を検出する候補検出手段を有し、前記候補検出手段により検出された候補に対して、前記候補の検出に利用された前記表面モデルにおける前記各領域の領域信頼度を用いて、前記候補の検出結果に対する信頼度を算出することを特徴とする請求項1に記載の医療用画像処理装置。
  4. 前記候補検出手段は、前記所定の特徴量を有する候補として、隆起性若しくは陥凹性の特徴量を有する候補部位を検出することを特徴とする請求項3に記載の医療用画像処理装置。
  5. 2次元の医療用画像から3次元の表面モデルの生成処理を行う表面モデル生成ステップと、
    前記表面モデルを複数の領域に区分けして、複数の各領域におけるデータの信頼度を算出する領域信頼度算出ステップと、
    を具備したことを特徴とする医療用画像処理方法。
  6. 前記2次元の医療用画像は、内視鏡により撮像された内視鏡画像であり、前記領域信頼度算出ステップは、前記各領域と前記内視鏡の照明窓若しくは撮像窓との間の距離の情報、及び前記領域内に含まれる前記表面モデルの構成に利用された構成データ点数の情報との少なくとも一方の情報を用いて前記領域信頼度を算出することを特徴とする請求項5に記載の医療用画像処理方法。
  7. さらに前記2次元の医療用画像若しくは前記表面モデルから、所定の特徴量を有する候補を検出する候補検出ステップを有し、前記候補検出ステップにより検出された候補に対して、前記候補の検出に利用された前記表面モデルにおける前記各領域の領域信頼度を用いて、前記候補の検出結果に対する信頼度を算出することを特徴とする請求項5に記載の医療用画像処理方法。
JP2006069816A 2006-03-14 2006-03-14 医療用画像処理装置及び医療用画像処理方法 Active JP4832927B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006069816A JP4832927B2 (ja) 2006-03-14 2006-03-14 医療用画像処理装置及び医療用画像処理方法
EP07714978A EP1994876B1 (en) 2006-03-14 2007-02-27 Medical image processing apparatus and medical image processing method
PCT/JP2007/053585 WO2007119295A1 (ja) 2006-03-14 2007-02-27 医療用画像処理装置及び医療用画像処理方法
CN2007800068267A CN101389260B (zh) 2006-03-14 2007-02-27 医疗用图像处理装置和医疗用图像处理方法
US12/208,827 US8184146B2 (en) 2006-03-14 2008-09-11 Medical image processing apparatus and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006069816A JP4832927B2 (ja) 2006-03-14 2006-03-14 医療用画像処理装置及び医療用画像処理方法

Publications (2)

Publication Number Publication Date
JP2007244517A JP2007244517A (ja) 2007-09-27
JP4832927B2 true JP4832927B2 (ja) 2011-12-07

Family

ID=38589440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006069816A Active JP4832927B2 (ja) 2006-03-14 2006-03-14 医療用画像処理装置及び医療用画像処理方法

Country Status (5)

Country Link
US (1) US8184146B2 (ja)
EP (1) EP1994876B1 (ja)
JP (1) JP4832927B2 (ja)
CN (1) CN101389260B (ja)
WO (1) WO2007119295A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102483862B (zh) * 2009-09-11 2016-03-02 皇家飞利浦电子股份有限公司 对曲面重组的改进
JP5220780B2 (ja) * 2010-02-05 2013-06-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
CA2822882A1 (en) * 2011-01-07 2012-07-12 Landmark Graphics Corporation Systems and methods for the construction of closed bodies during 3d modeling
EP2672461A1 (de) * 2012-06-05 2013-12-11 a.tron3d GmbH Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
JP6196760B2 (ja) * 2012-08-10 2017-09-13 オリンパス株式会社 画像処理装置
EP3045104A4 (en) * 2013-09-13 2017-04-26 Olympus Corporation Image processing device, method, and program
KR20150049585A (ko) * 2013-10-30 2015-05-08 삼성전자주식회사 용종 검출 장치 및 그 동작방법
JP6346576B2 (ja) 2015-02-27 2018-06-20 Hoya株式会社 画像処理装置
US10438382B2 (en) * 2017-03-27 2019-10-08 Canon Kabushiki Kaisha Image processing apparatus and image processing method
CN110740676B (zh) * 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜图像处理方法以及记录介质
CN110769731B (zh) 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜用处理系统、图像处理方法
JP2019098005A (ja) * 2017-12-06 2019-06-24 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
JP6531202B2 (ja) * 2018-05-25 2019-06-12 Hoya株式会社 画像処理装置
JP6987243B2 (ja) * 2018-06-22 2021-12-22 オリンパス株式会社 ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム
JP2020022563A (ja) * 2018-08-06 2020-02-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
WO2020194693A1 (ja) 2019-03-28 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
CN114903408A (zh) * 2022-04-22 2022-08-16 华伦医疗用品(深圳)有限公司 一种具有诊断成像的内窥镜成像系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751341A (en) * 1993-01-05 1998-05-12 Vista Medical Technologies, Inc. Stereoscopic endoscope system
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system
JPH08256295A (ja) 1994-12-21 1996-10-01 Olympus Optical Co Ltd 画像処理装置
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6515657B1 (en) * 2000-02-11 2003-02-04 Claudio I. Zanelli Ultrasonic imager
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US7150716B2 (en) * 2003-02-20 2006-12-19 Siemens Medical Solutions Usa, Inc. Measuring transducer movement methods and systems for multi-dimensional ultrasound imaging

Also Published As

Publication number Publication date
EP1994876B1 (en) 2011-07-13
JP2007244517A (ja) 2007-09-27
EP1994876A4 (en) 2009-11-11
US8184146B2 (en) 2012-05-22
WO2007119295A1 (ja) 2007-10-25
EP1994876A1 (en) 2008-11-26
US20090073257A1 (en) 2009-03-19
CN101389260A (zh) 2009-03-18
CN101389260B (zh) 2011-02-16

Similar Documents

Publication Publication Date Title
JP4832927B2 (ja) 医療用画像処理装置及び医療用画像処理方法
KR100890102B1 (ko) 의료 화상 처리 장치 및 의료 화상 처리 방법
EP1994878B1 (en) Medical image processing device and medical image processing method
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
JP4994737B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP6112879B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP4902735B2 (ja) 医療用画像処理装置及び医療用画像処理方法
US8165367B2 (en) Medical image processing apparatus and medical image processing method having three-dimensional model estimating
WO2012153568A1 (ja) 医用画像処理装置及び医用画像処理方法
JP5856999B2 (ja) 医用画像処理装置
JP5078486B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
JP2006187470A (ja) 医療画像処理装置
CN115209782A (zh) 内窥镜系统和基于内窥镜系统的管腔扫描方法
JP4981335B2 (ja) 医療用画像処理装置及び医療用画像処理方法
WO2019087969A1 (ja) 内視鏡システム、報知方法、及びプログラム
JP4981336B2 (ja) 医療用画像処理装置及び医療用画像処理方法
WO2008044365A1 (fr) Dispositif de traitement d&#39;image médicale et procédé de traitement d&#39;image médicale
JP4668624B2 (ja) 食道粘膜用画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110921

R151 Written notification of patent or utility model registration

Ref document number: 4832927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250