JP4981335B2 - 医療用画像処理装置及び医療用画像処理方法 - Google Patents

医療用画像処理装置及び医療用画像処理方法 Download PDF

Info

Publication number
JP4981335B2
JP4981335B2 JP2006063233A JP2006063233A JP4981335B2 JP 4981335 B2 JP4981335 B2 JP 4981335B2 JP 2006063233 A JP2006063233 A JP 2006063233A JP 2006063233 A JP2006063233 A JP 2006063233A JP 4981335 B2 JP4981335 B2 JP 4981335B2
Authority
JP
Japan
Prior art keywords
voxel
voxel group
shape
group
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006063233A
Other languages
English (en)
Other versions
JP2007236629A (ja
Inventor
涼子 井上
博一 西村
秀樹 田中
健次 中村
美穂 沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2006063233A priority Critical patent/JP4981335B2/ja
Priority to PCT/JP2007/052346 priority patent/WO2007102295A1/ja
Priority to EP07714002.8A priority patent/EP1992273B1/en
Priority to CN2007800046978A priority patent/CN101378692B/zh
Publication of JP2007236629A publication Critical patent/JP2007236629A/ja
Priority to US12/204,330 priority patent/US8086005B2/en
Priority to US12/204,375 priority patent/US8165367B2/en
Application granted granted Critical
Publication of JP4981335B2 publication Critical patent/JP4981335B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Description

本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、体腔内の生体組織の三次元モデルにおける隆起形状を検出可能な医療用画像処理装置及び医療用画像処理方法に関するものである。
内視鏡及び医療用画像処理装置等を具備して構成される内視鏡システムは、医療分野等において広く用いられている。具体的には、内視鏡システムは、例えば、生体としての体腔内に挿入される挿入部と、該挿入部の先端部に配置された対物光学系と、該対物光学系により結像された体腔内の像を撮像して撮像信号として出力する撮像部とを有して構成される内視鏡と、該撮像信号に基づき、表示部としてのモニタ等に該体腔内の像を画像表示させるための処理を行う医療用画像処理装置とを具備して構成されている。そして、ユーザは、表示部としてのモニタ等に画像表示された体腔内の像に基づき、例えば、体腔内における被写体としての臓器等の観察を行う。
また、前述した構成を具備する内視鏡システムは、体腔内における被写体として、例えば、大腸等の消化管粘膜の像を撮像することもまた可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することができる。
さらに、近年においては、内視鏡により撮像された被写体の像の撮像信号に応じた二次元画像のデータに基づき、該被写体の三次元モデルを生成することが可能である、例えば、特許文献1に記載されているような内視鏡装置が提案されている。
一方、三次元モデルにおいてポリープ等の病変部位を検出するための方法として、例えば、ShapeIndex及びCurvednessといった、曲率に基づく形状特徴量を用いつつ該三次元モデルの形状の評価を行うことにより、該三次元モデルにおける病変部位を検出可能である、特許文献2に記載されている方法が提案されている。
特開平11−337845号公報 US Patent Application No.20030223627
特に、内視鏡により撮像された隆起形状を有する生体組織の像としての、例えば、大腸のひだまたはポリープ等の生体組織の像を含む二次元画像は、該内視鏡の視野方向に対して不可視領域を含む場合が多い。そして、前述した二次元画像における不可視領域は、一般的にオクルージョンと呼ばれており、正確な三次元モデルの推定が困難な領域である。そのため、二次元画像のオクルージョンが発生している部分においては、例えば、該二次元画像に基づく三次元モデルの対応する位置に推定結果が存在しない、または、該二次元画像に基づく三次元モデルの対応する位置に信頼性の低い推定結果が算出されるといったことが起こり得る。
その結果、従来の画像処理としての、例えば、特許文献1の内視鏡装置において行われている画像処理により推定された被写体の三次元モデルが用いられつつ該被写体の観察が行われた場合、ユーザがポリープ等の病変部位を見つける際の負担が大きくなってしまうという課題が生じている。
また、特許文献2において提案されているポリープ等の病変部位を検出するための方法は、例えば、CT(Computed Tomograpy)を用いた観察により得られる、オクルージョンとなる部分が発生しない三次元モデルに対する適用を想定した方法である。そのため、特許文献2において提案されているポリープ等の病変部位を検出するための方法は、例えば、内視鏡を用いた観察により得られる、オクルージョンとなる部分を有する二次元画像に基づいて推定された三次元モデルに対して適用された場合に、ポリープ等の病変部位の検出精度が低下してしまう。その結果、特許文献2において提案されている方法が採用された内視鏡システムが用いられつつ被写体の観察が行われた場合、ユーザがポリープ等の病変部位を見つける際の負担が大きくなってしまうという課題が生じている。
本発明は、前述した点に鑑みてなされたものであり、オクルージョンを有する二次元画像に基づいて推定された三次元モデルを用いて観察が行われる場合に、ユーザによるポリープ等の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させることのできる医療用画像処理装置及び医療用画像処理方法を提供することを目的としている。
本発明における第1の医療用画像処理装置は、入力される体腔内の生体組織の像の二次元画像に基づき、前記二次元画像の輝度情報から前記二次元画像における各ピクセルに対応するボクセルを生成する幾何学的な変換処理により、該生体組織の三次元モデルを推定する三次元モデル推定部と、前記生体組織の三次元モデルが有する各ボクセルの形状特徴量を算出する形状特徴量算出部と、前記形状特徴量に基づき、前記生体組織の三次元モデルが有する各ボクセルのうち、三次元モデルが凸型形状または尾根型形状のうちの少なくとも1つとして推定された第1のボクセル群を抽出する三次元形状抽出部と、前記第1のボクセル群を、前記生体組織の三次元モデルにおける隆起形状を構成するボクセル群として検出する隆起形状検出部と、を有する。
本発明における第2の医療用画像処理装置は、前記第1の医療用画像処理装置において、さらに、入力される前記二次元画像における可視領域と不可視領域とを検出する領域検出部を有し、前記三次元モデル推定部は、さらに前記不可視領域内の前記可視領域と前記不可視領域の境界に対して対称な位置に、前記可視領域において推定した各ボクセルを添加する。
本発明における第3の医療用画像処理装置は、前記第2の医療用画像処理装置において、前記領域検出部は、入力される前記二次元画像における線構造の情報を取得するとともに、前記線構造の情報に基づいて境界部を検出することにより、該境界部を境に前記可視領域と前記不可視領域とが分かれているとする。
本発明における第の医療用画像処理装置は、前記第1の医療用画像処理装置において、さらに、前記三次元形状抽出部は、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、該第2のボクセル群と該第3のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出する。
本発明における第の医療用画像処理装置は、前記第2の医療用画像処理装置において、さらに、前記三次元形状抽出部は、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出する。
本発明における第の医療用画像処理装置は、前記第または第の医療用画像処理装置において、さらに、前記三次元形状抽出部は、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在するか否かを、前記第2のボクセル群の平均座標と、前記第3のボクセル群の平均座標との間の距離に基づいて判定する。
本発明における第の医療用画像処理装置は、前記第2または第3の医療用画像処理装置において、さらに、前記形状特徴量算出部は、前記可視領域における各ボクセルにおいてのみ、前記形状特徴量を算出する。
本発明における第の医療用画像処理装置は、前記第3の医療用画像処理装置において、前記形状特徴量算出部は、一のボクセルの周辺領域に存在するボクセルに関する情報である周辺領域ボクセル情報に基づいて該一のボクセルの形状特徴量を算出するとともに、前記境界部を含むボクセルが該周辺領域内に存在することを検知した場合、該一のボクセルの形状特徴量を算出する際に用いる周辺ボクセル情報を減らす。
本発明における第1の医療用画像処理方法は、入力される体腔内の生体組織の像の二次元画像に基づき、前記二次元画像の輝度情報から前記二次元画像における各ピクセルに対応するボクセルを生成する幾何学的な変換処理により、該生体組織の三次元モデルを推定する三次元モデル推定ステップと、前記生体組織の三次元モデルが有する各ボクセルの形状特徴量を算出する形状特徴量算出ステップと、前記形状特徴量に基づき、前記生体組織の三次元モデルが有する各ボクセルのうち、三次元モデルが凸型形状または尾根型形状のうちの少なくとも1つとして推定された第1のボクセル群を抽出する三次元形状抽出ステップと、前記第1のボクセル群を、前記生体組織の三次元モデルにおける隆起形状を構成するボクセル群として検出する隆起形状検出ステップと、を有する。
本発明における第2の医療用画像処理方法は、前記第1の医療用画像処理方法において、さらに、入力される前記二次元画像における可視領域と不可視領域とを検出する領域検出ステップを有し、前記三次元モデル推定ステップは、さらに前記不可視領域内の前記可視領域と前記不可視領域の境界に対して対称な位置に、前記可視領域において推定した各ボクセルを添加する。
本発明における第3の医療用画像処理方法は、前記第2の医療用画像処理方法において、前記領域検出ステップは、入力される前記二次元画像における線構造の情報を取得するとともに、前記線構造の情報に基づいて境界部を検出することにより、該境界部を境に前記可視領域と前記不可視領域とが分かれているとする。
本発明における第の医療用画像処理方法は、前記第1の医療用画像処理方法において、さらに、前記三次元形状抽出ステップは、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、該第2のボクセル群と該第3のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出する。
本発明における第の医療用画像処理方法は、前記第2の医療用画像処理方法において、さらに、前記三次元形状抽出ステップは、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出する。
本発明における第の医療用画像処理方法は、前記第または第の医療用画像処理方法において、さらに、前記三次元形状抽出ステップは、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在するか否かを、前記第2のボクセル群の平均座標と、前記第3のボクセル群の平均座標との間の距離に基づいて判定する。
本発明における第の医療用画像処理方法は、前記第2または第3の医療用画像処理方法において、さらに、前記形状特徴量算出ステップは、前記可視領域における各ボクセルにおいてのみ、前記形状特徴量を算出する。
本発明における第の医療用画像処理方法は、前記第3の医療用画像処理方法において、前記形状特徴量算出ステップは、一のボクセルの周辺領域に存在するボクセルに関する情報である周辺領域ボクセル情報に基づいて該一のボクセルの形状特徴量を算出するとともに、前記境界部を含むボクセルが該周辺領域内に存在することを検知した場合、該一のボクセルの形状特徴量を算出する際に用いる周辺ボクセル情報を減らす。
本発明における医療用画像処理装置及び医療用画像処理方法によると、オクルージョンを有する二次元画像に基づいて推定された三次元モデルを用いて観察が行われる場合に、ユーザによるポリープ等の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させることができる。
以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施形態)
図1から図10は、本発明の第1の実施形態に係るものである。図1は、本実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図である。図2は、図1の内視鏡が管状器官内に挿入された場合の状態を示す模式図である。図3は、図2の状態において、内視鏡により撮像される管状器官及び生体組織の像を示す模式図である。図4は、第1の実施形態において、生体組織の像の二次元画像におけるエッジ部を抽出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャートである。図5は、第1の実施形態において、生体組織の像の二次元画像における表面部を抽出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャートである。図6は、第1の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャートである。図7は、図1の医療用画像処理装置により推定された、生体組織の三次元モデルの一例を示す図である。図8は、図7の生体組織の三次元モデルを他の方向から見た場合の図である。図9は、図7及び図8の生体組織の三次元モデルにおける境界近似平面を示す図である。図10は、図7及び図8の生体組織の三次元モデルにおいて、図9に示す境界近似平面に基づく鏡像が添加された場合の一例を示す図である。
内視鏡システム1は、図1に示すように、被写体を撮像するとともに、該被写体の像の二次元画像を出力する医療用観察装置2と、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される二次元画像の映像信号に対して画像処理を行うとともに、該画像処理を行った後の映像信号を画像信号として出力する医療用画像処理装置3と、医療用画像処理装置3から出力される画像信号に基づく画像を表示するモニタ4とを有して要部が構成されている。
また、医療用観察装置2は、体腔内に挿入されるとともに、該体腔内の被写体を撮像して撮像信号として出力する内視鏡6と、内視鏡6により撮像される被写体を照明するための照明光を供給する光源装置7と、内視鏡6に対する各種制御を行うとともに、内視鏡6から出力される撮像信号に対して信号処理を行い、二次元画像の映像信号として出力するカメラコントロールユニット(以降、CCUと略記する)8と、CCU8から出力される二次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するモニタ9とを有して要部が構成されている。
内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。
ライトガイド13は、先端側が内視鏡6の先端部14に配置されるとともに、後端側が光源装置7に接続される。ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。
内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。
撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動するとともに、CCU8に対し、撮像した被写体の像に応じた撮像信号を出力する。
また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、二次元画像の映像信号として変換されて出力される。CCU8から出力された二次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9には、CCU8から出力される映像信号に基づく被写体の像が二次元の画像として表示される。
医療用画像処理装置3は、医療用観察装置2から出力される二次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22が行う画像処理における演算結果等を記憶する情報記憶部25とを有する。
また、医療用画像処理装置3は、記憶装置インターフェース26と、記憶装置インターフェース26を介してCPU22の画像処理結果としての画像データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うとともに、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボード等により構成される入力操作部29とを有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。
なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29は、データバス30を介して相互に接続されている。
次に、内視鏡システム1の作用について説明を行う。
まず、ユーザは、図2に示すように、例えば、大腸等である管状器官31内に内視鏡6の挿入部11を挿入する。そして、ユーザにより挿入部11が管状器官31に挿入されると、例えば、管状器官31の内壁に存在する病変部位である生体組織31Aの像が、先端部14に設けられた撮像部17により、図3に示すような像として撮像される。そして、図3に示すような像として撮像部17により撮像された、管状器官31及び生体組織31Aの像は、撮像信号としてCCU8に対して出力される。
CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を二次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、管状器官31及び生体組織31Aの像を、例えば、図3に示すような二次元の画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた二次元画像の映像信号を、医療用画像処理装置3に対して出力する。
医療用画像処理装置3に対して出力された二次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。
CPU22は、画像入力部21から出力された二次元画像の映像信号と、処理プログラム記憶部23に書き込まれた処理プログラムとに基づき、例えば、以降に述べるような処理を行うことにより、該二次元画像における生体組織31Aのエッジ部を抽出する。
まず、CPU22は、画像入力部21から出力された二次元画像の映像信号に基づき、例えば、該二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該二次元画像に含まれる全てのエッジ部を抽出する(図4のステップS1)。
その後、領域検出部としての機能を有するCPU22は、抽出した全てのエッジ部を細線化する(図4のステップS2)とともに、細線化した該全てのエッジ部のうち、一のエッジ部Eの長さLを算出する(図4のステップS3)。さらに、CPU22は、一のエッジ部Eの長さLが、閾値thL1より長く、かつ、閾値thL2より短いか否かの判断を行う。
そして、CPU22は、一のエッジ部Eの長さLが、所定の閾値thL1以下の長さであること、または、閾値thL2以上であることを検出した場合(図4のステップS4)、後述する図4のステップS11に示す処理を行う。また、CPU22は、一のエッジ部Eの長さLが、閾値thL1より長く、かつ、閾値thL2より短いことを検出した場合(図4のステップS4)、該一のエッジ部Eを制御点Cn(n=1,2,…,N)によりN等分する(図4のステップS5)。
さらに、CPU22は、一のエッジ部Eの中点Ccから引いた法線NCcを取得するとともに、各制御点Cnから引いたN本の法線NCnを取得する(図4のステップS6)。その後、CPU22は、N本の法線NCnのうち、法線NCcと交わるものの本数Naを検出する(図4のステップS7)。
また、CPU22は、N本の法線NCnのうち、法線NCcと交わるものの本数Naが、閾値thaより多いか否かの判断を行う。そして、領域検出部としての機能を有するCPU22は、法線NCcと交わるものの本数Naが閾値thaより多いことを検出した場合(図4のステップS8)、一のエッジ部Eに含まれるピクセル群ipを生体組織31Aのエッジ部に含まれるピクセル群であると判断し、該ピクセル群ipが有する各ピクセルにおける変数edge(i)の値をONとする(図4のステップS9)。さらに、そして、CPU22は、法線NCcと交わるものの本数Naが閾値tha以下であることを検出した場合(図4のステップS8)、一のエッジ部Eに含まれるピクセル群ipを生体組織31Aのエッジ部に含まれるピクセル群ではないと判断し、該ピクセル群ipが有する各ピクセルにおける変数edge(i)の値をOFFとする(図4のステップS10)。
換言すると、領域検出部としての機能を有するCPU22は、前述した処理を行うことにより、変数edge(i)の値がONであるピクセル群を境に、二次元画像における可視領域と不可視領域とが分かれていると判断する。
CPU22は、抽出した全てのエッジ部に対し、処理が完了したか否かを判断する。そして、CPU22は、抽出した全てのエッジ部に対しての処理が完了していないことを検出した場合(図4のステップS11)、他の一のエッジ部に対し、前述した、図4のステップS3から図4のステップS10までの処理を行う。また、CPU22は、抽出した全てのエッジ部に対しての処理が完了したことを検出した場合(図4のステップS11)、二次元画像における生体組織31Aのエッジ部を抽出するための一連の処理を終了する。
その後、CPU22は、前述した、二次元画像における生体組織31Aのエッジ部を抽出するための一連の処理を行うことにより得た処理結果としての、二次元画像の各エッジ部に含まれるピクセル群ipにおける変数edge(i)の値を、情報記憶部25に一時的に記憶させる。
CPU22は、情報記憶部25に記憶された変数edge(i)の値と、処理プログラム記憶部23に書き込まれた処理プログラムとに基づき、例えば、前述した図4に示す処理を行った後、さらに以降に述べるような処理を行うことにより、該二次元画像における生体組織31Aの表面部を抽出する。
まず、CPU22は、情報記憶部25に記憶された変数edge(i)の値に基づき、変数edge(i)がONである一のエッジ部Eの細線を取得する(図5のステップS21)。その後、CPU22は、変数edge(i)がONである一のエッジ部Eの細線における両端の点を取得する(図5のステップS22)。
そして、CPU22は、変数edge(i)がONである一のエッジ部Eの細線と、前述した図5のステップS22において取得した該細線の両端の点を結んだ線とに囲まれるピクセル群jpを、生体組織31Aの二次元画像における可視領域、すなわち、生体組織31Aの表面部に含まれるピクセル群であるとし、該ピクセル群jpが有する各ピクセルにおける変数omote(j)をONとする(図5のステップS23)。
CPU22は、変数edge(i)がONである全てのエッジ部に対し、処理が完了したか否かを判断する。そして、CPU22は、変数edge(i)がONである全てのエッジ部に対しての処理が完了していないことを検出した場合(図5のステップS24)、他の一のエッジ部に対し、前述した、図5のステップS21から図5のステップS23までの処理を行う。また、CPU22は、抽出した全てのエッジ部に対しての処理が完了したことを検出した場合(図5のステップS24)、二次元画像における生体組織31Aの表面部を抽出するための一連の処理を終了する。
その後、CPU22は、前述した、二次元画像における生体組織31Aの表面部を抽出するための一連の処理を行うことにより得た処理結果としての、二次元画像の各表面部に含まれるピクセル群jpにおける変数omote(j)の値を、情報記憶部25に一時的に記憶させる。
そして、三次元モデル推定部としての機能を有するCPU22は、例えば、幾何学的な変換等の処理により、画像入力部21から出力された二次元画像の映像信号の輝度情報等に基づき、管状器官31及び生体組織31Aの三次元モデルを推定する際に必要となる画像データを取得するための画像処理を行う。換言すると、CPU22は、例えば、幾何学的な変換等の処理により、二次元画像における各ピクセルに対応するボクセルを生成するとともに、該ボクセルを、三次元モデルを推定するための画像データとして取得する。すなわち、ピクセル群ip及びピクセル群jpは、前述した処理により、ボクセル群ib及びボクセル群jbとして変換される。
CPU22は、前述した処理により、図3に示した生体組織31Aの三次元モデルを推定するための画像データとして、変数omote(j)がONであるボクセル群jbを含む平面である生体組織表面部31aのデータと、変数edge(i)がONであるボクセル群ibを含む平面である生体組織境界部31bのデータとを得る。これにより、生体組織31Aは、例えば、z軸方向を内視鏡6による観察時の視野方向とした場合、図7に示すような形状を有する三次元モデルとして推定される。
ところで、以上までの処理が行われることにより、図7に示すような形状を有する三次元モデルとして推定された生体組織31Aは、x軸方向から見た場合、例えば、図8に示すような領域に不可視領域31cを有する。CPU22は、生体組織表面部31aのデータと、生体組織境界部31bのデータとに基づき、さらに、以降に述べるような処理を行うことにより、生体組織31Aの不可視領域31cの三次元モデルを推定するとともに、推定した生体組織31Aの三次元モデルにおける隆起形状を検出する。
まず、CPU22は、処理プログラム記憶部23に書き込まれた処理プログラムと、生体組織境界部31bのデータとに基づき、生体組織境界部31bのボクセル群ibが有する各ボクセルを最も多く含む平面である、例えば、図9に示すような平面である、近似平面31dを算出する(図6のステップS31)。
次に、CPU22は、生体組織表面部31aのデータに基づき、不可視領域31cの所定の位置に新しいボクセルを添加する。具体的には、CPU22は、生体組織表面部31aのデータに基づき、前記所定の位置として、生体組織表面部31aが有する各ボクセルから、近似平面31dに対して対称となる位置に新しいボクセルを添加する(図6のステップS32)。CPU22が前述した処理を行うことにより、生体組織31Aは、例えば、図10に示すような、生体組織表面部31aと、該生体組織表面部31aの鏡像として生成された生体組織裏面部31eとを有する三次元モデルとして推定される。すなわち、前述した、生体組織31Aの不可視領域31cの三次元モデルは、生体組織裏面部31eとして推定される。
その後、CPU22は、管状器官31及び生体組織31Aの三次元モデルを推定するための画像データとして得た全てのボクセルである、P個のボクセル各々に対し、以降に述べるような処理をさらに行う。
形状特徴量算出部としての機能を有するCPU22は、変数iを1に設定した(図6のステップS33)後、P個のボクセルのうち、一のボクセルであるBi(i=1,2,…,P−1,P)を抽出するとともに(図6のステップS34)、該一のボクセルBiにおける形状特徴量として、ShapeIndex値SBi及びCurvedness値CBiを算出する(図6のステップS35)。
なお、前述したShapeIndex値及びCurvedness値は、例えば、US Patent Application No.20030223627に記載されている方法と同様の方法を用いることにより算出可能である。そのため、本実施形態においては、一のボクセルBiにおけるShapeIndex値及びCurvedness値の算出方法に関しては、説明を省略する。
さらに、三次元形状抽出部としての機能を有するCPU22は、ShapeIndex値SBiと、予め設定されたShapeIndex値の閾値Sthとの比較を行うとともに、Curvedness値CBiと、予め設定されたCurvedness値の閾値Cthとの比較を行う。換言すると、CPU22は、前述した処理を行うことにより、生体組織31Aが隆起形状であるか否かを検出するための処理として、三次元モデルが凸型形状と推定されたボクセル群を抽出する処理を行う。なお、図6に示す一連の処理においては、隆起形状として凸型形状を有する生体組織31Aを検出するために、例えば、閾値Sthは0.9として設定されているとし、また、閾値Cthは0.2として設定されているとする。
そして、隆起形状検出部としての機能を有するCPU22は、ShapeIndex値SBiが閾値Sthより大きく、かつ、Curvedness値CBiが閾値Cthより大きいことを検出した場合(図6のステップS36)、一のボクセルBiを隆起形状の一部を構成するボクセルであると判断し、該一のボクセルBiにおける変数ryuuki(Bi)の値をONとする(図6のステップS37)。
また、CPU22は、ShapeIndex値SBiが閾値Sth以下であること、または、Curvedness値CBiが閾値Cth以下であることを検出した場合(図6のステップS36)、一のボクセルBiを隆起形状の一部を構成するボクセルではないと判断し、該一のボクセルBiにおける変数ryuuki(Bi)の値をOFFとする(図6のステップS38)。
その後、CPU22は、P個のボクセル全てにおいて、前述した処理が行われたかどうか、すなわち、変数i=Pであるか否かの判定を行う。
そして、CPU22は、i=Pではないことを検知した場合(図6のステップS39)、変数iに1を加える処理を行った(図6のステップS40)後、前述した、図6のステップS34からステップS39に示す処理を再度行う。
また、CPU22は、i=Pであることを検知した場合(図6のステップS39)、生体組織31Aの三次元モデルにおける隆起形状を検出するための一連の処理を完了する。
そして、CPU22は、例えば、ryuuki(Bi)の値がONであるボクセルを有する三次元モデルにおいて、生体組織31Aが隆起形状であることを示すための文字列または着色等を該三次元モデルに重畳させるような制御を表示処理部28に対して行う。これにより、モニタ4には、隆起形状を有する生体組織31Aをユーザが容易に発見可能であるような、管状器官31及び生体組織31Aの三次元モデルが画像表示される。
また、CPU22は、ryuuki(Bi)の値がONである各ボクセルの位置に基づき、該各ボクセルの位置に対応する位置に存在する二次元画像上の各ピクセルを検出するとともに、生体組織31Aが隆起形状であることを示すための文字列または着色等を、該各ピクセルを有する該二次元画像に重畳させるような制御を表示処理部28に対して行うものであっても良い。
本実施形態の医療用画像処理装置3は、以上に述べた一連の処理を行うことにより、ユーザによるポリープ等の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させることができる。
(第2の実施形態)
図11及び図12は、本発明の第2の実施形態に係るものである。なお、第1の実施形態と同様の構成を持つ部分については、詳細説明は省略する。また、第1の実施形態と同様の構成要素については、同一の符号を用いて説明は省略する。さらに、本実施形態に用いる内視鏡システム1の構成は、第1の実施形態と同様である。
図11は、第2の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の概要の一例を示す図である。図12は、第2の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の概要の、図11とは異なる例を示す図である。
第1の実施形態の説明において述べた一連の処理の際に算出される、形状特徴量としてのShapeIndex値及びCurvedness値は、ガウス曲率及び平均曲率の2つの値に基づいて算出される値である。そのため、CPU22は、ShapeIndex値及びCurvedness値の2つの値の代わりに、ガウス曲率及び平均曲率の2つの値を形状特徴量として算出して処理を行うものであっても良い。そして、その場合、CPU22は、第1の実施形態において述べた、図6のステップS35に示す処理に相当する処理として、以降に記す内容の処理を行う。
形状特徴量算出部としての機能を有するCPU22は、一のボクセルの周辺領域に存在するボクセルに関する情報である周辺ボクセル情報として、例えば、第1のボクセルを含むM×M×M個のボクセル群からなる局所領域の局所平面方程式を算出する。そして、形状特徴量算出部としての機能を有するCPU22は、前記周辺ボクセル情報に基づき、前記M×M×M個のボクセル群に含まれる前記第1のボクセルのガウス曲率及び平均曲率を算出する。
具体的には、CPU22は、例えば、図11に示すように、所望の第1のボクセルを含む5×5×5個のボクセル群からなる前記局所領域の局所平面方程式を周辺ボクセル情報として算出するとともに、該周辺ボクセル情報に基づき、該所望の第1のボクセルのガウス曲率及び平均曲率を算出する。
また、形状特徴量算出部としての機能を有するCPU22は、変数edge(i)がONであるボクセル群ibに含まれる各ボクセルのうち、少なくとも1個のボクセルが前記局所領域内に含まれていることを検知した場合、さらに、周辺ボクセル情報として、例えば、第2のボクセルを含むK×K×K個(K<M)のボクセル群からなる前記局所領域の局所平面方程式を算出する。そして、形状特徴量算出部としての機能を有するCPU22は、前記周辺ボクセル情報に基づき、前記K×K×K個のボクセル群に含まれる前記第2のボクセルのガウス曲率及び平均曲率を算出する。
具体的には、CPU22は、例えば、図12に示すように、所望の第2のボクセルを含む3×3×3個のボクセル群からなる前記局所領域の局所平面方程式を周辺ボクセル情報として算出するとともに、該周辺ボクセル情報に基づき、該所望の第2のボクセルのガウス曲率及び平均曲率を算出する。
CPU22は、前述した処理を行うことにより、隆起形状の一部を構成するボクセルをより多く抽出することができる。その結果、本実施形態の医療用画像処理装置3は、ユーザによるポリープ等の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させるとともに、該病変部位の検出精度を向上させることができる。
なお、CPU22は、前述した、生体組織31Aの三次元モデルに対する処理において、推定結果の信頼性が比較的低い不可視領域31cの形状特徴量を算出することなく、かつ、推定結果の信頼性が比較的高い、可視領域である生体組織表面部31a及び生体組織境界部31b近傍の形状特徴量のみを算出する処理を行うものであっても良い。その場合、本実施形態の医療用画像処理装置3は、ポリープ等の病変部位をより精度良く検出することができる。
(第3の実施形態)
図13、図14及び図15は、本発明の第3の実施形態に係るものである。なお、第1の実施形態と同様の構成を持つ部分については、詳細説明は省略する。また、第1の実施形態と同様の構成要素については、同一の符号を用いて説明は省略する。さらに、本実施形態に用いる内視鏡システム1の構成は、第1の実施形態と同様である。
図13は、図1の医療用画像処理装置により推定された生体組織の三次元モデルの、図7及び図8とは異なる例を示す図である。図14は、第3の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャートである。図15は、図13の生体組織の三次元モデルにおいて、凸型形状と推定されたボクセル群の平均座標A及び尾根型形状と推定されたボクセル群の平均座標Bの位置関係の一例を示す図である。
第1の実施形態の説明において述べた一連の処理において、CPU22は、生体組織31Aの不可視領域31cの三次元モデルとしての生体組織裏面部31eを推定するための処理(図6のステップS32に示す処理)を行うことなく、例えば、生体組織表面部31aが有する各ボクセルから、近似平面31dに対称となる位置に仮想的に存在する各ボクセルの形状特徴量を算出するとともに、算出した該形状特徴量に基づき、該位置に隆起形状が存在するか否かの判定を行うものであっても良い。
ところで、CPU22が生体組織31Aの二次元画像から三次元モデルを推定する際には、第1の実施形態の説明において述べたように、例えば、輝度情報に基づく処理が行われる。そのため、生体組織31Aの二次元画像における可視領域と不可視領域との境界部分(エッジ部)が通常に比べて暗めの輝度情報を有している場合、生体組織31Aは、実際の形状が凸型形状であったとしても、内視鏡6による観察時の視野方向(または管腔中心方向)としてのz軸方向に存在する不可視領域に尾根型形状を有する、例えば、図13に示すような形状の三次元モデルとして推定される可能性がある。
そのような場合、CPU22が以降に記す処理を行うことにより、三次元モデルとして推定された生体組織31Aが隆起形状であるか否かが検出される。
まず、CPU22は、変数jを1に設定した(図14のステップS41)後、三次元モデルにおける一の曲平面が有するQ個のボクセルのうち、一のボクセルであるBj(j=1,2,…,Q−1,Q)を抽出するとともに(図14のステップS42)、該一のボクセルBjにおける形状特徴量として、ShapeIndex値SBj及びCurvedness値CBjを算出する(図14のステップS43)。
さらに、CPU22は、ShapeIndex値SBjと、予め設定されたShapeIndex値の閾値Sth1との比較を行うとともに、Curvedness値CBjと、予め設定されたCurvedness値の閾値Cth1との比較を行う。換言すると、CPU22は、前述した処理を行うことにより、生体組織31Aが隆起形状であるか否かを検出するための処理として、三次元モデルが凸型形状と推定されたボクセル群を抽出する処理を行う。なお、図14に示す一連の処理においては、隆起形状として凸型形状を有する生体組織31Aを検出するために、例えば、閾値Sth1は0.9として設定されているとし、また、閾値Cth1は0.2として設定されているとする。
そして、CPU22は、ShapeIndex値SBjが閾値Sth1より大きく、かつ、Curvedness値CBjが閾値Cth1より大きいことを検出した場合(図14のステップS44)、一のボクセルBjを隆起形状の一部を構成するボクセルの候補であると判断し、該一のボクセルBiにおける変数ryuuki1(Bj)の値をONとする(図14のステップS45)。
また、CPU22は、ShapeIndex値SBjが閾値Sth1以下であるか、または、Curvedness値CBjが閾値Cth1以下であることを検出した場合(図14のステップS44)、さらに、ShapeIndex値SBjと、予め設定されたShapeIndex値の閾値Sth2との比較を行う。なお、図14に示す一連の処理においては、隆起形状として尾根型形状を有する生体組織31Aを検出するために、例えば、閾値Sth2は0.75として設定されているとする。
CPU22は、ShapeIndex値SBjが閾値Sth2より大きいことを検出した場合(図14のステップS46)、該一のボクセルBiにおける変数ryuuki2(Bj)の値をONとする(図14のステップS47)。
その後、CPU22は、三次元モデルにおける一の曲平面が有する一の曲平面Q個のボクセル全てにおいて、前述した処理が行われたかどうか、すなわち、変数j=Qであるか否かの判定を行う。
そして、CPU22は、j=Qではないことを検知した場合(図14のステップS48)、変数jに1を加える処理を行った(図14のステップS49)後、前述した、図14のステップS42からステップS48に示す処理を再度行う。
また、CPU22は、j=Qであることを検知した場合(図14のステップS48)、例えば、図15に示すような、変数ryuuki1(Bj)がONであるボクセル群の平均座標A(X1,Y1,Z1)と、変数ryuuki2(Bj)がONであるボクセル群の平均座標B(X2,Y2,Z2)との間の距離Lを算出する(図14のステップS50)。その後、CPU22は、変数ryuuki1(Bj)がONであるボクセル群と、変数ryuuki2(Bj)がONであるボクセル群とが所定の範囲内に存在するか否かを、距離Lと、AB間の距離の閾値thLとの比較を行うことにより判定する。
CPU22は、距離Lが閾値thL以上であることを検知した場合(図14のステップS51)、変数ryuuki1(Bj)がONであるボクセル群及び変数ryuuki2(Bj)がONであるボクセル群を有する一の曲平面を、隆起形状を構成するボクセルではないと判断し、Q個のボクセル各々における変数ryuuki1(Bj)または変数ryuuki2(Bj)の値をOFFとする処理を行った(図14のステップS52)後、一連の処理を終了する。また、CPU22は、距離Lが閾値thLより小さいことを検知した場合(図14のステップS51)、変数ryuuki1(Bj)がONであるボクセル群及び変数ryuuki2(Bj)がONであるボクセル群を有する一の曲平面を、隆起形状を構成するボクセルであると判断し、Q個のボクセル各々における変数ryuuki1(Bj)または変数ryuuki2(Bj)の値をONとしたまま一連の処理を終了する。これにより、CPU22は、隆起形状を有する病変部位である、ポリープ等をより精度良く検出することができる。特に、CPU22は、本実施形態の一連の処理を行うことにより、略半球状に隆起した病変部位(ポリープ等)に加え、ユーザによる見落としが比較的生じやすい、例えば、略半円柱状の部位を有して隆起した病変部位(ポリープ等)の検出もまた行うことができる。その結果、本実施形態の医療用画像処理装置3は、ユーザによるポリープ等の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させることができる。
なお、本発明は、上述した各実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図。 図1の内視鏡が管状器官内に挿入された場合の状態を示す模式図。 図2の状態において、内視鏡により撮像される管状器官及び生体組織の像を示す模式図。 第1の実施形態において、生体組織の像の二次元画像におけるエッジ部を抽出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャート。 第1の実施形態において、生体組織の像の二次元画像における表面部を抽出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャート。 第1の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャート。 図1の医療用画像処理装置により推定された、生体組織の三次元モデルの一例を示す図。 図7の生体組織の三次元モデルを他の方向から見た場合の図。 図7及び図8の生体組織の三次元モデルにおける境界近似平面を示す図。 図7及び図8の生体組織の三次元モデルにおいて、図9に示す境界近似平面に基づく鏡像が添加された場合の一例を示す図。 第2の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の概要の一例を示す図。 第2の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の概要の、図11とは異なる例を示す図。 図1の医療用画像処理装置により推定された生体組織の三次元モデルの、図7及び図8とは異なる例を示す図。 第3の実施形態において、生体組織の三次元モデルにおける隆起形状を検出する場合に、図1の医療用画像処理装置が行う処理の手順を示すフローチャート。 図13の生体組織の三次元モデルにおいて、凸型形状と推定されたボクセル群の平均座標A及び尾根型形状と推定されたボクセル群の平均座標Bの位置関係の一例を示す図。
符号の説明
1・・・内視鏡システム、2・・・医療用観察装置、3・・・医療用画像処理装置、4,9・・・モニタ、6・・・内視鏡、7・・・光源装置、8・・・CCU、11・・・挿入部、12・・・操作部、13・・・ライトガイド、14・・・先端部、15・・・対物光学系、16・・・撮像素子、17・・・撮像部、21・・・画像入力部、22・・・CPU、23・・・処理プログラム記憶部、24・・・画像記憶部、25・・・情報記憶部、26・・・記憶装置インターフェース、27・・・ハードディスク、28・・・表示処理部、29・・・入力操作部、30・・・データバス、31・・・管状器官、31A・・・生体組織、31a・・・生体組織表面部、31b・・・生体組織境界部、31c・・・不可視領域、31d・・・近似平面、31e・・・生体組織裏面部

Claims (16)

  1. 入力される体腔内の生体組織の像の二次元画像に基づき、前記二次元画像の輝度情報から前記二次元画像における各ピクセルに対応するボクセルを生成する幾何学的な変換処理により、該生体組織の三次元モデルを推定する三次元モデル推定部と、
    前記生体組織の三次元モデルが有する各ボクセルの形状特徴量を算出する形状特徴量算出部と、
    前記形状特徴量に基づき、前記生体組織の三次元モデルが有する各ボクセルのうち、三次元モデルが凸型形状または尾根型形状のうちの少なくとも1つとして推定された第1のボクセル群を抽出する三次元形状抽出部と、
    前記第1のボクセル群を、前記生体組織の三次元モデルにおける隆起形状を構成するボクセル群として検出する隆起形状検出部と、
    を有することを特徴とする医療用画像処理装置。
  2. さらに、入力される前記二次元画像における可視領域と不可視領域とを検出する領域検出部を有し、
    前記三次元モデル推定部は、さらに前記不可視領域内の前記可視領域と前記不可視領域の境界に対して対称な位置に、前記可視領域において推定した各ボクセルを添加することを特徴とする請求項1に記載の医療用画像処理装置。
  3. 前記領域検出部は、入力される前記二次元画像における線構造の情報を取得するとともに、前記線構造の情報に基づいて境界部を検出することにより、該境界部を境に前記可視領域と前記不可視領域とが分かれているとすることを特徴とする請求項2に記載の医療用画像処理装置。
  4. さらに、前記三次元形状抽出部は、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、該第2のボクセル群と該第3のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出することを特徴とする請求項1に記載の医療用画像処理装置。
  5. さらに、前記三次元形状抽出部は、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出することを特徴とする請求項2に記載の医療用画像処理装置。
  6. さらに、前記三次元形状抽出部は、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在するか否かを、前記第2のボクセル群の平均座標と、前記第3のボクセル群の平均座標との間の距離に基づいて判定することを特徴とする請求項4または請求項5に記載の医療用画像処理装置。
  7. さらに、前記形状特徴量算出部は、前記可視領域における各ボクセルにおいてのみ、前記形状特徴量を算出することを特徴とする請求項2または請求項3に記載の医療用画像処理装置。
  8. 前記形状特徴量算出部は、一のボクセルの周辺領域に存在するボクセルに関する情報である周辺領域ボクセル情報に基づいて該一のボクセルの形状特徴量を算出するとともに、前記境界部を含むボクセルが該周辺領域内に存在することを検知した場合、該一のボクセルの形状特徴量を算出する際に用いる周辺ボクセル情報を減らすことを特徴とする請求項3に記載の医療用画像処理装置。
  9. 入力される体腔内の生体組織の像の二次元画像に基づき、前記二次元画像の輝度情報から前記二次元画像における各ピクセルに対応するボクセルを生成する幾何学的な変換処理により、該生体組織の三次元モデルを推定する三次元モデル推定ステップと、
    前記生体組織の三次元モデルが有する各ボクセルの形状特徴量を算出する形状特徴量算出ステップと、
    前記形状特徴量に基づき、前記生体組織の三次元モデルが有する各ボクセルのうち、三次元モデルが凸型形状または尾根型形状のうちの少なくとも1つとして推定された第1のボクセル群を抽出する三次元形状抽出ステップと、
    前記第1のボクセル群を、前記生体組織の三次元モデルにおける隆起形状を構成するボクセル群として検出する隆起形状検出ステップと、
    を有することを特徴とする医療用画像処理方法。
  10. さらに、入力される前記二次元画像における可視領域と不可視領域とを検出する領域検出ステップを有し、
    前記三次元モデル推定ステップは、さらに前記不可視領域内の前記可視領域と前記不可視領域の境界に対して対称な位置に、前記可視領域において推定した各ボクセルを添加することを特徴とする請求項9に記載の医療用画像処理方法。
  11. 前記領域検出ステップは、入力される前記二次元画像における線構造の情報を取得するとともに、前記線構造の情報に基づいて境界部を検出することにより、該境界部を境に前記可視領域と前記不可視領域とが分かれているとすることを特徴とする請求項10に記載の医療用画像処理方法。
  12. さらに、前記三次元形状抽出ステップは、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、該第2のボクセル群と該第3のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出することを特徴とする請求項9に記載の医療用画像処理方法。
  13. さらに、前記三次元形状抽出ステップは、前記生体組織の三次元モデルにおける一の曲平面が有するボクセル群のうち、三次元モデルが凸型形状として推定されたボクセル群である第2のボクセル群と、三次元モデルが尾根型形状として推定されたボクセル群である第3のボクセル群とを検出するとともに、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在する場合に、該第2のボクセル群と該第3のボクセル群とを前記第1のボクセル群として抽出することを特徴とする請求項10に記載の医療用画像処理方法。
  14. さらに、前記三次元形状抽出ステップは、前記不可視領域に存在する該第3のボクセル群と前記可視領域に存在する該第2のボクセル群とが所定の範囲内に存在するか否かを、前記第2のボクセル群の平均座標と、前記第3のボクセル群の平均座標との間の距離に基づいて判定することを特徴とする請求項12または請求項13に記載の医療用画像処理方法。
  15. さらに、前記形状特徴量算出ステップは、前記可視領域における各ボクセルにおいてのみ、前記形状特徴量を算出することを特徴とする請求項10または請求項11に記載の医療用画像処理方法。
  16. 前記形状特徴量算出ステップは、一のボクセルの周辺領域に存在するボクセルに関する情報である周辺領域ボクセル情報に基づいて該一のボクセルの形状特徴量を算出するとともに、前記境界部を含むボクセルが該周辺領域内に存在することを検知した場合、該一のボクセルの形状特徴量を算出する際に用いる周辺ボクセル情報を減らすことを特徴とする請求項11に記載の医療用画像処理方法。
JP2006063233A 2006-03-08 2006-03-08 医療用画像処理装置及び医療用画像処理方法 Expired - Fee Related JP4981335B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2006063233A JP4981335B2 (ja) 2006-03-08 2006-03-08 医療用画像処理装置及び医療用画像処理方法
PCT/JP2007/052346 WO2007102295A1 (ja) 2006-03-08 2007-02-09 医療用画像処理装置及び医療用画像処理方法
EP07714002.8A EP1992273B1 (en) 2006-03-08 2007-02-09 Medical image processing device and medical image processing method
CN2007800046978A CN101378692B (zh) 2006-03-08 2007-02-09 医疗用图像处理装置及医疗用图像处理方法
US12/204,330 US8086005B2 (en) 2006-03-08 2008-09-04 Medical image processing apparatus and medical image processing method
US12/204,375 US8165367B2 (en) 2006-03-08 2008-09-04 Medical image processing apparatus and medical image processing method having three-dimensional model estimating

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006063233A JP4981335B2 (ja) 2006-03-08 2006-03-08 医療用画像処理装置及び医療用画像処理方法

Publications (2)

Publication Number Publication Date
JP2007236629A JP2007236629A (ja) 2007-09-20
JP4981335B2 true JP4981335B2 (ja) 2012-07-18

Family

ID=38474737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006063233A Expired - Fee Related JP4981335B2 (ja) 2006-03-08 2006-03-08 医療用画像処理装置及び医療用画像処理方法

Country Status (4)

Country Link
EP (1) EP1992273B1 (ja)
JP (1) JP4981335B2 (ja)
CN (1) CN101378692B (ja)
WO (1) WO2007102295A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5390813B2 (ja) * 2008-09-02 2014-01-15 東急建設株式会社 空間情報表示装置及び支援装置
JP5658931B2 (ja) 2010-07-05 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5160699B2 (ja) * 2011-01-24 2013-03-13 オリンパスメディカルシステムズ株式会社 医療機器
JP6608165B2 (ja) * 2015-05-12 2019-11-20 国立大学法人京都大学 画像処理装置及び方法、並びにコンピュータプログラム
TWI821146B (zh) * 2023-04-26 2023-11-01 國立中正大學 用於偵測組織出血之影像分析方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337845A (ja) * 1998-05-25 1999-12-10 Mitsubishi Electric Corp 内視鏡装置
ATE514144T1 (de) * 2001-10-16 2011-07-15 Univ Chicago Computerunterstützte erkennung dreidimensionaler läsionen
DE10358735B4 (de) * 2003-12-15 2011-04-21 Siemens Ag Kathetereinrichtung umfassend einen Katheter, insbesondere einen intravaskulären Katheter

Also Published As

Publication number Publication date
CN101378692B (zh) 2010-09-29
JP2007236629A (ja) 2007-09-20
EP1992273B1 (en) 2014-05-21
WO2007102295A1 (ja) 2007-09-13
EP1992273A1 (en) 2008-11-19
CN101378692A (zh) 2009-03-04
EP1992273A4 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
US7830378B2 (en) Medical image processing apparatus and medical image processing method
JP4902735B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP4994737B2 (ja) 医療用画像処理装置及び医療用画像処理方法
EP1994876B1 (en) Medical image processing apparatus and medical image processing method
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
US8165367B2 (en) Medical image processing apparatus and medical image processing method having three-dimensional model estimating
JP2008301968A (ja) 内視鏡画像処理装置
JP5078486B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
JP4981335B2 (ja) 医療用画像処理装置及び医療用画像処理方法
EP1992274B1 (en) Medical image processing device and medical image processing method
JP2008093213A (ja) 医療用画像処理装置及び医療用画像処理方法
JP5148096B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
JP2008023266A (ja) 医療用画像処理装置及び医療用画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120420

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4981335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees