JP5148096B2 - 医療用画像処理装置及び医療用画像処理装置の作動方法 - Google Patents

医療用画像処理装置及び医療用画像処理装置の作動方法 Download PDF

Info

Publication number
JP5148096B2
JP5148096B2 JP2006280564A JP2006280564A JP5148096B2 JP 5148096 B2 JP5148096 B2 JP 5148096B2 JP 2006280564 A JP2006280564 A JP 2006280564A JP 2006280564 A JP2006280564 A JP 2006280564A JP 5148096 B2 JP5148096 B2 JP 5148096B2
Authority
JP
Japan
Prior art keywords
image
occlusion
image processing
dimensional
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006280564A
Other languages
English (en)
Other versions
JP2008093287A (ja
Inventor
健次 中村
博一 西村
秀樹 田中
涼子 井上
美穂 沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2006280564A priority Critical patent/JP5148096B2/ja
Publication of JP2008093287A publication Critical patent/JP2008093287A/ja
Application granted granted Critical
Publication of JP5148096B2 publication Critical patent/JP5148096B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、医療用画像処理装置及び医療用画像処理装置の作動方法に関し、特に、二次元画像に応じた三次元モデルを推定することが可能な医療用画像処理装置及び医療用画像処理装置の作動方法に関するものである。
内視鏡及び医療用画像処理装置等を具備して構成される内視鏡システムは、医療分野等において広く用いられている。具体的には、内視鏡システムは、例えば、生体としての体腔内に挿入される挿入部と、該挿入部の先端部に配置された対物光学系と、該対物光学系により結像された体腔内の像を撮像して撮像信号として出力する撮像部とを有して構成される内視鏡と、該撮像信号に基づき、表示部としてのモニタ等に該体腔内の像を画像表示させるための処理を行う医療用画像処理装置とを具備して構成されている。そして、ユーザは、表示部としてのモニタ等に画像表示された体腔内の像に基づき、例えば、体腔内における被写体としての臓器等の観察を行う。
また、前述した構成を具備する内視鏡システムは、体腔内における被写体として、例えば、大腸等の消化管粘膜の像を撮像することもまた可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することができる。
さらに、近年においては、内視鏡により撮像された被写体の像の撮像信号に応じた二次元画像のデータに基づき、該被写体の三次元モデルを推定することが可能である、例えば、特許文献1に記載されているような内視鏡装置が提案されている。
特開平11−337845号公報
特に、内視鏡により撮像された隆起形状を有する生体組織の像としての、例えば、大腸のひだまたはポリープ等の生体組織の像を含む二次元画像は、該内視鏡の視野方向に対して不可視領域を含む場合が多い。そして、前述した二次元画像における不可視領域は、一般的にオクルージョンと呼ばれており、正確な三次元モデルの推定が困難な領域である。そのため、二次元画像のオクルージョンが発生している部分においては、例えば、該二次元画像に基づく三次元モデルの対応する位置に推定結果が存在しない、または、該二次元画像に基づく三次元モデルの対応する位置に信頼性の低い推定結果が算出されるという課題が生じている。そして、信頼性の低い推定結果に基づいて生成された三次元モデルにおいては、ポリープ等の病変部位を発見することが困難となってしまう場合がある。
本発明は、前述した点に鑑みてなされたものであり、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることのできる医療用画像処理装置及び医療用画像処理装置の作動方法を提供することを目的としている。
本発明の一態様の医療用画像処理装置は、医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出部と、前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完部と、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定部と、前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定部と、を有し、前記オクルージョン領域検出部は、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出部と、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出部と、を有し、前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータを補完する。
本発明の一態様の医療用画像処理装置の作動方法は、医療用撮像装置から入力される生体組織の画像に対して処理を行う医療用画像処理装置の作動方法であって、前記医療用撮像装置から入力される前記生体組織の画像のうち、対象画像のオクルージョン領域を前記医療用画像処理装置が検出するオクルージョン領域検出ステップと、前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を前記医療用画像処理装置が補完するオクルージョン補完ステップと、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを前記医療用画像処理装置が推定する第1の三次元モデル推定ステップと、前記1または複数の非対象画像の三次元モデルを前記医療用画像処理装置が各々推定する第2の三次元モデル推定ステップと、を有し、前記オクルージョン領域検出ステップは、二次元画像としての前記対象画像のオクルージョン領域を前記医療用画像処理装置が検出する第1のオクルージョン領域検出ステップと、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを前記医療用画像処理装置が検出する第2のオクルージョン領域検出ステップと、を有し、前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータを前記医療用画像処理装置が補完する。
本発明における医療用画像処理装置及び医療用画像処理装置の作動方法によると、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることができる。
以下、図面を参照して本発明の実施の形態を説明する。
図1から図9は、本発明の実施形態に係るものである。図1は、本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図である。図2は、図1の内視鏡により撮像される管状器官及び生体組織の像を示す模式図である。図3は、図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出するための処理の一例を示すフローチャートである。図4は、図1の内視鏡により撮像され得る隆起性の病変部位の一例を示す模式図である。図5は、図1の内視鏡により撮像され得る隆起性の病変部位の、図4とは異なる例を示す模式図である。図6は、図1の医療用画像処理装置が取得した第1の二次元画像における、一のエッジ、重心座標G1、及び、一のオクルージョン終了座標O1各々の位置関係を示す図である。図7は、図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域を補完するための処理の一例を示すフローチャートである。図8は、第1の二次元画像に基づく三次元モデルを、図1の内視鏡の視野方向に対して側面から見た場合の一例を示す模式図である。図9は、図1の内視鏡の挿入部が、図8に示す位置からオクルージョンの存在する方向へ操作された場合の一例を示す模式図である。
内視鏡システム1は、図1に示すように、被写体を撮像するとともに、該被写体の像の二次元画像を出力する医療用観察装置2と、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される二次元画像の映像信号に対して画像処理を行うとともに、該画像処理を行った後の映像信号を画像信号として出力する医療用画像処理装置3と、医療用画像処理装置3から出力される画像信号に基づく画像を表示するモニタ4と、を有して要部が構成されている。
また、医療用観察装置2は、体腔内に挿入されるとともに、該体腔内の被写体を撮像して撮像信号として出力する内視鏡6と、内視鏡6により撮像される被写体を照明するための照明光を供給する光源装置7と、内視鏡6に対する各種制御を行うとともに、内視鏡6から出力される撮像信号に対して信号処理を行い、二次元画像の映像信号として出力するカメラコントロールユニット(以降、CCUと略記する)8と、CCU8から出力される二次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するモニタ9と、を有して要部が構成されている。
医療用撮像装置としての内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。
ライトガイド13は、先端側が内視鏡6の先端部14に配置されるとともに、後端側が光源装置7に接続される。ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。
内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。
撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動するとともに、CCU8に対して撮像信号を出力する。
また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、二次元画像の映像信号として変換されて出力される。CCU8から出力された二次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9には、CCU8から出力される映像信号に基づく被写体の像が二次元の画像として表示される。
医療用画像処理装置3は、医療用観察装置2から出力される二次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22の画像処理結果としての画像データ等を記憶する情報記憶部25と、を有する。
また、医療用画像処理装置3は、記憶装置インターフェース26と、記憶装置インターフェース26を介してCPU22の画像処理結果としての画像データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うとともに、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボード等により構成される入力操作部29と、を有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。
なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29は、データバス30を介して相互に接続されている。
次に、内視鏡システム1の作用について説明を行う。
まず、ユーザは、体腔内に内視鏡6の挿入部11を挿入する。そして、ユーザにより挿入部11が体腔内に挿入されると、例えば、該体腔内の管状器官31の内壁に存在する、隆起性の(隆起形状を有する)病変部位である生体組織31Aの像が、先端部14に設けられた撮像部17により、図2に示すような像として撮像される。そして、図2に示すような像として撮像部17により撮像された、管状器官31及び生体組織31Aの像は、撮像信号としてCCU8に対して出力される。
CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を二次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、管状器官31及び生体組織31Aの像を、例えば、図2に示すような二次元の画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた二次元画像の映像信号を、医療用画像処理装置3に対して出力する。
医療用画像処理装置3に対して出力された二次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。
CPU22は、画像入力部21から出力された二次元画像の映像信号に基づき、例えば、図3に示す各処理として以降に説明する処理を行うことにより、対象画像としての第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出する。
まず、エッジ抽出部としてのCPU22は、画像入力部21から出力された第1の二次元画像の映像信号に基づき、例えば、該第1の二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該第1の二次元画像に含まれる全てのエッジを抽出する(図3のステップS1)。
次に、CPU22は、第1の二次元画像において抽出した各エッジのうち、所定の条件に合致するエッジの両端点を接続して閉曲線とする(図3のステップS2)。具体的には、CPU22は、第1の二次元画像において抽出した各エッジのうち、例えば、一のエッジの両端点間の距離が該一のエッジの線分長に対して65%未満である場合に、直線により該一のエッジの両端点間を接続し、該一のエッジを閉曲線とする。
CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在するか否かを検出する。そして、CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在しないことを検出した場合(図3のステップS3)、該第1の二次元画像にはオクルージョン発生の原因となる隆起性の病変が存在しないと判断し、図3に示す一連の処理を終了する。また、CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在することを検出した場合(図3のステップS3)、該第1の二次元画像にオクルージョン発生の原因となる隆起性の病変が存在すると判断し、後述する図3のステップS4に示す処理を引き続き行う。
その後、画像領域検出部としてのCPU22は、第1の二次元画像に存在する、閉曲線に囲まれた領域内部における重心座標G1(x,y)を検出するとともに、該閉曲線の周囲長L1とを算出する(図3のステップS4)。そして、CPU22は、前記周囲長L1の値が所定の値以下であるか否かを判定する。
そして、CPU22は、第1の二次元画像に存在する各閉曲線のうち、周囲長L1が所定の第1の値以下である閉曲線を(ノイズ等により発生した可能性が高いと判断して)以降の処理の対象から外す(図3のステップS5)。
CPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在し、かつ、該エッジに隣接する画素各々において、明るさ成分(例えばRの輝度値)を算出する(図3のステップS6)。さらに、CPU22は、エッジを挟んで両側に存在する画素同士の明るさ成分の比較を行う。
これにより、CPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在する画素同士の明るさ成分の差が所定の閾値よりも小さいものを、(オクルージョンの原因とはならないとして、)以降の処理の対象から外す(図3のステップS7)。
オクルージョン領域検出部としてのCPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在する画素同士の明るさ成分の差が所定の閾値以上である領域を、オクルージョン領域として検出した後、さらに、オクルージョン領域が検出された各閉曲線内に別の閉曲線(またはエッジ)が存在しているか否かを判定する。
CPU22は、一の閉曲線内に別の閉曲線(またはエッジ)が存在していることを検出した場合(図3のステップS8)、該別の閉曲線(またはエッジ)に対し、前述した図3のステップS6及びステップS7の処理を再度行う。また、CPU22は、一の閉曲線内に別の閉曲線(またはエッジ)が存在していないことを検出した場合(図3のステップS8)、後述する図3のステップS9に示す処理を引き続き行う。
ここで、図3のステップS8に関する説明を行う。
例えば、隆起性の病変部位31Bが、図4に示すような状態により撮像された場合の二次元画像においては、ハレーション等のアーティファクトによってのみ、一の閉曲線内に別の閉曲線またはエッジが発生し得る。しかし、隆起性及び潰瘍性の両方を有する特殊な形状の病変部位31Cが、図5に示すような状態により撮像された場合の二次元画像においては、ハレーション等のアーティファクトによらずとも、一の閉曲線内に別の閉曲線またはエッジが存在し得るとともに、例えば、図5に示すような窪んだ部分にオクルージョンが発生し得る。すなわち、CPU22は、図3のステップS8の処理結果に応じて図3のステップS6及びステップS7の処理を再度行うことにより、図5に示すような窪んだ部分に発生し得るオクルージョンの検出を行っている。
なお、以降においては、説明の簡単のため、第1の二次元画像に存在する各閉曲線のうち、一の閉曲線、及び、該一の閉曲線の一部としての一のエッジについて主に述べるものとする。また、以降において、前記一のエッジを挟んで対向する両側の位置に存在し、かつ、該一のエッジに隣接する画素各々のうち、明るさ成分が相対的に大きい画素(または該エッジの内側の画素)をオクルージョン開始座標と表し、明るさ成分が相対的に小さい画素(または該エッジの外側の画素)をオクルージョン終了座標と表すものとする。さらに、以降においては、説明の簡単のため、前記一の閉曲線を構成する前記一のエッジが有する各オクルージョン終了座標のうち、一のオクルージョン終了座標O1(x0,y0)について主に述べるものとする。そして、一の閉曲線の一部としての一のエッジ、重心座標G1(x,y)、及び、一のオクルージョン終了座標O1(x0,y0)各々の位置関係は、例えば、図6に示されるようなものとなる。
CPU22は、重心座標G1(x,y)に対し、一のオクルージョン終了座標O1(x0,y0)が第1の二次元画像においてどの方向に存在しているかを検出するとともに、該方向をオクルージョン方向として保持する(図3のステップS9)。
三次元モデル推定部としてのCPU22は、画像入力部21から出力された第1の二次元画像の映像信号の輝度情報等に基づき、例えば、幾何学的な変換等の処理を用い、管状器官31及び生体組織31Aの三次元モデルを推定する(図3のステップS10)。この処理により、オクルージョン領域検出部としてのCPU22は、第1の二次元画像におけるオクルージョン開始座標に相当する三次元モデルのボクセルであるオクルージョン開始ボクセルと、第1の二次元画像におけるオクルージョン終了座標に相当する三次元モデルのボクセルであるオクルージョン終了ボクセルとのデータを取得する。そして、CPU22は、オクルージョン開始ボクセル及びオクルージョン終了ボクセルの2つのボクセル、及び、該2つのボクセルの間の領域に存在する各ボクセルを、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域として検出する(図3のステップS11)。
以上に述べた、図3に示す各処理を行うことにより、CPU22は、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出する。
なお、図3の処理における重心座標G1、オクルージョン開始座標及びオクルージョン終了座標は、個々の画素に応じて定められるものに限らず、例えば、(N×N)個の複数の画素を有して構成される領域各々に応じて定められるものであっても良い。
CPU22は、図3に示す各処理に引き続き、例えば、図7に示す各処理として以降に説明する処理を行うことにより、第1の二次元画像から時系列的に後に位置するフレームの画像である、非対象画像としての第2の二次元画像から推定される三次元モデルを用いつつ、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完する処理を行う。
まず、CPU22は、画像入力部21から出力された、第1の二次元画像の後のフレームの画像である第2の二次元画像の映像信号に基づき、例えば、該第2の二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該第2の二次元画像に含まれる全てのエッジを抽出する(図7のステップS21)。
そして、CPU22は、第2の二次元画像において抽出した各エッジのうち、所定の条件に合致するエッジの両端点を接続して閉曲線とする(図7のステップS22)。具体的には、CPU22は、第2の二次元画像において抽出した各エッジのうち、例えば、一のエッジの両端点間の距離が該一のエッジの線分長に対して65%未満である場合に、直線により該一のエッジの両端点間を接続し、該一のエッジを閉曲線とする。
CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在するか否かを検出する。そして、CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在しないことを検出した場合(図7のステップS23)、該第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。
また、CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在することを検出した場合(図7のステップS23)、図3のステップS4に示す処理と同様の処理により、該閉曲線の重心座標G2(X,Y)を検出するとともに、該閉曲線の周囲長L2とを算出する(図7のステップS26)。
その後、画像領域移動検出部としてのCPU22は、第1の二次元画像における重心座標G1(x,y)から、第2の二次元画像における重心座標G2(X,Y)までの距離が所定の距離より短く、かつ、周囲長L1と周囲長L2とが略同一の値であるか否かを検出することにより、一のオクルージョン終了座標O1(x0,y0)を有する閉曲線である、第1の二次元画像内の一の閉曲線が、第2の二次元画像内においても存在しているか否かを判定する。
CPU22は、重心座標G1(x,y)から重心座標G2(X,Y)までの距離が所定の距離より長いこと、または、周囲長L1と周囲長L2とが略同一の値でないことのいずれかを検出した場合(図7のステップS27)、一のオクルージョン終了座標O1(x0,y0)を有する閉曲線が第2の二次元画像内には存在しないと判定する。その後、CPU22は、重心座標G2(X,Y)を有する第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。
また、CPU22は、第1の二次元画像における重心座標G1(x,y)から、第2の二次元画像における重心座標G2(X,Y)までの距離が所定の距離より短く、かつ、周囲長L1と周囲長L2とが略同一の値であることを検出した場合(図7のステップS27)、重心座標G2(X,Y)及び周囲長L2を有する閉曲線が、一のオクルージョン終了座標O1(x0,y0)の存在を示唆する閉曲線であると判定する。
その後、画像領域移動検出部としてのCPU22は、重心座標G1(x,y)から重心座標G2(X,Y)への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であるか否かを判定する。具体的には、CPU22は、一のオクルージョン終了座標O1(x0,y0)を重心座標G1(x,y)に対称な位置に移動した座標をO2(X0,Y0)とした場合に、重心座標G2、重心座標G1及び座標O2がなす角の角度θが所定の角度(例えば60度)以内であれば、重心座標G1(x,y)から重心座標G2(X,Y)への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であると検出する。
そして、CPU22は、重心座標G1から重心座標G2への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向ではないことを検出した場合(図7のステップS28)、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完するためのデータが、第2の二次元画像からは得られないと判定するとともに、重心座標G2(X,Y)を有する第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。
また、CPU22は、重心座標G1から重心座標G2への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であることを検出した場合(図7のステップS28)、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完するためのデータが、第2の二次元画像から得られると判定する。その後、三次元モデル推定部としてのCPU22は、画像入力部21から出力された第2の二次元画像の映像信号の輝度情報等に基づき、例えば、幾何学的な変換等の処理を用い、管状器官31及び生体組織31Aの三次元モデルを推定する(図7のステップS29)。
オクルージョン補完対応領域検出部としてのCPU22は、第2の二次元画像から推定した三次元モデルに基づき、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域が有する各ボクセルのデータのうち、第2の二次元画像から推定した三次元モデルのデータにより補完可能なボクセルのデータが存在する領域である、オクルージョン補完対応領域に含まれるボクセルを検出する(図7のステップS30)。
ここで、図7のステップS30に示す処理の詳細を説明する。
第1の二次元画像に基づく生体組織31Aの三次元モデルは、内視鏡6の視野方向に対して側面から見た場合、例えば、図8のような状態のものとして推定される。図8に示すように、オクルージョン開始ボクセル及びオクルージョン終了ボクセルに挟まれた一のエッジ上に存在する一のボクセルをボクセルE、オクルージョン終了ボクセルをボクセルOE、及び、生体組織31Aの三次元モデルにおいて、オクルージョン側かつボクセルOEと同一平面上に存在する一のボクセルをボクセルB1とした場合、第1の二次元画像に基づく生体組織31Aの三次元モデルのオクルージョン領域は、ボクセルEからボクセルB1までに含まれる各ボクセルと、ボクセルB1からボクセルOEまでに含まれる各ボクセルと、により構成される。
その後、第1の二次元画像を取得した際に位置C1にあった撮像素子16(の撮像面)は、図9に示すように、内視鏡6の挿入部11が操作されることにより、第2の二次元画像を取得する際に、位置C2に移動される。また、図9に示すように、位置C2から、ボクセルEを経由して、オクルージョン領域に向かって直線を引いた場合、該直線は、該オクルージョン領域に含まれるボクセルOCにおいて、ボクセルOEが存在する平面と交わる。
内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、第1の二次元画像取得時から第2の二次元画像取得時までに撮像素子16(の撮像面)が移動した距離(位置C1から位置C2までの距離)と、重心座標G1から重心座標G2への移動距離とが等しいという仮定が成り立つ。また、内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、第1の二次元画像取得時から第2の二次元画像取得時までに撮像素子16(の撮像面)が移動した距離(位置C1から位置C2までの距離)と、オクルージョン補完対応領域にあたる部分の距離とが等しいという仮定が成り立つ。さらに、内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、位置C1と位置C2とが同一平面上に存在するという仮定が成り立つ。
なお、以上の各仮定が成り立つことは、幾何的には、図9に示す各部のうち、位置C1、位置C2及びボクセルEの3点を直線により結んだ三角形と、ボクセルOE、ボクセルOC及びボクセルEを直線により結んだ三角形とが、位置C1、位置C2、ボクセルOE及びボクセルOCを直線により結んだ平行四辺形の対角線により各々形成される、互いに合同な三角形であることにより示される。
以上に述べた各仮定が成り立つことにより、重心座標G1から重心座標G2への移動距離と、ボクセルOEからボクセルOCまでの距離とが等しくなるため、CPU22は、ボクセルOE及びボクセルOCの2つのボクセルと、該2つのボクセル間に含まれる各ボクセルとを、オクルージョン補完対応領域に含まれるボクセルとして検出する。
そして、オクルージョン補完部としてのCPU22は、図7のステップS30に示す処理により検出したオクルージョン補完対応領域に含まれる各ボクセルのデータを用い、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のデータを補完する(図7のステップS31)。具体的には、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のデータを補完する処理として、該オクルージョン領域に含まれる各ボクセルのデータのうち、オクルージョン補完対応領域に含まれる各ボクセルのデータを、第2の二次元画像に基づく生体組織31Aの三次元モデルが有するボクセルのデータに置換する処理を行う。
CPU22は、図7のステップS31に示す処理により、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のボクセルのデータを、第2の二次元画像に基づく生体組織31Aの三次元モデルが有するボクセルのデータに基づいて補完した後、さらに、該オクルージョン領域が残っているか否かを判定する。そして、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っており(図7のステップS32)、かつ、前述したオクルージョン補完対応領域の検出に用いられた第2の二次元画像が最終フレームの画像でなければ、該第2の二次元画像の次のフレームの画像に対して図7のステップS21以降の処理を施すことにより、残りのオクルージョン領域を補完するための処理を行う(図7のステップS24及びステップS25)。さらに、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っており(図7のステップS32)、かつ、前述したオクルージョン補完対応領域の検出に用いられた第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する。
また、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っていないことを検出した場合(図7のステップS32)、図7に示す一連の処理を終了する。
なお、図7の処理における重心座標G2及びオクルージョン終了座標は、個々の画素に応じて定められるものに限らず、例えば、(N×N)個の複数の画素を有して構成される領域各々に応じて定められるものであっても良い。
また、CPU22は、図7のステップS32に示す処理において、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が完全に補完されるまで図7のステップS21以降の各処理を繰り返すものでなくとも良く、例えば、図3の各処理において検出された元のオクルージョン領域が所定の割合以上補完されたことを検出した場合に処理を終了するものであっても良い。これにより、医療用画像処理装置3は、オクルージョン領域を補完するための処理をより高速に行うことができる。
さらに、CPU22は、第1のフレームの二次元画像から推定される三次元モデルが有する第1のオクルージョン領域と、該第1のフレームに時間的に連続するフレームである、第2のフレームの二次元画像から推定される三次元モデルが有する第2のオクルージョン領域とを比較する処理を図3の処理に加えて行いつつ、該第1のオクルージョン領域が該第2のオクルージョン領域よりも小さくなる場合にのみ、該第2のフレームの二次元画像から推定される三次元モデルに対して図7に示す処理を施すものであっても良い。これにより、医療用画像処理装置3は、オクルージョン領域を補完するための処理をより高速かつ高精度に行うことができる。
また、本実施形態におけるオクルージョン領域を補完するための処理は、図7に示す一連の処理の説明として述べたような、対象画像から時系列的に後に位置する非対象画像に基づいてオクルージョン領域を補完するものに限らず、補完対象となるオクルージョン領域の少なくとも一部が存在している画像であれば、例えば、該対象画像から時系列的に前に位置する非対象画像を用いつつオクルージョン領域を補完するものであっても良い。
以上に述べたように、本実施形態の医療用画像処理装置3は、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることができる。
なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図。 図1の内視鏡により撮像される管状器官及び生体組織の像を示す模式図。 図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出するための処理の一例を示すフローチャート。 図1の内視鏡により撮像され得る隆起性の病変部位の一例を示す模式図。 図1の内視鏡により撮像され得る隆起性の病変部位の、図4とは異なる例を示す模式図。 図1の医療用画像処理装置が取得した第1の二次元画像における、一のエッジ、重心座標G1、及び、一のオクルージョン終了座標O1各々の位置関係を示す図。 図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域を補完するための処理の一例を示すフローチャート。 第1の二次元画像に基づく三次元モデルを、図1の内視鏡の視野方向に対して側面から見た場合の一例を示す模式図。 図1の内視鏡の挿入部が、図8に示す位置からオクルージョンの存在する方向へ操作された場合の一例を示す模式図。
符号の説明
1・・・内視鏡システム、2・・・医療用観察装置、3・・・医療用画像処理装置、4,9・・・モニタ、6・・・内視鏡、7・・・光源装置、8・・・CCU、11・・・挿入部、12・・・操作部、13・・・ライトガイド、14・・・先端部、15・・・対物光学系、16・・・撮像素子、17・・・撮像部、21・・・画像入力部、22・・・CPU、23・・・処理プログラム記憶部、24・・・画像記憶部、25・・・情報記憶部、26・・・記憶装置インターフェース、27・・・ハードディスク、28・・・表示処理部、29・・・入力操作部、30・・・データバス、31・・・管状器官、31A・・・生体組織、31B,31C・・・病変部位

Claims (10)

  1. 医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出部と、
    前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完部と、
    二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定部と、
    前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定部と、を有し、
    前記オクルージョン領域検出部は、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出部と、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出部と、を有し、
    前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータを補完する
    ことを特徴とする医療用画像処理装置。
  2. 前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする請求項1に記載の医療用画像処理装置。
  3. 前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする請求項1または請求項2に記載の医療用画像処理装置。
  4. さらに、前記対象画像のエッジを抽出するエッジ抽出部を有し、
    前記第1のオクルージョン領域検出部は、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする請求項1に記載の医療用画像処理装置。
  5. さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出部と、
    前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出部と、
    前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出部と、を有し、
    前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする請求項1または請求項4に記載の医療用画像処理装置。
  6. 医療用撮像装置から入力される生体組織の画像に対して処理を行う医療用画像処理装置の作動方法であって、
    前記医療用撮像装置から入力される前記生体組織の画像のうち、対象画像のオクルージョン領域を前記医療用画像処理装置が検出するオクルージョン領域検出ステップと、
    前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を前記医療用画像処理装置が補完するオクルージョン補完ステップと、
    二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを前記医療用画像処理装置が推定する第1の三次元モデル推定ステップと、
    前記1または複数の非対象画像の三次元モデルを前記医療用画像処理装置が各々推定する第2の三次元モデル推定ステップと、を有し、
    前記オクルージョン領域検出ステップは、二次元画像としての前記対象画像のオクルージョン領域を前記医療用画像処理装置が検出する第1のオクルージョン領域検出ステップと、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを前記医療用画像処理装置が検出する第2のオクルージョン領域検出ステップと、を有し、
    前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータを前記医療用画像処理装置が補完する
    ことを特徴とする医療用画像処理装置の作動方法
  7. 前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする請求項6に記載の医療用画像処理装置の作動方法
  8. 前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする請求項6または請求項7に記載の医療用画像処理装置の作動方法
  9. さらに、前記対象画像のエッジを前記医療用画像処理装置が抽出するエッジ抽出ステップを有し、
    前記第1のオクルージョン領域検出ステップは、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を前記医療用画像処理装置が検出することを特徴とする請求項6に記載の医療用画像処理装置の作動方法
  10. さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を前記医療用画像処理装置が検出する画像領域検出ステップと、
    前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を前記医療用画像処理装置が検出する画像領域移動検出ステップと、
    前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルー
    ジョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として前記医療用画像処理装置が検出するオクルージョン補完対応領域検出ステップと、を有し、
    前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを前記医療用画像処理装置が補完することを特徴とする請求項6または請求項9に記載の医療用画像処理装置の作動方法
JP2006280564A 2006-10-13 2006-10-13 医療用画像処理装置及び医療用画像処理装置の作動方法 Active JP5148096B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006280564A JP5148096B2 (ja) 2006-10-13 2006-10-13 医療用画像処理装置及び医療用画像処理装置の作動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006280564A JP5148096B2 (ja) 2006-10-13 2006-10-13 医療用画像処理装置及び医療用画像処理装置の作動方法

Publications (2)

Publication Number Publication Date
JP2008093287A JP2008093287A (ja) 2008-04-24
JP5148096B2 true JP5148096B2 (ja) 2013-02-20

Family

ID=39376761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006280564A Active JP5148096B2 (ja) 2006-10-13 2006-10-13 医療用画像処理装置及び医療用画像処理装置の作動方法

Country Status (1)

Country Link
JP (1) JP5148096B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11107268B2 (en) * 2018-09-07 2021-08-31 Cognex Corporation Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of an object

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2504641B2 (ja) * 1991-07-26 1996-06-05 日本電信電話株式会社 3次元形状計測処理方式
JP3347385B2 (ja) * 1992-03-27 2002-11-20 オリンパス光学工業株式会社 内視鏡画像処理装置
JPH06265322A (ja) * 1993-03-11 1994-09-20 Canon Inc 複数画像からの視差検出方法
JPH08201941A (ja) * 1995-01-12 1996-08-09 Texas Instr Inc <Ti> 3次元画像形成方法
JPH1023465A (ja) * 1996-07-05 1998-01-23 Canon Inc 撮像方法及び装置
JPH1023311A (ja) * 1996-07-05 1998-01-23 Canon Inc 画像情報入力方法及び装置
JP4343341B2 (ja) * 1999-09-01 2009-10-14 オリンパス株式会社 内視鏡装置

Also Published As

Publication number Publication date
JP2008093287A (ja) 2008-04-24

Similar Documents

Publication Publication Date Title
JP4902735B2 (ja) 医療用画像処理装置及び医療用画像処理方法
US8515141B2 (en) Medical image processing apparatus and method for detecting locally protruding lesion
US20080303898A1 (en) Endoscopic image processing apparatus
US8086005B2 (en) Medical image processing apparatus and medical image processing method
US7830378B2 (en) Medical image processing apparatus and medical image processing method
JP5242381B2 (ja) 医療用画像処理装置及び医療用画像処理方法
US8994801B2 (en) Image processing apparatus
JP4994737B2 (ja) 医療用画像処理装置及び医療用画像処理方法
WO2012114600A1 (ja) 医用画像処理装置及び医用画像処理方法
JP5078486B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
US20220414880A1 (en) Medical system, information processing method, and computer-readable medium
US20220400931A1 (en) Endoscope system, method of scanning lumen using endoscope system, and endoscope
US11432707B2 (en) Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion
JP4981335B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
JP5148096B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
JP4981336B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP2008093213A (ja) 医療用画像処理装置及び医療用画像処理方法
JP7221786B2 (ja) 血管径測定システム
US20240000299A1 (en) Image processing apparatus, image processing method, and program
JP2008023266A (ja) 医療用画像処理装置及び医療用画像処理方法
Selka et al. Performance evaluation of simultaneous RGB analysis for feature detection and tracking in endoscopic images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121128

R151 Written notification of patent or utility model registration

Ref document number: 5148096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250