JP2008093287A - Medical image processing apparatus and method - Google Patents
Medical image processing apparatus and method Download PDFInfo
- Publication number
- JP2008093287A JP2008093287A JP2006280564A JP2006280564A JP2008093287A JP 2008093287 A JP2008093287 A JP 2008093287A JP 2006280564 A JP2006280564 A JP 2006280564A JP 2006280564 A JP2006280564 A JP 2006280564A JP 2008093287 A JP2008093287 A JP 2008093287A
- Authority
- JP
- Japan
- Prior art keywords
- image
- occlusion
- area
- dimensional
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、二次元画像に応じた三次元モデルを推定することが可能な医療用画像処理装置及び医療用画像処理方法に関するものである。 The present invention relates to a medical image processing apparatus and a medical image processing method, and more particularly to a medical image processing apparatus and a medical image processing method capable of estimating a three-dimensional model corresponding to a two-dimensional image. .
内視鏡及び医療用画像処理装置等を具備して構成される内視鏡システムは、医療分野等において広く用いられている。具体的には、内視鏡システムは、例えば、生体としての体腔内に挿入される挿入部と、該挿入部の先端部に配置された対物光学系と、該対物光学系により結像された体腔内の像を撮像して撮像信号として出力する撮像部とを有して構成される内視鏡と、該撮像信号に基づき、表示部としてのモニタ等に該体腔内の像を画像表示させるための処理を行う医療用画像処理装置とを具備して構成されている。そして、ユーザは、表示部としてのモニタ等に画像表示された体腔内の像に基づき、例えば、体腔内における被写体としての臓器等の観察を行う。 An endoscope system including an endoscope and a medical image processing apparatus is widely used in the medical field and the like. Specifically, the endoscope system is formed by, for example, an insertion portion that is inserted into a body cavity as a living body, an objective optical system that is disposed at a distal end portion of the insertion portion, and an image formed by the objective optical system. An endoscope configured to include an imaging unit that captures an image of a body cavity and outputs the image as an imaging signal, and displays the image of the body cavity on a monitor or the like as a display unit based on the imaging signal And a medical image processing apparatus that performs processing for this purpose. Then, the user observes an organ or the like as a subject in the body cavity based on the image in the body cavity displayed on the monitor or the like as the display unit.
また、前述した構成を具備する内視鏡システムは、体腔内における被写体として、例えば、大腸等の消化管粘膜の像を撮像することもまた可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することができる。 In addition, the endoscope system having the above-described configuration can also take an image of the digestive tract mucous membrane such as the large intestine as a subject in the body cavity. Therefore, the user can comprehensively observe various findings such as the color of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.
さらに、近年においては、内視鏡により撮像された被写体の像の撮像信号に応じた二次元画像のデータに基づき、該被写体の三次元モデルを推定することが可能である、例えば、特許文献1に記載されているような内視鏡装置が提案されている。
特に、内視鏡により撮像された隆起形状を有する生体組織の像としての、例えば、大腸のひだまたはポリープ等の生体組織の像を含む二次元画像は、該内視鏡の視野方向に対して不可視領域を含む場合が多い。そして、前述した二次元画像における不可視領域は、一般的にオクルージョンと呼ばれており、正確な三次元モデルの推定が困難な領域である。そのため、二次元画像のオクルージョンが発生している部分においては、例えば、該二次元画像に基づく三次元モデルの対応する位置に推定結果が存在しない、または、該二次元画像に基づく三次元モデルの対応する位置に信頼性の低い推定結果が算出されるという課題が生じている。そして、信頼性の低い推定結果に基づいて生成された三次元モデルにおいては、ポリープ等の病変部位を発見することが困難となってしまう場合がある。 In particular, as an image of a living tissue having a raised shape imaged by an endoscope, for example, a two-dimensional image including an image of a living tissue such as a fold of the large intestine or a polyp is in the viewing direction of the endoscope. Often includes invisible areas. The invisible region in the above-described two-dimensional image is generally called occlusion and is a region where it is difficult to estimate an accurate three-dimensional model. Therefore, in the portion where the occlusion of the 2D image occurs, for example, there is no estimation result at the corresponding position of the 3D model based on the 2D image, or the 3D model based on the 2D image There is a problem that an estimation result with low reliability is calculated at a corresponding position. In a three-dimensional model generated based on an estimation result with low reliability, it may be difficult to find a lesion site such as a polyp.
本発明は、前述した点に鑑みてなされたものであり、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることのできる医療用画像処理装置及び医療用画像処理方法を提供することを目的としている。 The present invention has been made in view of the above-described points. When a three-dimensional model is estimated based on a two-dimensional image, a portion where data is missing and a portion where data with low reliability exist are compared with the conventional one. The purpose of the present invention is to provide a medical image processing apparatus and a medical image processing method capable of estimating a highly accurate three-dimensional model by reducing the number of lesions and, as a result, easily finding a lesion site such as a polyp. Yes.
本発明における第1の医療用画像処理装置は、医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出部と、前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完部と、を有することを特徴とする。 The first medical image processing apparatus according to the present invention is an image different from the occlusion area detection unit that detects an occlusion area of a target image among images of biological tissue input from the medical imaging apparatus, and the target image. And using information obtained from one or more non-target images, which is an image in which at least a part of a region corresponding to the occlusion region of the target image exists, and the occlusion region of the target image is And an occlusion complementation unit for complementation.
本発明における第2の医療用画像処理装置は、前記第1の医療用画像処理装置において、 前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする。 According to a second medical image processing apparatus of the present invention, in the first medical image processing apparatus, each of the one or more non-target images is a two-dimensional image or a tertiary generated based on the two-dimensional image. It is an original model.
本発明における第3の医療用画像処理装置は、前記第1または前記第2の医療用画像処理装置において、前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする。 According to a third medical image processing apparatus of the present invention, in the first or second medical image processing apparatus, each of the one or more non-target images is time-sequentially before or after the target image. It is an image of a positioned frame.
本発明における第4の医療用画像処理装置は、前記第1乃至前記第3の医療用画像処理装置において、さらに、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定部と、前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定部と、を有し、前記オクルージョン領域検出部は、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出部と、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出部と、を有し、前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータを補完することを特徴とする。 According to a fourth medical image processing apparatus of the present invention, in the first to third medical image processing apparatuses, a three-dimensional model of the biological tissue is estimated based on the target image as a two-dimensional image. A first three-dimensional model estimation unit, and a second three-dimensional model estimation unit that estimates a three-dimensional model of each of the one or more non-target images, and the occlusion region detection unit includes a two-dimensional A first occlusion area detection unit for detecting an occlusion area of the target image as an image; and a second occlusion area detection unit for detecting each voxel corresponding to the occlusion area in a three-dimensional model of the target image. And the occlusion complementation unit is configured to generate the second octocc based on the data of the 3D model estimated by the second 3D model estimation unit. Wherein said detected by, Version area detection unit complements the data for each voxel.
本発明における第5の医療用画像処理装置は、前記第4の医療用画像処理装置において、さらに、前記対象画像のエッジを抽出するエッジ抽出部を有し、前記第1のオクルージョン領域検出部は、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする。 According to a fifth medical image processing apparatus of the present invention, in the fourth medical image processing apparatus, the fifth medical image processing apparatus further includes an edge extraction unit that extracts an edge of the target image, and the first occlusion region detection unit includes The occlusion area is detected based on a difference in brightness components between areas existing on both sides of the edge.
本発明における第6の医療用画像処理装置は、前記第4または前記第5の医療用画像処理装置において、さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出部と、前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出部と、前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出部と、を有し、前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする。 According to a sixth medical image processing apparatus of the present invention, in the fourth or fifth medical image processing apparatus, a predetermined region existing at a position corresponding to the occlusion region is detected in the target image. On the basis of the image region detection unit that performs the detection, the position where the predetermined region exists in the target image, and the position where the predetermined region exists in one non-target image among the one or more non-target images. An image area movement detecting unit for detecting a distance and direction in which the predetermined area has moved in the two-dimensional image; and the second occlusion area based on the distance and direction in which the predetermined area has moved in the two-dimensional image. Among the voxel data detected by the detection unit, an occlusion complementation corresponding area is detected as an area where complementary voxel data exists. And a second occlusion region detection unit based on a three-dimensional model of the non-target image estimated by the second three-dimensional model estimation unit. The voxel data existing in the occlusion complementation corresponding area among the data of the respective voxels detected by the above is supplemented.
本発明における第1の医療用画像処理方法は、医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出ステップと、前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完ステップと、を有することを特徴とする。 The first medical image processing method according to the present invention is an occlusion region detection step for detecting an occlusion region of a target image among images of biological tissue input from a medical imaging device, and an image different from the target image. And using information obtained from one or more non-target images, which is an image in which at least a part of a region corresponding to the occlusion region of the target image exists, and the occlusion region of the target image is An occlusion complementing step for complementing.
本発明における第2の医療用画像処理方法は、前記第1の医療用画像処理方法において、 前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする。 According to a second medical image processing method of the present invention, in the first medical image processing method, each of the one or more non-target images is a two-dimensional image or a tertiary generated based on the two-dimensional image. It is an original model.
本発明における第3の医療用画像処理方法は、前記第1または前記第2の医療用画像処理方法において、前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする。 According to a third medical image processing method of the present invention, in the first or second medical image processing method, each of the one or more non-target images may be time-sequentially before or after the target image. It is an image of a positioned frame.
本発明における第4の医療用画像処理方法は、前記第1乃至前記第3の医療用画像処理方法において、さらに、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定ステップと、前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定ステップと、を有し、前記オクルージョン領域検出ステップは、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出ステップと、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出ステップと、を有し、前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータを補完することを特徴とする。 According to a fourth medical image processing method of the present invention, in the first to third medical image processing methods, a three-dimensional model of the biological tissue is estimated based on the target image as a two-dimensional image. A first three-dimensional model estimation step, and a second three-dimensional model estimation step for estimating a three-dimensional model of each of the one or more non-target images, and the occlusion region detection step includes: A first occlusion area detecting step for detecting an occlusion area of the target image as an image; and a second occlusion area detecting step for detecting each voxel corresponding to the occlusion area in a three-dimensional model of the target image. And the occlusion complementation step includes three steps estimated by the second three-dimensional model estimation step. Based on the data in the original model, characterized by complementing the data of the detected each voxel by the second occlusion region detection step.
本発明における第5の医療用画像処理方法は、前記第4の医療用画像処理方法において、さらに、前記対象画像のエッジを抽出するエッジ抽出ステップを有し、前記第1のオクルージョン領域検出ステップは、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする。 According to a fifth medical image processing method of the present invention, in the fourth medical image processing method, the method further includes an edge extraction step of extracting an edge of the target image, and the first occlusion region detection step includes The occlusion area is detected based on a difference in brightness components between areas existing on both sides of the edge.
本発明における第6の医療用画像処理方法は、前記第4または前記第5の医療用画像処理方法において、さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出ステップと、前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出ステップと、前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出ステップと、を有し、前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする。 According to a sixth medical image processing method of the present invention, in the fourth or fifth medical image processing method, a predetermined region existing at a position corresponding to the occlusion region is detected in the target image. An image area detecting step, a position where the predetermined area exists in the target image, and a position where the predetermined area exists in one non-target image among the one or more non-target images. An image area movement detecting step for detecting a distance and direction in which the predetermined area has moved in the two-dimensional image; and the second occlusion area based on the distance and direction in which the predetermined area has moved in the two-dimensional image. Of the data of each voxel detected by the detection unit, an area where complementary voxel data exists is defined as an occlusion completion compatible area. An occlusion complementation corresponding region detection step for detecting, wherein the occlusion complementation step is based on the three-dimensional model of the non-target image estimated by the second three-dimensional model estimation step. Of the voxel data detected in the detection step, the voxel data existing in the occlusion complementation corresponding region is complemented.
本発明における医療用画像処理装置及び医療用画像処理方法によると、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることができる。 According to the medical image processing apparatus and the medical image processing method of the present invention, when a three-dimensional model is estimated based on a two-dimensional image, a missing portion of data and a portion where data with low reliability exist are conventionally used. By reducing the number, it is possible to estimate a highly accurate three-dimensional model, and as a result, it is possible to easily find a lesion site such as a polyp.
以下、図面を参照して本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1から図9は、本発明の実施形態に係るものである。図1は、本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図である。図2は、図1の内視鏡により撮像される管状器官及び生体組織の像を示す模式図である。図3は、図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出するための処理の一例を示すフローチャートである。図4は、図1の内視鏡により撮像され得る隆起性の病変部位の一例を示す模式図である。図5は、図1の内視鏡により撮像され得る隆起性の病変部位の、図4とは異なる例を示す模式図である。図6は、図1の医療用画像処理装置が取得した第1の二次元画像における、一のエッジ、重心座標G1、及び、一のオクルージョン終了座標O1各々の位置関係を示す図である。図7は、図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域を補完するための処理の一例を示すフローチャートである。図8は、第1の二次元画像に基づく三次元モデルを、図1の内視鏡の視野方向に対して側面から見た場合の一例を示す模式図である。図9は、図1の内視鏡の挿入部が、図8に示す位置からオクルージョンの存在する方向へ操作された場合の一例を示す模式図である。 1 to 9 relate to an embodiment of the present invention. FIG. 1 is a diagram illustrating an example of an overall configuration of an endoscope system in which a medical image processing apparatus according to an embodiment of the present invention is used. FIG. 2 is a schematic diagram showing images of a tubular organ and a living tissue imaged by the endoscope of FIG. FIG. 3 is a flowchart illustrating an example of a process for detecting an occlusion region in a three-dimensional model estimated from a first two-dimensional image, which is a process performed by the medical image processing apparatus in FIG. FIG. 4 is a schematic diagram showing an example of a raised lesion site that can be imaged by the endoscope of FIG. FIG. 5 is a schematic diagram showing an example different from FIG. 4 of a raised lesion site that can be imaged by the endoscope of FIG. FIG. 6 is a diagram illustrating a positional relationship between one edge, the center-of-gravity coordinates G1, and one occlusion end coordinate O1 in the first two-dimensional image acquired by the medical image processing apparatus in FIG. FIG. 7 is a flowchart illustrating an example of processing for complementing an occlusion region in a three-dimensional model estimated from a first two-dimensional image, which is processing performed by the medical image processing apparatus in FIG. FIG. 8 is a schematic diagram illustrating an example when a three-dimensional model based on the first two-dimensional image is viewed from the side with respect to the visual field direction of the endoscope of FIG. 1. FIG. 9 is a schematic diagram illustrating an example in which the insertion portion of the endoscope of FIG. 1 is operated from the position illustrated in FIG. 8 in a direction in which occlusion exists.
内視鏡システム1は、図1に示すように、被写体を撮像するとともに、該被写体の像の二次元画像を出力する医療用観察装置2と、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される二次元画像の映像信号に対して画像処理を行うとともに、該画像処理を行った後の映像信号を画像信号として出力する医療用画像処理装置3と、医療用画像処理装置3から出力される画像信号に基づく画像を表示するモニタ4と、を有して要部が構成されている。
As shown in FIG. 1, the
また、医療用観察装置2は、体腔内に挿入されるとともに、該体腔内の被写体を撮像して撮像信号として出力する内視鏡6と、内視鏡6により撮像される被写体を照明するための照明光を供給する光源装置7と、内視鏡6に対する各種制御を行うとともに、内視鏡6から出力される撮像信号に対して信号処理を行い、二次元画像の映像信号として出力するカメラコントロールユニット(以降、CCUと略記する)8と、CCU8から出力される二次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するモニタ9と、を有して要部が構成されている。
In addition, the
医療用撮像装置としての内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。
The
ライトガイド13は、先端側が内視鏡6の先端部14に配置されるとともに、後端側が光源装置7に接続される。ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。
The
内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。
At the distal end portion 14 of the
撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動するとともに、CCU8に対して撮像信号を出力する。
The
また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、二次元画像の映像信号として変換されて出力される。CCU8から出力された二次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9には、CCU8から出力される映像信号に基づく被写体の像が二次元の画像として表示される。
Further, the image pickup signal input to the
医療用画像処理装置3は、医療用観察装置2から出力される二次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22の画像処理結果としての画像データ等を記憶する情報記憶部25と、を有する。
The medical
また、医療用画像処理装置3は、記憶装置インターフェース26と、記憶装置インターフェース26を介してCPU22の画像処理結果としての画像データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うとともに、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボード等により構成される入力操作部29と、を有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。
Further, the medical
なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29は、データバス30を介して相互に接続されている。
Note that the
次に、内視鏡システム1の作用について説明を行う。
Next, the operation of the
まず、ユーザは、体腔内に内視鏡6の挿入部11を挿入する。そして、ユーザにより挿入部11が体腔内に挿入されると、例えば、該体腔内の管状器官31の内壁に存在する、隆起性の(隆起形状を有する)病変部位である生体組織31Aの像が、先端部14に設けられた撮像部17により、図2に示すような像として撮像される。そして、図2に示すような像として撮像部17により撮像された、管状器官31及び生体組織31Aの像は、撮像信号としてCCU8に対して出力される。
First, the user inserts the
CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を二次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、管状器官31及び生体組織31Aの像を、例えば、図2に示すような二次元の画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた二次元画像の映像信号を、医療用画像処理装置3に対して出力する。
The
医療用画像処理装置3に対して出力された二次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。
The video signal of the two-dimensional image output to the medical
CPU22は、画像入力部21から出力された二次元画像の映像信号に基づき、例えば、図3に示す各処理として以降に説明する処理を行うことにより、対象画像としての第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出する。
Based on the video signal of the two-dimensional image output from the
まず、エッジ抽出部としてのCPU22は、画像入力部21から出力された第1の二次元画像の映像信号に基づき、例えば、該第1の二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該第1の二次元画像に含まれる全てのエッジを抽出する(図3のステップS1)。
First, the
次に、CPU22は、第1の二次元画像において抽出した各エッジのうち、所定の条件に合致するエッジの両端点を接続して閉曲線とする(図3のステップS2)。具体的には、CPU22は、第1の二次元画像において抽出した各エッジのうち、例えば、一のエッジの両端点間の距離が該一のエッジの線分長に対して65%未満である場合に、直線により該一のエッジの両端点間を接続し、該一のエッジを閉曲線とする。
Next, the
CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在するか否かを検出する。そして、CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在しないことを検出した場合(図3のステップS3)、該第1の二次元画像にはオクルージョン発生の原因となる隆起性の病変が存在しないと判断し、図3に示す一連の処理を終了する。また、CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在することを検出した場合(図3のステップS3)、該第1の二次元画像にオクルージョン発生の原因となる隆起性の病変が存在すると判断し、後述する図3のステップS4に示す処理を引き続き行う。
The
その後、画像領域検出部としてのCPU22は、第1の二次元画像に存在する、閉曲線に囲まれた領域内部における重心座標G1(x,y)を検出するとともに、該閉曲線の周囲長L1とを算出する(図3のステップS4)。そして、CPU22は、前記周囲長L1の値が所定の値以下であるか否かを判定する。
Thereafter, the
そして、CPU22は、第1の二次元画像に存在する各閉曲線のうち、周囲長L1が所定の第1の値以下である閉曲線を(ノイズ等により発生した可能性が高いと判断して)以降の処理の対象から外す(図3のステップS5)。
Then, the
CPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在し、かつ、該エッジに隣接する画素各々において、明るさ成分(例えばRの輝度値)を算出する(図3のステップS6)。さらに、CPU22は、エッジを挟んで両側に存在する画素同士の明るさ成分の比較を行う。
The
これにより、CPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在する画素同士の明るさ成分の差が所定の閾値よりも小さいものを、(オクルージョンの原因とはならないとして、)以降の処理の対象から外す(図3のステップS7)。
As a result, the
オクルージョン領域検出部としてのCPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在する画素同士の明るさ成分の差が所定の閾値以上である領域を、オクルージョン領域として検出した後、さらに、オクルージョン領域が検出された各閉曲線内に別の閉曲線(またはエッジ)が存在しているか否かを判定する。
The
CPU22は、一の閉曲線内に別の閉曲線(またはエッジ)が存在していることを検出した場合(図3のステップS8)、該別の閉曲線(またはエッジ)に対し、前述した図3のステップS6及びステップS7の処理を再度行う。また、CPU22は、一の閉曲線内に別の閉曲線(またはエッジ)が存在していないことを検出した場合(図3のステップS8)、後述する図3のステップS9に示す処理を引き続き行う。
When the
ここで、図3のステップS8に関する説明を行う。 Here, step S8 in FIG. 3 will be described.
例えば、隆起性の病変部位31Bが、図4に示すような状態により撮像された場合の二次元画像においては、ハレーション等のアーティファクトによってのみ、一の閉曲線内に別の閉曲線またはエッジが発生し得る。しかし、隆起性及び潰瘍性の両方を有する特殊な形状の病変部位31Cが、図5に示すような状態により撮像された場合の二次元画像においては、ハレーション等のアーティファクトによらずとも、一の閉曲線内に別の閉曲線またはエッジが存在し得るとともに、例えば、図5に示すような窪んだ部分にオクルージョンが発生し得る。すなわち、CPU22は、図3のステップS8の処理結果に応じて図3のステップS6及びステップS7の処理を再度行うことにより、図5に示すような窪んだ部分に発生し得るオクルージョンの検出を行っている。
For example, in a two-dimensional image in which a raised lesion site 31B is imaged in a state as shown in FIG. 4, another closed curve or edge may be generated within one closed curve only by artifacts such as halation. . However, in a two-dimensional image in which a specially shaped lesion site 31C having both bulging and ulcerative properties is imaged in a state as shown in FIG. There may be another closed curve or edge within the closed curve, and for example, occlusion may occur in a recessed portion as shown in FIG. That is, the
なお、以降においては、説明の簡単のため、第1の二次元画像に存在する各閉曲線のうち、一の閉曲線、及び、該一の閉曲線の一部としての一のエッジについて主に述べるものとする。また、以降において、前記一のエッジを挟んで対向する両側の位置に存在し、かつ、該一のエッジに隣接する画素各々のうち、明るさ成分が相対的に大きい画素(または該エッジの内側の画素)をオクルージョン開始座標と表し、明るさ成分が相対的に小さい画素(または該エッジの外側の画素)をオクルージョン終了座標と表すものとする。さらに、以降においては、説明の簡単のため、前記一の閉曲線を構成する前記一のエッジが有する各オクルージョン終了座標のうち、一のオクルージョン終了座標O1(x0,y0)について主に述べるものとする。そして、一の閉曲線の一部としての一のエッジ、重心座標G1(x,y)、及び、一のオクルージョン終了座標O1(x0,y0)各々の位置関係は、例えば、図6に示されるようなものとなる。 In the following, for the sake of simplicity of explanation, among the closed curves existing in the first two-dimensional image, one closed curve and one edge as a part of the one closed curve will be mainly described. To do. In the following, a pixel having a relatively large brightness component (or an inner side of the edge) among pixels adjacent to the one edge and located on opposite sides of the one edge. Pixel) is represented as occlusion start coordinates, and a pixel having a relatively small brightness component (or a pixel outside the edge) is represented as occlusion end coordinates. Further, in the following, for the sake of simplicity, one occlusion end coordinate O1 (x0, y0) is mainly described among the respective occlusion end coordinates of the one edge constituting the one closed curve. . The positional relationship between one edge as a part of one closed curve, the center-of-gravity coordinates G1 (x, y), and one occlusion end coordinate O1 (x0, y0) is, for example, as shown in FIG. It will be something.
CPU22は、重心座標G1(x,y)に対し、一のオクルージョン終了座標O1(x0,y0)が第1の二次元画像においてどの方向に存在しているかを検出するとともに、該方向をオクルージョン方向として保持する(図3のステップS9)。
The
三次元モデル推定部としてのCPU22は、画像入力部21から出力された第1の二次元画像の映像信号の輝度情報等に基づき、例えば、幾何学的な変換等の処理を用い、管状器官31及び生体組織31Aの三次元モデルを推定する(図3のステップS10)。この処理により、オクルージョン領域検出部としてのCPU22は、第1の二次元画像におけるオクルージョン開始座標に相当する三次元モデルのボクセルであるオクルージョン開始ボクセルと、第1の二次元画像におけるオクルージョン終了座標に相当する三次元モデルのボクセルであるオクルージョン終了ボクセルとのデータを取得する。そして、CPU22は、オクルージョン開始ボクセル及びオクルージョン終了ボクセルの2つのボクセル、及び、該2つのボクセルの間の領域に存在する各ボクセルを、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域として検出する(図3のステップS11)。
The
以上に述べた、図3に示す各処理を行うことにより、CPU22は、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出する。
The
なお、図3の処理における重心座標G1、オクルージョン開始座標及びオクルージョン終了座標は、個々の画素に応じて定められるものに限らず、例えば、(N×N)個の複数の画素を有して構成される領域各々に応じて定められるものであっても良い。 Note that the center-of-gravity coordinates G1, the occlusion start coordinates, and the occlusion end coordinates in the processing of FIG. 3 are not limited to those determined according to individual pixels, and include, for example, (N × N) pixels. It may be determined according to each area to be processed.
CPU22は、図3に示す各処理に引き続き、例えば、図7に示す各処理として以降に説明する処理を行うことにより、第1の二次元画像から時系列的に後に位置するフレームの画像である、非対象画像としての第2の二次元画像から推定される三次元モデルを用いつつ、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完する処理を行う。
The
まず、CPU22は、画像入力部21から出力された、第1の二次元画像の後のフレームの画像である第2の二次元画像の映像信号に基づき、例えば、該第2の二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該第2の二次元画像に含まれる全てのエッジを抽出する(図7のステップS21)。
First, the
そして、CPU22は、第2の二次元画像において抽出した各エッジのうち、所定の条件に合致するエッジの両端点を接続して閉曲線とする(図7のステップS22)。具体的には、CPU22は、第2の二次元画像において抽出した各エッジのうち、例えば、一のエッジの両端点間の距離が該一のエッジの線分長に対して65%未満である場合に、直線により該一のエッジの両端点間を接続し、該一のエッジを閉曲線とする。
Then, the
CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在するか否かを検出する。そして、CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在しないことを検出した場合(図7のステップS23)、該第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。
The
また、CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在することを検出した場合(図7のステップS23)、図3のステップS4に示す処理と同様の処理により、該閉曲線の重心座標G2(X,Y)を検出するとともに、該閉曲線の周囲長L2とを算出する(図7のステップS26)。
Further, when the
その後、画像領域移動検出部としてのCPU22は、第1の二次元画像における重心座標G1(x,y)から、第2の二次元画像における重心座標G2(X,Y)までの距離が所定の距離より短く、かつ、周囲長L1と周囲長L2とが略同一の値であるか否かを検出することにより、一のオクルージョン終了座標O1(x0,y0)を有する閉曲線である、第1の二次元画像内の一の閉曲線が、第2の二次元画像内においても存在しているか否かを判定する。
Thereafter, the
CPU22は、重心座標G1(x,y)から重心座標G2(X,Y)までの距離が所定の距離より長いこと、または、周囲長L1と周囲長L2とが略同一の値でないことのいずれかを検出した場合(図7のステップS27)、一のオクルージョン終了座標O1(x0,y0)を有する閉曲線が第2の二次元画像内には存在しないと判定する。その後、CPU22は、重心座標G2(X,Y)を有する第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。
The
また、CPU22は、第1の二次元画像における重心座標G1(x,y)から、第2の二次元画像における重心座標G2(X,Y)までの距離が所定の距離より短く、かつ、周囲長L1と周囲長L2とが略同一の値であることを検出した場合(図7のステップS27)、重心座標G2(X,Y)及び周囲長L2を有する閉曲線が、一のオクルージョン終了座標O1(x0,y0)の存在を示唆する閉曲線であると判定する。
Further, the
その後、画像領域移動検出部としてのCPU22は、重心座標G1(x,y)から重心座標G2(X,Y)への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であるか否かを判定する。具体的には、CPU22は、一のオクルージョン終了座標O1(x0,y0)を重心座標G1(x,y)に対称な位置に移動した座標をO2(X0,Y0)とした場合に、重心座標G2、重心座標G1及び座標O2がなす角の角度θが所定の角度(例えば60度)以内であれば、重心座標G1(x,y)から重心座標G2(X,Y)への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であると検出する。
Thereafter, the
そして、CPU22は、重心座標G1から重心座標G2への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向ではないことを検出した場合(図7のステップS28)、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完するためのデータが、第2の二次元画像からは得られないと判定するとともに、重心座標G2(X,Y)を有する第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。
When the
また、CPU22は、重心座標G1から重心座標G2への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であることを検出した場合(図7のステップS28)、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完するためのデータが、第2の二次元画像から得られると判定する。その後、三次元モデル推定部としてのCPU22は、画像入力部21から出力された第2の二次元画像の映像信号の輝度情報等に基づき、例えば、幾何学的な変換等の処理を用い、管状器官31及び生体組織31Aの三次元モデルを推定する(図7のステップS29)。
Further, when the
オクルージョン補完対応領域検出部としてのCPU22は、第2の二次元画像から推定した三次元モデルに基づき、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域が有する各ボクセルのデータのうち、第2の二次元画像から推定した三次元モデルのデータにより補完可能なボクセルのデータが存在する領域である、オクルージョン補完対応領域に含まれるボクセルを検出する(図7のステップS30)。
The
ここで、図7のステップS30に示す処理の詳細を説明する。 Here, details of the process shown in step S30 of FIG. 7 will be described.
第1の二次元画像に基づく生体組織31Aの三次元モデルは、内視鏡6の視野方向に対して側面から見た場合、例えば、図8のような状態のものとして推定される。図8に示すように、オクルージョン開始ボクセル及びオクルージョン終了ボクセルに挟まれた一のエッジ上に存在する一のボクセルをボクセルE、オクルージョン終了ボクセルをボクセルOE、及び、生体組織31Aの三次元モデルにおいて、オクルージョン側かつボクセルOEと同一平面上に存在する一のボクセルをボクセルB1とした場合、第1の二次元画像に基づく生体組織31Aの三次元モデルのオクルージョン領域は、ボクセルEからボクセルB1までに含まれる各ボクセルと、ボクセルB1からボクセルOEまでに含まれる各ボクセルと、により構成される。
The three-dimensional model of the
その後、第1の二次元画像を取得した際に位置C1にあった撮像素子16(の撮像面)は、図9に示すように、内視鏡6の挿入部11が操作されることにより、第2の二次元画像を取得する際に、位置C2に移動される。また、図9に示すように、位置C2から、ボクセルEを経由して、オクルージョン領域に向かって直線を引いた場合、該直線は、該オクルージョン領域に含まれるボクセルOCにおいて、ボクセルOEが存在する平面と交わる。
Thereafter, when the first two-dimensional image is acquired, the imaging device 16 (imaging surface thereof) at the position C1 is operated by operating the
内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、第1の二次元画像取得時から第2の二次元画像取得時までに撮像素子16(の撮像面)が移動した距離(位置C1から位置C2までの距離)と、重心座標G1から重心座標G2への移動距離とが等しいという仮定が成り立つ。また、内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、第1の二次元画像取得時から第2の二次元画像取得時までに撮像素子16(の撮像面)が移動した距離(位置C1から位置C2までの距離)と、オクルージョン補完対応領域にあたる部分の距離とが等しいという仮定が成り立つ。さらに、内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、位置C1と位置C2とが同一平面上に存在するという仮定が成り立つ。
For example, when an image of 60 frames per second is acquired by the
なお、以上の各仮定が成り立つことは、幾何的には、図9に示す各部のうち、位置C1、位置C2及びボクセルEの3点を直線により結んだ三角形と、ボクセルOE、ボクセルOC及びボクセルEを直線により結んだ三角形とが、位置C1、位置C2、ボクセルOE及びボクセルOCを直線により結んだ平行四辺形の対角線により各々形成される、互いに合同な三角形であることにより示される。 It should be noted that the above assumptions hold in terms of geometrically, among the parts shown in FIG. 9, a triangle formed by connecting three points of position C1, position C2, and voxel E by a straight line, voxel OE, voxel OC, and voxel. The triangle in which E is connected by a straight line is indicated by being congruent triangles formed by diagonal lines of parallelograms connecting the position C1, the position C2, the voxel OE, and the voxel OC by a straight line.
以上に述べた各仮定が成り立つことにより、重心座標G1から重心座標G2への移動距離と、ボクセルOEからボクセルOCまでの距離とが等しくなるため、CPU22は、ボクセルOE及びボクセルOCの2つのボクセルと、該2つのボクセル間に含まれる各ボクセルとを、オクルージョン補完対応領域に含まれるボクセルとして検出する。
Since each of the assumptions described above holds, the movement distance from the center-of-gravity coordinate G1 to the center-of-gravity coordinate G2 is equal to the distance from the voxel OE to the voxel OC. Therefore, the
そして、オクルージョン補完部としてのCPU22は、図7のステップS30に示す処理により検出したオクルージョン補完対応領域に含まれる各ボクセルのデータを用い、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のデータを補完する(図7のステップS31)。具体的には、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のデータを補完する処理として、該オクルージョン領域に含まれる各ボクセルのデータのうち、オクルージョン補完対応領域に含まれる各ボクセルのデータを、第2の二次元画像に基づく生体組織31Aの三次元モデルが有するボクセルのデータに置換する処理を行う。
Then, the
CPU22は、図7のステップS31に示す処理により、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のボクセルのデータを、第2の二次元画像に基づく生体組織31Aの三次元モデルが有するボクセルのデータに基づいて補完した後、さらに、該オクルージョン領域が残っているか否かを判定する。そして、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っており(図7のステップS32)、かつ、前述したオクルージョン補完対応領域の検出に用いられた第2の二次元画像が最終フレームの画像でなければ、該第2の二次元画像の次のフレームの画像に対して図7のステップS21以降の処理を施すことにより、残りのオクルージョン領域を補完するための処理を行う(図7のステップS24及びステップS25)。さらに、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っており(図7のステップS32)、かつ、前述したオクルージョン補完対応領域の検出に用いられた第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する。
By the process shown in step S31 of FIG. 7, the
また、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っていないことを検出した場合(図7のステップS32)、図7に示す一連の処理を終了する。
Further, when the
なお、図7の処理における重心座標G2及びオクルージョン終了座標は、個々の画素に応じて定められるものに限らず、例えば、(N×N)個の複数の画素を有して構成される領域各々に応じて定められるものであっても良い。 The center-of-gravity coordinates G2 and the occlusion end coordinates in the processing of FIG. 7 are not limited to those determined according to individual pixels. For example, each of the regions configured to have (N × N) pixels It may be determined according to.
また、CPU22は、図7のステップS32に示す処理において、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が完全に補完されるまで図7のステップS21以降の各処理を繰り返すものでなくとも良く、例えば、図3の各処理において検出された元のオクルージョン領域が所定の割合以上補完されたことを検出した場合に処理を終了するものであっても良い。これにより、医療用画像処理装置3は、オクルージョン領域を補完するための処理をより高速に行うことができる。
Further, in the process shown in step S32 in FIG. 7, the
さらに、CPU22は、第1のフレームの二次元画像から推定される三次元モデルが有する第1のオクルージョン領域と、該第1のフレームに時間的に連続するフレームである、第2のフレームの二次元画像から推定される三次元モデルが有する第2のオクルージョン領域とを比較する処理を図3の処理に加えて行いつつ、該第1のオクルージョン領域が該第2のオクルージョン領域よりも小さくなる場合にのみ、該第2のフレームの二次元画像から推定される三次元モデルに対して図7に示す処理を施すものであっても良い。これにより、医療用画像処理装置3は、オクルージョン領域を補完するための処理をより高速かつ高精度に行うことができる。
Further, the
また、本実施形態におけるオクルージョン領域を補完するための処理は、図7に示す一連の処理の説明として述べたような、対象画像から時系列的に後に位置する非対象画像に基づいてオクルージョン領域を補完するものに限らず、補完対象となるオクルージョン領域の少なくとも一部が存在している画像であれば、例えば、該対象画像から時系列的に前に位置する非対象画像を用いつつオクルージョン領域を補完するものであっても良い。 In addition, the process for complementing the occlusion area in the present embodiment is based on a non-target image based on a non-target image located in time series after the target image as described in the series of processes shown in FIG. For example, if the image includes at least a part of the occlusion region to be complemented, the occlusion region is used while using a non-target image positioned in time series from the target image. It may be complementary.
以上に述べたように、本実施形態の医療用画像処理装置3は、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることができる。
As described above, when the 3D model is estimated based on the 2D image, the medical
なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。 In addition, this invention is not limited to embodiment mentioned above, Of course, a various change and application are possible in the range which does not deviate from the meaning of invention.
1・・・内視鏡システム、2・・・医療用観察装置、3・・・医療用画像処理装置、4,9・・・モニタ、6・・・内視鏡、7・・・光源装置、8・・・CCU、11・・・挿入部、12・・・操作部、13・・・ライトガイド、14・・・先端部、15・・・対物光学系、16・・・撮像素子、17・・・撮像部、21・・・画像入力部、22・・・CPU、23・・・処理プログラム記憶部、24・・・画像記憶部、25・・・情報記憶部、26・・・記憶装置インターフェース、27・・・ハードディスク、28・・・表示処理部、29・・・入力操作部、30・・・データバス、31・・・管状器官、31A・・・生体組織、31B,31C・・・病変部位
DESCRIPTION OF
Claims (12)
前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完部と、
を有することを特徴とする医療用画像処理装置。 An occlusion area detection unit that detects an occlusion area of a target image among images of biological tissue input from a medical imaging device;
Using information obtained from one or a plurality of non-target images, which is an image different from the target image and is an image in which at least a part of a region corresponding to the occlusion region of the target image exists. An occlusion complementing unit that complements the occlusion region of the target image;
A medical image processing apparatus comprising:
前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定部と、を有し、
前記オクルージョン領域検出部は、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出部と、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出部と、を有し、
前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータを補完することを特徴とする請求項1乃至請求項3のいずれかに記載の医療用画像処理装置。 A first three-dimensional model estimation unit that estimates a three-dimensional model of the living tissue based on the target image as a two-dimensional image;
A second three-dimensional model estimation unit that estimates a three-dimensional model of each of the one or more non-target images,
The occlusion area detection unit detects a first occlusion area detection unit that detects an occlusion area of the target image as a two-dimensional image, and detects each voxel corresponding to the occlusion area in a three-dimensional model of the target image. Two occlusion area detectors,
The occlusion complementation unit supplements the data of each voxel detected by the second occlusion region detection unit based on the data of the 3D model estimated by the second 3D model estimation unit. The medical image processing apparatus according to any one of claims 1 to 3.
前記第1のオクルージョン領域検出部は、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする請求項4に記載の医療用画像処理装置。 Furthermore, it has an edge extraction unit for extracting the edge of the target image,
The medical image according to claim 4, wherein the first occlusion area detection unit detects the occlusion area based on a difference in brightness components between areas existing on both sides of the edge. Processing equipment.
前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出部と、
前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出部と、を有し、
前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする請求項4または請求項5に記載の医療用画像処理装置。 Further, in the target image, an image area detection unit that detects a predetermined area existing at a position corresponding to the occlusion area;
Based on the position where the predetermined area exists in the target image and the position where the predetermined area exists in one non-target image among the one or more non-target images, the predetermined area is two. An image region movement detection unit for detecting a distance and direction moved in the three-dimensional image;
Based on the distance and the direction in which the predetermined area has moved in the two-dimensional image, an occlusion is performed among areas of the voxel data detected by the second occlusion area detector that includes complementary voxel data. An occlusion complementary corresponding area detection unit that detects as a complementary corresponding area,
The occlusion complementation unit is based on the three-dimensional model of the non-target image estimated by the second three-dimensional model estimation unit, and among the data of each voxel detected by the second occlusion region detection unit, 6. The medical image processing apparatus according to claim 4, wherein voxel data existing in the occlusion complementation corresponding region is supplemented.
前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完ステップと、
を有することを特徴とする医療用画像処理方法。 An occlusion area detection step for detecting an occlusion area of a target image among images of biological tissue input from a medical imaging device;
Using information obtained from one or a plurality of non-target images, which is an image different from the target image and is an image in which at least a part of a region corresponding to the occlusion region of the target image exists. An occlusion completion step of complementing the occlusion area of the target image;
A medical image processing method comprising:
前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定ステップと、を有し、
前記オクルージョン領域検出ステップは、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出ステップと、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出ステップと、を有し、
前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータを補完することを特徴とする請求項7乃至請求項9のいずれかに記載の医療用画像処理方法。 A first three-dimensional model estimation step for estimating a three-dimensional model of the living tissue based on the target image as a two-dimensional image;
A second three-dimensional model estimation step for estimating a three-dimensional model of each of the one or more non-target images,
The occlusion area detecting step includes a first occlusion area detecting step for detecting an occlusion area of the target image as a two-dimensional image, and a first occlusion area detecting step for detecting each voxel corresponding to the occlusion area in the three-dimensional model of the target image. Two occlusion area detection steps,
The occlusion complementation step supplements the data of each voxel detected by the second occlusion region detection step based on the data of the three-dimensional model estimated by the second three-dimensional model estimation step. A medical image processing method according to any one of claims 7 to 9.
前記第1のオクルージョン領域検出ステップは、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする請求項10に記載の医療用画像処理方法。 And an edge extraction step for extracting an edge of the target image,
The medical image according to claim 10, wherein the first occlusion area detection step detects the occlusion area based on a difference in brightness components between areas existing on both sides of the edge. Processing method.
前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出ステップと、
前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出ステップと、を有し、
前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする請求項10または請求項11に記載の医療用画像処理方法。 Further, in the target image, an image region detection step for detecting a predetermined region existing at a position corresponding to the occlusion region;
Based on the position where the predetermined area exists in the target image and the position where the predetermined area exists in one non-target image among the one or more non-target images, the predetermined area is two. An image region movement detection step for detecting the distance and direction moved in the three-dimensional image;
Based on the distance and the direction in which the predetermined area has moved in the two-dimensional image, an occlusion is performed among areas of the voxel data detected by the second occlusion area detector that includes complementary voxel data. An occlusion complementary area detection step for detecting as a complementary area,
The occlusion complementation step is based on the three-dimensional model of the non-target image estimated by the second three-dimensional model estimation step, and among the data of each voxel detected by the second occlusion region detection step, The medical image processing method according to claim 10 or 11, wherein voxel data existing in the occlusion complementation corresponding region is complemented.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006280564A JP5148096B2 (en) | 2006-10-13 | 2006-10-13 | Medical image processing apparatus and method of operating medical image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006280564A JP5148096B2 (en) | 2006-10-13 | 2006-10-13 | Medical image processing apparatus and method of operating medical image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008093287A true JP2008093287A (en) | 2008-04-24 |
JP5148096B2 JP5148096B2 (en) | 2013-02-20 |
Family
ID=39376761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006280564A Active JP5148096B2 (en) | 2006-10-13 | 2006-10-13 | Medical image processing apparatus and method of operating medical image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5148096B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889884A (en) * | 2018-09-07 | 2020-03-17 | 康耐视公司 | Method and equipment for distributing effective data processing to object three-dimensional reconstruction initial correspondence |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0535854A (en) * | 1991-07-26 | 1993-02-12 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape measurement processing system |
JPH067289A (en) * | 1992-03-27 | 1994-01-18 | Olympus Optical Co Ltd | Endoscopic image processor |
JPH06265322A (en) * | 1993-03-11 | 1994-09-20 | Canon Inc | Method for detecting parallax error from a plurality of images |
JPH08201941A (en) * | 1995-01-12 | 1996-08-09 | Texas Instr Inc <Ti> | Three-dimensional image formation |
JPH1023311A (en) * | 1996-07-05 | 1998-01-23 | Canon Inc | Image information input method and device therefor |
JPH1023465A (en) * | 1996-07-05 | 1998-01-23 | Canon Inc | Image pickup method and its device |
JP2001075019A (en) * | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Endoscope device |
-
2006
- 2006-10-13 JP JP2006280564A patent/JP5148096B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0535854A (en) * | 1991-07-26 | 1993-02-12 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape measurement processing system |
JPH067289A (en) * | 1992-03-27 | 1994-01-18 | Olympus Optical Co Ltd | Endoscopic image processor |
JPH06265322A (en) * | 1993-03-11 | 1994-09-20 | Canon Inc | Method for detecting parallax error from a plurality of images |
JPH08201941A (en) * | 1995-01-12 | 1996-08-09 | Texas Instr Inc <Ti> | Three-dimensional image formation |
JPH1023311A (en) * | 1996-07-05 | 1998-01-23 | Canon Inc | Image information input method and device therefor |
JPH1023465A (en) * | 1996-07-05 | 1998-01-23 | Canon Inc | Image pickup method and its device |
JP2001075019A (en) * | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Endoscope device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889884A (en) * | 2018-09-07 | 2020-03-17 | 康耐视公司 | Method and equipment for distributing effective data processing to object three-dimensional reconstruction initial correspondence |
JP2020053037A (en) * | 2018-09-07 | 2020-04-02 | コグネックス・コーポレイション | Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object |
US11107268B2 (en) | 2018-09-07 | 2021-08-31 | Cognex Corporation | Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of an object |
JP2022068316A (en) * | 2018-09-07 | 2022-05-09 | コグネックス・コーポレイション | Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object |
CN110889884B (en) * | 2018-09-07 | 2023-11-28 | 康耐视公司 | Method and device for assigning effective data processing to initial correspondence of three-dimensional reconstruction of an object |
Also Published As
Publication number | Publication date |
---|---|
JP5148096B2 (en) | 2013-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8515141B2 (en) | Medical image processing apparatus and method for detecting locally protruding lesion | |
JP4902735B2 (en) | Medical image processing apparatus and medical image processing method | |
US20080303898A1 (en) | Endoscopic image processing apparatus | |
US7830378B2 (en) | Medical image processing apparatus and medical image processing method | |
US8086005B2 (en) | Medical image processing apparatus and medical image processing method | |
JP4994737B2 (en) | Medical image processing apparatus and medical image processing method | |
JP6254053B2 (en) | Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus | |
WO2012114600A1 (en) | Medical image processing device and medical image processing method | |
JP5078486B2 (en) | Medical image processing apparatus and method of operating medical image processing apparatus | |
WO2019130868A1 (en) | Image processing device, processor device, endoscope system, image processing method, and program | |
US20220398771A1 (en) | Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program | |
JP7385731B2 (en) | Endoscope system, image processing device operating method, and endoscope | |
US20220409030A1 (en) | Processing device, endoscope system, and method for processing captured image | |
US11432707B2 (en) | Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion | |
JP4981335B2 (en) | Medical image processing apparatus and medical image processing method | |
JP5148096B2 (en) | Medical image processing apparatus and method of operating medical image processing apparatus | |
JP4981336B2 (en) | Medical image processing apparatus and medical image processing method | |
JP2008093213A (en) | Medical image processor and medical image processing method | |
Selka et al. | Performance evaluation of simultaneous RGB analysis for feature detection and tracking in endoscopic images | |
JP2008023266A (en) | Medical image processing apparatus and medical image processing method | |
JP2024029849A (en) | Endoscope diagnosis support apparatus, endoscope diagnosis support method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121128 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5148096 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |