JP2008093287A - Medical image processing apparatus and method - Google Patents

Medical image processing apparatus and method Download PDF

Info

Publication number
JP2008093287A
JP2008093287A JP2006280564A JP2006280564A JP2008093287A JP 2008093287 A JP2008093287 A JP 2008093287A JP 2006280564 A JP2006280564 A JP 2006280564A JP 2006280564 A JP2006280564 A JP 2006280564A JP 2008093287 A JP2008093287 A JP 2008093287A
Authority
JP
Japan
Prior art keywords
image
occlusion
area
dimensional
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006280564A
Other languages
Japanese (ja)
Other versions
JP5148096B2 (en
Inventor
Kenji Nakamura
健次 中村
Hiroichi Nishimura
博一 西村
Hideki Tanaka
秀樹 田中
Ryoko Inoue
涼子 井上
Yoshio Sawa
美穂 沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2006280564A priority Critical patent/JP5148096B2/en
Publication of JP2008093287A publication Critical patent/JP2008093287A/en
Application granted granted Critical
Publication of JP5148096B2 publication Critical patent/JP5148096B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical image processing apparatus and a method capable of reducing the burden on a user. <P>SOLUTION: This medical image processing apparatus is provided with an occlusion area detection section for detecting an occlusion area of an object image out of images of biotissue input from a medical capturing apparatus, and an occlusion complement section for complementing the occlusion area of the object image using information acquired from one or a plurality of non-object images, which are different from the object image and have at least parts of the area corresponding to the occlusion area of the object image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、二次元画像に応じた三次元モデルを推定することが可能な医療用画像処理装置及び医療用画像処理方法に関するものである。   The present invention relates to a medical image processing apparatus and a medical image processing method, and more particularly to a medical image processing apparatus and a medical image processing method capable of estimating a three-dimensional model corresponding to a two-dimensional image. .

内視鏡及び医療用画像処理装置等を具備して構成される内視鏡システムは、医療分野等において広く用いられている。具体的には、内視鏡システムは、例えば、生体としての体腔内に挿入される挿入部と、該挿入部の先端部に配置された対物光学系と、該対物光学系により結像された体腔内の像を撮像して撮像信号として出力する撮像部とを有して構成される内視鏡と、該撮像信号に基づき、表示部としてのモニタ等に該体腔内の像を画像表示させるための処理を行う医療用画像処理装置とを具備して構成されている。そして、ユーザは、表示部としてのモニタ等に画像表示された体腔内の像に基づき、例えば、体腔内における被写体としての臓器等の観察を行う。   An endoscope system including an endoscope and a medical image processing apparatus is widely used in the medical field and the like. Specifically, the endoscope system is formed by, for example, an insertion portion that is inserted into a body cavity as a living body, an objective optical system that is disposed at a distal end portion of the insertion portion, and an image formed by the objective optical system. An endoscope configured to include an imaging unit that captures an image of a body cavity and outputs the image as an imaging signal, and displays the image of the body cavity on a monitor or the like as a display unit based on the imaging signal And a medical image processing apparatus that performs processing for this purpose. Then, the user observes an organ or the like as a subject in the body cavity based on the image in the body cavity displayed on the monitor or the like as the display unit.

また、前述した構成を具備する内視鏡システムは、体腔内における被写体として、例えば、大腸等の消化管粘膜の像を撮像することもまた可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することができる。   In addition, the endoscope system having the above-described configuration can also take an image of the digestive tract mucous membrane such as the large intestine as a subject in the body cavity. Therefore, the user can comprehensively observe various findings such as the color of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.

さらに、近年においては、内視鏡により撮像された被写体の像の撮像信号に応じた二次元画像のデータに基づき、該被写体の三次元モデルを推定することが可能である、例えば、特許文献1に記載されているような内視鏡装置が提案されている。
特開平11−337845号公報
Further, in recent years, it is possible to estimate a three-dimensional model of a subject based on data of a two-dimensional image corresponding to an imaging signal of an image of the subject imaged by an endoscope. Has been proposed.
JP 11-337845 A

特に、内視鏡により撮像された隆起形状を有する生体組織の像としての、例えば、大腸のひだまたはポリープ等の生体組織の像を含む二次元画像は、該内視鏡の視野方向に対して不可視領域を含む場合が多い。そして、前述した二次元画像における不可視領域は、一般的にオクルージョンと呼ばれており、正確な三次元モデルの推定が困難な領域である。そのため、二次元画像のオクルージョンが発生している部分においては、例えば、該二次元画像に基づく三次元モデルの対応する位置に推定結果が存在しない、または、該二次元画像に基づく三次元モデルの対応する位置に信頼性の低い推定結果が算出されるという課題が生じている。そして、信頼性の低い推定結果に基づいて生成された三次元モデルにおいては、ポリープ等の病変部位を発見することが困難となってしまう場合がある。   In particular, as an image of a living tissue having a raised shape imaged by an endoscope, for example, a two-dimensional image including an image of a living tissue such as a fold of the large intestine or a polyp is in the viewing direction of the endoscope. Often includes invisible areas. The invisible region in the above-described two-dimensional image is generally called occlusion and is a region where it is difficult to estimate an accurate three-dimensional model. Therefore, in the portion where the occlusion of the 2D image occurs, for example, there is no estimation result at the corresponding position of the 3D model based on the 2D image, or the 3D model based on the 2D image There is a problem that an estimation result with low reliability is calculated at a corresponding position. In a three-dimensional model generated based on an estimation result with low reliability, it may be difficult to find a lesion site such as a polyp.

本発明は、前述した点に鑑みてなされたものであり、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることのできる医療用画像処理装置及び医療用画像処理方法を提供することを目的としている。   The present invention has been made in view of the above-described points. When a three-dimensional model is estimated based on a two-dimensional image, a portion where data is missing and a portion where data with low reliability exist are compared with the conventional one. The purpose of the present invention is to provide a medical image processing apparatus and a medical image processing method capable of estimating a highly accurate three-dimensional model by reducing the number of lesions and, as a result, easily finding a lesion site such as a polyp. Yes.

本発明における第1の医療用画像処理装置は、医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出部と、前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完部と、を有することを特徴とする。   The first medical image processing apparatus according to the present invention is an image different from the occlusion area detection unit that detects an occlusion area of a target image among images of biological tissue input from the medical imaging apparatus, and the target image. And using information obtained from one or more non-target images, which is an image in which at least a part of a region corresponding to the occlusion region of the target image exists, and the occlusion region of the target image is And an occlusion complementation unit for complementation.

本発明における第2の医療用画像処理装置は、前記第1の医療用画像処理装置において、 前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする。   According to a second medical image processing apparatus of the present invention, in the first medical image processing apparatus, each of the one or more non-target images is a two-dimensional image or a tertiary generated based on the two-dimensional image. It is an original model.

本発明における第3の医療用画像処理装置は、前記第1または前記第2の医療用画像処理装置において、前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする。   According to a third medical image processing apparatus of the present invention, in the first or second medical image processing apparatus, each of the one or more non-target images is time-sequentially before or after the target image. It is an image of a positioned frame.

本発明における第4の医療用画像処理装置は、前記第1乃至前記第3の医療用画像処理装置において、さらに、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定部と、前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定部と、を有し、前記オクルージョン領域検出部は、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出部と、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出部と、を有し、前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータを補完することを特徴とする。   According to a fourth medical image processing apparatus of the present invention, in the first to third medical image processing apparatuses, a three-dimensional model of the biological tissue is estimated based on the target image as a two-dimensional image. A first three-dimensional model estimation unit, and a second three-dimensional model estimation unit that estimates a three-dimensional model of each of the one or more non-target images, and the occlusion region detection unit includes a two-dimensional A first occlusion area detection unit for detecting an occlusion area of the target image as an image; and a second occlusion area detection unit for detecting each voxel corresponding to the occlusion area in a three-dimensional model of the target image. And the occlusion complementation unit is configured to generate the second octocc based on the data of the 3D model estimated by the second 3D model estimation unit. Wherein said detected by, Version area detection unit complements the data for each voxel.

本発明における第5の医療用画像処理装置は、前記第4の医療用画像処理装置において、さらに、前記対象画像のエッジを抽出するエッジ抽出部を有し、前記第1のオクルージョン領域検出部は、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする。   According to a fifth medical image processing apparatus of the present invention, in the fourth medical image processing apparatus, the fifth medical image processing apparatus further includes an edge extraction unit that extracts an edge of the target image, and the first occlusion region detection unit includes The occlusion area is detected based on a difference in brightness components between areas existing on both sides of the edge.

本発明における第6の医療用画像処理装置は、前記第4または前記第5の医療用画像処理装置において、さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出部と、前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出部と、前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出部と、を有し、前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする。   According to a sixth medical image processing apparatus of the present invention, in the fourth or fifth medical image processing apparatus, a predetermined region existing at a position corresponding to the occlusion region is detected in the target image. On the basis of the image region detection unit that performs the detection, the position where the predetermined region exists in the target image, and the position where the predetermined region exists in one non-target image among the one or more non-target images. An image area movement detecting unit for detecting a distance and direction in which the predetermined area has moved in the two-dimensional image; and the second occlusion area based on the distance and direction in which the predetermined area has moved in the two-dimensional image. Among the voxel data detected by the detection unit, an occlusion complementation corresponding area is detected as an area where complementary voxel data exists. And a second occlusion region detection unit based on a three-dimensional model of the non-target image estimated by the second three-dimensional model estimation unit. The voxel data existing in the occlusion complementation corresponding area among the data of the respective voxels detected by the above is supplemented.

本発明における第1の医療用画像処理方法は、医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出ステップと、前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完ステップと、を有することを特徴とする。   The first medical image processing method according to the present invention is an occlusion region detection step for detecting an occlusion region of a target image among images of biological tissue input from a medical imaging device, and an image different from the target image. And using information obtained from one or more non-target images, which is an image in which at least a part of a region corresponding to the occlusion region of the target image exists, and the occlusion region of the target image is An occlusion complementing step for complementing.

本発明における第2の医療用画像処理方法は、前記第1の医療用画像処理方法において、 前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする。   According to a second medical image processing method of the present invention, in the first medical image processing method, each of the one or more non-target images is a two-dimensional image or a tertiary generated based on the two-dimensional image. It is an original model.

本発明における第3の医療用画像処理方法は、前記第1または前記第2の医療用画像処理方法において、前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする。   According to a third medical image processing method of the present invention, in the first or second medical image processing method, each of the one or more non-target images may be time-sequentially before or after the target image. It is an image of a positioned frame.

本発明における第4の医療用画像処理方法は、前記第1乃至前記第3の医療用画像処理方法において、さらに、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定ステップと、前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定ステップと、を有し、前記オクルージョン領域検出ステップは、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出ステップと、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出ステップと、を有し、前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータを補完することを特徴とする。   According to a fourth medical image processing method of the present invention, in the first to third medical image processing methods, a three-dimensional model of the biological tissue is estimated based on the target image as a two-dimensional image. A first three-dimensional model estimation step, and a second three-dimensional model estimation step for estimating a three-dimensional model of each of the one or more non-target images, and the occlusion region detection step includes: A first occlusion area detecting step for detecting an occlusion area of the target image as an image; and a second occlusion area detecting step for detecting each voxel corresponding to the occlusion area in a three-dimensional model of the target image. And the occlusion complementation step includes three steps estimated by the second three-dimensional model estimation step. Based on the data in the original model, characterized by complementing the data of the detected each voxel by the second occlusion region detection step.

本発明における第5の医療用画像処理方法は、前記第4の医療用画像処理方法において、さらに、前記対象画像のエッジを抽出するエッジ抽出ステップを有し、前記第1のオクルージョン領域検出ステップは、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする。   According to a fifth medical image processing method of the present invention, in the fourth medical image processing method, the method further includes an edge extraction step of extracting an edge of the target image, and the first occlusion region detection step includes The occlusion area is detected based on a difference in brightness components between areas existing on both sides of the edge.

本発明における第6の医療用画像処理方法は、前記第4または前記第5の医療用画像処理方法において、さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出ステップと、前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出ステップと、前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出ステップと、を有し、前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする。   According to a sixth medical image processing method of the present invention, in the fourth or fifth medical image processing method, a predetermined region existing at a position corresponding to the occlusion region is detected in the target image. An image area detecting step, a position where the predetermined area exists in the target image, and a position where the predetermined area exists in one non-target image among the one or more non-target images. An image area movement detecting step for detecting a distance and direction in which the predetermined area has moved in the two-dimensional image; and the second occlusion area based on the distance and direction in which the predetermined area has moved in the two-dimensional image. Of the data of each voxel detected by the detection unit, an area where complementary voxel data exists is defined as an occlusion completion compatible area. An occlusion complementation corresponding region detection step for detecting, wherein the occlusion complementation step is based on the three-dimensional model of the non-target image estimated by the second three-dimensional model estimation step. Of the voxel data detected in the detection step, the voxel data existing in the occlusion complementation corresponding region is complemented.

本発明における医療用画像処理装置及び医療用画像処理方法によると、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることができる。   According to the medical image processing apparatus and the medical image processing method of the present invention, when a three-dimensional model is estimated based on a two-dimensional image, a missing portion of data and a portion where data with low reliability exist are conventionally used. By reducing the number, it is possible to estimate a highly accurate three-dimensional model, and as a result, it is possible to easily find a lesion site such as a polyp.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図9は、本発明の実施形態に係るものである。図1は、本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図である。図2は、図1の内視鏡により撮像される管状器官及び生体組織の像を示す模式図である。図3は、図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出するための処理の一例を示すフローチャートである。図4は、図1の内視鏡により撮像され得る隆起性の病変部位の一例を示す模式図である。図5は、図1の内視鏡により撮像され得る隆起性の病変部位の、図4とは異なる例を示す模式図である。図6は、図1の医療用画像処理装置が取得した第1の二次元画像における、一のエッジ、重心座標G1、及び、一のオクルージョン終了座標O1各々の位置関係を示す図である。図7は、図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域を補完するための処理の一例を示すフローチャートである。図8は、第1の二次元画像に基づく三次元モデルを、図1の内視鏡の視野方向に対して側面から見た場合の一例を示す模式図である。図9は、図1の内視鏡の挿入部が、図8に示す位置からオクルージョンの存在する方向へ操作された場合の一例を示す模式図である。   1 to 9 relate to an embodiment of the present invention. FIG. 1 is a diagram illustrating an example of an overall configuration of an endoscope system in which a medical image processing apparatus according to an embodiment of the present invention is used. FIG. 2 is a schematic diagram showing images of a tubular organ and a living tissue imaged by the endoscope of FIG. FIG. 3 is a flowchart illustrating an example of a process for detecting an occlusion region in a three-dimensional model estimated from a first two-dimensional image, which is a process performed by the medical image processing apparatus in FIG. FIG. 4 is a schematic diagram showing an example of a raised lesion site that can be imaged by the endoscope of FIG. FIG. 5 is a schematic diagram showing an example different from FIG. 4 of a raised lesion site that can be imaged by the endoscope of FIG. FIG. 6 is a diagram illustrating a positional relationship between one edge, the center-of-gravity coordinates G1, and one occlusion end coordinate O1 in the first two-dimensional image acquired by the medical image processing apparatus in FIG. FIG. 7 is a flowchart illustrating an example of processing for complementing an occlusion region in a three-dimensional model estimated from a first two-dimensional image, which is processing performed by the medical image processing apparatus in FIG. FIG. 8 is a schematic diagram illustrating an example when a three-dimensional model based on the first two-dimensional image is viewed from the side with respect to the visual field direction of the endoscope of FIG. 1. FIG. 9 is a schematic diagram illustrating an example in which the insertion portion of the endoscope of FIG. 1 is operated from the position illustrated in FIG. 8 in a direction in which occlusion exists.

内視鏡システム1は、図1に示すように、被写体を撮像するとともに、該被写体の像の二次元画像を出力する医療用観察装置2と、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される二次元画像の映像信号に対して画像処理を行うとともに、該画像処理を行った後の映像信号を画像信号として出力する医療用画像処理装置3と、医療用画像処理装置3から出力される画像信号に基づく画像を表示するモニタ4と、を有して要部が構成されている。   As shown in FIG. 1, the endoscope system 1 includes a medical observation device 2 that captures an image of a subject and outputs a two-dimensional image of the image of the subject, a personal computer, and the like, and the medical observation device 2. From the medical image processing device 3 that performs image processing on the video signal of the two-dimensional image output from the image signal and outputs the image signal after the image processing as an image signal, and the medical image processing device 3 And a monitor 4 that displays an image based on the output image signal.

また、医療用観察装置2は、体腔内に挿入されるとともに、該体腔内の被写体を撮像して撮像信号として出力する内視鏡6と、内視鏡6により撮像される被写体を照明するための照明光を供給する光源装置7と、内視鏡6に対する各種制御を行うとともに、内視鏡6から出力される撮像信号に対して信号処理を行い、二次元画像の映像信号として出力するカメラコントロールユニット(以降、CCUと略記する)8と、CCU8から出力される二次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するモニタ9と、を有して要部が構成されている。   In addition, the medical observation apparatus 2 is inserted into a body cavity, images the subject in the body cavity and outputs the image as an imaging signal, and illuminates the subject imaged by the endoscope 6. The light source device 7 that supplies the illumination light and the camera that performs various controls on the endoscope 6, performs signal processing on the imaging signal output from the endoscope 6, and outputs it as a video signal of a two-dimensional image A control unit (hereinafter abbreviated as CCU) 8, and a monitor 9 that displays an image of a subject imaged by the endoscope 6 based on a video signal of a two-dimensional image output from the CCU 8. The main part is configured.

医療用撮像装置としての内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。   The endoscope 6 as a medical imaging apparatus includes an insertion unit 11 that is inserted into a body cavity and an operation unit 12 that is provided on the proximal end side of the insertion unit 11. A light guide 13 for transmitting illumination light supplied from the light source device 7 is inserted into a portion from the proximal end side in the insertion portion 11 to the distal end portion 14 on the distal end side in the insertion portion 11. Yes.

ライトガイド13は、先端側が内視鏡6の先端部14に配置されるとともに、後端側が光源装置7に接続される。ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。   The light guide 13 has a distal end side disposed at the distal end portion 14 of the endoscope 6 and a rear end side connected to the light source device 7. Since the light guide 13 has such a configuration, the illumination light supplied from the light source device 7 is transmitted by the light guide 13 and then provided on the distal end surface of the distal end portion 14 of the insertion portion 11 (not shown). It is emitted from the illumination window. Then, illumination light is emitted from an illumination window (not shown) to illuminate a living tissue or the like as a subject.

内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。   At the distal end portion 14 of the endoscope 6, an objective optical system 15 attached to an observation window (not shown) adjacent to an illumination window (not shown) and an imaging position of the objective optical system 15 are arranged. An image pickup unit 17 having an image pickup element 16 constituted by (element) or the like is provided. With such a configuration, the subject image formed by the objective optical system 15 is captured by the image sensor 16 and then output as an image signal.

撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動するとともに、CCU8に対して撮像信号を出力する。   The image sensor 16 is connected to the CCU 8 via a signal line. The image sensor 16 is driven based on a drive signal output from the CCU 8 and outputs an image signal to the CCU 8.

また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、二次元画像の映像信号として変換されて出力される。CCU8から出力された二次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9には、CCU8から出力される映像信号に基づく被写体の像が二次元の画像として表示される。   Further, the image pickup signal input to the CCU 8 is subjected to signal processing in a signal processing circuit (not shown) provided inside the CCU 8, thereby being converted and output as a video signal of a two-dimensional image. The video signal of the two-dimensional image output from the CCU 8 is output to the monitor 9 and the medical image processing apparatus 3. As a result, an image of the subject based on the video signal output from the CCU 8 is displayed on the monitor 9 as a two-dimensional image.

医療用画像処理装置3は、医療用観察装置2から出力される二次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22の画像処理結果としての画像データ等を記憶する情報記憶部25と、を有する。   The medical image processing device 3 performs an A / D conversion on the video signal of the two-dimensional image output from the medical observation device 2 and outputs the video output from the image input unit 21. CPU 22 as a central processing unit that performs image processing on a signal, a processing program storage unit 23 in which a processing program related to the image processing is written, and an image that stores a video signal output from the image input unit 21 It has the memory | storage part 24 and the information storage part 25 which memorize | stores the image data etc. as an image processing result of CPU22.

また、医療用画像処理装置3は、記憶装置インターフェース26と、記憶装置インターフェース26を介してCPU22の画像処理結果としての画像データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うとともに、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボード等により構成される入力操作部29と、を有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。   Further, the medical image processing apparatus 3 stores a storage device interface 26, image data and the like as image processing results of the CPU 22 via the storage device interface 26, a hard disk 27 as a storage device, and image processing results of the CPU 22. The CPU 22 performs a display process for displaying the image data on the monitor 4 based on the image data, and a display processing unit 28 that outputs the image data after the display process as an image signal. An input operation unit 29 configured by a keyboard or the like that allows a user to input parameters for image processing and operation instructions for the medical image processing apparatus 3; The monitor 4 displays an image based on the image signal output from the display processing unit 28.

なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29は、データバス30を介して相互に接続されている。   Note that the image input unit 21, CPU 22, processing program storage unit 23, image storage unit 24, information storage unit 25, storage device interface 26, display processing unit 28, and input operation unit 29 of the medical image processing apparatus 3 are connected to a data bus. 30 to each other.

次に、内視鏡システム1の作用について説明を行う。   Next, the operation of the endoscope system 1 will be described.

まず、ユーザは、体腔内に内視鏡6の挿入部11を挿入する。そして、ユーザにより挿入部11が体腔内に挿入されると、例えば、該体腔内の管状器官31の内壁に存在する、隆起性の(隆起形状を有する)病変部位である生体組織31Aの像が、先端部14に設けられた撮像部17により、図2に示すような像として撮像される。そして、図2に示すような像として撮像部17により撮像された、管状器官31及び生体組織31Aの像は、撮像信号としてCCU8に対して出力される。   First, the user inserts the insertion portion 11 of the endoscope 6 into the body cavity. When the insertion portion 11 is inserted into the body cavity by the user, for example, an image of the living tissue 31A that is a raised (having a raised shape) lesion site on the inner wall of the tubular organ 31 in the body cavity. Then, an image as shown in FIG. 2 is picked up by the image pickup unit 17 provided at the tip portion 14. Then, the images of the tubular organ 31 and the living tissue 31A captured by the imaging unit 17 as an image as illustrated in FIG. 2 are output to the CCU 8 as an imaging signal.

CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を二次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、管状器官31及び生体組織31Aの像を、例えば、図2に示すような二次元の画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた二次元画像の映像信号を、医療用画像処理装置3に対して出力する。   The CCU 8 converts the imaging signal as a video signal of a two-dimensional image by performing signal processing on the imaging signal output from the imaging device 16 of the imaging unit 17 in a signal processing circuit (not shown). The monitor 9 displays the images of the tubular organ 31 and the living tissue 31A as, for example, a two-dimensional image as shown in FIG. 2 based on the video signal output from the CCU 8. Further, the CCU 8 outputs a video signal of a two-dimensional image obtained by performing signal processing on the imaging signal output from the imaging element 16 of the imaging unit 17 to the medical image processing apparatus 3.

医療用画像処理装置3に対して出力された二次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。   The video signal of the two-dimensional image output to the medical image processing apparatus 3 is A / D converted by the image input unit 21 and then input to the CPU 22.

CPU22は、画像入力部21から出力された二次元画像の映像信号に基づき、例えば、図3に示す各処理として以降に説明する処理を行うことにより、対象画像としての第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出する。   Based on the video signal of the two-dimensional image output from the image input unit 21, the CPU 22 performs, for example, processing described below as each processing illustrated in FIG. 3, thereby starting from the first two-dimensional image as the target image. The occlusion area in the estimated 3D model is detected.

まず、エッジ抽出部としてのCPU22は、画像入力部21から出力された第1の二次元画像の映像信号に基づき、例えば、該第1の二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該第1の二次元画像に含まれる全てのエッジを抽出する(図3のステップS1)。   First, the CPU 22 as an edge extraction unit applies a bandpass filter to the red component of the first two-dimensional image, for example, based on the video signal of the first two-dimensional image output from the image input unit 21. As a result, all edges included in the first two-dimensional image are extracted (step S1 in FIG. 3).

次に、CPU22は、第1の二次元画像において抽出した各エッジのうち、所定の条件に合致するエッジの両端点を接続して閉曲線とする(図3のステップS2)。具体的には、CPU22は、第1の二次元画像において抽出した各エッジのうち、例えば、一のエッジの両端点間の距離が該一のエッジの線分長に対して65%未満である場合に、直線により該一のエッジの両端点間を接続し、該一のエッジを閉曲線とする。   Next, the CPU 22 connects both end points of the edge that matches a predetermined condition among the edges extracted from the first two-dimensional image to form a closed curve (step S2 in FIG. 3). Specifically, for example, the distance between both end points of one edge among the edges extracted from the first two-dimensional image is less than 65% with respect to the line segment length of the one edge. In this case, both end points of the one edge are connected by a straight line, and the one edge is a closed curve.

CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在するか否かを検出する。そして、CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在しないことを検出した場合(図3のステップS3)、該第1の二次元画像にはオクルージョン発生の原因となる隆起性の病変が存在しないと判断し、図3に示す一連の処理を終了する。また、CPU22は、図3のステップS2の処理が行われた後の第1の二次元画像において、閉曲線が存在することを検出した場合(図3のステップS3)、該第1の二次元画像にオクルージョン発生の原因となる隆起性の病変が存在すると判断し、後述する図3のステップS4に示す処理を引き続き行う。   The CPU 22 detects whether or not a closed curve exists in the first two-dimensional image after the process of step S2 in FIG. 3 is performed. When the CPU 22 detects that no closed curve exists in the first two-dimensional image after the process of step S2 in FIG. 3 is performed (step S3 in FIG. 3), the first two-dimensional image Is determined not to have a raised lesion that causes occlusion, and the series of processes shown in FIG. 3 is terminated. Further, when the CPU 22 detects that a closed curve exists in the first two-dimensional image after the processing of step S2 in FIG. 3 is performed (step S3 in FIG. 3), the first two-dimensional image It is determined that there is a raised lesion that causes occlusion, and the process shown in step S4 of FIG.

その後、画像領域検出部としてのCPU22は、第1の二次元画像に存在する、閉曲線に囲まれた領域内部における重心座標G1(x,y)を検出するとともに、該閉曲線の周囲長L1とを算出する(図3のステップS4)。そして、CPU22は、前記周囲長L1の値が所定の値以下であるか否かを判定する。   Thereafter, the CPU 22 serving as the image area detection unit detects the center-of-gravity coordinates G1 (x, y) in the area surrounded by the closed curve, which is present in the first two-dimensional image, and calculates the peripheral length L1 of the closed curve. Calculate (step S4 in FIG. 3). Then, the CPU 22 determines whether or not the value of the peripheral length L1 is equal to or less than a predetermined value.

そして、CPU22は、第1の二次元画像に存在する各閉曲線のうち、周囲長L1が所定の第1の値以下である閉曲線を(ノイズ等により発生した可能性が高いと判断して)以降の処理の対象から外す(図3のステップS5)。   Then, the CPU 22 determines a closed curve whose peripheral length L1 is equal to or less than a predetermined first value among the closed curves existing in the first two-dimensional image (determining that there is a high possibility of being generated by noise or the like). (Step S5 in FIG. 3).

CPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在し、かつ、該エッジに隣接する画素各々において、明るさ成分(例えばRの輝度値)を算出する(図3のステップS6)。さらに、CPU22は、エッジを挟んで両側に存在する画素同士の明るさ成分の比較を行う。   The CPU 22 calculates a brightness component (for example, a luminance value of R) in each of the pixels that are present on opposite sides of the edge as a part of the closed curve and that are adjacent to the edge (in FIG. 3, for example). Step S6). Further, the CPU 22 compares the brightness components of pixels existing on both sides of the edge.

これにより、CPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在する画素同士の明るさ成分の差が所定の閾値よりも小さいものを、(オクルージョンの原因とはならないとして、)以降の処理の対象から外す(図3のステップS7)。   As a result, the CPU 22 determines that the difference in the brightness component between the pixels located on opposite sides of the edge as part of the closed curve is smaller than a predetermined threshold value (not to cause occlusion). )) Is excluded from the target of subsequent processing (step S7 in FIG. 3).

オクルージョン領域検出部としてのCPU22は、閉曲線の一部としてのエッジを挟んで対向する両側の位置に存在する画素同士の明るさ成分の差が所定の閾値以上である領域を、オクルージョン領域として検出した後、さらに、オクルージョン領域が検出された各閉曲線内に別の閉曲線(またはエッジ)が存在しているか否かを判定する。   The CPU 22 as the occlusion area detection unit detects an area where the difference in brightness components between pixels located on opposite sides across the edge as a part of the closed curve is equal to or greater than a predetermined threshold as an occlusion area. Thereafter, it is further determined whether another closed curve (or edge) exists in each closed curve in which the occlusion region is detected.

CPU22は、一の閉曲線内に別の閉曲線(またはエッジ)が存在していることを検出した場合(図3のステップS8)、該別の閉曲線(またはエッジ)に対し、前述した図3のステップS6及びステップS7の処理を再度行う。また、CPU22は、一の閉曲線内に別の閉曲線(またはエッジ)が存在していないことを検出した場合(図3のステップS8)、後述する図3のステップS9に示す処理を引き続き行う。   When the CPU 22 detects that another closed curve (or edge) exists within one closed curve (step S8 in FIG. 3), the CPU 22 performs the above-described step in FIG. 3 for the other closed curve (or edge). The process of S6 and step S7 is performed again. When the CPU 22 detects that another closed curve (or edge) does not exist within one closed curve (step S8 in FIG. 3), the CPU 22 continues the process shown in step S9 in FIG.

ここで、図3のステップS8に関する説明を行う。   Here, step S8 in FIG. 3 will be described.

例えば、隆起性の病変部位31Bが、図4に示すような状態により撮像された場合の二次元画像においては、ハレーション等のアーティファクトによってのみ、一の閉曲線内に別の閉曲線またはエッジが発生し得る。しかし、隆起性及び潰瘍性の両方を有する特殊な形状の病変部位31Cが、図5に示すような状態により撮像された場合の二次元画像においては、ハレーション等のアーティファクトによらずとも、一の閉曲線内に別の閉曲線またはエッジが存在し得るとともに、例えば、図5に示すような窪んだ部分にオクルージョンが発生し得る。すなわち、CPU22は、図3のステップS8の処理結果に応じて図3のステップS6及びステップS7の処理を再度行うことにより、図5に示すような窪んだ部分に発生し得るオクルージョンの検出を行っている。   For example, in a two-dimensional image in which a raised lesion site 31B is imaged in a state as shown in FIG. 4, another closed curve or edge may be generated within one closed curve only by artifacts such as halation. . However, in a two-dimensional image in which a specially shaped lesion site 31C having both bulging and ulcerative properties is imaged in a state as shown in FIG. There may be another closed curve or edge within the closed curve, and for example, occlusion may occur in a recessed portion as shown in FIG. That is, the CPU 22 detects the occlusion that may occur in the recessed portion as shown in FIG. 5 by performing the processing in step S6 and step S7 in FIG. 3 again according to the processing result in step S8 in FIG. ing.

なお、以降においては、説明の簡単のため、第1の二次元画像に存在する各閉曲線のうち、一の閉曲線、及び、該一の閉曲線の一部としての一のエッジについて主に述べるものとする。また、以降において、前記一のエッジを挟んで対向する両側の位置に存在し、かつ、該一のエッジに隣接する画素各々のうち、明るさ成分が相対的に大きい画素(または該エッジの内側の画素)をオクルージョン開始座標と表し、明るさ成分が相対的に小さい画素(または該エッジの外側の画素)をオクルージョン終了座標と表すものとする。さらに、以降においては、説明の簡単のため、前記一の閉曲線を構成する前記一のエッジが有する各オクルージョン終了座標のうち、一のオクルージョン終了座標O1(x0,y0)について主に述べるものとする。そして、一の閉曲線の一部としての一のエッジ、重心座標G1(x,y)、及び、一のオクルージョン終了座標O1(x0,y0)各々の位置関係は、例えば、図6に示されるようなものとなる。   In the following, for the sake of simplicity of explanation, among the closed curves existing in the first two-dimensional image, one closed curve and one edge as a part of the one closed curve will be mainly described. To do. In the following, a pixel having a relatively large brightness component (or an inner side of the edge) among pixels adjacent to the one edge and located on opposite sides of the one edge. Pixel) is represented as occlusion start coordinates, and a pixel having a relatively small brightness component (or a pixel outside the edge) is represented as occlusion end coordinates. Further, in the following, for the sake of simplicity, one occlusion end coordinate O1 (x0, y0) is mainly described among the respective occlusion end coordinates of the one edge constituting the one closed curve. . The positional relationship between one edge as a part of one closed curve, the center-of-gravity coordinates G1 (x, y), and one occlusion end coordinate O1 (x0, y0) is, for example, as shown in FIG. It will be something.

CPU22は、重心座標G1(x,y)に対し、一のオクルージョン終了座標O1(x0,y0)が第1の二次元画像においてどの方向に存在しているかを検出するとともに、該方向をオクルージョン方向として保持する(図3のステップS9)。   The CPU 22 detects in which direction the one occlusion end coordinate O1 (x0, y0) is present in the first two-dimensional image with respect to the center-of-gravity coordinate G1 (x, y), and determines the direction as the occlusion direction. (Step S9 in FIG. 3).

三次元モデル推定部としてのCPU22は、画像入力部21から出力された第1の二次元画像の映像信号の輝度情報等に基づき、例えば、幾何学的な変換等の処理を用い、管状器官31及び生体組織31Aの三次元モデルを推定する(図3のステップS10)。この処理により、オクルージョン領域検出部としてのCPU22は、第1の二次元画像におけるオクルージョン開始座標に相当する三次元モデルのボクセルであるオクルージョン開始ボクセルと、第1の二次元画像におけるオクルージョン終了座標に相当する三次元モデルのボクセルであるオクルージョン終了ボクセルとのデータを取得する。そして、CPU22は、オクルージョン開始ボクセル及びオクルージョン終了ボクセルの2つのボクセル、及び、該2つのボクセルの間の領域に存在する各ボクセルを、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域として検出する(図3のステップS11)。   The CPU 22 as the three-dimensional model estimation unit uses, for example, a process such as geometric conversion based on the luminance information of the video signal of the first two-dimensional image output from the image input unit 21 and uses the tubular organ 31. The three-dimensional model of the living tissue 31A is estimated (step S10 in FIG. 3). By this processing, the CPU 22 as the occlusion area detection unit corresponds to the occlusion start voxel that is a voxel of the three-dimensional model corresponding to the occlusion start coordinates in the first two-dimensional image and the occlusion end coordinates in the first two-dimensional image. Data with the end-of-occlusion voxel that is the voxel of the three-dimensional model to be acquired is acquired. Then, the CPU 22 detects the two voxels of the occlusion start voxel and the occlusion end voxel and each voxel existing in the region between the two voxels in the three-dimensional model estimated from the first two-dimensional image. (Step S11 in FIG. 3).

以上に述べた、図3に示す各処理を行うことにより、CPU22は、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出する。   The CPU 22 detects the occlusion area in the three-dimensional model estimated from the first two-dimensional image by performing each process shown in FIG. 3 described above.

なお、図3の処理における重心座標G1、オクルージョン開始座標及びオクルージョン終了座標は、個々の画素に応じて定められるものに限らず、例えば、(N×N)個の複数の画素を有して構成される領域各々に応じて定められるものであっても良い。   Note that the center-of-gravity coordinates G1, the occlusion start coordinates, and the occlusion end coordinates in the processing of FIG. 3 are not limited to those determined according to individual pixels, and include, for example, (N × N) pixels. It may be determined according to each area to be processed.

CPU22は、図3に示す各処理に引き続き、例えば、図7に示す各処理として以降に説明する処理を行うことにより、第1の二次元画像から時系列的に後に位置するフレームの画像である、非対象画像としての第2の二次元画像から推定される三次元モデルを用いつつ、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完する処理を行う。   The CPU 22 is an image of a frame located in time series after the first two-dimensional image by performing processing described below as each processing shown in FIG. 7 following the processing shown in FIG. 3, for example. The occlusion region in the three-dimensional model estimated from the first two-dimensional image is complemented while using the three-dimensional model estimated from the second two-dimensional image as the non-target image.

まず、CPU22は、画像入力部21から出力された、第1の二次元画像の後のフレームの画像である第2の二次元画像の映像信号に基づき、例えば、該第2の二次元画像の赤色成分に対してバンドパスフィルタを適用することにより、該第2の二次元画像に含まれる全てのエッジを抽出する(図7のステップS21)。   First, the CPU 22 outputs, for example, the second two-dimensional image based on the video signal of the second two-dimensional image that is output from the image input unit 21 and is a frame image after the first two-dimensional image. By applying a band pass filter to the red component, all edges included in the second two-dimensional image are extracted (step S21 in FIG. 7).

そして、CPU22は、第2の二次元画像において抽出した各エッジのうち、所定の条件に合致するエッジの両端点を接続して閉曲線とする(図7のステップS22)。具体的には、CPU22は、第2の二次元画像において抽出した各エッジのうち、例えば、一のエッジの両端点間の距離が該一のエッジの線分長に対して65%未満である場合に、直線により該一のエッジの両端点間を接続し、該一のエッジを閉曲線とする。   Then, the CPU 22 connects both end points of the edge that matches the predetermined condition among the edges extracted from the second two-dimensional image to form a closed curve (step S22 in FIG. 7). Specifically, for example, the distance between both end points of one edge among the edges extracted from the second two-dimensional image is less than 65% with respect to the line segment length of the one edge. In this case, both end points of the one edge are connected by a straight line, and the one edge is a closed curve.

CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在するか否かを検出する。そして、CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在しないことを検出した場合(図7のステップS23)、該第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。   The CPU 22 detects whether or not a closed curve exists in the second two-dimensional image after the process of step S2 of FIG. 3 is performed. When the CPU 22 detects that no closed curve exists in the second two-dimensional image after the processing of step S2 in FIG. 3 is performed (step S23 in FIG. 7), the second two-dimensional image If the image is not the final frame image, the processing of step S21 and subsequent steps in FIG. 7 is performed on the next frame image, and if the second two-dimensional image is the final frame image, it is shown in FIG. A series of processing ends (steps S24 and S25 in FIG. 7).

また、CPU22は、図3のステップS2の処理が行われた後の第2の二次元画像において、閉曲線が存在することを検出した場合(図7のステップS23)、図3のステップS4に示す処理と同様の処理により、該閉曲線の重心座標G2(X,Y)を検出するとともに、該閉曲線の周囲長L2とを算出する(図7のステップS26)。   Further, when the CPU 22 detects that a closed curve exists in the second two-dimensional image after the process of step S2 of FIG. 3 is performed (step S23 of FIG. 7), the process is shown in step S4 of FIG. The center of gravity coordinates G2 (X, Y) of the closed curve are detected by the same process as the process, and the circumference L2 of the closed curve is calculated (step S26 in FIG. 7).

その後、画像領域移動検出部としてのCPU22は、第1の二次元画像における重心座標G1(x,y)から、第2の二次元画像における重心座標G2(X,Y)までの距離が所定の距離より短く、かつ、周囲長L1と周囲長L2とが略同一の値であるか否かを検出することにより、一のオクルージョン終了座標O1(x0,y0)を有する閉曲線である、第1の二次元画像内の一の閉曲線が、第2の二次元画像内においても存在しているか否かを判定する。   Thereafter, the CPU 22 serving as the image region movement detection unit has a predetermined distance from the center-of-gravity coordinates G1 (x, y) in the first two-dimensional image to the center-of-gravity coordinates G2 (X, Y) in the second two-dimensional image. The first closed curve having one occlusion end coordinate O1 (x0, y0) is detected by detecting whether or not the peripheral length L1 and the peripheral length L2 are substantially the same value. It is determined whether one closed curve in the two-dimensional image exists also in the second two-dimensional image.

CPU22は、重心座標G1(x,y)から重心座標G2(X,Y)までの距離が所定の距離より長いこと、または、周囲長L1と周囲長L2とが略同一の値でないことのいずれかを検出した場合(図7のステップS27)、一のオクルージョン終了座標O1(x0,y0)を有する閉曲線が第2の二次元画像内には存在しないと判定する。その後、CPU22は、重心座標G2(X,Y)を有する第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。   The CPU 22 determines that the distance from the center of gravity coordinate G1 (x, y) to the center of gravity coordinate G2 (X, Y) is longer than a predetermined distance, or that the peripheral length L1 and the peripheral length L2 are not substantially the same value. (Step S27 in FIG. 7), it is determined that a closed curve having one occlusion end coordinate O1 (x0, y0) does not exist in the second two-dimensional image. Thereafter, if the second two-dimensional image having the center-of-gravity coordinates G2 (X, Y) is not the image of the final frame, the CPU 22 performs the processing from step S21 onward in FIG. If the second two-dimensional image is the image of the final frame, the series of processes shown in FIG. 7 is terminated (Step S24 and Step S25 in FIG. 7).

また、CPU22は、第1の二次元画像における重心座標G1(x,y)から、第2の二次元画像における重心座標G2(X,Y)までの距離が所定の距離より短く、かつ、周囲長L1と周囲長L2とが略同一の値であることを検出した場合(図7のステップS27)、重心座標G2(X,Y)及び周囲長L2を有する閉曲線が、一のオクルージョン終了座標O1(x0,y0)の存在を示唆する閉曲線であると判定する。   Further, the CPU 22 determines that the distance from the centroid coordinate G1 (x, y) in the first two-dimensional image to the centroid coordinate G2 (X, Y) in the second two-dimensional image is shorter than a predetermined distance, and When it is detected that the length L1 and the peripheral length L2 are substantially the same value (step S27 in FIG. 7), the closed curve having the centroid coordinates G2 (X, Y) and the peripheral length L2 is one occlusion end coordinate O1. It is determined that the closed curve suggests the presence of (x0, y0).

その後、画像領域移動検出部としてのCPU22は、重心座標G1(x,y)から重心座標G2(X,Y)への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であるか否かを判定する。具体的には、CPU22は、一のオクルージョン終了座標O1(x0,y0)を重心座標G1(x,y)に対称な位置に移動した座標をO2(X0,Y0)とした場合に、重心座標G2、重心座標G1及び座標O2がなす角の角度θが所定の角度(例えば60度)以内であれば、重心座標G1(x,y)から重心座標G2(X,Y)への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であると検出する。   Thereafter, the CPU 22 as the image region movement detection unit determines that the moving direction from the center of gravity coordinate G1 (x, y) to the center of gravity coordinate G2 (X, Y) is opposite to the occlusion direction calculated in the process of step S9 in FIG. It is determined whether or not. Specifically, the CPU 22 sets the coordinates of the center of gravity when the coordinates obtained by moving the one occlusion end coordinate O1 (x0, y0) to a position symmetrical to the center of gravity coordinates G1 (x, y) are O2 (X0, Y0). If the angle θ formed by G2, the centroid coordinates G1, and the coordinates O2 is within a predetermined angle (for example, 60 degrees), the movement direction from the centroid coordinates G1 (x, y) to the centroid coordinates G2 (X, Y) is Then, it is detected that the direction is opposite to the occlusion direction calculated in the process of step S9 in FIG.

そして、CPU22は、重心座標G1から重心座標G2への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向ではないことを検出した場合(図7のステップS28)、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完するためのデータが、第2の二次元画像からは得られないと判定するとともに、重心座標G2(X,Y)を有する第2の二次元画像が最終フレームの画像でなければ、次のフレームの画像に対して図7のステップS21以降の処理を施し、また、該第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する(図7のステップS24及びステップS25)。   When the CPU 22 detects that the moving direction from the center-of-gravity coordinates G1 to the center-of-gravity coordinates G2 is not the opposite direction to the occlusion direction calculated in the process of step S9 in FIG. 3 (step S28 in FIG. 7), the first And determining that the data for complementing the occlusion region in the three-dimensional model estimated from the two-dimensional image cannot be obtained from the second two-dimensional image, and has the second center of gravity coordinates G2 (X, Y) If the two-dimensional image is not the final frame image, the image of the next frame is subjected to the processing from step S21 onward in FIG. 7, and if the second two-dimensional image is the final frame image, 7 is terminated (step S24 and step S25 in FIG. 7).

また、CPU22は、重心座標G1から重心座標G2への移動方向が、図3のステップS9の処理において算出したオクルージョン方向と反対方向であることを検出した場合(図7のステップS28)、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域を補完するためのデータが、第2の二次元画像から得られると判定する。その後、三次元モデル推定部としてのCPU22は、画像入力部21から出力された第2の二次元画像の映像信号の輝度情報等に基づき、例えば、幾何学的な変換等の処理を用い、管状器官31及び生体組織31Aの三次元モデルを推定する(図7のステップS29)。   Further, when the CPU 22 detects that the moving direction from the center-of-gravity coordinates G1 to the center-of-gravity coordinates G2 is opposite to the occlusion direction calculated in the process of step S9 in FIG. 3 (step S28 in FIG. 7), the first It is determined that data for complementing the occlusion region in the three-dimensional model estimated from the two-dimensional image is obtained from the second two-dimensional image. Thereafter, the CPU 22 as the three-dimensional model estimation unit uses, for example, a process such as a geometric transformation based on the luminance information of the video signal of the second two-dimensional image output from the image input unit 21 to form a tubular shape. A three-dimensional model of the organ 31 and the living tissue 31A is estimated (step S29 in FIG. 7).

オクルージョン補完対応領域検出部としてのCPU22は、第2の二次元画像から推定した三次元モデルに基づき、第1の二次元画像から推定した三次元モデルにおけるオクルージョン領域が有する各ボクセルのデータのうち、第2の二次元画像から推定した三次元モデルのデータにより補完可能なボクセルのデータが存在する領域である、オクルージョン補完対応領域に含まれるボクセルを検出する(図7のステップS30)。   The CPU 22 as the occlusion complement corresponding region detection unit is based on the three-dimensional model estimated from the second two-dimensional image, and among the data of each voxel included in the occlusion region in the three-dimensional model estimated from the first two-dimensional image, A voxel included in the occlusion complementation corresponding region, which is a region where voxel data that can be complemented by the data of the three-dimensional model estimated from the second two-dimensional image, is detected (step S30 in FIG. 7).

ここで、図7のステップS30に示す処理の詳細を説明する。   Here, details of the process shown in step S30 of FIG. 7 will be described.

第1の二次元画像に基づく生体組織31Aの三次元モデルは、内視鏡6の視野方向に対して側面から見た場合、例えば、図8のような状態のものとして推定される。図8に示すように、オクルージョン開始ボクセル及びオクルージョン終了ボクセルに挟まれた一のエッジ上に存在する一のボクセルをボクセルE、オクルージョン終了ボクセルをボクセルOE、及び、生体組織31Aの三次元モデルにおいて、オクルージョン側かつボクセルOEと同一平面上に存在する一のボクセルをボクセルB1とした場合、第1の二次元画像に基づく生体組織31Aの三次元モデルのオクルージョン領域は、ボクセルEからボクセルB1までに含まれる各ボクセルと、ボクセルB1からボクセルOEまでに含まれる各ボクセルと、により構成される。   The three-dimensional model of the living tissue 31A based on the first two-dimensional image is estimated as having a state as shown in FIG. 8 when viewed from the side with respect to the viewing direction of the endoscope 6, for example. As shown in FIG. 8, in the three-dimensional model of one voxel existing on one edge sandwiched between the occlusion start voxel and the occlusion end voxel, the voxel E as the occlusion end voxel, and the living tissue 31A, When one voxel existing on the same plane as the occlusion side and voxel OE is voxel B1, the occlusion region of the three-dimensional model of the living tissue 31A based on the first two-dimensional image is included from voxel E to voxel B1. And voxels included from voxel B1 to voxel OE.

その後、第1の二次元画像を取得した際に位置C1にあった撮像素子16(の撮像面)は、図9に示すように、内視鏡6の挿入部11が操作されることにより、第2の二次元画像を取得する際に、位置C2に移動される。また、図9に示すように、位置C2から、ボクセルEを経由して、オクルージョン領域に向かって直線を引いた場合、該直線は、該オクルージョン領域に含まれるボクセルOCにおいて、ボクセルOEが存在する平面と交わる。   Thereafter, when the first two-dimensional image is acquired, the imaging device 16 (imaging surface thereof) at the position C1 is operated by operating the insertion unit 11 of the endoscope 6 as shown in FIG. When acquiring the second two-dimensional image, it is moved to the position C2. Also, as shown in FIG. 9, when a straight line is drawn from the position C2 via the voxel E toward the occlusion area, the voxel OE exists in the voxel OC included in the occlusion area. Intersect with a plane.

内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、第1の二次元画像取得時から第2の二次元画像取得時までに撮像素子16(の撮像面)が移動した距離(位置C1から位置C2までの距離)と、重心座標G1から重心座標G2への移動距離とが等しいという仮定が成り立つ。また、内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、第1の二次元画像取得時から第2の二次元画像取得時までに撮像素子16(の撮像面)が移動した距離(位置C1から位置C2までの距離)と、オクルージョン補完対応領域にあたる部分の距離とが等しいという仮定が成り立つ。さらに、内視鏡6により、例えば、1秒間に60フレーム分の画像が取得される場合、第1の二次元画像及び第2の二次元画像間の差が僅かであることから、位置C1と位置C2とが同一平面上に存在するという仮定が成り立つ。   For example, when an image of 60 frames per second is acquired by the endoscope 6, the difference between the first two-dimensional image and the second two-dimensional image is small. The distance (the distance from the position C1 to the position C2) that the imaging device 16 (the imaging surface) has moved from the time of image acquisition to the time of the second two-dimensional image acquisition, and the movement distance from the center of gravity coordinates G1 to the center of gravity coordinates G2 The assumption that they are equal holds. In addition, for example, when an image for 60 frames per second is acquired by the endoscope 6, the difference between the first two-dimensional image and the second two-dimensional image is small. The distance (the distance from the position C1 to the position C2) that the imaging element 16 (the imaging surface thereof) has moved from the time when the two-dimensional image is acquired to the time when the second two-dimensional image is acquired, and the distance corresponding to the occlusion complement corresponding region The assumption that they are equal holds. Furthermore, when an image of 60 frames per second is acquired by the endoscope 6, for example, since the difference between the first two-dimensional image and the second two-dimensional image is small, the position C1 and It is assumed that the position C2 is on the same plane.

なお、以上の各仮定が成り立つことは、幾何的には、図9に示す各部のうち、位置C1、位置C2及びボクセルEの3点を直線により結んだ三角形と、ボクセルOE、ボクセルOC及びボクセルEを直線により結んだ三角形とが、位置C1、位置C2、ボクセルOE及びボクセルOCを直線により結んだ平行四辺形の対角線により各々形成される、互いに合同な三角形であることにより示される。   It should be noted that the above assumptions hold in terms of geometrically, among the parts shown in FIG. 9, a triangle formed by connecting three points of position C1, position C2, and voxel E by a straight line, voxel OE, voxel OC, and voxel. The triangle in which E is connected by a straight line is indicated by being congruent triangles formed by diagonal lines of parallelograms connecting the position C1, the position C2, the voxel OE, and the voxel OC by a straight line.

以上に述べた各仮定が成り立つことにより、重心座標G1から重心座標G2への移動距離と、ボクセルOEからボクセルOCまでの距離とが等しくなるため、CPU22は、ボクセルOE及びボクセルOCの2つのボクセルと、該2つのボクセル間に含まれる各ボクセルとを、オクルージョン補完対応領域に含まれるボクセルとして検出する。   Since each of the assumptions described above holds, the movement distance from the center-of-gravity coordinate G1 to the center-of-gravity coordinate G2 is equal to the distance from the voxel OE to the voxel OC. Therefore, the CPU 22 has two voxels VO and OC. And each voxel included between the two voxels is detected as a voxel included in the occlusion complementation corresponding region.

そして、オクルージョン補完部としてのCPU22は、図7のステップS30に示す処理により検出したオクルージョン補完対応領域に含まれる各ボクセルのデータを用い、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のデータを補完する(図7のステップS31)。具体的には、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のデータを補完する処理として、該オクルージョン領域に含まれる各ボクセルのデータのうち、オクルージョン補完対応領域に含まれる各ボクセルのデータを、第2の二次元画像に基づく生体組織31Aの三次元モデルが有するボクセルのデータに置換する処理を行う。   Then, the CPU 22 as the occlusion complementation unit uses the data of each voxel included in the occlusion complementation corresponding area detected by the process shown in step S30 of FIG. 7, and uses the three-dimensional model of the living tissue 31A based on the first two-dimensional image. The data of the occlusion area at is supplemented (step S31 in FIG. 7). Specifically, the CPU 22 supports occlusion completion among the data of each voxel included in the occlusion area as a process of complementing the data of the occlusion area in the three-dimensional model of the living tissue 31A based on the first two-dimensional image. A process of replacing the data of each voxel included in the region with the data of the voxel included in the three-dimensional model of the living tissue 31A based on the second two-dimensional image is performed.

CPU22は、図7のステップS31に示す処理により、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域のボクセルのデータを、第2の二次元画像に基づく生体組織31Aの三次元モデルが有するボクセルのデータに基づいて補完した後、さらに、該オクルージョン領域が残っているか否かを判定する。そして、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っており(図7のステップS32)、かつ、前述したオクルージョン補完対応領域の検出に用いられた第2の二次元画像が最終フレームの画像でなければ、該第2の二次元画像の次のフレームの画像に対して図7のステップS21以降の処理を施すことにより、残りのオクルージョン領域を補完するための処理を行う(図7のステップS24及びステップS25)。さらに、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っており(図7のステップS32)、かつ、前述したオクルージョン補完対応領域の検出に用いられた第2の二次元画像が最終フレームの画像であれば、図7に示す一連の処理を終了する。   By the process shown in step S31 of FIG. 7, the CPU 22 uses the occlusion region voxel data in the three-dimensional model of the living tissue 31A based on the first two-dimensional image as the tertiary of the living tissue 31A based on the second two-dimensional image. After complementing based on voxel data of the original model, it is further determined whether or not the occlusion area remains. The CPU 22 still has an occlusion area in the three-dimensional model of the living tissue 31A based on the first two-dimensional image (step S32 in FIG. 7), and the first used for the detection of the above-described occlusion complementation corresponding area. If the 2D image of 2 is not the image of the last frame, the remaining occlusion area is complemented by performing the processing of step S21 and subsequent steps in FIG. 7 on the image of the next frame of the second 2D image. Is performed (step S24 and step S25 in FIG. 7). Further, the CPU 22 still has an occlusion area in the three-dimensional model of the living tissue 31A based on the first two-dimensional image (step S32 in FIG. 7), and the first used for the detection of the occlusion complementation corresponding area described above. If the two-dimensional image 2 is the image of the final frame, the series of processes shown in FIG.

また、CPU22は、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が残っていないことを検出した場合(図7のステップS32)、図7に示す一連の処理を終了する。   Further, when the CPU 22 detects that no occlusion region remains in the three-dimensional model of the living tissue 31A based on the first two-dimensional image (step S32 in FIG. 7), the series of processing illustrated in FIG. 7 is terminated. .

なお、図7の処理における重心座標G2及びオクルージョン終了座標は、個々の画素に応じて定められるものに限らず、例えば、(N×N)個の複数の画素を有して構成される領域各々に応じて定められるものであっても良い。   The center-of-gravity coordinates G2 and the occlusion end coordinates in the processing of FIG. 7 are not limited to those determined according to individual pixels. For example, each of the regions configured to have (N × N) pixels It may be determined according to.

また、CPU22は、図7のステップS32に示す処理において、第1の二次元画像に基づく生体組織31Aの三次元モデルにおけるオクルージョン領域が完全に補完されるまで図7のステップS21以降の各処理を繰り返すものでなくとも良く、例えば、図3の各処理において検出された元のオクルージョン領域が所定の割合以上補完されたことを検出した場合に処理を終了するものであっても良い。これにより、医療用画像処理装置3は、オクルージョン領域を補完するための処理をより高速に行うことができる。   Further, in the process shown in step S32 in FIG. 7, the CPU 22 performs each process after step S21 in FIG. 7 until the occlusion region in the three-dimensional model of the living tissue 31A based on the first two-dimensional image is completely complemented. For example, the processing may be terminated when it is detected that the original occlusion area detected in each processing of FIG. 3 is complemented by a predetermined ratio or more. Thereby, the medical image processing apparatus 3 can perform the process for complementing the occlusion area at higher speed.

さらに、CPU22は、第1のフレームの二次元画像から推定される三次元モデルが有する第1のオクルージョン領域と、該第1のフレームに時間的に連続するフレームである、第2のフレームの二次元画像から推定される三次元モデルが有する第2のオクルージョン領域とを比較する処理を図3の処理に加えて行いつつ、該第1のオクルージョン領域が該第2のオクルージョン領域よりも小さくなる場合にのみ、該第2のフレームの二次元画像から推定される三次元モデルに対して図7に示す処理を施すものであっても良い。これにより、医療用画像処理装置3は、オクルージョン領域を補完するための処理をより高速かつ高精度に行うことができる。   Further, the CPU 22 has a first occlusion area included in the three-dimensional model estimated from the two-dimensional image of the first frame, and two second frames that are temporally continuous to the first frame. When the first occlusion area is smaller than the second occlusion area while performing the process of comparing the second occlusion area of the three-dimensional model estimated from the three-dimensional image in addition to the process of FIG. Alternatively, the processing shown in FIG. 7 may be performed on the three-dimensional model estimated from the two-dimensional image of the second frame. Thereby, the medical image processing apparatus 3 can perform the process for complementing the occlusion area at higher speed and higher accuracy.

また、本実施形態におけるオクルージョン領域を補完するための処理は、図7に示す一連の処理の説明として述べたような、対象画像から時系列的に後に位置する非対象画像に基づいてオクルージョン領域を補完するものに限らず、補完対象となるオクルージョン領域の少なくとも一部が存在している画像であれば、例えば、該対象画像から時系列的に前に位置する非対象画像を用いつつオクルージョン領域を補完するものであっても良い。   In addition, the process for complementing the occlusion area in the present embodiment is based on a non-target image based on a non-target image located in time series after the target image as described in the series of processes shown in FIG. For example, if the image includes at least a part of the occlusion region to be complemented, the occlusion region is used while using a non-target image positioned in time series from the target image. It may be complementary.

以上に述べたように、本実施形態の医療用画像処理装置3は、二次元画像に基づいて三次元モデルが推定される際に、データの欠落箇所及び信頼性の低いデータが存在する箇所を従来に比べて減少させることにより高精度な三次元モデルの推定を可能とし、その結果、ポリープ等の病変部位を見つけ易くすることができる。   As described above, when the 3D model is estimated based on the 2D image, the medical image processing apparatus 3 according to the present embodiment detects the missing data and the location where data with low reliability exists. By reducing the amount compared to the conventional case, it is possible to estimate a highly accurate three-dimensional model, and as a result, it is possible to easily find a lesion site such as a polyp.

なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, a various change and application are possible in the range which does not deviate from the meaning of invention.

本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図。The figure which shows an example of the whole structure of the endoscope system in which the medical image processing apparatus which concerns on embodiment of this invention is used. 図1の内視鏡により撮像される管状器官及び生体組織の像を示す模式図。The schematic diagram which shows the image of the tubular organ and biological tissue imaged with the endoscope of FIG. 図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定される三次元モデルにおけるオクルージョン領域を検出するための処理の一例を示すフローチャート。The flowchart which shows an example of the process for detecting the occlusion area | region in the three-dimensional model estimated from the 1st two-dimensional image which is a process which the medical image processing apparatus of FIG. 1 performs. 図1の内視鏡により撮像され得る隆起性の病変部位の一例を示す模式図。The schematic diagram which shows an example of the protruding lesion part which can be imaged with the endoscope of FIG. 図1の内視鏡により撮像され得る隆起性の病変部位の、図4とは異なる例を示す模式図。The schematic diagram which shows the example different from FIG. 4 of the protruding lesion part which can be imaged with the endoscope of FIG. 図1の医療用画像処理装置が取得した第1の二次元画像における、一のエッジ、重心座標G1、及び、一のオクルージョン終了座標O1各々の位置関係を示す図。The figure which shows the positional relationship of one edge, the gravity center coordinate G1, and the one occlusion end coordinate O1 in the 1st two-dimensional image which the medical image processing apparatus of FIG. 1 acquired. 図1の医療用画像処理装置が行う処理である、第1の二次元画像から推定された三次元モデルにおけるオクルージョン領域を補完するための処理の一例を示すフローチャート。The flowchart which shows an example of the process for complementing the occlusion area | region in the three-dimensional model estimated from the 1st two-dimensional image which is the process which the medical image processing apparatus of FIG. 1 performs. 第1の二次元画像に基づく三次元モデルを、図1の内視鏡の視野方向に対して側面から見た場合の一例を示す模式図。The schematic diagram which shows an example at the time of seeing the three-dimensional model based on a 1st two-dimensional image from the side with respect to the visual field direction of the endoscope of FIG. 図1の内視鏡の挿入部が、図8に示す位置からオクルージョンの存在する方向へ操作された場合の一例を示す模式図。The schematic diagram which shows an example when the insertion part of the endoscope of FIG. 1 is operated to the direction where an occlusion exists from the position shown in FIG.

符号の説明Explanation of symbols

1・・・内視鏡システム、2・・・医療用観察装置、3・・・医療用画像処理装置、4,9・・・モニタ、6・・・内視鏡、7・・・光源装置、8・・・CCU、11・・・挿入部、12・・・操作部、13・・・ライトガイド、14・・・先端部、15・・・対物光学系、16・・・撮像素子、17・・・撮像部、21・・・画像入力部、22・・・CPU、23・・・処理プログラム記憶部、24・・・画像記憶部、25・・・情報記憶部、26・・・記憶装置インターフェース、27・・・ハードディスク、28・・・表示処理部、29・・・入力操作部、30・・・データバス、31・・・管状器官、31A・・・生体組織、31B,31C・・・病変部位   DESCRIPTION OF SYMBOLS 1 ... Endoscope system, 2 ... Medical observation apparatus, 3 ... Medical image processing apparatus, 4, 9 ... Monitor, 6 ... Endoscope, 7 ... Light source device 8 ... CCU, 11 ... insertion part, 12 ... operation part, 13 ... light guide, 14 ... tip part, 15 ... objective optical system, 16 ... imaging device, 17 ... Imaging unit, 21 ... Image input unit, 22 ... CPU, 23 ... Processing program storage unit, 24 ... Image storage unit, 25 ... Information storage unit, 26 ... Storage device interface, 27... Hard disk, 28... Display processing unit, 29... Input operation unit, 30... Data bus, 31 ... tubular organ, 31 A ... biological tissue, 31 B, 31 C ... Lesion site

Claims (12)

医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出部と、
前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完部と、
を有することを特徴とする医療用画像処理装置。
An occlusion area detection unit that detects an occlusion area of a target image among images of biological tissue input from a medical imaging device;
Using information obtained from one or a plurality of non-target images, which is an image different from the target image and is an image in which at least a part of a region corresponding to the occlusion region of the target image exists. An occlusion complementing unit that complements the occlusion region of the target image;
A medical image processing apparatus comprising:
前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする請求項1に記載の医療用画像処理装置。   The medical image processing apparatus according to claim 1, wherein each of the one or more non-target images is a two-dimensional image or a three-dimensional model generated based on the two-dimensional image. 前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする請求項1または請求項2に記載の医療用画像処理装置。   The medical image processing apparatus according to claim 1, wherein each of the one or more non-target images is an image of a frame positioned before or after the target image in time series. さらに、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定部と、
前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定部と、を有し、
前記オクルージョン領域検出部は、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出部と、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出部と、を有し、
前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータを補完することを特徴とする請求項1乃至請求項3のいずれかに記載の医療用画像処理装置。
A first three-dimensional model estimation unit that estimates a three-dimensional model of the living tissue based on the target image as a two-dimensional image;
A second three-dimensional model estimation unit that estimates a three-dimensional model of each of the one or more non-target images,
The occlusion area detection unit detects a first occlusion area detection unit that detects an occlusion area of the target image as a two-dimensional image, and detects each voxel corresponding to the occlusion area in a three-dimensional model of the target image. Two occlusion area detectors,
The occlusion complementation unit supplements the data of each voxel detected by the second occlusion region detection unit based on the data of the 3D model estimated by the second 3D model estimation unit. The medical image processing apparatus according to any one of claims 1 to 3.
さらに、前記対象画像のエッジを抽出するエッジ抽出部を有し、
前記第1のオクルージョン領域検出部は、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする請求項4に記載の医療用画像処理装置。
Furthermore, it has an edge extraction unit for extracting the edge of the target image,
The medical image according to claim 4, wherein the first occlusion area detection unit detects the occlusion area based on a difference in brightness components between areas existing on both sides of the edge. Processing equipment.
さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出部と、
前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出部と、
前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出部と、を有し、
前記オクルージョン補完部は、前記第2の三次元モデル推定部により推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする請求項4または請求項5に記載の医療用画像処理装置。
Further, in the target image, an image area detection unit that detects a predetermined area existing at a position corresponding to the occlusion area;
Based on the position where the predetermined area exists in the target image and the position where the predetermined area exists in one non-target image among the one or more non-target images, the predetermined area is two. An image region movement detection unit for detecting a distance and direction moved in the three-dimensional image;
Based on the distance and the direction in which the predetermined area has moved in the two-dimensional image, an occlusion is performed among areas of the voxel data detected by the second occlusion area detector that includes complementary voxel data. An occlusion complementary corresponding area detection unit that detects as a complementary corresponding area,
The occlusion complementation unit is based on the three-dimensional model of the non-target image estimated by the second three-dimensional model estimation unit, and among the data of each voxel detected by the second occlusion region detection unit, 6. The medical image processing apparatus according to claim 4, wherein voxel data existing in the occlusion complementation corresponding region is supplemented.
医療用撮像装置から入力される生体組織の画像のうち、対象画像のオクルージョン領域を検出するオクルージョン領域検出ステップと、
前記対象画像とは異なる画像であり、かつ、前記対象画像の前記オクルージョン領域に相当する領域のうちの少なくとも一部が存在する画像である、1または複数の非対象画像から得られる情報を用い、前記対象画像の前記オクルージョン領域を補完するオクルージョン補完ステップと、
を有することを特徴とする医療用画像処理方法。
An occlusion area detection step for detecting an occlusion area of a target image among images of biological tissue input from a medical imaging device;
Using information obtained from one or a plurality of non-target images, which is an image different from the target image and is an image in which at least a part of a region corresponding to the occlusion region of the target image exists. An occlusion completion step of complementing the occlusion area of the target image;
A medical image processing method comprising:
前記1または複数の非対象画像各々は、二次元画像または該二次元画像に基づいて生成される三次元モデルであることを特徴とする請求項7に記載の医療用画像処理方法。   The medical image processing method according to claim 7, wherein each of the one or more non-target images is a two-dimensional image or a three-dimensional model generated based on the two-dimensional image. 前記1または複数の非対象画像各々は、前記対象画像から時系列的に前または後に位置するフレームの画像であることを特徴とする請求項7または請求項8に記載の医療用画像処理方法。   9. The medical image processing method according to claim 7, wherein each of the one or more non-target images is an image of a frame positioned before or after the target image in time series. さらに、二次元画像としての前記対象画像に基づき、前記生体組織の三次元モデルを推定する第1の三次元モデル推定ステップと、
前記1または複数の非対象画像の三次元モデルを各々推定する第2の三次元モデル推定ステップと、を有し、
前記オクルージョン領域検出ステップは、二次元画像としての前記対象画像のオクルージョン領域を検出する第1のオクルージョン領域検出ステップと、前記対象画像の三次元モデルにおいて前記オクルージョン領域に相当する各ボクセルを検出する第2のオクルージョン領域検出ステップと、を有し、
前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された三次元モデルのデータに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータを補完することを特徴とする請求項7乃至請求項9のいずれかに記載の医療用画像処理方法。
A first three-dimensional model estimation step for estimating a three-dimensional model of the living tissue based on the target image as a two-dimensional image;
A second three-dimensional model estimation step for estimating a three-dimensional model of each of the one or more non-target images,
The occlusion area detecting step includes a first occlusion area detecting step for detecting an occlusion area of the target image as a two-dimensional image, and a first occlusion area detecting step for detecting each voxel corresponding to the occlusion area in the three-dimensional model of the target image. Two occlusion area detection steps,
The occlusion complementation step supplements the data of each voxel detected by the second occlusion region detection step based on the data of the three-dimensional model estimated by the second three-dimensional model estimation step. A medical image processing method according to any one of claims 7 to 9.
さらに、前記対象画像のエッジを抽出するエッジ抽出ステップを有し、
前記第1のオクルージョン領域検出ステップは、前記エッジを挟んで両側に存在する領域同士の明るさ成分の差に基づき、前記オクルージョン領域を検出することを特徴とする請求項10に記載の医療用画像処理方法。
And an edge extraction step for extracting an edge of the target image,
The medical image according to claim 10, wherein the first occlusion area detection step detects the occlusion area based on a difference in brightness components between areas existing on both sides of the edge. Processing method.
さらに、前記対象画像において、前記オクルージョン領域に対応する位置に存在する所定の領域を検出する画像領域検出ステップと、
前記対象画像において前記所定の領域が存在する位置と、前記1または複数の非対象画像のうち、1枚の非対象画像において前記所定の領域が存在する位置とに基づき、前記所定の領域が二次元画像内を移動した距離及び方向を検出する画像領域移動検出ステップと、
前記所定の領域が二次元画像内を移動した距離及び方向に基づき、前記第2のオクルージョン領域検出部により検出された前記各ボクセルのデータのうち、補完可能なボクセルのデータが存在する領域をオクルージョン補完対応領域として検出するオクルージョン補完対応領域検出ステップと、を有し、
前記オクルージョン補完ステップは、前記第2の三次元モデル推定ステップにより推定された前記非対象画像の三次元モデルに基づき、前記第2のオクルージョン領域検出ステップにより検出された前記各ボクセルのデータのうち、前記オクルージョン補完対応領域に存在するボクセルのデータを補完することを特徴とする請求項10または請求項11に記載の医療用画像処理方法。
Further, in the target image, an image region detection step for detecting a predetermined region existing at a position corresponding to the occlusion region;
Based on the position where the predetermined area exists in the target image and the position where the predetermined area exists in one non-target image among the one or more non-target images, the predetermined area is two. An image region movement detection step for detecting the distance and direction moved in the three-dimensional image;
Based on the distance and the direction in which the predetermined area has moved in the two-dimensional image, an occlusion is performed among areas of the voxel data detected by the second occlusion area detector that includes complementary voxel data. An occlusion complementary area detection step for detecting as a complementary area,
The occlusion complementation step is based on the three-dimensional model of the non-target image estimated by the second three-dimensional model estimation step, and among the data of each voxel detected by the second occlusion region detection step, The medical image processing method according to claim 10 or 11, wherein voxel data existing in the occlusion complementation corresponding region is complemented.
JP2006280564A 2006-10-13 2006-10-13 Medical image processing apparatus and method of operating medical image processing apparatus Active JP5148096B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006280564A JP5148096B2 (en) 2006-10-13 2006-10-13 Medical image processing apparatus and method of operating medical image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006280564A JP5148096B2 (en) 2006-10-13 2006-10-13 Medical image processing apparatus and method of operating medical image processing apparatus

Publications (2)

Publication Number Publication Date
JP2008093287A true JP2008093287A (en) 2008-04-24
JP5148096B2 JP5148096B2 (en) 2013-02-20

Family

ID=39376761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006280564A Active JP5148096B2 (en) 2006-10-13 2006-10-13 Medical image processing apparatus and method of operating medical image processing apparatus

Country Status (1)

Country Link
JP (1) JP5148096B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889884A (en) * 2018-09-07 2020-03-17 康耐视公司 Method and equipment for distributing effective data processing to object three-dimensional reconstruction initial correspondence

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535854A (en) * 1991-07-26 1993-02-12 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape measurement processing system
JPH067289A (en) * 1992-03-27 1994-01-18 Olympus Optical Co Ltd Endoscopic image processor
JPH06265322A (en) * 1993-03-11 1994-09-20 Canon Inc Method for detecting parallax error from a plurality of images
JPH08201941A (en) * 1995-01-12 1996-08-09 Texas Instr Inc <Ti> Three-dimensional image formation
JPH1023311A (en) * 1996-07-05 1998-01-23 Canon Inc Image information input method and device therefor
JPH1023465A (en) * 1996-07-05 1998-01-23 Canon Inc Image pickup method and its device
JP2001075019A (en) * 1999-09-01 2001-03-23 Olympus Optical Co Ltd Endoscope device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535854A (en) * 1991-07-26 1993-02-12 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape measurement processing system
JPH067289A (en) * 1992-03-27 1994-01-18 Olympus Optical Co Ltd Endoscopic image processor
JPH06265322A (en) * 1993-03-11 1994-09-20 Canon Inc Method for detecting parallax error from a plurality of images
JPH08201941A (en) * 1995-01-12 1996-08-09 Texas Instr Inc <Ti> Three-dimensional image formation
JPH1023311A (en) * 1996-07-05 1998-01-23 Canon Inc Image information input method and device therefor
JPH1023465A (en) * 1996-07-05 1998-01-23 Canon Inc Image pickup method and its device
JP2001075019A (en) * 1999-09-01 2001-03-23 Olympus Optical Co Ltd Endoscope device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889884A (en) * 2018-09-07 2020-03-17 康耐视公司 Method and equipment for distributing effective data processing to object three-dimensional reconstruction initial correspondence
JP2020053037A (en) * 2018-09-07 2020-04-02 コグネックス・コーポレイション Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object
US11107268B2 (en) 2018-09-07 2021-08-31 Cognex Corporation Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of an object
JP2022068316A (en) * 2018-09-07 2022-05-09 コグネックス・コーポレイション Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object
CN110889884B (en) * 2018-09-07 2023-11-28 康耐视公司 Method and device for assigning effective data processing to initial correspondence of three-dimensional reconstruction of an object

Also Published As

Publication number Publication date
JP5148096B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
US8515141B2 (en) Medical image processing apparatus and method for detecting locally protruding lesion
JP4902735B2 (en) Medical image processing apparatus and medical image processing method
US20080303898A1 (en) Endoscopic image processing apparatus
US7830378B2 (en) Medical image processing apparatus and medical image processing method
US8086005B2 (en) Medical image processing apparatus and medical image processing method
JP4994737B2 (en) Medical image processing apparatus and medical image processing method
JP6254053B2 (en) Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus
WO2012114600A1 (en) Medical image processing device and medical image processing method
JP5078486B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
WO2019130868A1 (en) Image processing device, processor device, endoscope system, image processing method, and program
US20220398771A1 (en) Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
US11432707B2 (en) Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion
JP4981335B2 (en) Medical image processing apparatus and medical image processing method
JP5148096B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
JP4981336B2 (en) Medical image processing apparatus and medical image processing method
JP2008093213A (en) Medical image processor and medical image processing method
Selka et al. Performance evaluation of simultaneous RGB analysis for feature detection and tracking in endoscopic images
JP2008023266A (en) Medical image processing apparatus and medical image processing method
JP2024029849A (en) Endoscope diagnosis support apparatus, endoscope diagnosis support method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121128

R151 Written notification of patent or utility model registration

Ref document number: 5148096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250