JP6847011B2 - 3D image processing equipment and methods and programs - Google Patents

3D image processing equipment and methods and programs Download PDF

Info

Publication number
JP6847011B2
JP6847011B2 JP2017182196A JP2017182196A JP6847011B2 JP 6847011 B2 JP6847011 B2 JP 6847011B2 JP 2017182196 A JP2017182196 A JP 2017182196A JP 2017182196 A JP2017182196 A JP 2017182196A JP 6847011 B2 JP6847011 B2 JP 6847011B2
Authority
JP
Japan
Prior art keywords
point
image
projection
information
graph structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017182196A
Other languages
Japanese (ja)
Other versions
JP2018167018A (en
Inventor
真之介 平川
真之介 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to US15/906,235 priority Critical patent/US10475235B2/en
Publication of JP2018167018A publication Critical patent/JP2018167018A/en
Application granted granted Critical
Publication of JP6847011B2 publication Critical patent/JP6847011B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Description

本発明は、被検体を撮影して得られた3次元画像を用いて気管支のような体内の管路への内視鏡の挿入を支援する3次元画像処理装置および方法並びにプログラムに関するものである。 The present invention relates to a three-dimensional image processing device, a method, and a program that support the insertion of an endoscope into a duct in the body such as a bronchus by using a three-dimensional image obtained by photographing a subject. ..

近年、撮影装置の進歩に伴い、撮影装置で撮影された画像データの分解能が向上しており、画像データに基づいて被検体の詳細な解析が可能になっている。たとえば、マルチスライスCT(Multi Detector-row Computed Tomography)は、一度に複数枚の断層画像を撮影することが可能であり、薄いスライス厚で断層画像を撮影することが可能である。スライス厚が薄くなることで、複数の断層画像を積層した3次元画像の体軸方向の分解能が上がり、より詳細な3次元画像を得ることができる。このような3次元画像を表示し解析することで、これまで見つけることが困難であった病変などを見つけることも可能になっている。 In recent years, with the progress of the photographing apparatus, the resolution of the image data photographed by the photographing apparatus has been improved, and detailed analysis of the subject can be performed based on the image data. For example, multi-slice CT (Multi Detector-row Computed Tomography) can take a plurality of tomographic images at a time, and can take a tomographic image with a thin slice thickness. By reducing the slice thickness, the resolution in the body axis direction of the three-dimensional image obtained by stacking a plurality of tomographic images is increased, and a more detailed three-dimensional image can be obtained. By displaying and analyzing such a three-dimensional image, it is possible to find lesions and the like that have been difficult to find until now.

上述したような3次元画像を用いた表示方法の1つとして、仮想内視鏡表示がある(たとえば特許文献1および特許文献2参照)。仮想内視鏡表示とは、管腔の内部に視点位置を設定し、その視点位置に基づいて透視投影画像を生成して表示する方法である。仮想内視鏡表示では、ユーザが逐次的に視点位置を変更することで、あたかも内視鏡のカメラが身体内部を移動しながら撮影したような画像を提供することができる。 As one of the display methods using the three-dimensional image as described above, there is a virtual endoscopic display (see, for example, Patent Document 1 and Patent Document 2). The virtual endoscopic display is a method in which a viewpoint position is set inside the cavity and a perspective projection image is generated and displayed based on the viewpoint position. In the virtual endoscope display, the user can sequentially change the viewpoint position to provide an image as if the camera of the endoscope took a picture while moving inside the body.

特に、内視鏡を用いた検査である気管支鏡検査では、気管支の分岐が非常に複雑であるため、上述した仮想内視鏡表示を「地図」として参照しながら、内視鏡を挿入することが行われている。この際、実際の内視鏡の動きに合わせて、仮想内視鏡表示を手動で順次変更するのは煩わしいため、内視鏡の先端が体内のどこになるかを推定して、仮想内視鏡画像を作成することが行われている。 In particular, in bronchoscopy, which is an examination using an endoscope, the branching of the bronchus is very complicated, so insert the endoscope while referring to the above-mentioned virtual endoscopic display as a "map". Is being done. At this time, since it is troublesome to manually change the virtual endoscope display according to the actual movement of the endoscope, it is estimated where the tip of the endoscope will be in the body, and the virtual endoscope is used. An image is being created.

たとえば特許文献1においては、内視鏡の先端位置を推定するために、仮想内視鏡画像と、内視鏡によって実際に撮影された内視鏡画像との位置合わせ処理を行うことが提案されている。 For example, in Patent Document 1, it is proposed to perform an alignment process between a virtual endoscope image and an endoscope image actually taken by the endoscope in order to estimate the tip position of the endoscope. ing.

国際公開第2014/141968号International Publication No. 2014/141968 特開平11−120327号公報Japanese Unexamined Patent Publication No. 11-12327 特開2013−192741号公報Japanese Unexamined Patent Publication No. 2013-192741

ここで、ナビゲーションのために内視鏡の先端位置の推定を行うには、複数の視点からの仮想内視鏡画像を生成し、それらを実際に撮影された内視鏡画像と位置合わせ処理をして最も一致するものを選ぶ必要がある。 Here, in order to estimate the tip position of the endoscope for navigation, virtual endoscope images from a plurality of viewpoints are generated, and they are aligned with the actually captured endoscope image. And choose the one that best matches.

しかしながら、内視鏡の先端位置の推定精度や安定性を上げるには、仮想内視鏡画像を大量に生成する必要があるが、仮想内視鏡画像を生成する処理であるボリュームレンダリング処理は非常に時間がかかる。 However, in order to improve the estimation accuracy and stability of the tip position of the endoscope, it is necessary to generate a large number of virtual endoscope images, but the volume rendering process, which is the process of generating virtual endoscope images, is extremely difficult. It takes time.

なお、特許文献3においては、気管支の3次元画像からグラフ構造を生成し、そのグラフ構造に含まれる複数の分岐点のそれぞれについて、その分岐点からの分岐先をその分岐点を含む2次元平面上に投影した投影画像を生成することが提案されているが、その投影画像は、分岐先を示す模式的な画像であり、気管支の穴の形状などを正確に表した画像ではないため、上述したような内視鏡画像との位置合わせ処理には適していない。 In Patent Document 3, a graph structure is generated from a three-dimensional image of the bronchus, and for each of a plurality of branch points included in the graph structure, the branch destination from the branch point is a two-dimensional plane including the branch point. It has been proposed to generate a projected image projected above, but the projected image is a schematic image showing the branch destination, not an image that accurately represents the shape of the bronchial hole, etc. It is not suitable for the alignment process with the endoscopic image as described above.

本発明は、上記事情に鑑み、内視鏡画像との位置合わせ処理が可能なように端的な特徴を残した画像を高速な処理によって生成することができる3次元画像処理装置および方法並びにプログラムを提供することを目的とするものである。 In view of the above circumstances, the present invention provides a three-dimensional image processing apparatus, method, and program capable of generating an image with simple features so that it can be aligned with an endoscopic image by high-speed processing. It is intended to be provided.

本発明の3次元画像処理装置は、被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、グラフ構造上の各点における管状構造物の輪郭情報を取得する輪郭情報取得部と、管状構造物内における視点情報を取得する視点情報取得部と、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定する投影点特定部と、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する投影画像生成部とを備える。 The three-dimensional image processing apparatus of the present invention has a three-dimensional image acquisition unit that acquires a three-dimensional image obtained by photographing a subject, and a graph structure generation that generates a graph structure of a tubular structure included in the three-dimensional image. Based on the part, the contour information acquisition part that acquires the contour information of the tubular structure at each point on the graph structure, the viewpoint information acquisition part that acquires the viewpoint information in the tubular structure, and the viewpoint information and the graph structure. It is provided with a projection point specifying unit that specifies a projection point from each point on the graph structure, and a projection image generation unit that generates a projection image in which contour information of the projection points is projected on a two-dimensional plane.

また、上記本発明の3次元画像処理装置において、投影点特定部は、グラフ構造上の1つの点を起点として特定し、その起点からグラフ構造をたどり、予め設定された範囲内に含まれる点を投影候補点として特定し、投影候補点の中から投影点を特定することができる。 Further, in the three-dimensional image processing apparatus of the present invention, the projection point specifying unit identifies one point on the graph structure as a starting point, traces the graph structure from the starting point, and includes points within a preset range. Can be specified as a projection candidate point, and the projection point can be specified from the projection candidate points.

また、上記本発明の3次元画像処理装置において、投影点特定部は、輪郭情報の形状情報に基づいて、投影点を特定することができる。 Further, in the three-dimensional image processing apparatus of the present invention, the projection point specifying unit can specify the projection point based on the shape information of the contour information.

また、上記本発明の3次元画像処理装置において、投影画像生成部は、投影点が属する枝の情報を取得し、枝の情報を投影画像に付加することができる。 Further, in the three-dimensional image processing apparatus of the present invention, the projection image generation unit can acquire information on the branch to which the projection point belongs and add the branch information to the projection image.

また、上記本発明の3次元画像処理装置においては、投影画像と、その投影画像とは異なる画像との間の位置合わせ処理の結果と投影画像の視点情報とに基づいて、異なる画像の視点情報を推定する視点情報推定部を備えることができる。 Further, in the three-dimensional image processing apparatus of the present invention, the viewpoint information of different images is based on the result of the alignment processing between the projected image and the image different from the projected image and the viewpoint information of the projected image. It is possible to provide a viewpoint information estimation unit for estimating.

また、上記本発明の3次元画像処理装置においては、投影画像と、その投影画像とは異なる画像との間の位置合せ処理の結果に基づいて、投影画像に含まれる輪郭情報に対応する異なる画像に含まれる輪郭情報を推定する輪郭情報推定部を備えることができる。 Further, in the three-dimensional image processing apparatus of the present invention, different images corresponding to the contour information included in the projected image are obtained based on the result of the alignment processing between the projected image and the image different from the projected image. The contour information estimation unit for estimating the contour information included in the above can be provided.

また、上記本発明の3次元画像処理装置において、投影画像とは異なる画像は、被検体を撮影した2次元画像とすることができる。 Further, in the three-dimensional image processing apparatus of the present invention, an image different from the projected image can be a two-dimensional image obtained by photographing the subject.

また、上記本発明の3次元画像処理装置において、上記2次元画像は、内視鏡によって撮影された画像とすることができる。 Further, in the three-dimensional image processing apparatus of the present invention, the two-dimensional image can be an image taken by an endoscope.

また、上記本発明の3次元画像処理装置においては、投影画像を表示装置に表示させる表示制御部を備えることができる。 Further, the three-dimensional image processing device of the present invention may include a display control unit for displaying a projected image on the display device.

また、上記本発明の3次元画像処理装置において、管状構造物は気管支とすることができる。 Further, in the three-dimensional image processing apparatus of the present invention, the tubular structure can be a bronchus.

本発明の3次元画像処理方法は、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成し、グラフ構造上の各点における管状構造物の輪郭情報を取得し、管状構造物内における視点情報を取得し、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定し、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する。 The three-dimensional image processing method of the present invention acquires a three-dimensional image obtained by photographing a subject, generates a graph structure of a tubular structure included in the three-dimensional image, and is tubular at each point on the graph structure. The contour information of the structure is acquired, the viewpoint information in the tubular structure is acquired, the projection point is specified from each point on the graph structure based on the viewpoint information and the graph structure, and the contour information of the projection point is obtained. Is projected onto a two-dimensional plane to generate a projected image.

本発明の3次元画像処理プログラムは、コンピュータを、被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、グラフ構造上の各点における管状構造物の輪郭情報を取得する輪郭情報取得部と、管状構造物内における視点情報を取得する視点情報取得部と、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定する投影点特定部と、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する投影画像生成部として機能させる。 The three-dimensional image processing program of the present invention uses a computer to generate a three-dimensional image acquisition unit that acquires a three-dimensional image obtained by photographing a subject and a graph structure of a tubular structure included in the three-dimensional image. A graph structure generation unit, a contour information acquisition unit that acquires contour information of a tubular structure at each point on the graph structure, a viewpoint information acquisition unit that acquires viewpoint information in the tubular structure, and a viewpoint information and a graph structure. Based on the above, it functions as a projection point identification unit that specifies a projection point from each point on the graph structure and a projection image generation unit that generates a projection image in which contour information of the projection point is projected on a two-dimensional plane.

本発明の他の3次元画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサを備え、プロセッサが、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成する処理と、グラフ構造上の各点における管状構造物の輪郭情報を取得する処理と、管状構造物内における視点情報を取得する処理と、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定する処理と、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する処理とを実行するように構成されている。 The other three-dimensional image processing apparatus of the present invention includes a memory for storing instructions to be executed by a computer and a processor configured to execute the stored instructions, and the processor obtains a photograph of a subject. The process of acquiring the obtained 3D image and generating the graph structure of the tubular structure included in the 3D image, the process of acquiring the contour information of the tubular structure at each point on the graph structure, and the inside of the tubular structure. The process of acquiring the viewpoint information in the above, the process of specifying the projection point from each point on the graph structure based on the viewpoint information and the graph structure, and the projection of the contour information of the projection point projected on the two-dimensional plane. It is configured to perform the process of generating an image.

本発明の3次元画像処理装置および方法並びプログラムによれば、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成し、グラフ構造上の各点における管状構造物の輪郭情報を取得する。そして、管状構造物内における視点情報を取得し、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定し、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する。 According to the three-dimensional image processing apparatus and method sequence program of the present invention, a three-dimensional image obtained by photographing a subject is acquired, and a graph structure of a tubular structure included in the three-dimensional image is generated to generate a graph structure. Obtain contour information of the tubular structure at each of the above points. Then, the viewpoint information in the tubular structure is acquired, the projection point is specified from each point on the graph structure based on the viewpoint information and the graph structure, and the contour information of the projection point is projected on the two-dimensional plane. Generate the projected image.

したがって、内視鏡画像との位置合わせ処理が可能なように端的な特徴を残した投影画像を、高速な処理によって生成することができる。 Therefore, it is possible to generate a projected image with a simple feature so that the alignment process with the endoscopic image can be performed by high-speed processing.

本発明の3次元画像処理装置の一実施形態を用いた内視鏡画像診断支援システムの概略構成を示すブロック図A block diagram showing a schematic configuration of an endoscopic image diagnosis support system using an embodiment of the three-dimensional image processing apparatus of the present invention. グラフ構造の一例を示す図A diagram showing an example of a graph structure グラフ構造上の各点における気管支の輪郭情報の一例を示す図A diagram showing an example of bronchial contour information at each point on the graph structure. 投影点の特定方法を説明するためのフローチャートFlowchart to explain how to identify the projection point 投影点の特定方法を説明するための説明図Explanatory drawing for explaining the method of specifying a projection point グラフ構造上の各点の輪郭情報の一例を示す図A diagram showing an example of contour information of each point on the graph structure. 投影画像の一例を示す図Diagram showing an example of a projected image 最初の分岐の気管支の輪郭情報を用いて生成された投影画像の一例を示す図The figure which shows an example of the projection image generated using the contour information of the bronchus of the first branch. 輪郭情報が重ならないように生成された投影画像の一例を示す図The figure which shows an example of the projection image generated so that the contour information does not overlap. 最終的に特定された投影点の輪郭情報を用いて生成された投影画像の一例を示す図The figure which shows an example of the projection image generated using the contour information of the finally identified projection point. 投影画像に対して枝の情報を付加して表示させた例を示す図The figure which shows the example which added the branch information to the projected image and displayed it. 本発明の3次元画像処理装置のその他の実施形態を用いた内視鏡画像診断支援システムの概略構成を示すブロック図A block diagram showing a schematic configuration of an endoscopic image diagnosis support system using another embodiment of the three-dimensional image processing apparatus of the present invention. 投影画像と内視鏡画像とのずれ量と、投影画像の視点情報とに基づいて、内視鏡画像の視点情報を推定する方法を説明するための説明図Explanatory drawing for explaining a method of estimating the viewpoint information of an endoscopic image based on the amount of deviation between a projected image and an endoscopic image and the viewpoint information of the projected image. 投影画像に含まれる輪郭情報に対応する内視鏡画像に含まれる穴(輪郭情報)を推定する方法を説明するための説明図Explanatory drawing for explaining a method of estimating a hole (contour information) included in an endoscopic image corresponding to the contour information included in a projected image. 内視鏡画像から穴の輪郭を抽出した輪郭画像の一例を示す図The figure which shows an example of the contour image which extracted the contour of a hole from an endoscopic image

以下、本発明の3次元画像処理装置および方法並びにプログラムの一実施形態を用いた内視鏡画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の内視鏡画像診断支援システムの概略構成を示すブロック図である。 Hereinafter, the endoscopic image diagnosis support system using the three-dimensional image processing apparatus and method of the present invention and one embodiment of the program will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of the endoscopic image diagnosis support system of the present embodiment.

本実施形態の内視鏡画像診断支援システム1は、図1に示すように、3次元画像処理装置10と、表示装置20と、入力装置30と、3次元画像保管サーバ40とを備えている。 As shown in FIG. 1, the endoscopic image diagnosis support system 1 of the present embodiment includes a three-dimensional image processing device 10, a display device 20, an input device 30, and a three-dimensional image storage server 40. ..

3次元画像処理装置10は、コンピュータに本実施形態の3次元画像処理プログラムをインストールすることによって構成されたものである。 The three-dimensional image processing device 10 is configured by installing the three-dimensional image processing program of the present embodiment on a computer.

そして、3次元画像処理装置10は、中央処理装置(CPU)および半導体メモリや上述した3次元画像処理プログラムがインストールされたハードディスクやSSD(Solid State Drive)等のストレージデバイスなどを備えており、これらのハードウェアによって The three-dimensional image processing device 10 includes a central processing unit (CPU), a semiconductor memory, a hard disk in which the above-mentioned three-dimensional image processing program is installed, a storage device such as an SSD (Solid State Drive), and the like. By hardware

、図1に示すような3次元画像取得部11、グラフ構造生成部12、輪郭情報取得部13、視点情報取得部14、投影点特定部15、投影画像生成部16、気管支3次元画像生成部17および表示制御部18が構成されている。そして、ハードディスクにインストールされた3次元画像処理プログラムが中央処理装置によって実行されることによって上記各部がそれぞれ動作する。 , 3D image acquisition unit 11, graph structure generation unit 12, contour information acquisition unit 13, viewpoint information acquisition unit 14, projection point identification unit 15, projection image generation unit 16, bronchial 3D image generation unit as shown in FIG. 17 and a display control unit 18 are configured. Then, each of the above parts operates by executing the three-dimensional image processing program installed on the hard disk by the central processing unit.

3次元画像取得部11は、内視鏡装置を用いた手術前または検査前などに予め撮影された被検体の3次元画像を取得するものである。3次元画像としては、たとえばCT装置およびMRI(Magnetic Resonance Imaging)装置などから出力されたスライスデータから再構成されたボリュームデータ、並びにMS(Multi Slice)CT装置およびコーンビー The three-dimensional image acquisition unit 11 acquires a three-dimensional image of the subject taken in advance before surgery or examination using an endoscope device. Examples of the three-dimensional image include volume data reconstructed from slice data output from a CT device and an MRI (Magnetic Resonance Imaging) device, and an MS (Multi Slice) CT device and Cornbee.

ムCT装置から出力されたボリュームデータなどがある。3次元画像は、3次元画像保管サーバ40に被検体の識別情報と併せて予め保管されており、3次元画像取得部11は、入力装置30において入力された被検体の識別情報に対応する3次元画像を3次元画像保管サーバ40から読み出すものである。 There is volume data output from the CT device. The three-dimensional image is stored in advance in the three-dimensional image storage server 40 together with the identification information of the subject, and the three-dimensional image acquisition unit 11 corresponds to the identification information of the subject input in the input device 30. The three-dimensional image is read from the three-dimensional image storage server 40.

グラフ構造生成部12は、3次元画像取得部11によって取得された3次元画像が入力され、その入力された3次元画像に含まれる管状構造物のグラフ構造を生成するものである。本実施形態においては、管状構造物のグラフ構造として気管支のグラフ構造を生成する。以下、このグラフ構造の生成方法の一例を説明する。 The graph structure generation unit 12 inputs a three-dimensional image acquired by the three-dimensional image acquisition unit 11, and generates a graph structure of a tubular structure included in the input three-dimensional image. In this embodiment, a bronchial graph structure is generated as a graph structure of a tubular structure. Hereinafter, an example of a method for generating this graph structure will be described.

3次元画像に含まれる気管支は、気管支の内部の画素は空気領域に相当するためCT画像上では低いCT値(画素値)を示す領域として表れるが、気管支壁は比較的高いCT値を示す円柱あるいは管状の構造物であると考えられる。そこで、画素毎にCT値の分布に基づく形状の構造解析を行なって気管支を抽出する。 The bronchi included in the three-dimensional image appear as a region showing a low CT value (pixel value) on the CT image because the pixels inside the bronchus correspond to the air region, but the bronchial wall is a cylinder showing a relatively high CT value. Alternatively, it is considered to be a tubular structure. Therefore, the bronchi are extracted by performing structural analysis of the shape based on the distribution of CT values for each pixel.

気管支は多段階に分岐し末端に近づくほど気管支の径は小さくなっていく。異なるサイズの気管支を検出することができるように、三次元画像を多重解像度変換したガウシアンピラミッド画像、つまり異なる解像度の複数の三次元画像を予め生成し、その生成したガウシアンピラミッドの画像毎に検出アルゴリズムを走査することで異なるサイズの管状構造物を検出する。 The bronchus branches in multiple stages, and the diameter of the bronchus becomes smaller as it approaches the end. A Gaussian pyramid image obtained by converting a three-dimensional image into multiple resolutions so that bronchi of different sizes can be detected, that is, a plurality of three-dimensional images having different resolutions are generated in advance, and a detection algorithm is used for each generated Gaussian pyramid image. Detects tubular structures of different sizes by scanning.

まず、各解像度の三次元画像の各画素のヘッセ行列を算出し、ヘッセ行列の固有値の大小関係から管状構造物内の画素であるかを判定する。ヘッセ行列は、各軸(三次元画像のx軸、y軸、z軸)方向における濃度値の2階の偏微分係数を要素とする行列であり、下式のように3×3行列となる。 First, the Hessian matrix of each pixel of the three-dimensional image of each resolution is calculated, and it is determined whether or not the pixels are in the tubular structure from the magnitude relation of the eigenvalues of the Hessian matrix. The Hessian matrix is a matrix whose elements are the second-order partial differential coefficients of the density values in each axis (x-axis, y-axis, z-axis of the three-dimensional image) direction, and is a 3 × 3 matrix as shown in the following equation. ..

Figure 0006847011
Figure 0006847011

任意の画素におけるヘッセ行列の固有値をλ1、λ2、λ3としたとき、固有値のうち2つの固有値が大きく、1つの固有値が0に近い場合、例えば、λ3、λ2≫λ1、λ1≒0を満たすとき、その画素は管状構造物であることが知られている。また、ヘッセ行列の最小の固有値(λ1≒0)に対応する固有ベクトルが管状構造物の主軸方向に一致する。 When the eigenvalues of the Hessian matrix in an arbitrary pixel are λ1, λ2, and λ3, two of the eigenvalues are large and one eigenvalue is close to 0, for example, when λ3, λ2 >> λ1, λ1≈0 is satisfied. , The pixels are known to be tubular structures. Further, the eigenvectors corresponding to the minimum eigenvalues (λ1≈0) of the Hessian matrix coincide with the spindle direction of the tubular structure.

気管支はグラフ構造で表すことができるが、このようにして抽出された管状構造物は、腫瘍などの影響により、全ての管状構造物が繋がった1つのグラフ構造として検出されるとは限らない。そこで、三次元画像全体の判別が終了後、検出された管状構造物が一定の距離内にあり、かつ抽出された二つの管状構造物上の任意の点を結ぶ基本線の向きと各管状構造物の主軸方向とが成す角が一定角度以内であるかについて評価することにより、複数の管状構造物が接続されるものであるか否かを判定して抽出された管状構造物の接続関係を再構築する。この再構築により、気管支のグラフ構造の抽出が完了する。 Although the bronchi can be represented by a graph structure, the tubular structure extracted in this way is not always detected as one graph structure in which all the tubular structures are connected due to the influence of a tumor or the like. Therefore, after the discrimination of the entire three-dimensional image is completed, the detected tubular structure is within a certain distance, and the direction of the basic line connecting arbitrary points on the two extracted tubular structures and each tubular structure. By evaluating whether the angle formed by the main axis direction of the object is within a certain angle, it is determined whether or not a plurality of tubular structures are connected, and the connection relationship of the extracted tubular structures is determined. Rebuild. This reconstruction completes the extraction of the bronchial graph structure.

そして、抽出したグラフ構造を、開始点、端点、分岐点および枝に分類し、開始点、端点および分岐点を枝で連結することによって、気管支を表すグラフ構造を得ることができる。本実施形態においては、このグラフ構造の各位置における気管支の径や各枝の長さ(気管支の分岐点間の長さ)などの特徴量もグラフ構造と併せて取得する。図2は、グラフ構造の一例を示すものである。図2では、Spが開始点であり、分岐点Bpを白丸、端点Epを黒丸、枝Eを線で表している。 Then, the extracted graph structure is classified into a start point, an end point, a branch point, and a branch, and by connecting the start point, the end point, and the branch point with a branch, a graph structure representing a bronchi can be obtained. In the present embodiment, features such as the diameter of the bronchus and the length of each branch (the length between the bifurcation points of the bronchi) at each position of the graph structure are also acquired together with the graph structure. FIG. 2 shows an example of a graph structure. In FIG. 2, Sp is a start point, a branch point Bp is represented by a white circle, an end point Ep is represented by a black circle, and a branch E is represented by a line.

なお、グラフ構造の生成方法としては、上述した方法に限らず、その他の公知な方法を用いることができる。 The graph structure generation method is not limited to the above-mentioned method, and other known methods can be used.

輪郭情報取得部13は、グラフ構造上の各点における気管支の輪郭情報を取得するものである。本実施形態の輪郭情報取得部13は、上述したように気管支のグラフ構造を生成する際に検出された管状構造物の輪郭情報を取得するものである。輪郭情報は、グラフ構造の各点について取得されるが、各点の間隔は、気管支の分岐点間よりも小さい間隔を任意に設定することができる。たとえば1mm〜2mm程度に設定することが好ましい。図3は、グラフ構造上の各点における気管支の輪郭情報の一例を示す図である。なお、図3では、気管支のグラフ構造も含まれている。 The contour information acquisition unit 13 acquires contour information of the bronchi at each point on the graph structure. The contour information acquisition unit 13 of the present embodiment acquires the contour information of the tubular structure detected when the graph structure of the bronchi is generated as described above. The contour information is acquired for each point in the graph structure, and the interval between the points can be arbitrarily set to be smaller than the interval between the bronchial bifurcation points. For example, it is preferable to set it to about 1 mm to 2 mm. FIG. 3 is a diagram showing an example of bronchial contour information at each point on the graph structure. Note that FIG. 3 also includes a bronchial graph structure.

視点情報取得部14は、気管支内における視点情報を取得するものである。視点情報は、ユーザが入力装置30を用いて任意に設定入力されるものであり、視点情報取得部14は、入力装置30において受け付けられた視点情報を取得するものである。視点情報の設定入力は、たとえば表示装置20に表示された気管支の3次元画像上においてユーザがマウスなどの入力装置30を用いて指定するようにすればよい。 The viewpoint information acquisition unit 14 acquires viewpoint information in the bronchus. The viewpoint information is arbitrarily set and input by the user using the input device 30, and the viewpoint information acquisition unit 14 acquires the viewpoint information received by the input device 30. The setting input of the viewpoint information may be specified by the user using an input device 30 such as a mouse on a three-dimensional image of the bronchus displayed on the display device 20, for example.

なお、本実施形態においては、視点情報をユーザが設定入力するようにしたが、これに限らず、予め設定された条件に基づいて、自動的に視点情報を設定するようにしてもよい。具体的には、たとえば気管支の基端部に視点情報を設定するようにしてもよいし、基端部から最初の分岐に視点情報を設定するようにしてもよい。 In the present embodiment, the viewpoint information is set and input by the user, but the present invention is not limited to this, and the viewpoint information may be automatically set based on preset conditions. Specifically, for example, the viewpoint information may be set at the base end of the bronchus, or the viewpoint information may be set at the first branch from the base end.

投影点特定部15は、視点情報に基づいて、グラフ構造上の1つの点を起点として特定し、起点からグラフ構造をたどり、グラフ構造上の各点の中から投影点を特定するものである。以下、投影点特定部15による投影点の特定について、図4に示すフローチャートおよび図5〜図10を参照しながら説明する。 The projection point specifying unit 15 identifies one point on the graph structure as a starting point based on the viewpoint information, traces the graph structure from the starting point, and specifies the projection point from each point on the graph structure. .. Hereinafter, the identification of the projection point by the projection point specifying unit 15 will be described with reference to the flowchart shown in FIG. 4 and FIGS. 5 to 10.

投影点特定部15は、まず、図5に示すように、ユーザによって設定入力された視点情報Sから最も近いグラフ構造上の点を起点Nsとして特定する(S10)。そして、起点Nsから気管支の下流側(基端側とは反対側)に向けてグラフ構造をたどり、予め設定された範囲NR内に含まれる点を投影候補点として特定する(S12)。範囲NRとしては、たとえば起点Nsからの予め設定された距離の範囲としたり、起点Nsからグラフ構造をたどった際に、通過する分岐点が予め設定された数となる範囲とすることができる。 As shown in FIG. 5, the projection point specifying unit 15 first identifies the point on the graph structure closest to the viewpoint information S set and input by the user as the starting point Ns (S10). Then, the graph structure is traced from the starting point Ns toward the downstream side of the bronchus (the side opposite to the proximal end side), and points included in the preset range NR are specified as projection candidate points (S12). The range NR can be, for example, a range of a preset distance from the starting point Ns, or a range in which the number of branch points to be passed is a preset number when the graph structure is traced from the starting point Ns.

次に、投影点特定部15は、予め設定された範囲NR内に含まれる複数の投影候補点の中から、予め設定された投影点条件に基づいて一部の投影点を特定する(S14)。予め設定された条件としては、たとえば範囲NRにおけるグラフ構造における各枝の中央の点、最初の点または最後の点を投影点として特定することができる。なお、最初の点および最後の点とは、グラフ構造を下流側にたどった際の各辺の最初の点および最後の点である。また、範囲NRにおけるグラフ構造における各枝について、分岐点から予め設定された距離以上離れた最初の点を投影点として特定することができる。図4は、S14において特定された投影点Npの一例を点線丸印で示している。 Next, the projection point specifying unit 15 identifies a part of the projection points from the plurality of projection candidate points included in the preset range NR based on the preset projection point conditions (S14). .. As preset conditions, for example, the central point, the first point, or the last point of each branch in the graph structure in the range NR can be specified as a projection point. The first point and the last point are the first point and the last point of each side when the graph structure is traced to the downstream side. Further, for each branch in the graph structure in the range NR, the first point separated from the branch point by a preset distance or more can be specified as a projection point. FIG. 4 shows an example of the projection point Np specified in S14 with a dotted circle.

次いで、投影点特定部15は、S14において特定された投影点が、予め設定された投影画像条件を満たすか否かを確認する(S16)。図6は、範囲NR内のグラフ構造上の各点の輪郭情報の一例を示す図である。なお、図6においては、見やすくするために一部の点の輪郭情報を図示省略している。また、図6に示す0〜6の数値は、各枝に付加された枝番号であり、各輪郭情報の近傍に示す数値は、グラフ構造上の各点に付加されたノード番号である。ここでは、たとえば上述した起点Nsが図6に示すノード80にある場合の投影点の特定方法について説明する。 Next, the projection point specifying unit 15 confirms whether or not the projection point specified in S14 satisfies the preset projected image condition (S16). FIG. 6 is a diagram showing an example of contour information of each point on the graph structure within the range NR. In FIG. 6, contour information of some points is not shown for easy viewing. The numerical values 0 to 6 shown in FIG. 6 are the branch numbers added to each branch, and the numerical values shown in the vicinity of each contour information are the node numbers added to each point on the graph structure. Here, for example, a method of specifying the projection point when the above-mentioned starting point Ns is at the node 80 shown in FIG. 6 will be described.

まず、S14において特定された投影点が、図6に示すノード98とノード99である場合、この2つのノード点の輪郭情報を2次元平面上に投影して投影画像を生成すると図7に示すような投影画像となる。なお、上記2次元平面とは、被検体の体軸方向に直交する平面である。図7に示す投影画像では、2つの輪郭情報が重なり合ってしまっているので投影画像としてはあまり好ましくない。これはS14によって特定された投影点が分岐点に対して近すぎるからである。 First, when the projection points specified in S14 are the node 98 and the node 99 shown in FIG. 6, the contour information of these two node points is projected onto a two-dimensional plane to generate a projected image, which is shown in FIG. It becomes a projected image like this. The two-dimensional plane is a plane orthogonal to the body axis direction of the subject. In the projected image shown in FIG. 7, since the two contour information overlaps each other, it is not very preferable as the projected image. This is because the projection point specified by S14 is too close to the branch point.

そこで、投影点特定部15は、図7に示す投影画像のように2つの輪郭情報が重なり合う場合には、投影点を変更し、その変更後の投影点の輪郭情報を用いて、再び投影画像を生成し、その投影画像の輪郭情報が重なり合うか否かを確認する。具体的には、ノード98とノード99の投影点の少なくとも一方を分岐点から遠い投影点に変更し、変更後の投影点の輪郭情報を用いて、再び投影画像を生成する。たとえばノード98の投影点をノード107の投影点に変更し、ノード99の投影点をノード110の投影点に変更する。 Therefore, when the two contour information overlaps with each other as in the projected image shown in FIG. 7, the projection point specifying unit 15 changes the projection point and uses the contour information of the changed projection point to re-project the projected image. Is generated, and it is confirmed whether or not the contour information of the projected image overlaps. Specifically, at least one of the projection points of the node 98 and the node 99 is changed to a projection point far from the branch point, and the projection image is generated again using the contour information of the changed projection point. For example, the projection point of node 98 is changed to the projection point of node 107, and the projection point of node 99 is changed to the projection point of node 110.

すなわち、投影点特定部15は、投影画像の輪郭情報が重なり合わないという投影画像条件を満たすか否かを確認し、投影画像条件を満たさない場合には(S16,NO)、投影点を予め設定された条件に基づいて変更する(S18)。そして、変更後の投影点の輪郭情報を用いて、再び投影画像を生成し、投影画像条件を満たすか否かを確認し、投影画像条件を満たすまで投影点の変更と投影画像の生成とを繰り返す。図8は、投影画像条件を満たすノード123とノード119の投影点の輪郭情報を用いて生成された投影画像を示す図である。 That is, the projection point specifying unit 15 confirms whether or not the projection image condition that the contour information of the projection images does not overlap is satisfied, and if the projection image condition is not satisfied (S16, NO), the projection point is set in advance. Change based on the set conditions (S18). Then, using the contour information of the changed projection point, the projection image is generated again, it is confirmed whether or not the projection image condition is satisfied, and the projection point is changed and the projection image is generated until the projection image condition is satisfied. repeat. FIG. 8 is a diagram showing a projected image generated by using the contour information of the projection points of the node 123 and the node 119 that satisfy the projected image condition.

そして、図6に示す枝1の先に繋がる枝3および枝4と、枝2に繋がる枝5および枝6とについても、上記と同様に、投影画像の輪郭情報が重なり合わないという投影画像条件を満たすまで、投影点の変更と投影画像の生成とを繰り返す。その結果、図9に示すような投影画像が生成されたとすると、親の枝である枝1のノード123からはみ出した枝4のノード289および枝3のノード296と、親の枝である枝2のノード119の輪郭情報からはみ出した枝6のノード214の輪郭情報とについては、起点であるノード80から実際に気管支内を撮影した内視鏡画像上では見えない輪郭情報であるので削除することが好ましい。 As for the branch 3 and the branch 4 connected to the tip of the branch 1 shown in FIG. 6, and the branch 5 and the branch 6 connected to the branch 2, the projection image condition that the contour information of the projected image does not overlap is the same as described above. The projection point is changed and the projection image is generated repeatedly until the condition is satisfied. As a result, assuming that a projected image as shown in FIG. 9 is generated, the node 289 of the branch 4 and the node 296 of the branch 3 protruding from the node 123 of the branch 1 which is the parent branch, and the branch 2 which is the parent branch The contour information of the node 214 of the branch 6 protruding from the contour information of the node 119 of the above is the contour information that cannot be seen on the endoscopic image actually taken from the node 80, which is the starting point, and should be deleted. Is preferable.

したがって、投影点特定部15は、子の枝については、親の枝のノードの輪郭情報内に子の枝の輪郭情報が包含されるという投影画像条件を満たす投影点を特定する。なお、子の枝についての投影画像条件としては、これに限らず、たとえば親の枝のノードの輪郭情報内に子の枝の輪郭情報が包含されていない場合でも、親の枝のノードの輪郭情報と子の枝の輪郭情報との距離が予め設定された閾値以内である場合には、削除することなく、最終的な投影点として残すようにしてもよい。具体的には、図9に示す枝6のノード214の輪郭情報については、枝2のノード119の輪郭情報に近いので残すようにしてもよい。また、子の枝のノードの輪郭情報が、親の枝のノードの輪郭情報内に包含されていたとしても、その輪郭情報の形状が、図9に示すノード289の輪郭情報のように、長径に対する短径の比率が予め設定された閾値以下の楕円である場合、または子の枝のノードの輪郭情報が投影できない場合もしくは親の枝のノードの輪郭情報の大きさに対する子の枝のノードの輪郭情報の大きさの比率が閾値以下であって、子の枝のノードの輪郭情報が小さすぎる場合には、その輪郭情報を削除するようにしてもよい。 Therefore, the projection point specifying unit 15 specifies a projection point that satisfies the projection image condition that the contour information of the child branch is included in the contour information of the node of the parent branch for the child branch. The projection image condition for the child branch is not limited to this, and for example, even if the contour information of the child branch is not included in the contour information of the node of the parent branch, the contour of the node of the parent branch is not included. If the distance between the information and the contour information of the child branch is within a preset threshold, it may be left as the final projection point without being deleted. Specifically, the contour information of the node 214 of the branch 6 shown in FIG. 9 may be left because it is close to the contour information of the node 119 of the branch 2. Further, even if the contour information of the node of the child branch is included in the contour information of the node of the parent branch, the shape of the contour information has a major axis like the contour information of the node 289 shown in FIG. If the ratio of the minor axis to is an ellipse below a preset threshold, or if the contour information of the child branch node cannot be projected, or if the contour information of the parent branch node is greater than the size of the child branch node. If the ratio of the size of the contour information is less than or equal to the threshold value and the contour information of the node of the child branch is too small, the contour information may be deleted.

上述したようにして投影画像条件を満たすように投影点の変更および削除を繰り返して行って最終的な投影点を特定する(S20)。図10は、最終的に特定された投影点の輪郭情報を用いて生成された投影画像を示す図である。 As described above, the final projection point is specified by repeatedly changing and deleting the projection point so as to satisfy the projection image condition (S20). FIG. 10 is a diagram showing a projected image generated using the contour information of the finally identified projection point.

なお、上述した投影画像条件を満たしているか否かの確認については、投影点の輪郭情報の形状情報を用いるようにすればよい。具体的には、形状情報として、輪郭情報の径(半径、直径、短径および長径など)および中心間の距離などを用いるようにすればよい。 For confirmation of whether or not the above-mentioned projection image conditions are satisfied, the shape information of the contour information of the projection point may be used. Specifically, as the shape information, the diameter (radius, diameter, minor axis, major axis, etc.) of the contour information, the distance between the centers, and the like may be used.

また、上記説明では、仮に特定した投影点の輪郭情報を用いて投影画像を一旦生成し、その投影画像が、投影画像条件を満たすか否かを確認することによって最終的な投影点を特定するようにしたが、必ずしも投影画像を生成しなくてもよく、仮の特定した投影点の3次元座標空間上における位置関係とその投影点の輪郭情報の大きさとに基づいて、投影画像条件を満たすか否かを確認するようにしてもよい。 Further, in the above description, the final projection point is specified by temporarily generating a projection image using the contour information of the tentatively specified projection point and confirming whether or not the projection image satisfies the projection image condition. However, it is not always necessary to generate a projected image, and the projected image condition is satisfied based on the positional relationship of the tentatively specified projection point on the three-dimensional coordinate space and the magnitude of the contour information of the projection point. You may want to check if it is.

また、上記説明では、仮に特定した投影点の輪郭情報が投影画像条件を満たすか否かを確認することによって最終的な投影点を特定するようにしたが、投影画像条件については必ずしも確認しなくてもよく、S14において投影点条件に基づいて特定された投影点を最終的な投影点とし、その輪郭情報を用いて投影画像を生成するようにしてもよい。 Further, in the above description, the final projection point is specified by confirming whether or not the contour information of the specified projection point satisfies the projection image condition, but the projection image condition is not necessarily confirmed. Alternatively, the projection point specified based on the projection point condition in S14 may be used as the final projection point, and the projection image may be generated using the contour information.

図1に戻り、気管支3次元画像生成部17は、3次元画像取得部11において取得された3次元画像に対してボリュームレンダリング処理を施すことによって、気管支の形態を表す気管支3次元画像を生成し、この気管支3次元画像を表示制御部18に出力するものである。 Returning to FIG. 1, the bronchial three-dimensional image generation unit 17 generates a bronchial three-dimensional image representing the morphology of the bronchi by performing volume rendering processing on the three-dimensional image acquired by the three-dimensional image acquisition unit 11. , This bronchial three-dimensional image is output to the display control unit 18.

表示制御部18は、投影画像生成部16によって生成された投影画像および気管支3次元画像生成部17によって生成された気管支3次元画像を表示装置20に表示させるものである。 The display control unit 18 causes the display device 20 to display the projection image generated by the projection image generation unit 16 and the bronchial three-dimensional image generated by the bronchial three-dimensional image generation unit 17.

表示装置20は、たとえば液晶ディスプレイなどを備えたものである。また、表示装置20をタッチパネルによって構成し、入力装置43と兼用するようにしてもよい。 The display device 20 includes, for example, a liquid crystal display. Further, the display device 20 may be configured by a touch panel and may also be used as the input device 43.

入力装置30は、マウスやキーボードなどを備えたものであり、ユーザによる種々の設定入力を受け付けるものである。 The input device 30 includes a mouse, a keyboard, and the like, and accepts various setting inputs by the user.

上記実施形態の内視鏡画像診断支援システムによれば、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成し、グラフ構造上の各点における管状構造物の輪郭情報を取得する。そして、管状構造物内における視点情報を取得し、視点情報に基づいて、グラフ構造上の1つの点を起点として特定し、起点からグラフ構造をたどり、グラフ構造上の各点の中から投影点を特定し、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する。 According to the endoscopic image diagnosis support system of the above embodiment, a three-dimensional image obtained by photographing a subject is acquired, a graph structure of a tubular structure included in the three-dimensional image is generated, and the graph structure is displayed. The contour information of the tubular structure at each point of is acquired. Then, the viewpoint information in the tubular structure is acquired, one point on the graph structure is specified as the starting point based on the viewpoint information, the graph structure is traced from the starting point, and the projection point is selected from each point on the graph structure. Is specified, and a projected image in which the contour information of the projection point is projected on a two-dimensional plane is generated.

したがって、内視鏡画像との位置合わせ処理が可能なように端的な特徴を残した投影画像を、高速な処理によって生成することができる。 Therefore, it is possible to generate a projected image with a simple feature so that the alignment process with the endoscopic image can be performed by high-speed processing.

また、上記実施形態においては、投影画像生成部16が、投影点が属する枝の情報を取得し、その枝の情報を投影画像に付加することによって、投影画像上に枝の情報を表示させるようにしてもよい。図11は、投影画像に対して枝の情報として「A」〜「D」を付加して表示させた例を示す図である。 Further, in the above embodiment, the projection image generation unit 16 acquires the information of the branch to which the projection point belongs and adds the information of the branch to the projection image so that the information of the branch is displayed on the projection image. It may be. FIG. 11 is a diagram showing an example in which "A" to "D" are added as branch information to the projected image and displayed.

また、上記実施形態において、さらに内視鏡装置50によって実際に気管支内を撮影した2次元画像の内視鏡画像を取得し、その内視鏡画像と投影画像との関係に基づいて、内視鏡画像の視点情報(内視鏡の先端位置に相当する)を推定するようにしてもよい。すなわち、図12に示すように、視点情報推定部21を設けるようにしてもよい。視点情報推定部21は、具体的には、投影画像生成部16によって生成された投影画像Aと、内視鏡装置50から出力された内視鏡画像Bとの間で位置合わせ処理を行う。位置合わせ処理としては、たとえば剛体レジストレーションまたは非剛体レジストレーションを用いることができる。 Further, in the above embodiment, an endoscopic image of a two-dimensional image actually taken in the bronchi by the endoscope device 50 is acquired, and endoscopy is performed based on the relationship between the endoscopic image and the projected image. The viewpoint information of the mirror image (corresponding to the tip position of the endoscope) may be estimated. That is, as shown in FIG. 12, the viewpoint information estimation unit 21 may be provided. Specifically, the viewpoint information estimation unit 21 performs alignment processing between the projection image A generated by the projection image generation unit 16 and the endoscope image B output from the endoscope device 50. As the alignment process, for example, rigid body registration or non-rigid body registration can be used.

そして、視点情報推定部21は、図13に示すように、位置合わせ処理によって得られた投影画像Aと内視鏡画像Bとのずれ量と、投影画像Aの視点情報とに基づいて、内視鏡画像Bの視点情報bを推定する。なお、位置合わせ処理の対象の投影画像Aは、たとえばグラフ構造の分岐点毎に生成されており、その複数の投影画像Aのうち、ずれ量が最も小さい投影画像Aとその視点情報とに基づいて、内視鏡画像の視点情報bが推定されるものとする。内視鏡画像Bの視点情報bの推定方法としては、たとえば投影画像Aに含まれる輪郭情報の大きさと内視鏡画像Bに含まれる気管支の穴の大きさだけが異なる場合には、その大きさの拡縮率と投影画像Aの視点情報aと投影面との距離に基づいて、視点情報aを投影面に対して移動させることによって視点情報bを推定することができる。なお、視点情報bの推定方法としては、このような方法に限らず、幾何学的な関係に基づく種々の推定方法を用いることができる。 Then, as shown in FIG. 13, the viewpoint information estimation unit 21 is based on the amount of deviation between the projected image A and the endoscopic image B obtained by the alignment process and the viewpoint information of the projected image A. The viewpoint information b of the endoscopic image B is estimated. The projection image A to be subjected to the alignment processing is generated for each branch point of the graph structure, for example, and is based on the projection image A having the smallest deviation amount among the plurality of projection images A and its viewpoint information. Therefore, it is assumed that the viewpoint information b of the endoscopic image is estimated. As a method of estimating the viewpoint information b of the endoscopic image B, for example, when only the size of the contour information included in the projected image A and the size of the bronchial hole included in the endoscopic image B are different, the size thereof. The viewpoint information b can be estimated by moving the viewpoint information a with respect to the projection surface based on the scaling factor and the distance between the viewpoint information a of the projected image A and the projection surface. The method for estimating the viewpoint information b is not limited to such a method, and various estimation methods based on geometrical relationships can be used.

視点情報推定部21によって推定された視点情報bは、たとえばその3次元座標を表示装置20に表示させるようにしてもよいし、表示装置20に表示された気管支3次元画像上に表示させるようにしてもよい。 The viewpoint information b estimated by the viewpoint information estimation unit 21 may, for example, display its three-dimensional coordinates on the display device 20, or may be displayed on the bronchial three-dimensional image displayed on the display device 20. You may.

また、投影画像に含まれる輪郭情報とその輪郭情報に付加された枝の情報に基づいて、内視鏡装置50から出力された内視鏡画像に含まれる穴に対して、枝の情報を付加するようにしてもよい。すなわち、図12に示すように、輪郭情報推定部22を設けるようにしてもよい。輪郭情報推定部22は、具体的には、投影画像生成部16によって生成された投影画像Aと、内視鏡装置50から出力された内視鏡画像Bとの間で位置合わせ処理を行う。位置合わせ処理としては、たとえば剛体レジストレーションまたは非剛体レジストレーションを用いることができる。そして、輪郭情報推定部22は、位置合わせ処理を行うことによって、図14に示すように、投影画像Aに含まれる輪郭情報に対応する内視鏡画像Bに含まれる穴(輪郭情報)を推定する。そして、輪郭情報推定部22は、投影画像Aの各輪郭情報に付加された枝の情報「A」〜「D」を内視鏡画像に含まれる対応する穴に付加する。内視鏡画像の各穴に付加された枝の情報は、たとえば内視鏡画像と併せて表示装置20に表示される。 Further, based on the contour information included in the projected image and the branch information added to the contour information, branch information is added to the holes included in the endoscope image output from the endoscope device 50. You may try to do it. That is, as shown in FIG. 12, the contour information estimation unit 22 may be provided. Specifically, the contour information estimation unit 22 performs an alignment process between the projection image A generated by the projection image generation unit 16 and the endoscope image B output from the endoscope device 50. As the alignment process, for example, rigid body registration or non-rigid body registration can be used. Then, the contour information estimation unit 22 estimates the hole (contour information) included in the endoscope image B corresponding to the contour information included in the projected image A as shown in FIG. 14 by performing the alignment process. To do. Then, the contour information estimation unit 22 adds the branch information “A” to “D” added to each contour information of the projected image A to the corresponding holes included in the endoscopic image. The branch information added to each hole of the endoscopic image is displayed on the display device 20 together with the endoscopic image, for example.

また、上記説明では、視点情報推定部21および輪郭情報推定部22において、位置合わせ処理を行う際、内視鏡装置50から出力された内視鏡画像そのものを用いるようにしたが、これに限らず、図15に示すように、内視鏡画像から穴の輪郭を抽出した輪郭画像を用いるようにしてもよい。輪郭画像の生成方法としては、たとえば輝度が閾値以下の画素が円状に分布している領域を内視鏡画像から検出し、その領域の輪郭を穴の輪郭として抽出して輪郭画像を生成するようにすればよい。 Further, in the above description, the viewpoint information estimation unit 21 and the contour information estimation unit 22 use the endoscope image itself output from the endoscope device 50 when performing the alignment processing, but the present invention is limited to this. Instead, as shown in FIG. 15, a contour image obtained by extracting the contour of the hole from the endoscopic image may be used. As a method of generating a contour image, for example, a region in which pixels having a brightness of less than a threshold value are distributed in a circle is detected from the endoscopic image, and the contour of the region is extracted as the contour of a hole to generate a contour image. You can do it like this.

1 内視鏡画像診断支援システム
10 3次元画像処理装置
11 3次元画像取得部
12 グラフ構造生成部
13 輪郭情報取得部
14 視点情報取得部
15 投影点特定部
16 投影画像生成部
17 気管支3次元画像生成部
18 表示制御部
20 表示装置
21 視点情報推定部
22 輪郭情報推定部
30 入力装置
40 3次元画像保管サーバ
43 入力装置
50 内視鏡装置
Bp 分岐点
E 枝
Ep 端点
Np 投影点
NR 予め設定された範囲
Ns 起点
S 視点情報
1 Endoscopic image diagnosis support system 10 3D image processing device 11 3D image acquisition unit 12 Graph structure generation unit 13 Contour information acquisition unit 14 Viewpoint information acquisition unit 15 Projection point identification unit 16 Projection image generation unit 17 Bronchial 3D image Generation unit 18 Display control unit 20 Display device 21 Viewpoint information estimation unit 22 Contour information estimation unit 30 Input device 40 3D image storage server 43 Input device 50 Endoscope device Bp Branch point E Branch Ep End point Np Projection point NR Range Ns Origin S Viewpoint information

Claims (13)

被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、
前記3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、
前記グラフ構造上の各点における前記管状構造物の径および形状を表す輪郭情報を取得する輪郭情報取得部と、
前記管状構造物内における視点情報を取得する視点情報取得部と、
前記視点情報と前記グラフ構造とに基づいて、前記グラフ構造上の各点の中から、該各点の前記輪郭情報を前記視点情報に基づく視点の方向にある2次元平面上に投影した場合に、前記輪郭情報が重なり合わないという条件を満たす点を投影点に特定する投影点特定部と、
前記投影点の前記輪郭情報を前記2次元平面上に投影した投影画像を生成する投影画像生成部とを備えた3次元画像処理装置。
A 3D image acquisition unit that acquires a 3D image obtained by photographing a subject, and
A graph structure generator that generates a graph structure of a tubular structure included in the three-dimensional image,
A contour information acquisition unit that acquires contour information representing the diameter and shape of the tubular structure at each point on the graph structure, and
A viewpoint information acquisition unit that acquires viewpoint information in the tubular structure,
When the contour information of each point is projected onto a two-dimensional plane in the direction of the viewpoint based on the viewpoint information from each point on the graph structure based on the viewpoint information and the graph structure. , A projection point specifying unit that specifies a point that satisfies the condition that the contour information does not overlap as a projection point,
A three-dimensional image processing apparatus including a projection image generation unit that generates a projection image obtained by projecting the contour information of the projection point onto the two-dimensional plane.
前記投影画像生成部が、前記投影点が属する枝を特定する情報を取得し、前記投影画像に含まれる前記輪郭情報に、前記枝を特定する情報を付加する請求項1記載の3次元画像処理装置。 The three-dimensional image processing according to claim 1, wherein the projection image generation unit acquires information for identifying a branch to which the projection point belongs, and adds information for identifying the branch to the contour information included in the projection image. apparatus. 前記投影点特定部が、前記グラフ構造上の1つの点を起点として特定し、前記起点から前記グラフ構造をたどり、予め設定された範囲内に含まれる前記グラフ構造上の点を投影候補点として特定し、前記投影候補点の中から投影点を特定する請求項1または2記載の3次元画像処理装置。 The projection point specifying unit identifies one point on the graph structure as a starting point, traces the graph structure from the starting point, and sets a point on the graph structure included in a preset range as a projection candidate point. The three-dimensional image processing apparatus according to claim 1 or 2 , wherein the projection point is specified and the projection point is specified from the projection candidate points. 前記投影点特定部が、前記グラフ構造上の各点における前記輪郭情報により表される前記管状構造物の輪郭の径および該輪郭の中心間の距離に基づいて、前記投影点を特定する請求項1からのいずれか1項記載の3次元画像処理装置。 Claim that the projection point specifying portion identifies the projection point based on the diameter of the contour of the tubular structure represented by the contour information at each point on the graph structure and the distance between the centers of the contour. The three-dimensional image processing apparatus according to any one of 1 to 3. 前記投影画像と、前記投影画像とは異なる画像との間の位置合わせ処理の結果と前記投影画像の視点情報とに基づいて、前記異なる画像の視点情報を推定する視点情報推定部を備えた請求項1からいずれか1項記載の3次元画像処理装置。 A claim including a viewpoint information estimation unit that estimates the viewpoint information of the different image based on the result of the alignment process between the projected image and an image different from the projected image and the viewpoint information of the projected image. Item 3. The three-dimensional image processing apparatus according to any one of Items 1 to 4. 前記投影画像と、前記投影画像とは異なる画像との間の位置合せ処理の結果に基づいて、前記投影画像に含まれる前記輪郭情報に対応する前記異なる画像に含まれる輪郭情報を推定する輪郭情報推定部を備えた請求項1からいずれか1項記載の3次元画像処理装置。 Contour information that estimates contour information contained in the different image corresponding to the contour information included in the projected image based on the result of alignment processing between the projected image and an image different from the projected image. The three-dimensional image processing apparatus according to any one of claims 1 to 5, further comprising an estimation unit. 前記投影画像とは異なる画像が、前記被検体を撮影した2次元画像である請求項1からいずれか1項記載の3次元画像処理装置。 The three-dimensional image processing apparatus according to any one of claims 1 to 6 , wherein an image different from the projected image is a two-dimensional image obtained by photographing the subject. 前記2次元画像が、内視鏡によって撮影された画像である請求項記載の3次元画像処理装置。 The three-dimensional image processing apparatus according to claim 7 , wherein the two-dimensional image is an image taken by an endoscope. 前記投影画像を表示装置に表示させる表示制御部を備えた請求項1からいずれか1項記載の3次元画像処理装置。 The three-dimensional image processing device according to any one of claims 1 to 8, further comprising a display control unit for displaying the projected image on the display device. 前記管状構造物が気管支である請求項1からいずれか1項記載の3次元画像処理装置。 The three-dimensional image processing apparatus according to any one of claims 1 to 9 , wherein the tubular structure is a bronchus. 前記投影画像生成部は、複数の前記輪郭情報が重なり合わない条件を満たすように、前記投影画像を生成する請求項1から10いずれか1項記載の3次元画像処理装置。 The three-dimensional image processing apparatus according to any one of claims 1 to 10 , wherein the projected image generation unit generates the projected image so as to satisfy the condition that the plurality of contour information does not overlap. 被検体を撮影して得られた3次元画像を取得し、
前記3次元画像に含まれる管状構造物のグラフ構造を生成し、
前記グラフ構造上の各点における前記管状構造物の径および形状を表す輪郭情報を取得し、
前記管状構造物内における視点情報を取得し、
前記視点情報と前記グラフ構造とに基づいて、前記グラフ構造上の各点の中から、該各点の前記輪郭情報を前記視点情報に基づく視点の方向にある2次元平面上に投影した場合に、前記輪郭情報が重なり合わないという条件を満たす点を投影点に特定し、
前記投影点の前記輪郭情報を前記2次元平面上に投影した投影画像を生成する3次元画像処理方法。
Acquire the three-dimensional image obtained by photographing the subject,
A graph structure of the tubular structure included in the three-dimensional image is generated.
The contour information representing the diameter and shape of the tubular structure at each point on the graph structure is acquired.
Obtaining viewpoint information in the tubular structure,
When the contour information of each point is projected onto a two-dimensional plane in the direction of the viewpoint based on the viewpoint information from each point on the graph structure based on the viewpoint information and the graph structure. , The point that satisfies the condition that the contour information does not overlap is specified as the projection point.
A three-dimensional image processing method for generating a projected image in which the contour information of the projection point is projected onto the two-dimensional plane.
コンピュータを、
被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、
前記3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、
前記グラフ構造上の各点における前記管状構造物の径および形状を表す輪郭情報を取得する輪郭情報取得部と、
前記管状構造物内における視点情報を取得する視点情報取得部と、
前記視点情報と前記グラフ構造とに基づいて、前記グラフ構造上の各点の中から、該各点の前記輪郭情報を前記視点情報に基づく視点の方向にある2次元平面上に投影した場合に、前記輪郭情報が重なり合わないという条件を満たす点を投影点に特定する投影点特定部と、
前記投影点の前記輪郭情報を前記2次元平面上に投影した投影画像を生成する投影画像生成部として機能させる3次元画像処理プログラム。
Computer,
A 3D image acquisition unit that acquires a 3D image obtained by photographing a subject, and
A graph structure generator that generates a graph structure of a tubular structure included in the three-dimensional image,
A contour information acquisition unit that acquires contour information representing the diameter and shape of the tubular structure at each point on the graph structure, and
A viewpoint information acquisition unit that acquires viewpoint information in the tubular structure,
When the contour information of each point is projected onto a two-dimensional plane in the direction of the viewpoint based on the viewpoint information from each point on the graph structure based on the viewpoint information and the graph structure. , A projection point specifying unit that specifies a point that satisfies the condition that the contour information does not overlap as a projection point,
A three-dimensional image processing program that functions as a projection image generation unit that generates a projection image obtained by projecting the contour information of the projection point onto the two-dimensional plane.
JP2017182196A 2017-03-29 2017-09-22 3D image processing equipment and methods and programs Active JP6847011B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/906,235 US10475235B2 (en) 2017-03-29 2018-02-27 Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017065096 2017-03-29
JP2017065096 2017-03-29

Publications (2)

Publication Number Publication Date
JP2018167018A JP2018167018A (en) 2018-11-01
JP6847011B2 true JP6847011B2 (en) 2021-03-24

Family

ID=64018129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017182196A Active JP6847011B2 (en) 2017-03-29 2017-09-22 3D image processing equipment and methods and programs

Country Status (1)

Country Link
JP (1) JP6847011B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5028191B2 (en) * 2007-09-03 2012-09-19 オリンパスメディカルシステムズ株式会社 Endoscope device
JP5188879B2 (en) * 2008-05-23 2013-04-24 オリンパスメディカルシステムズ株式会社 Medical equipment
JP5785120B2 (en) * 2012-03-15 2015-09-24 富士フイルム株式会社 Medical image diagnosis support apparatus and method, and program
JP5826082B2 (en) * 2012-03-21 2015-12-02 富士フイルム株式会社 Medical image diagnosis support apparatus and method, and program
JP6254053B2 (en) * 2014-08-13 2017-12-27 富士フイルム株式会社 Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus

Also Published As

Publication number Publication date
JP2018167018A (en) 2018-11-01

Similar Documents

Publication Publication Date Title
US10475235B2 (en) Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
JP5785120B2 (en) Medical image diagnosis support apparatus and method, and program
JP5826082B2 (en) Medical image diagnosis support apparatus and method, and program
JP6273291B2 (en) Image processing apparatus and method
JP5777070B2 (en) Region extraction apparatus, region extraction method, and region extraction program
CN109035141B (en) Rib deployment device and method
US10970875B2 (en) Examination support device, examination support method, and examination support program
CN108320314B (en) Image processing method and device based on CT transverse image and display system
JP6824078B2 (en) Endoscope positioning device, method and program
JP2008212396A (en) Image processor and its program
JP2015066023A (en) Image positioning apparatus, method, and program, and three-dimensional deformation model generation method
US9530238B2 (en) Image processing apparatus, method and program utilizing an opacity curve for endoscopic images
CN110634554A (en) Spine image registration method
CN102573640B (en) Medical image-processing apparatus and medical image processing method
WO2016104082A1 (en) Image processing device and image processing method
JP2020014711A (en) Inspection support device, method, and program
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
JP6820805B2 (en) Image alignment device, its operation method and program
JP5554028B2 (en) Medical image processing apparatus, medical image processing program, and X-ray CT apparatus
JP2012061019A (en) Image processing apparatus, image processing method, and image processing program
JP6847011B2 (en) 3D image processing equipment and methods and programs
WO2015111308A1 (en) Three-dimensional medical image display control device, operation method thereof, and three-dimensional medical image display control program
JP6487999B2 (en) Information processing apparatus, information processing method, and program
US11003946B2 (en) Examination support device, examination support method, and examination support program
JP2017023834A (en) Picture processing apparatus, imaging system, and picture processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201217

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201217

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201225

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210302

R150 Certificate of patent or registration of utility model

Ref document number: 6847011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250