JP6206869B2 - Endoscopic observation support device - Google Patents

Endoscopic observation support device Download PDF

Info

Publication number
JP6206869B2
JP6206869B2 JP2013112396A JP2013112396A JP6206869B2 JP 6206869 B2 JP6206869 B2 JP 6206869B2 JP 2013112396 A JP2013112396 A JP 2013112396A JP 2013112396 A JP2013112396 A JP 2013112396A JP 6206869 B2 JP6206869 B2 JP 6206869B2
Authority
JP
Japan
Prior art keywords
endoscope
virtual
line
observation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013112396A
Other languages
Japanese (ja)
Other versions
JP2014230612A (en
Inventor
健策 森
健策 森
昌宏 小田
昌宏 小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2013112396A priority Critical patent/JP6206869B2/en
Publication of JP2014230612A publication Critical patent/JP2014230612A/en
Application granted granted Critical
Publication of JP6206869B2 publication Critical patent/JP6206869B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Endoscopes (AREA)

Description

本発明は、管腔臓器の3次元画像データに基づいて、その管腔臓器内に挿入された内視鏡による観察を支援する内視鏡観察支援装置に関し、特に、大腸等の管腔臓器の観察を支援する内視鏡観察支援装置を提供することにある。   The present invention relates to an endoscopic observation support apparatus that supports observation using an endoscope inserted into a hollow organ based on three-dimensional image data of the hollow organ, and more particularly to a hollow organ such as a large intestine. An object of the present invention is to provide an endoscope observation support device that supports observation.

近年、医療分野において、X線CT(Computed Tomography)装置や磁気共鳴(MRI;Magnetic Resonance Imaging)装置等によって得られる被検体の画像を用いた診断や検査が広く行われている。例えば、3次元CT画像を利用した大腸ポリープ検査法であるCTコロノグラフィ(Computed Tomography Colonography)が普及しつつある。このCTコロノグラフィでは、大腸のCT画像から突起形状を検出することで、大腸ポリープ等の病変が疑われる部位を発見する。病変が疑われる部位が発見された場合には、肛門から内視鏡を挿入する大腸内視鏡検査が行われる。   In recent years, in the medical field, diagnosis and examination using an image of a subject obtained by an X-ray CT (Computed Tomography) apparatus, a magnetic resonance (MRI) apparatus, or the like has been widely performed. For example, CT colonography (Computed Tomography Colonography), which is a colorectal polyp inspection method using three-dimensional CT images, is becoming popular. In this CT colonography, by detecting the protrusion shape from the CT image of the large intestine, a site where a lesion such as a large intestine polyp is suspected is found. When a suspicious site is found, a colonoscopy is performed in which an endoscope is inserted through the anus.

しかしながら、CTコロノグラフィ等の3次元画像データに基づく検査において発見されたポリープ等の病変が疑われる部位を、それに続く内視鏡検査において同定することは困難である。このため、内視鏡検査において、3次元画像データに基づく検査において発見された病変が疑われる部位まで内視鏡を誘導する内視鏡ナビゲーションが求められる。従来の内視鏡ナビゲーションでは、内視鏡の先端位置が予め撮影されるCT画像におけるどの部位に対応するかを示す位置情報を求め、求められた位置情報に基づいてナビゲーション情報を生成していた。例えば、非特許文献1等に記載された技術がそれである。この技術においては、内視鏡における所定部位に位置センサが設けられ、その内視鏡を用いた内視鏡検査において斯かる位置センサから得られる情報に基づいて、3次元画像データに基づく検査において発見された病変が疑われる部位まで内視鏡を誘導する内視鏡ナビゲーションが行われる。   However, it is difficult to identify a site suspected of having a lesion such as a polyp discovered in an examination based on three-dimensional image data such as CT colonography in a subsequent endoscopic examination. For this reason, in endoscopy, endoscopic navigation for guiding the endoscope to a site where a lesion found in the examination based on the three-dimensional image data is suspected is required. In conventional endoscope navigation, position information indicating which part of a CT image corresponding to the tip position of the endoscope corresponds to position information is obtained, and navigation information is generated based on the obtained position information. . For example, this is the technique described in Non-Patent Document 1 and the like. In this technique, a position sensor is provided at a predetermined site in an endoscope, and in an examination based on three-dimensional image data based on information obtained from the position sensor in an endoscopic examination using the endoscope. Endoscopic navigation is performed to guide the endoscope to a site where a detected lesion is suspected.

蒋 振剛,二村 幸孝,北坂 孝幸,林 雄一郎,伊藤 英治,藤井 正純,永谷 哲也,梶田 泰一,若林 俊彦,森 健策,?軟性神経内視鏡手術ナビゲーションにおける仮想内視鏡視軸と実内視鏡視軸回転誤差の簡便な補正手法,″日本コンピュータ外科学会論文誌(J JSCAS),Vol.12, No.2, pp.65-77(2010/06)Shingo Tsuji, Yukitaka Fumimura, Takayuki Kitasaka, Yuichiro Hayashi, Eiji Ito, Masaharu Fujii, Tetsuya Nagatani, Taiichi Wadabayashi, Toshihiko Wakabayashi, Kensaku Mori, ?? A simple correction method for endoscope axis rotation error, “JSCAS, Vol.12, No.2, pp.65-77 (2010/06) Daisuke Deguchi, Kenta Akiyama, Kensaku Mori, Takayuki Kitasaka, Yasuhito Suenaga, Calvin R Maurer Jr, Hirotsugu Takabatake, Masaki Mori, Hiroshi Natori, ?A method for bronchoscope tracking by combining a position sensor and image registration,″ Computer Aided Surgery, Vol.11, No.3, pp.109-117(2006/05)Daisuke Deguchi, Kenta Akiyama, Kensaku Mori, Takayuki Kitasaka, Yasuhito Suenaga, Calvin R Maurer Jr, Hirotsugu Takabatake, Masaki Mori, Hiroshi Natori,? A method for bronchoscope tracking by combining a position sensor and image registration, ″ Computer Aided Surgery, Vol .11, No.3, pp.109-117 (2006/05)

しかし、前記従来の技術は、脳、耳鼻腔、及び気管支等の比較的変形の少ない臓器に関しては良好に内視鏡の誘導を行い得るものであるが、大腸等の変形しやすい管腔臓器に関しては内視鏡の誘導が困難であるという不具合があった。すなわち、大腸等の変形しやすい管腔臓器に係る内視鏡検査においては、その管腔臓器の形状や長さ等が検査中に様々に変化する。そのため、前記従来の位置センサを単純に利用するのみでは、3次元画像データに基づく検査において発見された病変が疑われる部位まで内視鏡を誘導することが困難であった。すなわち、大腸等の変形しやすい管腔臓器の観察を支援する内視鏡観察支援装置は、未だ開発されていないのが現状であり、そのような変形しやすい管腔臓器の内視鏡ナビゲーションに適した画像表示方法の研究等も行われてはいなかった。   However, although the above-mentioned conventional technique can perform guidance of an endoscope well with respect to organs with relatively little deformation such as the brain, otonasal cavity, and bronchi, it relates to easily deformable luminal organs such as the large intestine. Had a problem that it was difficult to guide the endoscope. That is, in an endoscopic examination related to a deformable luminal organ such as the large intestine, the shape or length of the luminal organ changes variously during the examination. For this reason, it is difficult to guide the endoscope to a site where a lesion found in the examination based on the three-dimensional image data is suspected by simply using the conventional position sensor. In other words, endoscope observation support devices that support observation of easily deformable luminal organs such as the large intestine have not yet been developed, and for endoscopic navigation of such easily deformable luminal organs. There have been no studies on suitable image display methods.

本発明は、以上の事情を背景として為されたものであり、その目的とするところは、大腸等の管腔臓器の観察を支援する内視鏡観察支援装置を提供することにある。   The present invention has been made against the background of the above circumstances, and an object of the present invention is to provide an endoscope observation support apparatus that supports observation of a luminal organ such as the large intestine.

斯かる目的を達成するために、本第1発明の要旨とするところは、予め得られた管腔臓器の3次元画像データに基づいて、その管腔臓器内に挿入された内視鏡による観察を支援する内視鏡観察支援装置であって、前記3次元画像データに基づいて前記管腔臓器の長手方向に沿った仮想芯線を算出する仮想芯線算出部と、前記管腔臓器内に挿入された前記内視鏡の形状を示す内視鏡線を算出する内視鏡線算出部と、前記仮想芯線算出部により算出された前記仮想芯線と前記内視鏡線算出部により算出された前記内視鏡線との対応関係を導出するマッチング処理部と、そのマッチング処理部により導出された対応関係に基づいて前記管腔臓器内における前記内視鏡の観察位置を推定する観察位置推定部と、前記3次元画像データに基づいて前記管腔臓器の仮想展開像を表示させ、前記観察位置推定部により推定される前記内視鏡の観察位置を前記管腔臓器の仮想展開像上に表示させる仮想展開像表示制御部とを、備え、前記仮想展開像表示制御部は、前記観察位置推定部により推定される前記内視鏡の観察位置の誤差に基づいて、前記管腔臓器の仮想展開像における前記内視鏡の観察位置を含む所定範囲の表示を、余の部分とは異なる表示とするものであることを特徴とするものである。 In order to achieve such an object, the gist of the first aspect of the present invention is that observation based on a three-dimensional image data of a hollow organ obtained in advance by an endoscope inserted into the hollow organ is provided. A virtual core calculation unit that calculates a virtual core along the longitudinal direction of the luminal organ based on the three-dimensional image data, and is inserted into the luminal organ An endoscope line calculation unit for calculating an endoscope line indicating the shape of the endoscope; the virtual core line calculated by the virtual core line calculation unit; and the endoscope calculated by the endoscope line calculation unit. A matching processing unit for deriving a correspondence relationship with an endoscope line, an observation position estimation unit for estimating an observation position of the endoscope in the lumen organ based on the correspondence relationship derived by the matching processing unit , The tube based on the three-dimensional image data A virtual developed image display control unit that displays a virtual developed image of an organ and displays the observation position of the endoscope estimated by the observation position estimating unit on the virtual developed image of the luminal organ, and The virtual developed image display control unit includes a predetermined range including the observation position of the endoscope in the virtual developed image of the luminal organ based on an error of the observation position of the endoscope estimated by the observation position estimation unit. The display of is different from the other parts .

このように、前記第1発明によれば、前記3次元画像データに基づいて前記管腔臓器の長手方向に沿った仮想芯線を算出する仮想芯線算出部と、前記管腔臓器内に挿入された前記内視鏡の形状を示す内視鏡線を算出する内視鏡線算出部と、前記仮想芯線算出部により算出された前記仮想芯線と前記内視鏡線算出部により算出された前記内視鏡線との対応関係を導出するマッチング処理部と、そのマッチング処理部により導出された対応関係に基づいて前記管腔臓器内における前記内視鏡の観察位置を推定する観察位置推定部とを、備えたものであることから、大腸等の変形しやすい管腔臓器であっても、その管腔臓器の仮想芯線と前記内視鏡の形状を示す内視鏡線とのマッチングにより、内視鏡による観察の支援を好適に実現することができる。すなわち、大腸等の管腔臓器の観察を支援する内視鏡観察支援装置を提供することができる。また、前記3次元画像データに基づいて前記管腔臓器の仮想展開像を表示させ、前記観察位置推定部により推定される前記内視鏡の観察位置を前記管腔臓器の仮想展開像上に表示させる仮想展開像表示制御部を備えたものであるので、内視鏡による観察位置に対応する管腔臓器の仮想展開像を表示させる実用的な内視鏡ナビゲーションを実現できる。さらに、前記仮想展開像表示制御部は、前記観察位置推定部により推定される前記内視鏡の観察位置の誤差に基づいて、前記管腔臓器の仮想展開像における前記内視鏡の観察位置を含む所定範囲の表示を、余の部分とは異なる表示とするものであるので、内視鏡による観察位置に対応する管腔臓器の仮想展開像を更に分かり易く表示させる内視鏡ナビゲーションを実現できる。 As described above, according to the first aspect of the present invention, the virtual core calculation unit that calculates the virtual core along the longitudinal direction of the hollow organ based on the three-dimensional image data, and the virtual core calculation unit inserted into the hollow organ An endoscope line calculation unit that calculates an endoscope line indicating the shape of the endoscope, the virtual core line calculated by the virtual core line calculation unit, and the endoscope calculated by the endoscope line calculation unit A matching processing unit for deriving a correspondence relationship with a mirror line, and an observation position estimation unit for estimating the observation position of the endoscope in the lumen organ based on the correspondence relationship derived by the matching processing unit, Even if it is a easily deformable luminal organ such as the large intestine, the endoscope is matched by matching the virtual core wire of the luminal organ and the endoscope line indicating the shape of the endoscope. Observation support by . That is, it is possible to provide an endoscope observation support apparatus that supports observation of a luminal organ such as the large intestine. Further, a virtual development image of the luminal organ is displayed based on the three-dimensional image data, and the observation position of the endoscope estimated by the observation position estimation unit is displayed on the virtual development image of the luminal organ. Therefore, practical endoscope navigation for displaying a virtual developed image of a luminal organ corresponding to an observation position by the endoscope can be realized. Further, the virtual developed image display control unit determines the observation position of the endoscope in the virtual developed image of the luminal organ based on an error in the observation position of the endoscope estimated by the observation position estimation unit. Since the display of the predetermined range including the display is different from the other parts, it is possible to realize endoscope navigation that makes it possible to display a virtual developed image of the luminal organ corresponding to the observation position by the endoscope more easily. .

前記第1発明に従属する本第2発明の要旨とするところは、前記仮想芯線算出部により算出された前記仮想芯線に対応する座標系と、前記内視鏡線算出部により算出された前記内視鏡線に対応する座標系との対応付けを行う座標系レジストレーション処理部を備え、前記マッチング処理部は、その座標系レジストレーション処理部による対応付けの結果に基づいて、前記仮想芯線と前記内視鏡線との対応関係を導出するものである。このようにすれば、好適且つ実用的な態様で前記管腔臓器の仮想芯線と前記内視鏡の形状を示す内視鏡線との対応関係を導出できる。   The gist of the second invention subordinate to the first invention is that the coordinate system corresponding to the virtual core wire calculated by the virtual core wire calculating unit and the inner part calculated by the endoscope line calculating unit are used. A coordinate system registration processing unit that performs association with a coordinate system corresponding to an endoscope line, and the matching processing unit, based on a result of association by the coordinate system registration processing unit, The correspondence relationship with the endoscope line is derived. In this way, it is possible to derive the correspondence between the virtual core line of the luminal organ and the endoscope line indicating the shape of the endoscope in a preferable and practical manner.

前記第1発明又は第2発明に従属する本第3発明の要旨とするところは、前記マッチング処理部は、前記仮想芯線算出部により算出された前記仮想芯線について複数のランドマークを検出し、それら複数のランドマークに基づいて前記仮想芯線と前記内視鏡線との対応関係を導出するものである。このようにすれば、好適且つ実用的な態様で前記管腔臓器の仮想芯線と前記内視鏡の形状を示す内視鏡線との対応関係を導出できる。   The gist of the third invention subordinate to the first invention or the second invention is that the matching processing unit detects a plurality of landmarks for the virtual core wire calculated by the virtual core wire calculation unit, and detects them. The correspondence relationship between the virtual core line and the endoscope line is derived based on a plurality of landmarks. In this way, it is possible to derive the correspondence between the virtual core line of the luminal organ and the endoscope line indicating the shape of the endoscope in a preferable and practical manner.

前記第1発明乃至第3発明の何れかに従属する本第4発明の要旨とするところは、前記3次元画像データに基づいて前記管腔臓器の図像を表示させ、前記観察位置推定部により推定される前記内視鏡の観察位置を前記管腔臓器の図像上に表示させる臓器図像表示制御部を備えたものである。このようにすれば、内視鏡による観察位置を、観察対象である管腔臓器の図像上に表示させる実用的な内視鏡ナビゲーションを実現できる。   The gist of the fourth invention according to any one of the first to third inventions is that the image of the luminal organ is displayed based on the three-dimensional image data and is estimated by the observation position estimating unit. And an organ image display control unit for displaying the observation position of the endoscope on the image of the luminal organ. In this way, it is possible to realize practical endoscope navigation in which the observation position by the endoscope is displayed on the image of the luminal organ to be observed.

前記第1発明乃至第4発明の何れかに従属する本第5発明の要旨とするところは、前記3次元画像データに基づいて、前記観察位置推定部により推定される前記内視鏡の観察位置に対応する前記管腔臓器の仮想内視鏡画像を表示させる仮想内視鏡画像表示制御部を備えたものである。このようにすれば、内視鏡による観察位置に対応する管腔臓器の仮想内視鏡画像を表示させる実用的な内視鏡ナビゲーションを実現できる。   The gist of the fifth invention according to any one of the first to fourth inventions is that the observation position of the endoscope estimated by the observation position estimation unit based on the three-dimensional image data. And a virtual endoscopic image display control unit for displaying a virtual endoscopic image of the luminal organ corresponding to. In this way, practical endoscope navigation that displays a virtual endoscopic image of a luminal organ corresponding to an observation position by an endoscope can be realized.

前記第5発明に従属する本第6発明の要旨とするところは、前記仮想内視鏡画像表示制御部は、前記3次元画像データに基づいて、前記観察位置推定部により推定される前記内視鏡の観察位置に対応する前記管腔臓器の全球型仮想内視鏡画像を表示させるものである。このようにすれば、内視鏡による観察位置に対応する管腔臓器の全球型仮想内視鏡画像を表示させる実用的な内視鏡ナビゲーションを実現できる。   The gist of the sixth invention that is dependent on the fifth invention is that the virtual endoscopic image display control unit is estimated by the observation position estimating unit based on the three-dimensional image data. A global virtual endoscopic image of the luminal organ corresponding to the observation position of the mirror is displayed. In this way, it is possible to realize practical endoscope navigation for displaying a global virtual endoscopic image of a luminal organ corresponding to an observation position by an endoscope.

前記第1発明乃至第発明の何れかに従属する本第発明の要旨とするところは、前記3次元画像データに基づいて前記管腔臓器における病変の存在を検出する病変存在検出部と、その病変存在検出部による検出結果を表示させる病変検出結果表示制御部とを、備えたものである。このようにすれば、内視鏡による観察対象である管腔臓器における病変の有無を表示させる実用的な内視鏡ナビゲーションを実現できる。 The subject matter of the seventh invention, which is dependent on any one of the first to sixth inventions, is a lesion presence detector that detects the presence of a lesion in the luminal organ based on the three-dimensional image data, A lesion detection result display control unit for displaying a detection result by the lesion presence detection unit. In this way, it is possible to realize practical endoscope navigation that displays the presence or absence of a lesion in a luminal organ that is an object to be observed by an endoscope.

前記第発明に従属する本第発明の要旨とするところは、前記観察位置推定部により推定される前記内視鏡の観察位置が、前記病変存在検出部により検出された病変付近に達した場合には、その旨の報知を行う病変報知制御部を備えたものである。このようにすれば、内視鏡による観察位置が病変付近に達した場合、その旨の報知を行う実用的な内視鏡ナビゲーションを実現できる。 The gist of the eighth invention subordinate to the seventh invention is that the observation position of the endoscope estimated by the observation position estimation unit has reached the vicinity of the lesion detected by the lesion presence detection unit. In such a case, a lesion notification control unit that performs notification to that effect is provided. In this way, when the observation position by the endoscope reaches the vicinity of the lesion, it is possible to realize practical endoscope navigation that notifies that effect.

本第発明の要旨とするところは、前記第4発明の臓器図像表示制御部により表示される前記管腔臓器の図像、前記第5発明又は第6発明の仮想内視鏡画像表示制御部により表示される前記管腔臓器の仮想内視鏡画像、及び、前記第発明の仮想展開像表示制御部により表示される前記管腔臓器の仮想展開像のうち少なくとも1つを表示させ、前記第発明の病変検出結果表示制御部は、前記第発明の病変存在検出部により検出された病変の存在を、前記管腔臓器の図像、前記管腔臓器の仮想内視鏡画像、及び前記管腔臓器の仮想展開像のうち少なくとも1つにおける、検出された病変に対応する部位に表示させるものである。このようにすれば、内視鏡の観察位置に対応する前記管腔臓器の図像、仮想内視鏡画像、仮想展開像等を表示させると共に、各画像上に検出された病変部位を表示させることで、実用的且つ分かり易い内視鏡ナビゲーションを実現できる。 The gist of the ninth invention is that the image of the luminal organ displayed by the organ image display control unit of the fourth invention, the virtual endoscopic image display control unit of the fifth invention or the sixth invention. Displaying at least one of the displayed virtual endoscopic image of the luminal organ and the virtual development image of the luminal organ displayed by the virtual development image display control unit of the first invention; lesion detection result display control unit of the seventh invention is the presence of lesions detected by the lesion-existence detection portion of the seventh invention, the luminal organ iconography, virtual endoscopic image of the luminal organ, and the tube It is displayed on a site corresponding to the detected lesion in at least one of the virtual developed images of the hollow organ. In this way, the image of the luminal organ corresponding to the observation position of the endoscope, the virtual endoscopic image, the virtual developed image, and the like are displayed, and the detected lesion site is displayed on each image. Thus, practical and easy-to-understand endoscope navigation can be realized.

前記第3発明に従属する本第10発明の要旨とするところは、前記マッチング処理部は、前記仮想芯線の形状に基づいてその仮想芯線における複数のランドマークを検出し、検出された前記仮想芯線における複数のランドマークから前記内視鏡線までの距離に基づいて前記仮想芯線と前記内視鏡線との対応関係を導出するものである。このようにすれば、好適且つ実用的な態様で前記管腔臓器の仮想芯線と前記内視鏡の形状を示す内視鏡線との対応関係を導出できる。 The gist of the tenth aspect of the present invention dependent on the third aspect is that the matching processing unit detects a plurality of landmarks in the virtual core line based on the shape of the virtual core line, and detects the detected virtual core line. The correspondence relationship between the virtual core line and the endoscope line is derived based on the distance from the plurality of landmarks to the endoscope line. In this way, it is possible to derive the correspondence between the virtual core line of the luminal organ and the endoscope line indicating the shape of the endoscope in a preferable and practical manner.

前記第3発明又は第10発明に従属する本第11発明の要旨とするところは、前記マッチング処理部は、前記ランドマーク相互間における前記仮想芯線上の各点及び前記内視鏡線上の各点における対応関係を線形補間により導出するものである。このようにすれば、好適且つ実用的な態様で前記管腔臓器の仮想芯線と前記内視鏡の形状を示す内視鏡線との対応関係を導出できる。 The gist of the eleventh invention subordinate to the third invention or the tenth invention is that the matching processing unit is configured such that each point on the virtual core line and each point on the endoscope line between the landmarks. Is derived by linear interpolation. In this way, it is possible to derive the correspondence between the virtual core line of the luminal organ and the endoscope line indicating the shape of the endoscope in a preferable and practical manner.

前記第3発明、第10発明、及び第11発明の何れかに従属する本第12発明の要旨とするところは、前記マッチング処理部は、相互に隣接する前記ランドマーク相互間に含まれる前記内視鏡線の長さが変更される毎に、前記仮想芯線と前記内視鏡線との対応関係を更新するものである。このようにすれば、前記管腔臓器から内視鏡が引き抜かれたり挿入されたりする毎に、前記管腔臓器の仮想芯線と前記内視鏡の形状を示す内視鏡線との対応関係をリアルタイムで導出できる。 The gist of the twelfth invention dependent on any of the third invention, the tenth invention, and the eleventh invention is that the matching processing unit is included in the inner portion included between the adjacent landmarks. Each time the length of the endoscope line is changed, the correspondence relationship between the virtual core line and the endoscope line is updated. In this way, each time the endoscope is pulled out or inserted from the luminal organ, the correspondence between the virtual core line of the luminal organ and the endoscope line indicating the shape of the endoscope is changed. Derived in real time.

本発明の好適な実施例である内視鏡観察支援装置の構成を例示する図である。It is a figure which illustrates the structure of the endoscope observation assistance apparatus which is a suitable Example of this invention. 図1の内視鏡観察支援装置に備えられた内視鏡の構成を概略的に説明する図である。It is a figure which illustrates roughly the structure of the endoscope with which the endoscope observation assistance apparatus of FIG. 1 was equipped. 図1の内視鏡観察支援装置に備えられた制御機能の一例の要部を説明する機能ブロック線図である。It is a functional block diagram explaining the principal part of an example of the control function with which the endoscope observation assistance apparatus of FIG. 1 was equipped. 図2の内視鏡による好適な観察対象となる大腸の模型である大腸ファントムを例示する正面写真であり、内視鏡挿入前の状態を示している。FIG. 3 is a front view illustrating a large intestine phantom that is a model of a large intestine that is a suitable observation target by the endoscope of FIG. 2, and shows a state before insertion of the endoscope. 図2の内視鏡による好適な観察対象となる大腸の模型である大腸ファントムを例示する正面写真であり、内視鏡が挿入された状態を示している。FIG. 3 is a front view illustrating a large intestine phantom which is a model of a large intestine that is a suitable observation target by the endoscope of FIG. 2, and shows a state in which the endoscope is inserted. 図4に示す状態の大腸ファントムに関してX線CTにより得られた3次元画像の一例である。It is an example of the three-dimensional image obtained by X-ray CT regarding the large intestine phantom of the state shown in FIG. 図6の3次元画像に対応して算出された仮想芯線を例示している。The virtual core wire calculated corresponding to the three-dimensional image of FIG. 6 is illustrated. 管腔臓器である大腸の3次元画像の一例である大腸CT像を示す図である。It is a figure which shows the large intestine CT image which is an example of the three-dimensional image of the large intestine which is a luminal organ. 図8に示す大腸CT像に公知の細線化アルゴリズムが適用されることにより作成された線図形を例示している。The line figure created by applying a well-known thinning algorithm to the large intestine CT image shown in FIG. 8 is illustrated. 図9に示す線図形から偽枝が削除された線図形を例示している。The line figure from which the false branch was deleted from the line figure shown in FIG. 9 is illustrated. 図10に示す線図形上において等間隔に複数の点が取得された様子を例示している。The mode that several points were acquired at equal intervals on the line figure shown in FIG. 10 is illustrated. 図11に示す複数の点に関して公知の3次スプライン補間により得られた仮想芯線を例示している。11 illustrates a virtual core line obtained by a known cubic spline interpolation with respect to a plurality of points shown in FIG. 図1の内視鏡観察支援装置のCPUによる内視鏡線の算出の具体例を説明する図である。It is a figure explaining the specific example of calculation of the endoscope line by CPU of the endoscope observation assistance apparatus of FIG. 図1の内視鏡観察支援装置のCPUにより算出された仮想芯線における所定の箇所の直線化について説明する図である。It is a figure explaining the linearization of the predetermined location in the virtual core wire computed by CPU of the endoscope observation assistance apparatus of FIG. 図1の内視鏡観察支援装置のCPUによるICPレジストレーションの具体例を説明する図であり、座標系の対応付けが行われる前を例示している。It is a figure explaining the specific example of ICP registration by CPU of the endoscope observation assistance apparatus of FIG. 1, and has illustrated before matching of a coordinate system is performed. 図1の内視鏡観察支援装置のCPUによるICPレジストレーションの具体例を説明する図であり、座標系の対応付けが行われた状態を示している。It is a figure explaining the specific example of ICP registration by CPU of the endoscope observation assistance apparatus of FIG. 1, and has shown the state by which matching of the coordinate system was performed. 図1の内視鏡観察支援装置のCPUによる仮想芯線についてのランドマークの検出及び内視鏡線における対応点の導出について説明する図である。It is a figure explaining the detection of the landmark about the virtual core wire by the CPU of the endoscope observation assistance apparatus of FIG. 1, and derivation | leading-out of the corresponding point in an endoscope line. 図1の内視鏡観察支援装置のCPUによる仮想芯線上の各点と内視鏡線上の各点における対応関係を線形補間により導出する処理について説明する図である。It is a figure explaining the process which derives | leads-out the correspondence relationship between each point on a virtual core line and each point on an endoscope line by linear interpolation by CPU of the endoscope observation assistance apparatus of FIG. 図1の内視鏡観察支援装置による観察支援制御に際して、映像表示装置に表示される内視鏡ナビゲーション画面を例示する図である。It is a figure which illustrates the endoscope navigation screen displayed on an image | video display apparatus in the case of observation assistance control by the endoscope observation assistance apparatus of FIG. 図1の内視鏡観察支援装置のCPUにより表示される、管腔臓器の全球型仮想内視鏡画像を例示する図である。It is a figure which illustrates the global virtual endoscopic image of a luminal organ displayed by CPU of the endoscope observation assistance apparatus of FIG. 図1の内視鏡観察支援装置による観察支援制御に際して、映像表示装置に表示される内視鏡ナビゲーション画面の他の一例を示す図である。It is a figure which shows another example of the endoscope navigation screen displayed on an image | video display apparatus in the case of the observation assistance control by the endoscope observation assistance apparatus of FIG. 図1の内視鏡観察支援装置のCPUによる内視鏡ナビゲーション制御の一例の要部を説明するフローチャートである。3 is a flowchart for explaining a main part of an example of endoscope navigation control by a CPU of the endoscope observation support apparatus of FIG. 1. 図22の制御における画像表示処理の一例の要部を説明するフローチャートである。It is a flowchart explaining the principal part of an example of the image display process in control of FIG.

以下、本発明の好適な実施例について、図面を参照しつつ詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例である内視鏡観察支援装置10(以下、単に支援装置10という)の構成を例示する図である。この図1に示すように、本実施例の支援装置10は、中央演算処理装置であるCPU12と、読出専用メモリであるROM14と、随時書込読出メモリであるRAM16と、記憶装置18と、映像表示装置20と、入力装置22と、内視鏡24とを、備えて構成されている。前記CPU12は、前記RAM16の一時記憶機能を利用しつつ前記ROM14に予め記憶された所定のプログラムに基づいて電子情報を処理・制御する所謂マイクロコンピュータである。   FIG. 1 is a diagram illustrating the configuration of an endoscope observation support apparatus 10 (hereinafter simply referred to as support apparatus 10) that is an embodiment of the present invention. As shown in FIG. 1, the support device 10 of this embodiment includes a CPU 12 that is a central processing unit, a ROM 14 that is a read-only memory, a RAM 16 that is a write / read memory as needed, a storage device 18, and an image. A display device 20, an input device 22, and an endoscope 24 are provided. The CPU 12 is a so-called microcomputer that processes and controls electronic information based on a predetermined program stored in advance in the ROM 14 while using the temporary storage function of the RAM 16.

前記記憶装置18は、好適には、情報を記憶可能なハードディスクドライブ等の公知の記憶装置(記憶媒体)である。小型メモリカードや光ディスク等の着脱式記憶媒体であってもよい。前記映像表示装置20は、好適には、TFT(Thin Film Transistor Liquid Crystal)等の公知の表示装置(ディスプレイ)であり、出力インターフェイス26を介して前記CPU12等に接続されている。前記入力装置22は、キーボードやマウス等の公知の入力デバイスであり、入力インターフェイス28を介して前記CPU12等に接続されている。   The storage device 18 is preferably a known storage device (storage medium) such as a hard disk drive capable of storing information. It may be a removable storage medium such as a small memory card or an optical disk. The video display device 20 is preferably a known display device (display) such as a TFT (Thin Film Transistor Liquid Crystal), and is connected to the CPU 12 or the like via an output interface 26. The input device 22 is a known input device such as a keyboard or a mouse, and is connected to the CPU 12 or the like via an input interface 28.

前記内視鏡24は、管腔臓器の観察に用いられる公知の電子スコープ或いはファイバスコープ等であり、好適には、主に大腸の観察に用いられる大腸内視鏡(colonoscope)である。前記内視鏡24は、インターフェイス30を介して前記CPU12等に接続されている。図2は、前記内視鏡24の構成を概略的に説明する図である。この図2に示すように、前記内視鏡24は、長手管状に形成された可曲性(可撓性)の管状部32と、その管状部32における一方の端部(先端部)に設けられた観察部34と、前記管状部32におけるその観察部34とは逆側の端部に設けられた操作部36と、その操作部36から延伸して設けられた接続ケーブル38とを、備えて構成されている。   The endoscope 24 is a known electronic scope or fiberscope used for observing a hollow organ, and preferably a colonoscope mainly used for observing the large intestine. The endoscope 24 is connected to the CPU 12 and the like via an interface 30. FIG. 2 is a diagram schematically illustrating the configuration of the endoscope 24. As shown in FIG. 2, the endoscope 24 is provided at a bendable (flexible) tubular portion 32 formed in a long tubular shape and at one end portion (tip portion) of the tubular portion 32. Provided with an observation part 34, an operation part 36 provided at the end of the tubular part 32 opposite to the observation part 34, and a connection cable 38 provided extending from the operation part 36. Configured.

前記管状部32は、例えば長さ寸法1.2〜1.3m程度、径寸法8〜13mm程度の長手管状に形成されており、前記操作部36に設けられた図示しないアングル(つまみ)等による操作に応じて、前記観察部34が設けられた先端部の指向する方向を自在に変化させられるように構成されている。前記管状部32における前記観察部34の付近には、管腔臓器内における前記観察部34による観察部位を照らすための光源が設けられている。前記内視鏡24がファイバスコープである場合においては、照明用の光を管腔臓器内に導くための別の光ファイバが前記管状部32内に組み込まれている。前記管状部32には、好適には、生検鉗子の出し入れを行うための機構、空気や水を送出或いは吸引するためのパイプ等が組み込まれている。   The tubular portion 32 is formed in a long tubular shape having a length dimension of about 1.2 to 1.3 m and a diameter dimension of about 8 to 13 mm, for example, by an angle (knob) (not shown) provided in the operation section 36. According to the operation, the direction in which the distal end portion provided with the observation unit 34 is directed can be freely changed. In the vicinity of the observation part 34 in the tubular part 32, a light source for illuminating an observation part by the observation part 34 in a hollow organ is provided. When the endoscope 24 is a fiberscope, another optical fiber for guiding illumination light into the luminal organ is incorporated in the tubular portion 32. The tubular portion 32 preferably incorporates a mechanism for taking in and out the biopsy forceps, a pipe for sending and sucking air and water, and the like.

前記観察部34は、前記内視鏡24における画像(被検体の像)の取得部に対応し、前記管状部32における先端部に設けられている。前記内視鏡24が電子スコープである場合において、前記観察部34は、CCD(Charge Coupled Device)等の撮像素子に相当する。前記内視鏡24がファイバスコープである場合において、前記観察部34は、前記管状部32内に設けられたガラス繊維(光ファイバ)に前記画像を取り入れるためのレンズ部に相当する。   The observation unit 34 corresponds to an image (subject image) acquisition unit in the endoscope 24 and is provided at the distal end of the tubular portion 32. When the endoscope 24 is an electronic scope, the observation unit 34 corresponds to an imaging element such as a CCD (Charge Coupled Device). When the endoscope 24 is a fiberscope, the observation unit 34 corresponds to a lens unit for taking the image into a glass fiber (optical fiber) provided in the tubular unit 32.

前記接続ケーブル38は、前記内視鏡24を前記内視鏡支援装置10本体に接続するためのケーブルであり、前記接続ケーブル38における前記操作部36とは逆側の端部には、接続端子40が設けられている。この接続端子40が前記内視鏡支援装置10本体に設けられた対応する接続端子に接続されることで、前記内視鏡24が前記インターフェイス30を介して前記CPU12等に接続される。   The connection cable 38 is a cable for connecting the endoscope 24 to the main body of the endoscope support apparatus 10, and a connection terminal is provided at an end of the connection cable 38 opposite to the operation unit 36. 40 is provided. By connecting the connection terminal 40 to a corresponding connection terminal provided in the main body of the endoscope support apparatus 10, the endoscope 24 is connected to the CPU 12 or the like via the interface 30.

本実施例の内視鏡24において、好適には、複数(本実施例においては4つ)の位置センサ42a、42b、42c、42d(以下、特に区別しない場合には単に位置センサ42という)が前記管状部32に設けられている。図2においては、各位置センサ42が設けられた位置を白抜矢印で示している。この図2に示すように、前記複数の位置センサ42は、好適には、前記管状部32の先端部(観察部34が設けられた側)から所定の間隔(例えば20cm間隔)で配設されている。前記管状部32の先端部に設けられた前記位置センサ42aは、好適には、前記内視鏡24の器具挿入チャンネル内に取り付けられている。前記複数の位置センサ42は、好適には、前記管状部32に内蔵されたものであるが、その管状部32の側面等に固定(外付け)されたものであってもよい。前記複数の位置センサ42は、好適には、公知の磁気式位置センサであり、例えば、各位置センサ42とは別に図示しない発信機が設けられ、その発信機から発信される磁気信号を各位置センサ42が受信することにより各位置センサ42から5次元の情報すなわち3次元の位置情報及び2次元の方向情報が取得され、前記CPU12等に供給されるようになっている。   In the endoscope 24 of the present embodiment, preferably, a plurality (four in the present embodiment) of position sensors 42a, 42b, 42c, 42d (hereinafter simply referred to as the position sensor 42 unless otherwise distinguished) are provided. The tubular portion 32 is provided. In FIG. 2, the position where each position sensor 42 is provided is indicated by a white arrow. As shown in FIG. 2, the plurality of position sensors 42 are preferably arranged at a predetermined interval (for example, an interval of 20 cm) from the distal end portion (the side where the observation portion 34 is provided) of the tubular portion 32. ing. The position sensor 42 a provided at the distal end portion of the tubular portion 32 is preferably attached in the instrument insertion channel of the endoscope 24. The plurality of position sensors 42 are preferably built in the tubular portion 32, but may be fixed (externally attached) to the side surface of the tubular portion 32 or the like. The plurality of position sensors 42 are preferably known magnetic position sensors. For example, a transmitter (not shown) is provided separately from each position sensor 42, and a magnetic signal transmitted from the transmitter is transmitted to each position. By receiving the sensor 42, five-dimensional information, that is, three-dimensional position information and two-dimensional direction information, is acquired from each position sensor 42 and supplied to the CPU 12 or the like.

図1に示すように、前記支援装置10に備えられた記憶装置18には、画像データベース44が設けられている。この画像データベース44には、公知のX線CT(Computed Tomography)装置や磁気共鳴(MRI;Magnetic Resonance Imaging)装置等によって予め得られた被検体の3次元画像データが記憶される。この3次元画像データは、X線CTにより得られたものにおいては、被検体に対して多方向からX線を照射し、被検体を透過してきたX線を検出器で検出して、透過X線量の情報をコンピュータで処理して3次元画像として再構成したものである。前記画像データベース44には、例えば、X線CTや磁気共鳴装置等により得られた被検体の3次元濃淡画像、換言すれば被検体の単位体積であるボクセル毎の画素値(濃度値)が記憶される。前記画像データベース44には、X線CTや磁気共鳴装置等により得られた管腔臓器の3次元画像データが記憶される。好適には、X線CTや磁気共鳴装置等により得られた大腸の3次元画像データが記憶される。   As shown in FIG. 1, an image database 44 is provided in the storage device 18 provided in the support device 10. The image database 44 stores three-dimensional image data of a subject obtained in advance by a known X-ray CT (Computed Tomography) apparatus, magnetic resonance (MRI) apparatus, or the like. In the case where the three-dimensional image data is obtained by X-ray CT, X-rays are irradiated to the subject from multiple directions, the X-rays transmitted through the subject are detected by a detector, and transmitted X The dose information is processed by a computer and reconstructed as a three-dimensional image. The image database 44 stores, for example, a three-dimensional grayscale image of a subject obtained by X-ray CT, a magnetic resonance apparatus, or the like, in other words, a pixel value (density value) for each voxel that is a unit volume of the subject. Is done. The image database 44 stores three-dimensional image data of a luminal organ obtained by X-ray CT, a magnetic resonance apparatus, or the like. Preferably, three-dimensional image data of the large intestine obtained by X-ray CT, a magnetic resonance apparatus or the like is stored.

本実施例の支援装置10は、被検体の管腔臓器に関して予めX線CTや磁気共鳴装置等により得られた前記3次元画像データに基づいて、その管腔臓器内に挿入された前記内視鏡24による観察を支援する制御を行う。好適には、大腸の3次元画像データに基づいて、その大腸内に挿入された前記内視鏡24による観察を支援する制御を行う。すなわち、前記内視鏡24による所定の大腸の観察に際して、その大腸に対応して予め得られて前記画像データベース44に記憶された3次元画像データを読み出し、その3次元画像データに基づいて後述する制御を行うことにより、その大腸内に挿入された前記内視鏡24による観察を支援する。   The support apparatus 10 of the present embodiment is configured so that the endoscope inserted into the hollow organ based on the three-dimensional image data obtained in advance by an X-ray CT, a magnetic resonance apparatus, or the like regarding the hollow organ of the subject. Control to support observation by the mirror 24 is performed. Preferably, based on the three-dimensional image data of the large intestine, control is performed to support observation with the endoscope 24 inserted into the large intestine. That is, when observing a predetermined large intestine with the endoscope 24, three-dimensional image data obtained in advance corresponding to the large intestine and stored in the image database 44 is read out, and described later based on the three-dimensional image data. By performing the control, observation by the endoscope 24 inserted into the large intestine is supported.

図4及び図5は、前記内視鏡24による好適な観察対象となる大腸の模型である大腸ファントム(phantom)80を例示する正面写真であり、図4は前記内視鏡24を挿入していない状態、図5は前記内視鏡24を挿入した状態をそれぞれ示している。図5においては、大腸ファントム80内に挿入された前記内視鏡24(管状部32)を破線で示している。図6は、図4に示す状態の大腸ファントム80に関してX線CTにより得られた3次元画像82の一例を示している。図4及び図5に比較して示すように、大腸等の変形しやすい管腔臓器を対象とする内視鏡検査においては、その管腔臓器の形状や長さ等が検査中に様々に変化する。すなわち、図4に示すような大腸に前記内視鏡24を挿入することで、S状結腸や横行結腸における湾曲していた部分が前記内視鏡24の管状部32の曲がりに沿って変形し、その部分における襞が密になると共に図5に示すように正面視における形状が大きく変化する。そのため、図6に示すような3次元画像82に対応する画像データに基づいて大腸の病変が疑われる部位が発見された場合であっても、従来の技術では斯かる病変が疑われる部位の仮想内視鏡画像を実内視鏡画像と対応付けて表示させることや、前記病変が疑われる部位まで前記内視鏡24を誘導することが困難であった。本実施例の支援装置10は、斯かる問題点を前提とし、大腸等の変形しやすい管腔臓器を対象とする内視鏡検査においても好適にその観察を支援できるように、以下に詳述するような制御を行う。   4 and 5 are front photographs illustrating a large intestine phantom 80, which is a model of the large intestine that is a suitable observation target by the endoscope 24, and FIG. 4 shows the endoscope 24 inserted therein. FIG. 5 shows a state where the endoscope 24 is inserted. In FIG. 5, the endoscope 24 (tubular portion 32) inserted into the large intestine phantom 80 is indicated by a broken line. FIG. 6 shows an example of a three-dimensional image 82 obtained by X-ray CT for the large intestine phantom 80 in the state shown in FIG. As shown in comparison with FIGS. 4 and 5, in an endoscopic examination for a deformable luminal organ such as the large intestine, the shape and length of the luminal organ changes variously during the examination. To do. That is, by inserting the endoscope 24 into the large intestine as shown in FIG. 4, the curved portion of the sigmoid colon or the transverse colon is deformed along the bend of the tubular portion 32 of the endoscope 24. The wrinkles at that portion become dense and the shape in front view changes greatly as shown in FIG. Therefore, even when a site suspected of having a large intestine lesion is found based on image data corresponding to the three-dimensional image 82 as shown in FIG. It is difficult to display an endoscopic image in association with an actual endoscopic image or to guide the endoscope 24 to a site where the lesion is suspected. The support device 10 according to the present embodiment is based on the above problems, and will be described in detail below so that the observation can be favorably supported even in an endoscopic examination for a deformable luminal organ such as the large intestine. Control to do.

図3は、前記支援装置10に備えられた制御機能の一例の要部を説明する機能ブロック線図である。この図3に示す仮想芯線算出部50、内視鏡線算出部52、マッチング処理部54、観察位置推定部60、病変存在検出部62、病変報知制御部64、及び画像表示制御部66は、好適には、何れも前記CPU12に機能的に備えられたものであるが、各制御部が個別に複数のCPUやコンピュータに設けられると共に相互に通信が可能に構成されたものであってもよい。また、前記各制御部のうち一部が前記支援装置10とは別の制御装置に備えられたものであってもよい。例えば、前記病変報知制御部64及び画像表示制御部66が前記支援装置10とは別の装置(例えば、表示専用の装置)に備えられたものであってもよい。   FIG. 3 is a functional block diagram illustrating a main part of an example of a control function provided in the support device 10. The virtual core calculation unit 50, the endoscope line calculation unit 52, the matching processing unit 54, the observation position estimation unit 60, the lesion presence detection unit 62, the lesion notification control unit 64, and the image display control unit 66 shown in FIG. Preferably, all of them are functionally provided in the CPU 12, but each control unit may be individually provided in a plurality of CPUs or computers and configured to be able to communicate with each other. . Further, a part of each control unit may be provided in a control device different from the support device 10. For example, the lesion notification control unit 64 and the image display control unit 66 may be provided in a device different from the support device 10 (for example, a display-dedicated device).

前記仮想芯線算出部50は、前記画像データベース44に記憶された3次元画像データに基づいて、その3次元画像データに対応する管腔臓器の長手方向に沿った仮想芯線を算出する。この仮想芯線は、前記3次元画像データに対応する管腔臓器の大まかな中心線に相当するものである。前記仮想芯線算出部50は、例えば、前記3次元画像データから対象となる管腔臓器の領域を抽出し、抽出された管腔臓器領域から前記管腔臓器の大まかな中心線を表す前記仮想芯線を算出する。   The virtual core calculation unit 50 calculates a virtual core along the longitudinal direction of the luminal organ corresponding to the three-dimensional image data based on the three-dimensional image data stored in the image database 44. This virtual core line corresponds to a rough center line of the hollow organ corresponding to the three-dimensional image data. The virtual core calculation unit 50 extracts, for example, a target luminal organ region from the three-dimensional image data, and the virtual skeleton representing a rough center line of the luminal organ from the extracted luminal organ region. Is calculated.

図8は、管腔臓器である大腸の3次元画像の一例である大腸CT像84を示す図である。この図8に示す大腸CT像84に対応する3次元画像データを対象とする前記仮想芯線算出部50による仮想芯線の導出の具体例を、図9〜図12を用いて説明する。先ず、図8に示す大腸CT像84に対応する3次元画像データに基づいて、その3次元画像データに対応する大腸の領域(大腸領域)が公知の領域拡張法で抽出される。例えば、前記3次元画像データにおけるCT値が−600HU以下の部分が大腸領域として抽出される。次に、抽出された大腸領域の中心付近を通る線図形が作成される。例えば、抽出された大腸領域に公知の細線化アルゴリズムが適用されることにより、その中心付近を通る線図形が作成される。図9は、斯かる処理により作成された線図形86を例示している。次に、作成された線図形86における偽枝が削除される。すなわち、連続して最も長く延伸する主線図形(曲線)から分岐する比較的短い線図形が削除される。図10は、斯かる処理により偽枝が削除された線図形88を例示している。次に、偽枝が削除された線図形88上において等間隔に複数の点が取得される。図11は、斯かる処理により取得された複数の点90を例示している。次に、取得された複数の点90に関して公知の3次スプライン補間により滑らかな仮想芯線が算出される。すなわち、取得された複数の点90を3次スプライン補間の制御点として図12に示すような仮想芯線92が算出される。以上のようにして算出された仮想芯線92は、例えば点列pC iC(iC=1,・・・,IC)として表現される。 FIG. 8 is a view showing a large intestine CT image 84 which is an example of a three-dimensional image of the large intestine which is a luminal organ. A specific example of the derivation of the virtual core line by the virtual core line calculation unit 50 for the three-dimensional image data corresponding to the large intestine CT image 84 shown in FIG. 8 will be described with reference to FIGS. First, based on the three-dimensional image data corresponding to the large intestine CT image 84 shown in FIG. 8, the large intestine region (large intestine region) corresponding to the three-dimensional image data is extracted by a known region expansion method. For example, a portion having a CT value of −600 HU or less in the three-dimensional image data is extracted as a large intestine region. Next, a line figure passing near the center of the extracted large intestine region is created. For example, by applying a known thinning algorithm to the extracted large intestine region, a line figure passing through the vicinity of the center is created. FIG. 9 exemplifies a line figure 86 created by such processing. Next, the false branch in the created line figure 86 is deleted. That is, the relatively short line figure branched from the main line figure (curve) that continuously extends the longest is deleted. FIG. 10 illustrates a line figure 88 from which false branches have been deleted by such processing. Next, a plurality of points are acquired at equal intervals on the line figure 88 from which the false branches have been deleted. FIG. 11 illustrates a plurality of points 90 obtained by such processing. Next, a smooth virtual core line is calculated for the obtained plurality of points 90 by known cubic spline interpolation. That is, a virtual core 92 as shown in FIG. 12 is calculated using the acquired plurality of points 90 as control points for cubic spline interpolation. The virtual core wire 92 calculated as described above is expressed as, for example, a point sequence p C iC (i C = 1,..., I C ).

前記内視鏡線算出部52は、前記管腔臓器内に挿入された前記内視鏡24の形状を示す内視鏡線を算出する。この内視鏡線は、好適には、前記内視鏡24の管状部32の大まかな中心線に相当するものである。すなわち、前記内視鏡線算出部52は、前記管腔臓器内に挿入された前記内視鏡24の管状部32の形状を示す内視鏡線を算出する。好適には、前記複数の位置センサ42それぞれにより検出される位置情報及び方向情報に基づいて、公知のエルミート(Hermite)スプライン補間により前記内視鏡線を算出する。エルミートスプライン補間によれば、制御点における位置及び方向を反映した補間曲線を作成できる。前記内視鏡線算出部52は、好適には、前記複数の位置センサ42それぞれの検出結果を制御点として、各位置センサ42それぞれにより検出される位置情報及び方向情報に基づくエルミートスプライン補間を行う。更に好適には、前記3次元画像データから検出された被検体の肛門の位置を、前記エルミートスプライン補間における制御点に追加する。更に好適には、予め実験的に求められた前記管状部32の性質(曲がりやすさ等)を考慮し、前記エルミートスプライン補間におけるパラメータを決定する。   The endoscope line calculation unit 52 calculates an endoscope line indicating the shape of the endoscope 24 inserted into the lumen organ. This endoscope line preferably corresponds to a rough center line of the tubular portion 32 of the endoscope 24. That is, the endoscope line calculation unit 52 calculates an endoscope line indicating the shape of the tubular portion 32 of the endoscope 24 inserted into the luminal organ. Preferably, the endoscope line is calculated by known Hermite spline interpolation based on position information and direction information detected by each of the plurality of position sensors 42. According to Hermite spline interpolation, an interpolation curve reflecting the position and direction at the control point can be created. Preferably, the endoscope line calculation unit 52 performs Hermite spline interpolation based on position information and direction information detected by each position sensor 42, using detection results of the plurality of position sensors 42 as control points. . More preferably, the position of the anus of the subject detected from the three-dimensional image data is added to the control point in the Hermitian spline interpolation. More preferably, the parameters for the Hermite spline interpolation are determined in consideration of the properties (e.g., ease of bending) of the tubular portion 32 obtained experimentally in advance.

図13は、前記内視鏡線算出部52による内視鏡線の算出の具体例を説明する図である。先ず、前記複数の位置センサ42それぞれにより検出される位置情報及び方向情報が取得され、図13(a)に示すように複数の制御点94a、94b、94c、94d(以下、特に区別しない場合には単に制御点94という)が定められる。図13に示す例において、前記制御点94aは前記位置センサ42aの検出結果に、前記制御点94bは前記位置センサ42bの検出結果に、前記制御点94cは前記位置センサ42cの検出結果に、前記制御点94dは前記位置センサ42dの検出結果に、それぞれ対応している。次に、前記複数の制御点94a〜94dに関してエルミートスプライン補間が行われる。このエルミートスプライン補間において、好適には、予め実験的に求められた前記管状部32の性質が考慮される。図13(b)は、斯かる処理により得られたスプライン補間曲線96を例示している。次に、前記3次元画像データから検出された被検体の肛門の位置を示す制御点94eが追加され、前記複数の制御点94a〜94eに関してエルミートスプライン補間が行われる。斯かる処理により、前記内視鏡24の形状を表す図13(c)に示すような内視鏡線98が算出される。以上のようにして算出された内視鏡線98は、例えば点列pS iS(iS=1,・・・,IS)として表現される。 FIG. 13 is a diagram for explaining a specific example of calculation of an endoscope line by the endoscope line calculation unit 52. First, position information and direction information detected by each of the plurality of position sensors 42 are acquired, and a plurality of control points 94a, 94b, 94c, 94d (hereinafter, unless otherwise distinguished) as shown in FIG. Is simply referred to as a control point 94). In the example shown in FIG. 13, the control point 94a is the detection result of the position sensor 42a, the control point 94b is the detection result of the position sensor 42b, and the control point 94c is the detection result of the position sensor 42c. The control points 94d correspond to the detection results of the position sensor 42d, respectively. Next, Hermite spline interpolation is performed on the plurality of control points 94a to 94d. In this Hermite spline interpolation, preferably, the properties of the tubular portion 32 obtained experimentally in advance are taken into consideration. FIG. 13B illustrates a spline interpolation curve 96 obtained by such processing. Next, a control point 94e indicating the position of the anus of the subject detected from the three-dimensional image data is added, and Hermite spline interpolation is performed on the plurality of control points 94a to 94e. By such processing, an endoscope line 98 as shown in FIG. 13C representing the shape of the endoscope 24 is calculated. The endoscope line 98 calculated as described above is expressed as, for example, a point sequence p S iS (i S = 1,..., I S ).

前記マッチング処理部54は、前記仮想芯線算出部50により算出された仮想芯線と、前記内視鏡線算出部52により算出された内視鏡線との対応関係を導出する。換言すれば、前記管腔臓器の長手方向に沿った仮想芯線と、その管腔臓器内に挿入された前記内視鏡の形状を示す内視鏡線とのマッチングを行う。好適には、被検体の大腸に関する処理において、前記内視鏡24の先端部(観察部34)が盲腸まで挿入された状態における内視鏡線を対象として、その内視鏡線と前記仮想芯線との対応関係を導出する。斯かる処理を行うため、図3に示すように、前記マッチング処理部54は、座標系レジストレーション処理部56及び線レジストレーション処理部58を備えている。図7は、図6の3次元画像82に対応して前記仮想芯線算出部50により算出された仮想芯線100を例示している。以下、この仮想芯線100と、図13(c)に例示する内視鏡線98との対応関係の導出について、前記座標系レジストレーション処理部56及び線レジストレーション処理部58の処理の具体例を説明する。   The matching processing unit 54 derives a correspondence relationship between the virtual core line calculated by the virtual core line calculation unit 50 and the endoscope line calculated by the endoscope line calculation unit 52. In other words, matching is performed between a virtual core line along the longitudinal direction of the hollow organ and an endoscope line indicating the shape of the endoscope inserted into the hollow organ. Preferably, in the processing relating to the large intestine of the subject, the endoscope line and the virtual core line are targeted for an endoscope line in a state where the distal end portion (observation unit 34) of the endoscope 24 is inserted up to the cecum. The correspondence relationship is derived. In order to perform such processing, as shown in FIG. 3, the matching processing unit 54 includes a coordinate system registration processing unit 56 and a line registration processing unit 58. FIG. 7 illustrates a virtual core 100 calculated by the virtual core calculator 50 corresponding to the three-dimensional image 82 of FIG. Hereinafter, specific examples of processing of the coordinate system registration processing unit 56 and the line registration processing unit 58 for deriving the correspondence relationship between the virtual core line 100 and the endoscope line 98 illustrated in FIG. explain.

前記座標系レジストレーション処理部56は、前記仮想芯線算出部50により算出された前記仮想芯線に対応する座標系と、前記内視鏡線算出部52により算出された前記内視鏡線に対応する座標系との対応付けを行う。前記3次元画像と前記位置センサ42とはそれぞれ異なる座標系を持つため、前記仮想芯線算出部50により算出された前記仮想芯線と前記内視鏡線算出部52により算出された前記内視鏡線とは同様にそれぞれ異なる座標系を持つ。従って、前記仮想芯線と前記内視鏡線との対応関係の導出においては、それらの座標系の対応付けが必要とされる。前記座標系レジストレーション処理部56は、好適には、公知のICPアルゴリズムを利用したICPレジストレーションにより前記仮想芯線に対応する座標系と前記内視鏡線に対応する座標系との対応付けを行う。このICPレジストレーションについては、「Paul J. Besl and Neil D. McKay, “A method for registration of 3-D shapes,”IEEE Trans. PAMI, vol.14, no.2, 1992.」に詳しい。   The coordinate system registration processing unit 56 corresponds to the coordinate system corresponding to the virtual core line calculated by the virtual core line calculation unit 50 and the endoscope line calculated by the endoscope line calculation unit 52. Performs association with the coordinate system. Since the three-dimensional image and the position sensor 42 have different coordinate systems, the virtual core line calculated by the virtual core line calculation unit 50 and the endoscope line calculated by the endoscope line calculation unit 52 are used. Each has a different coordinate system. Accordingly, in deriving the correspondence between the virtual core line and the endoscope line, it is necessary to associate the coordinate systems thereof. The coordinate system registration processing unit 56 preferably associates the coordinate system corresponding to the virtual core line with the coordinate system corresponding to the endoscope line by ICP registration using a known ICP algorithm. . This ICP registration is detailed in “Paul J. Besl and Neil D. McKay,“ A method for registration of 3-D shapes, ”IEEE Trans. PAMI, vol. 14, no. 2, 1992.”.

前記ICPレジストレーションにおいて、好適には、前記仮想芯線100及び前記内視鏡線98がそれぞれ点列で表現される。例えば、前記仮想芯線100が点列pC iC(iC=1,・・・,IC)として表現され、前記内視鏡線98が点列pS iS(iS=1,・・・,IS)として表現される。次に、前記内視鏡線98に対応する点列に回転及び平行移動が適用され、前記仮想芯線100に対応する点列に近づけられる。そして、2つの点列間の距離が最も小さくなる場合における回転及び平行移動から、前記内視鏡線98の点列に係る変換行列が算出される。 In the ICP registration, preferably, the virtual core line 100 and the endoscope line 98 are each represented by a point sequence. For example, the virtual core line 100 is represented as a point sequence p C iC (i C = 1,..., I C ), and the endoscope line 98 is represented by a point sequence p S iS (i S = 1 ,. , I S ). Next, rotation and translation are applied to the point sequence corresponding to the endoscope line 98 to bring it close to the point sequence corresponding to the virtual core line 100. Then, a transformation matrix related to the point sequence of the endoscope line 98 is calculated from the rotation and translation when the distance between the two point sequences is the smallest.

前記座標系レジストレーション処理部56は、好適には、前記仮想芯線100における所定の箇所の芯線を直線化した後、前記ICPレジストレーションを行う。図14は、前記仮想芯線100における所定の箇所の直線化について説明する図である。前記座標系レジストレーション処理部56は、好適には、前記ICPレジストレーションの前処理として、予め定められた、前記仮想芯線100において大きく屈曲する箇所の芯線を直線化する。好適には、前記仮想芯線100における横行結腸及びS状結腸に対応する2箇所の芯線を直線化する。例えば、図14に示す例において、破線で囲繞して示す横行結腸に対応する芯線102及びS状結腸に対応する芯線104をそれぞれ直線化する。紙面向かって右側の図は、前記2箇所における芯線102、104が直線化された仮想芯線100を示している(直線化前の芯線を一点鎖線で示している)。被検体の大腸に前記内視鏡24を挿入する場合、横行結腸及びS状結腸は大きく屈曲していることに加え、図4及び図5に対比して示すように前記内視鏡24が挿入されると屈曲がのばされて正面視において直線に近い形状に変形させられる。一方、大腸における余の部分すなわち下行結腸及び上行結腸等は元々直線に近い形状であり、前記内視鏡24が挿入されもその形状が大きくは変化しない。従って、斯かる大腸内視鏡検査における大腸の変形の特性を踏まえ、前記横行結腸に対応する芯線102及びS状結腸に対応する芯線104をそれぞれ直線化することで、前記ICPレジストレーションによる対応付けに関してより好ましい結果が得られる。   The coordinate system registration processing unit 56 preferably performs the ICP registration after linearizing a core wire at a predetermined location in the virtual core wire 100. FIG. 14 is a diagram for explaining linearization of a predetermined portion in the virtual core wire 100. The coordinate system registration processing unit 56 preferably linearizes a predetermined core line that is largely bent in the virtual core line 100 as pre-processing for the ICP registration. Preferably, two core lines corresponding to the transverse colon and the sigmoid colon in the virtual core line 100 are linearized. For example, in the example shown in FIG. 14, the core wire 102 corresponding to the transverse colon and the core wire 104 corresponding to the sigmoid colon surrounded by a broken line are respectively linearized. The drawing on the right side of the drawing shows a virtual core wire 100 in which the core wires 102 and 104 at the two locations are straightened (the core wire before straightening is indicated by a one-dot chain line). When the endoscope 24 is inserted into the large intestine of the subject, the transverse colon and the sigmoid colon are greatly bent, and the endoscope 24 is inserted as shown in comparison with FIGS. Then, the bending is extended and the shape is changed to a shape close to a straight line when viewed from the front. On the other hand, the remaining part of the large intestine, that is, the descending colon, the ascending colon, and the like originally have a shape that is almost straight, and even when the endoscope 24 is inserted, the shape does not change greatly. Therefore, based on the characteristics of large intestine deformation in such colonoscopy, the core wire 102 corresponding to the transverse colon and the core wire 104 corresponding to the sigmoid colon are respectively linearized, thereby making correspondence by the ICP registration. More favorable results are obtained.

前記座標系レジストレーション処理部56は、好適には、前記仮想芯線100及び内視鏡線98それぞれにおける端点(両端部の点)を相互に対応付けて前記ICPレジストレーションを行う。ここで、大腸が観察対象である場合において、好適には、前記仮想芯線100における両端部の点は盲腸及び肛門に対応する。前記内視鏡24が大腸における盲腸まで挿入された状態において、好適には、前記内視鏡線98における両端部の点は同様に盲腸及び肛門に対応する。従って、前記座標系レジストレーション処理部56は、好適には、前記仮想芯線100及び内視鏡線98それぞれの両端における盲腸及び肛門に対応する点を相互に対応付けて前記ICPレジストレーションを行う。   The coordinate system registration processing unit 56 preferably performs the ICP registration by associating end points (points at both ends) of the virtual core line 100 and the endoscope line 98 with each other. Here, when the large intestine is an observation target, the points at both ends of the virtual core wire 100 preferably correspond to the cecum and anus. In a state where the endoscope 24 is inserted up to the cecum in the large intestine, preferably, the points at both ends of the endoscope line 98 correspond to the cecum and anus as well. Therefore, the coordinate system registration processing unit 56 preferably performs the ICP registration by associating points corresponding to the cecum and anus at both ends of the virtual core line 100 and the endoscope line 98 with each other.

図15及び図16は、前記座標系レジストレーション処理部56によるICPレジストレーションの具体例を説明する図であり、図15は前記仮想芯線100の座標系と前記内視鏡線98の座標系との対応付けが行われる前の状態を、図16は座標系の対応付けが行われた状態をそれぞれ示している。図15及び図16においては、区別のために前記仮想芯線100を実線で、前記内視鏡線98を破線でそれぞれ示している。図15に示す状態においては、前記仮想芯線100の座標系と前記内視鏡線98の座標系との対応付けが行われていない。この図15に示す状態から、前記仮想芯線100に対して前記内視鏡線98を回転及び平行移動させると、その内視鏡線98に対応する点列が前記仮想芯線100に対応する点列に近づけられる。ここで、好適には、図16に示すように、前記仮想芯線100及び内視鏡線98それぞれにおける端点(両端部の点)が相互に対応付けられる。すなわち、前記仮想芯線100及び内視鏡線98それぞれにおける盲腸及び肛門に対応する点が相互に対応付けられる。そして、前記仮想芯線100に対応する点列と前記内視鏡線98に対応する点列との距離が最も小さくなる場合における前記内視鏡線98の回転及び平行移動から、前記内視鏡線98の点列に係る変換行列が算出される。このようにして導出される変換行列が、前記仮想芯線100の座標系と前記内視鏡線98の座標系との対応付けを行うための関係に相当する。以上の処理により、手動(人的作業)で対応点を求める等の手間を要することなく自動的に前記仮想芯線100の座標系と前記内視鏡線98の座標系とのレジストレーションが実現される。この座標系のレジストレーションは、所定の管腔臓器を対象とする前記支援装置10による観察支援に際して少なくとも1回実行すれば足り、必ずしも複数回実行されなくともよい。   15 and 16 are diagrams for explaining a specific example of ICP registration by the coordinate system registration processing unit 56. FIG. 15 shows the coordinate system of the virtual core line 100 and the coordinate system of the endoscope line 98. FIG. 16 shows a state before the coordinate system is associated, and FIG. 16 shows a state where the coordinate system is associated. In FIG. 15 and FIG. 16, the virtual core wire 100 is indicated by a solid line and the endoscope line 98 is indicated by a broken line for distinction. In the state shown in FIG. 15, the coordinate system of the virtual core line 100 is not associated with the coordinate system of the endoscope line 98. From the state shown in FIG. 15, when the endoscope line 98 is rotated and translated with respect to the virtual core line 100, the point sequence corresponding to the endoscopic line 98 corresponds to the virtual core line 100. To be close to. Here, preferably, as shown in FIG. 16, end points (points at both ends) of the virtual core wire 100 and the endoscope line 98 are associated with each other. That is, points corresponding to the cecum and anus in the virtual core line 100 and the endoscope line 98 are associated with each other. Then, from the rotation and translation of the endoscope line 98 when the distance between the point sequence corresponding to the virtual core line 100 and the point sequence corresponding to the endoscope line 98 is the smallest, the endoscope line A transformation matrix related to 98 point sequences is calculated. The transformation matrix derived in this way corresponds to the relationship for associating the coordinate system of the virtual core line 100 with the coordinate system of the endoscope line 98. With the above processing, registration between the coordinate system of the virtual core line 100 and the coordinate system of the endoscope line 98 is automatically realized without requiring manual labor (manual operation) to obtain corresponding points. The This registration of the coordinate system may be performed at least once for the observation support by the support apparatus 10 for a predetermined luminal organ, and may not be performed a plurality of times.

前記線レジストレーション処理部58は、前記座標系レジストレーション処理部56による対応付けの結果に基づいて、前記仮想芯線算出部50により算出された前記仮想芯線100と前記内視鏡線算出部52により算出された前記内視鏡線98との対応関係を導出する。換言すれば、前記仮想芯線100に対して座標系の対応付けが行われた前記内視鏡線98及び前記仮想芯線100に関して、前記前記仮想芯線100上の各点と、前記内視鏡線98上の各点との間で対応関係を作成する。好適には、前記仮想芯線算出部50により算出された前記仮想芯線100について複数のランドマークを検出し、それら複数のランドマークに基づいて前記仮想芯線100と前記内視鏡線98との対応関係を導出する。   The line registration processing unit 58 uses the virtual core line 100 calculated by the virtual core calculation unit 50 and the endoscope line calculation unit 52 based on the result of association by the coordinate system registration processing unit 56. A correspondence relationship with the calculated endoscope line 98 is derived. In other words, regarding the endoscope line 98 and the virtual core line 100 in which the coordinate system is associated with the virtual core line 100, each point on the virtual core line 100 and the endoscope line 98. Create a correspondence between each point above. Preferably, a plurality of landmarks are detected for the virtual core wire 100 calculated by the virtual core wire calculation unit 50, and the correspondence relationship between the virtual core wire 100 and the endoscope line 98 based on the plurality of landmarks. Is derived.

図17は、前記線レジストレーション処理部58による前記仮想芯線100についてのランドマークの検出及び前記内視鏡線98における対応点の導出について説明する図である。前記線レジストレーション処理部58は、好適には、前記仮想芯線100の形状に基づいてその仮想芯線100における複数のランドマークを検出する。例えば、前記仮想芯線100上の位置と、各位置における芯線の曲率とに基づいて、その仮想芯線100における複数のランドマークを検出する。大腸を対象とする処理において、好適には、図17に示すように、(a)前記仮想芯線100における盲腸に相当するランドマーク106a、(b)前記仮想芯線100における肝湾曲に相当するランドマーク106b、(c)前記仮想芯線100における脾湾曲に相当するランドマーク106c、(d)前記仮想芯線100におけるS状結腸と下行結腸との結合部に相当するランドマーク106d、及び(e)前記仮想芯線100における肛門に相当するランドマーク106eの5点のランドマーク106a〜106e(以下、特に区別しない場合には単にランドマーク106という)を検出する。   FIG. 17 is a diagram for explaining detection of landmarks for the virtual core wire 100 and derivation of corresponding points in the endoscope line 98 by the line registration processing unit 58. The line registration processing unit 58 preferably detects a plurality of landmarks in the virtual core wire 100 based on the shape of the virtual core wire 100. For example, a plurality of landmarks in the virtual core wire 100 are detected based on the position on the virtual core wire 100 and the curvature of the core wire at each position. In the process for the large intestine, preferably, as shown in FIG. 17, (a) a landmark 106 a corresponding to the cecum in the virtual core 100, and (b) a landmark corresponding to liver curvature in the virtual core 100. 106b, (c) a landmark 106c corresponding to the splenic curvature in the virtual core wire 100, (d) a landmark 106d corresponding to a connecting portion between the sigmoid colon and the descending colon in the virtual core wire 100, and (e) the virtual. The five landmarks 106a to 106e of the landmark 106e corresponding to the anus in the core wire 100 (hereinafter simply referred to as the landmark 106 unless otherwise distinguished) are detected.

図17においては、前記ランドマーク106a及び106eを丸印で、前記ランドマーク106b、106c、106dを四角印でそれぞれ示している。前記盲腸に相当するランドマーク106aは、前記仮想芯線100における端点(盲腸側の端点)に対応する。前記肝湾曲に相当するランドマーク106bは、例えば、紙面上下方向をz軸方向とした場合において(紙面上方向をz軸の正方向とする、以下の説明において同じ)、上行結腸と横行結腸との間においてz座標が極大となる点に対応する。前記脾湾曲に相当するランドマーク106cは、例えば、横行結腸と下行結腸の間においてz座標が極大となる点に対応する。前記S状結腸と下行結腸との結合部に相当するランドマーク106dは、例えば、S状結腸と下行結腸との結合部付近においてz座標が極小となる点に対応する。前記肛門に相当するランドマーク106eは、前記仮想芯線100における端点(肛門側の端点)に対応する。   In FIG. 17, the landmarks 106a and 106e are indicated by circles, and the landmarks 106b, 106c and 106d are indicated by squares. A landmark 106 a corresponding to the cecum corresponds to an end point (end point on the cecum side) in the virtual core wire 100. The landmark 106b corresponding to the liver curvature is, for example, when the vertical direction of the paper is the z-axis direction (the upper direction of the paper is the positive direction of the z-axis, the same in the following description), the ascending colon and the transverse colon Corresponds to the point at which the z coordinate becomes maximal. The landmark 106c corresponding to the splenic curve corresponds to, for example, a point where the z coordinate is maximum between the transverse colon and the descending colon. The landmark 106d corresponding to the connecting portion between the sigmoid colon and the descending colon corresponds to, for example, a point where the z coordinate is minimized in the vicinity of the connecting portion between the sigmoid colon and the descending colon. The landmark 106e corresponding to the anus corresponds to an end point (an anus end point) in the virtual core wire 100.

前記線レジストレーション処理部58は、好適には、前記のようにして検出された前記仮想芯線100における複数のランドマーク106から前記内視鏡線98までの距離に基づいて前記仮想芯線100と前記内視鏡線98との対応関係を導出する。例えば、前記仮想芯線100に対して座標系の対応付けが行われた前記内視鏡線98に関して、前記仮想芯線100における複数のランドマーク106それぞれから前記内視鏡線98上の点までの距離に基づいて、その内視鏡線98における各ランドマーク106a〜106eに対応する対応点108a〜108e(以下、特に区別しない場合には単に対応点108という)を導出する。好適には、前記内視鏡線98上の点であって、各ランドマーク106からの距離が最も小さい点をそのランドマーク106に対応する対応点108として導出する。図17においては、前記仮想芯線100における複数のランドマーク106a〜106eそれぞれに対応する前記内視鏡線98の対応点108a〜108eを星印で示している。すなわち、前記対応点108aが前記ランドマーク106aに、対応点108bが前記ランドマーク106bに、対応点108cが前記ランドマーク106cに、対応点108dが前記ランドマーク106dに、対応点108eが前記ランドマーク106eに、それぞれ対応する。   The line registration processing unit 58 preferably uses the virtual core line 100 and the virtual core line 100 based on the distance from the plurality of landmarks 106 to the endoscope line 98 in the virtual core line 100 detected as described above. A correspondence relationship with the endoscope line 98 is derived. For example, with respect to the endoscope line 98 in which the coordinate system is associated with the virtual core line 100, the distance from each of the plurality of landmarks 106 on the virtual core line 100 to a point on the endoscope line 98. Based on the above, corresponding points 108a to 108e corresponding to the landmarks 106a to 106e in the endoscope line 98 (hereinafter simply referred to as corresponding points 108 unless otherwise distinguished) are derived. Preferably, a point on the endoscope line 98 having the smallest distance from each landmark 106 is derived as a corresponding point 108 corresponding to the landmark 106. In FIG. 17, the corresponding points 108a to 108e of the endoscope line 98 corresponding to the plurality of landmarks 106a to 106e in the virtual core line 100 are indicated by asterisks. That is, the corresponding point 108a is the landmark 106a, the corresponding point 108b is the landmark 106b, the corresponding point 108c is the landmark 106c, the corresponding point 108d is the landmark 106d, and the corresponding point 108e is the landmark. 106e respectively.

前記線レジストレーション処理部58は、好適には、前記のようにして検出された前記ランドマーク106相互間における前記仮想芯線100上の各点と、前記内視鏡線98上の各点における対応関係を、公知の線形補間により導出する。図18は、前記仮想芯線100上の各点と前記内視鏡線98上の各点における対応関係を線形補間により導出する処理について説明する図である。この図18に示すように、前記線レジストレーション処理部58は、好適には、前記仮想芯線100上におけるランドマーク106相互間の各点と、前記内視鏡線98上における対応点108(対象となるランドマーク106に対応するもの)相互間の各点とを、等間隔で対応付ける処理を行う。   The line registration processing unit 58 preferably corresponds to each point on the virtual core wire 100 between the landmarks 106 detected as described above and each point on the endoscope line 98. The relationship is derived by known linear interpolation. FIG. 18 is a diagram illustrating a process for deriving a correspondence relationship between each point on the virtual core line 100 and each point on the endoscope line 98 by linear interpolation. As shown in FIG. 18, the line registration processing unit 58 is preferably configured such that each point between the landmarks 106 on the virtual core line 100 and a corresponding point 108 (target) on the endoscope line 98 (Corresponding to the landmark 106)) Processing for associating points between each other at equal intervals is performed.

すなわち、図18に示す例においては、前記仮想芯線100上における前記ランドマーク106aから前記ランドマーク106bまでの区間の各点と、前記内視鏡線98上における前記対応点108aから前記対応点108bまでの区間の各点とを、等間隔で対応付ける処理を行う。前記仮想芯線100上における前記ランドマーク106bから前記ランドマーク106cまでの区間の各点と、前記内視鏡線98上における前記対応点108bから前記対応点108cまでの区間の各点とを、等間隔で対応付ける処理を行う。前記仮想芯線100上における前記ランドマーク106cから前記ランドマーク106dまでの区間の各点と、前記内視鏡線98上における前記対応点108cから前記対応点108dまでの区間の各点とを、等間隔で対応付ける処理を行う。前記仮想芯線100上における前記ランドマーク106dから前記ランドマーク106eまでの区間の各点と、前記内視鏡線98上における前記対応点108dから前記対応点108eまでの区間の各点とを、等間隔で対応付ける処理を行う。   That is, in the example shown in FIG. 18, each point of the section from the landmark 106a to the landmark 106b on the virtual core line 100, and the corresponding point 108a to the corresponding point 108b on the endoscope line 98. A process for associating each point in the previous section with an equal interval is performed. Each point of the section from the landmark 106b to the landmark 106c on the virtual core line 100, each point of the section from the corresponding point 108b to the corresponding point 108c on the endoscope line 98, etc. Perform the process of associating at intervals. Each point of the section from the landmark 106c to the landmark 106d on the virtual core line 100, each point of the section from the corresponding point 108c to the corresponding point 108d on the endoscope line 98, etc. Perform the process of associating at intervals. Each point in the section from the landmark 106d to the landmark 106e on the virtual core line 100, each point in the section from the corresponding point 108d to the corresponding point 108e on the endoscope line 98, etc. Perform the process of associating at intervals.

前記線レジストレーション処理部58は、好適には、前記仮想芯線100における相互に隣接する前記ランドマーク106相互間に含まれる前記内視鏡線98の長さが変更される毎に、前記仮想芯線100と前記内視鏡線98との対応関係を更新する。換言すれば、管腔臓器内に挿入された前記内視鏡24の長さ寸法が変化するのに合わせて、前記仮想芯線100と前記内視鏡線98との対応関係を随時更新する。例えば、大腸の内視鏡検査においては、前記内視鏡24の先端部(観察部34)が盲腸まで挿入された後、前記内視鏡24が大腸から引き出されつつその内視鏡24による観察が行われる。すなわち、前記内視鏡24による大腸内視鏡検査においては、被検体の大腸内に挿入された前記内視鏡24(管状部32)の長さ寸法が随時変化してゆく。従って、前記ランドマーク106相互間に含まれる前記内視鏡線98の長さが変更される毎に、前記仮想芯線100と前記内視鏡線98との対応関係を更新する処理を行うことで、更に厳密に前記仮想芯線100と前記内視鏡線98との対応関係を導出することができる。   The line registration processing unit 58 preferably performs the virtual core line every time the length of the endoscope line 98 included between the landmarks 106 adjacent to each other in the virtual core line 100 is changed. The correspondence relationship between 100 and the endoscope line 98 is updated. In other words, the correspondence between the virtual core wire 100 and the endoscope line 98 is updated as needed as the length dimension of the endoscope 24 inserted into the hollow organ changes. For example, in an endoscopic examination of the large intestine, after the distal end portion (observation unit 34) of the endoscope 24 is inserted up to the cecum, the endoscope 24 is pulled out of the large intestine and observed by the endoscope 24. Is done. That is, in the colonoscopy with the endoscope 24, the length dimension of the endoscope 24 (tubular portion 32) inserted into the large intestine of the subject changes as needed. Therefore, every time the length of the endoscope line 98 included between the landmarks 106 is changed, a process of updating the correspondence between the virtual core line 100 and the endoscope line 98 is performed. In addition, the correspondence between the virtual core wire 100 and the endoscope line 98 can be derived more strictly.

例えば、図18に示すように、前記仮想芯線100上における前記ランドマーク106aから前記ランドマーク106bまでの区間の各点と、前記内視鏡線98上における前記対応点108aから前記対応点108bまでの区間の各点との対応付け処理において、当初の対応点108aから108bまでの距離がl1であり、前記内視鏡24の先端部が盲腸に対応する位置(当初の対応点108aに相当する位置)から長さ寸法l1−l2だけ(当初の対応点108bから距離l2の位置まで)引き出された場合を考える。前記仮想芯線100上における前記ランドマーク106aから前記ランドマーク106bまでの区間の長さ寸法はLであるとする。この場合、前記仮想芯線100上における前記ランドマーク106bから、前記ランドマーク106aに向かう方向への長さL・l2/l1までの区間の各点と、前記内視鏡線98上における前記対応点108bから、前記対応点108aに向かう方向への長さl2までの区間の各点とを、前記の線形補間により導出する処理を行う。また好適には、前記内視鏡線98における先端部が、前記仮想芯線100上における何れかのランドマーク106から規定の距離範囲内に存在する場合には、前記内視鏡線98における先端部が斯かる近距離のランドマーク106に対応付けられて前記の線形補間が行われるものであってもよい。 For example, as shown in FIG. 18, each point in the section from the landmark 106a to the landmark 106b on the virtual core line 100, and from the corresponding point 108a to the corresponding point 108b on the endoscope line 98. In the process of associating with each point in the section, the distance from the initial corresponding point 108a to 108b is l 1 and the position where the distal end of the endoscope 24 corresponds to the cecum (corresponding to the initial corresponding point 108a) Let us consider a case in which only the length dimension l 1 -l 2 (from the original corresponding point 108b to the position of the distance l 2 ) is drawn out from the position where it is to be performed. It is assumed that the length dimension of the section from the landmark 106a to the landmark 106b on the virtual core wire 100 is L. In this case, each point of the section from the landmark 106b on the virtual core line 100 to a length L·l 2 / l 1 in the direction toward the landmark 106a and the endoscope line 98 A process of deriving each point of the section from the corresponding point 108b to the length l 2 in the direction toward the corresponding point 108a by the linear interpolation is performed. Also preferably, when the distal end portion of the endoscope line 98 is within a specified distance range from any landmark 106 on the virtual core wire 100, the distal end portion of the endoscope line 98 is However, the linear interpolation may be performed in association with such a short-range landmark 106.

以上のように、前記内視鏡線98と前記仮想芯線100との対応関係が導出されると、前記内視鏡線98に対応する前記内視鏡24の観察部34が、前記仮想芯線100に対応する管腔臓器内の何れの位置に存在するのか同定できる。すなわち、前記観察位置推定部60は、前記マッチング処理部54(線レジストレーション処理部58)により導出された対応関係に基づいて、前記内視鏡24の観察対象である管腔臓器内における前記内視鏡24の観察位置を推定する。本実施例の内視鏡24において、前記観察部34は、前記管状部32における一方の端部(先端部)に設けられている。従って、前記観察位置推定部60は、好適には、前記内視鏡線98における先端側(観察部34側)の端点に対応付けられた、前記仮想芯線100上における点に対応する位置を、前記内視鏡24の観察位置として推定する。   As described above, when the correspondence relationship between the endoscope line 98 and the virtual core line 100 is derived, the observation unit 34 of the endoscope 24 corresponding to the endoscope line 98 is moved to the virtual core line 100. It can be identified at which position in the luminal organ corresponding to. That is, the observation position estimation unit 60 is configured to perform the internal determination in the luminal organ that is the observation target of the endoscope 24 based on the correspondence derived by the matching processing unit 54 (line registration processing unit 58). The observation position of the endoscope 24 is estimated. In the endoscope 24 of the present embodiment, the observation unit 34 is provided at one end (tip) of the tubular portion 32. Therefore, the observation position estimation unit 60 preferably has a position corresponding to a point on the virtual core 100 that is associated with an end point on the distal end side (observation unit 34 side) of the endoscope line 98. Estimated as the observation position of the endoscope 24.

前記病変存在検出部62は、前記3次元画像データに基づいて前記管腔臓器における病変の存在を検出する。好適には、前記3次元画像データに基づいて、例えば所定のCT値のボクセルの具合である等、予め定められた条件に合致すること等により前記管腔臓器における病変の存在を検出する。例えば、公知のCTコロノグラフィ(Computed Tomography Colonography)等により、その3次元画像データに対応する3次元画像における前記管腔臓器の表面にポリープ或いは癌等の病変が疑われる突起状部が存在するか否かを判定する。斯かる突起状部が存在する場合には、前記管腔臓器における病変の存在を検出する。すなわち、前記病変存在検出部62は、好適には、前記3次元画像データに基づいて前記管腔臓器における病変が疑われる突起状部の存在する位置を検出する。その他、3次元画像データに対応する3次元画像における前記管腔臓器の表面性状に基づいて大腸炎、動静脈奇形、大腸線種等の病変が疑われる部位を検出するものであってもよい。   The lesion presence detection unit 62 detects the presence of a lesion in the hollow organ based on the three-dimensional image data. Preferably, based on the three-dimensional image data, the presence of a lesion in the luminal organ is detected by matching a predetermined condition such as a condition of a voxel having a predetermined CT value. For example, whether or not there is a protruding part suspected of having a lesion such as a polyp or cancer on the surface of the luminal organ in a three-dimensional image corresponding to the three-dimensional image data by known CT colonography (Computed Tomography Colonography) or the like. Determine whether. When such a protrusion is present, the presence of a lesion in the luminal organ is detected. That is, the lesion presence detection unit 62 preferably detects a position where a projection-like portion suspected of having a lesion in the hollow organ exists based on the three-dimensional image data. In addition, a part suspected of having a lesion such as colitis, arteriovenous malformation, and colon line type may be detected based on the surface property of the luminal organ in the three-dimensional image corresponding to the three-dimensional image data.

前記病変報知制御部64は、前記観察位置推定部60により推定される前記内視鏡24の観察位置が、前記病変存在検出部62により検出された病変付近に達した場合には、その旨の報知(警告)を行う。すなわち、前記観察位置推定部60により推定される、観察対象である管腔臓器内における前記内視鏡24の観察位置が、その管腔臓器に対応する3次元画像データに基づいて前記病変存在検出部62により検出された病変部位から所定の距離範囲内となった場合には、その旨の報知を行う。好適には、前記映像表示装置20において、前記観察位置推定部60により推定される前記内視鏡24の観察位置が、前記病変存在検出部62により検出された病変付近に達した旨の警告表示を行う。すなわち、前記病変報知制御部64は、後述する病変検出結果表示制御部76に含まれるものであってもよい。或いは、前記病変報知制御部64は、前記支援装置10に備えられた図示しないスピーカ等を介して、警告音等により前記報知を行うものであってもよい。   When the observation position of the endoscope 24 estimated by the observation position estimation unit 60 reaches the vicinity of the lesion detected by the lesion presence detection unit 62, the lesion notification control unit 64 notifies that fact. Notification (warning) is performed. In other words, the observation position of the endoscope 24 in the luminal organ to be observed, which is estimated by the observation position estimation unit 60, is detected based on the three-dimensional image data corresponding to the luminal organ. When the distance from the lesion site detected by the unit 62 falls within a predetermined distance range, a notification to that effect is given. Preferably, in the video display device 20, a warning display indicating that the observation position of the endoscope 24 estimated by the observation position estimation unit 60 has reached the vicinity of the lesion detected by the lesion presence detection unit 62. I do. That is, the lesion notification control unit 64 may be included in a lesion detection result display control unit 76 described later. Alternatively, the lesion notification control unit 64 may perform the notification with a warning sound or the like via a speaker or the like (not shown) provided in the support apparatus 10.

前記画像表示制御部66は、図示しないグラフィックスプロセッサ等を介して、前記支援装置10による制御に係る各種画像(映像)を前記映像表示装置20に表示させる。すなわち、前記管腔臓器内に挿入された前記内視鏡24による観察を支援する各種画像を前記映像表示装置20に表示させる。斯かる処理を行うため、図3に示すように、前記画像表示制御部66は、実内視鏡画像表示制御部68、臓器図像表示制御部70、仮想内視鏡画像表示制御部72、仮想展開像表示制御部74、及び病変検出結果表示制御部76を備えている。以下、各表示制御部による処理について分説する。   The image display control unit 66 causes the video display device 20 to display various images (videos) related to the control by the support device 10 via a graphics processor or the like (not shown). That is, various images supporting the observation by the endoscope 24 inserted into the hollow organ are displayed on the video display device 20. In order to perform such processing, as shown in FIG. 3, the image display control unit 66 includes a real endoscopic image display control unit 68, an organ graphic image display control unit 70, a virtual endoscopic image display control unit 72, a virtual A developed image display control unit 74 and a lesion detection result display control unit 76 are provided. Hereinafter, processing by each display control unit will be described.

前記臓器図像表示制御部70は、前記3次元画像データに基づいて前記管腔臓器の図像を表示させる。この管腔臓器の図像は、例えば正面視において管腔臓器全体の形状を示す像であり、好適には、前記管腔臓器の外形像である。すなわち、前記臓器図像表示制御部70は、好適には、前記3次元画像データに基づいて前記管腔臓器の外形(例えば、正面側から視た外観を表す像)を示す図像を表示させる。すなわち、前記支援装置10による観察支援制御に際して、前記内視鏡24による観察対象である管腔臓器に対応して予め得られて前記画像データベース44に記憶された3次元画像データを読み出し、公知の技術によりその3次元画像データに基づいて前記管腔臓器の外形像を生成して前記映像表示装置20に表示させる。   The organ image display control unit 70 displays the image of the luminal organ based on the three-dimensional image data. This pictorial image of the luminal organ is, for example, an image showing the shape of the whole luminal organ in a front view, and is preferably an outer shape image of the luminal organ. That is, the organ pictorial image display control unit 70 preferably displays a pictorial image showing the outer shape of the luminal organ (for example, an image showing an appearance viewed from the front side) based on the three-dimensional image data. That is, in the observation support control by the support apparatus 10, the three-dimensional image data obtained in advance corresponding to the luminal organ to be observed by the endoscope 24 and stored in the image database 44 is read out, A contour image of the luminal organ is generated based on the three-dimensional image data by a technique and displayed on the video display device 20.

前記臓器図像表示制御部70は、前記管腔臓器の図像表示制御において、前記観察位置推定部60により推定される前記内視鏡24の観察位置を前記管腔臓器の図像上に表示させる。図19は、前記支援装置10による観察支援制御に際して、前記画像表示制御部66により前記映像表示装置20に表示される内視鏡ナビゲーション画面110を例示する図である。この図19に示すように、前記臓器図像表示制御部70は、好適には、前記内視鏡ナビゲーション画面110の一部に前記管腔臓器の外形像112を表示させると共に、その外形像112上に前記観察位置推定部60により推定される前記内視鏡24の観察位置114を表示させる。好適には、前記観察位置推定部60により推定される前記内視鏡24の観察位置114が変化する毎に、前記外形像112上における前記観察位置114の表示を更新する。   The organ image display control unit 70 displays the observation position of the endoscope 24 estimated by the observation position estimation unit 60 on the image of the lumen organ in the image display control of the hollow organ. FIG. 19 is a diagram illustrating an endoscope navigation screen 110 displayed on the video display device 20 by the image display control unit 66 when the support support control is performed by the support device 10. As shown in FIG. 19, the organ image display control unit 70 preferably displays an outline image 112 of the luminal organ on a part of the endoscope navigation screen 110 and also displays the outline image 112 on the outline image 112. The observation position 114 of the endoscope 24 estimated by the observation position estimation unit 60 is displayed. Preferably, every time the observation position 114 of the endoscope 24 estimated by the observation position estimation unit 60 changes, the display of the observation position 114 on the outline image 112 is updated.

前記仮想内視鏡画像表示制御部72は、前記3次元画像データに基づいて前記管腔臓器の仮想内視鏡画像を表示させる。すなわち、前記支援装置10による観察支援制御に際して、前記内視鏡24による観察対象である管腔臓器に対応して予め得られて前記画像データベース44に記憶された3次元画像データを読み出し、公知の技術によりその3次元画像データに基づいて前記管腔臓器の仮想内視鏡画像を生成して前記映像表示装置20に表示させる。   The virtual endoscopic image display control unit 72 displays a virtual endoscopic image of the luminal organ based on the three-dimensional image data. That is, in the observation support control by the support apparatus 10, the three-dimensional image data obtained in advance corresponding to the luminal organ to be observed by the endoscope 24 and stored in the image database 44 is read out, A virtual endoscopic image of the luminal organ is generated based on the three-dimensional image data by a technique and displayed on the video display device 20.

前記仮想内視鏡画像表示制御部72は、前記観察対象である管腔臓器に対応する3次元画像データに基づいて、前記観察位置推定部60により推定される前記内視鏡24の観察位置に対応する前記管腔臓器の仮想内視鏡画像を表示させる。好適には、前記観察位置推定部60により推定される前記内視鏡24の観察位置から、その内視鏡24(観察部34)の視点位置及び視点方向、予め設定された視野角等に基づいて、前記管腔臓器の仮想内視鏡画像を生成し、前記映像表示装置20に表示させる。図19に示すように、前記仮想内視鏡画像表示制御部72は、好適には、前記観察位置に対応する仮想内視鏡画像116を前記内視鏡ナビゲーション画面110の一部に表示させる。好適には、前記観察位置推定部60により推定される前記内視鏡24の観察位置が変化する毎に、前記仮想内視鏡画像116(視点位置及び視点方向等)の表示を更新する。   The virtual endoscopic image display control unit 72 sets the observation position of the endoscope 24 estimated by the observation position estimation unit 60 based on the three-dimensional image data corresponding to the luminal organ that is the observation target. A virtual endoscopic image of the corresponding luminal organ is displayed. Preferably, from the observation position of the endoscope 24 estimated by the observation position estimation unit 60, based on the viewpoint position and viewpoint direction of the endoscope 24 (observation unit 34), a preset viewing angle, and the like. Then, a virtual endoscopic image of the luminal organ is generated and displayed on the video display device 20. As shown in FIG. 19, the virtual endoscopic image display control unit 72 preferably displays a virtual endoscopic image 116 corresponding to the observation position on a part of the endoscopic navigation screen 110. Preferably, every time the observation position of the endoscope 24 estimated by the observation position estimation unit 60 changes, the display of the virtual endoscopic image 116 (viewpoint position, viewpoint direction, etc.) is updated.

前記仮想内視鏡画像表示制御部72は、好適には、前記3次元画像データに基づいて前記管腔臓器の全球型仮想内視鏡画像を表示させる。この全球型仮想内視鏡画像とは、最大視野角が90°以上である仮想内視鏡画像であり、例えば視点位置を球状に取り囲む視野を有する仮想内視鏡画像である。前記仮想内視鏡画像表示制御部72は、好適には、視点位置から前記視野に対してレイを発生させることにより公知のボリュームレンダリング法を用いて前記全球型仮想内視鏡画像を生成する。すなわち、前記支援装置10による観察支援制御に際して、前記内視鏡24による観察対象である管腔臓器に対応して予め得られて前記画像データベース44に記憶された3次元画像データを読み出し、公知の技術によりその3次元画像データに基づいて前記管腔臓器の全球型仮想内視鏡画像を生成して前記映像表示装置20に表示させる。   The virtual endoscopic image display control unit 72 preferably displays a global virtual endoscopic image of the luminal organ based on the three-dimensional image data. This global virtual endoscopic image is a virtual endoscopic image having a maximum viewing angle of 90 ° or more, for example, a virtual endoscopic image having a visual field that surrounds the viewpoint position in a spherical shape. The virtual endoscopic image display control unit 72 preferably generates the global virtual endoscopic image using a known volume rendering method by generating a ray from the viewpoint position to the visual field. That is, in the observation support control by the support apparatus 10, the three-dimensional image data obtained in advance corresponding to the luminal organ to be observed by the endoscope 24 and stored in the image database 44 is read out, A global virtual endoscopic image of the luminal organ is generated based on the three-dimensional image data by a technique and displayed on the video display device 20.

前記仮想内視鏡画像表示制御部72は、好適には、前記観察対象である管腔臓器に対応する3次元画像データに基づいて、前記観察位置推定部60により推定される前記内視鏡24の観察位置に対応する前記管腔臓器の全球型仮想内視鏡画像を表示させる。好適には、前記観察位置推定部60により推定される前記内視鏡24の観察位置から、その内視鏡24(観察部34)の視点位置及び視点方向、予め設定された視野角等に基づいて、前記管腔臓器の全球型仮想内視鏡画像を生成し、前記映像表示装置20に表示させる。図20は、前記仮想内視鏡画像表示制御部72により表示される、前記管腔臓器の全球型仮想内視鏡画像118を例示する図である。図20に示す全球型仮想内視鏡画像118は、最大視野角360°に対応するものである。この図20に示す全球型仮想内視鏡画像118を、前記内視鏡ナビゲーション画面110に前記外形像112及び仮想内視鏡画像116等と共に表示させるものであってもよい。   The virtual endoscopic image display control unit 72 is preferably configured such that the endoscope 24 estimated by the observation position estimation unit 60 based on three-dimensional image data corresponding to the luminal organ to be observed. A global virtual endoscopic image of the hollow organ corresponding to the observation position is displayed. Preferably, from the observation position of the endoscope 24 estimated by the observation position estimation unit 60, based on the viewpoint position and viewpoint direction of the endoscope 24 (observation unit 34), a preset viewing angle, and the like. Then, a global virtual endoscopic image of the luminal organ is generated and displayed on the video display device 20. FIG. 20 is a diagram illustrating a global virtual endoscopic image 118 of the luminal organ displayed by the virtual endoscopic image display control unit 72. A global virtual endoscopic image 118 shown in FIG. 20 corresponds to a maximum viewing angle of 360 °. The global virtual endoscope image 118 shown in FIG. 20 may be displayed on the endoscope navigation screen 110 together with the outline image 112, the virtual endoscope image 116, and the like.

前記仮想展開像表示制御部74は、前記3次元画像データに基づいて前記管腔臓器の仮想展開像を表示させる。すなわち、前記支援装置10による観察支援制御に際して、前記内視鏡24による観察対象である管腔臓器に対応して予め得られて前記画像データベース44に記憶された3次元画像データを読み出し、公知の技術によりその3次元画像データに基づいて前記管腔臓器の仮想展開像を生成して前記映像表示装置20に表示させる。   The virtual developed image display control unit 74 displays a virtual developed image of the luminal organ based on the three-dimensional image data. That is, in the observation support control by the support apparatus 10, the three-dimensional image data obtained in advance corresponding to the luminal organ to be observed by the endoscope 24 and stored in the image database 44 is read out, A virtual developed image of the luminal organ is generated based on the three-dimensional image data by a technique and displayed on the video display device 20.

前記仮想展開像表示制御部74は、前記管腔臓器の仮想展開像表示制御において、前記観察位置推定部60により推定される前記内視鏡24の観察位置を前記管腔臓器の仮想展開像上に表示させる。図19に示すように、前記仮想展開像表示制御部74は、好適には、前記内視鏡ナビゲーション画面110の一部に前記管腔臓器の仮想展開像120を表示させると共に、前記観察位置推定部60により推定される前記内視鏡24の観察位置の誤差に基づいて、前記仮想展開像120における前記内視鏡24の観察位置を含む所定範囲120aの明度と、余の部分120b、120cの明度とを異なる表示とする。好適には、前記所定範囲120aの明度が、前記余の部分120b、120cの明度よりも相対的に明るくなるように前記仮想展開像120の表示を制御する。或いは、前記仮想展開像120における前記所定範囲120aには特にフィルタをかけることなく、前記余の部分120b、120cにスモーク(靄のように視認し難くする効果)や所謂モザイク等のフィルタをかける表示制御を行うものであってもよい。或いは、前記仮想展開像120における前記所定範囲120aの色を前記余の部分120b、120cとは異なる色としたり、影(陰影)の描き方を異なるものとする等の表示制御を行うものであってもよい。好適には、観察対象である管腔臓器の区間毎に観察位置の誤差が予め定められたものであり、前記仮想展開像表示制御部74は、前記観察位置推定部60により推定される前記内視鏡24の観察位置が、観察対象である前記管腔臓器における何れの区間に含まれるかを判定し、前記観察位置の誤差を決定する。前記仮想展開像表示制御部74は、好適には、前記観察位置推定部60により推定される前記内視鏡24の観察位置が変化する毎に、前記仮想展開像120の表示を更新する。すなわち、前記仮想展開像120において余の部分よりも明るく表示させる所定範囲120aを更新する。   The virtual developed image display control unit 74 sets the observation position of the endoscope 24 estimated by the observation position estimation unit 60 on the virtual developed image of the lumen organ in the virtual developed image display control of the hollow organ. To display. As shown in FIG. 19, the virtual developed image display control unit 74 preferably displays the virtual developed image 120 of the luminal organ on a part of the endoscope navigation screen 110 and estimates the observation position. Based on the error of the observation position of the endoscope 24 estimated by the unit 60, the brightness of the predetermined range 120a including the observation position of the endoscope 24 in the virtual developed image 120 and the remaining portions 120b and 120c Display with different brightness. Preferably, the display of the virtual developed image 120 is controlled so that the lightness of the predetermined range 120a is relatively brighter than the lightness of the remaining portions 120b and 120c. Alternatively, the predetermined range 120a in the virtual developed image 120 is not particularly filtered, and the other portions 120b and 120c are displayed with a filter such as smoke (an effect that makes it difficult to visually recognize like a wrinkle) or a so-called mosaic. Control may be performed. Alternatively, display control is performed such that the color of the predetermined range 120a in the virtual developed image 120 is different from that of the remaining portions 120b and 120c, and the method of drawing shadows (shadows) is different. May be. Preferably, an observation position error is predetermined for each section of the luminal organ to be observed, and the virtual developed image display control unit 74 is configured to estimate the internal position estimated by the observation position estimation unit 60. It is determined in which section of the luminal organ to be observed the observation position of the endoscope 24 is included, and an error in the observation position is determined. The virtual developed image display control unit 74 preferably updates the display of the virtual developed image 120 each time the observation position of the endoscope 24 estimated by the observation position estimation unit 60 changes. That is, the predetermined range 120a to be displayed brighter than the remaining portion in the virtual developed image 120 is updated.

前記病変検出結果表示制御部76は、前記病変存在検出部62による検出結果を表示させる。好適には、前記病変存在検出部62により検出された病変の存在を、前記臓器図像表示制御部70により表示される前記外形像112、前記仮想内視鏡画像表示制御部72により表示される前記仮想内視鏡画像116、全球型仮想内視鏡画像118、及び前記仮想展開像表示制御部74により表示される前記仮想展開像120のうち少なくとも1つにおける、検出された病変に対応する部位に表示させる。図19及び図20に示す例においては、図面を見やすくするため各画像における病変位置を破線で囲繞して示しているが、実際の制御において、前記病変検出結果表示制御部76は、好適には、各画像における検出された病変に対応する部位を、余の部分とは異なる色(例えば紫色等)のマーカ等により色替え表示させる。すなわち、図19に示す例においては、前記仮想内視鏡画像116上に検出された病変の位置に対応する病変部位116dを、前記仮想展開像120上に検出された病変の位置に対応する病変部位120dをそれぞれ表示させている。外形像112に関しては、観察位置114が検出された病変位置に相当する。図20に示す例においては、前記全球型仮想内視鏡画像118上に検出された病変の位置に対応する病変部位118dを表示させている。前記病変検出結果表示制御部76は、好適には、前記観察位置推定部60により推定される前記内視鏡24の観察位置が変化する毎に、前記外形像112、前記仮想内視鏡画像116、前記全球型仮想内視鏡画像118、及び前記仮想展開像120等における病変部位の表示を更新する。   The lesion detection result display control unit 76 displays the detection result by the lesion presence detection unit 62. Preferably, the presence of a lesion detected by the lesion presence detection unit 62 is displayed by the outline image 112 displayed by the organ iconic image display control unit 70 and the virtual endoscope image display control unit 72. A region corresponding to the detected lesion in at least one of the virtual endoscopic image 116, the global virtual endoscopic image 118, and the virtual developed image 120 displayed by the virtual developed image display control unit 74. Display. In the example shown in FIGS. 19 and 20, the lesion position in each image is shown surrounded by a broken line in order to make the drawing easy to see. However, in actual control, the lesion detection result display control unit 76 is preferably The part corresponding to the detected lesion in each image is displayed in a color-changed manner with a marker or the like of a color (for example, purple) different from the remaining part. That is, in the example shown in FIG. 19, a lesion site 116 d corresponding to the position of the lesion detected on the virtual endoscopic image 116 is replaced with a lesion corresponding to the position of the lesion detected on the virtual developed image 120. Each part 120d is displayed. Regarding the outline image 112, the observation position 114 corresponds to the detected lesion position. In the example shown in FIG. 20, a lesion site 118d corresponding to the position of the detected lesion is displayed on the global virtual endoscopic image 118. Preferably, the lesion detection result display control unit 76 changes the outline image 112 and the virtual endoscopic image 116 each time the observation position of the endoscope 24 estimated by the observation position estimation unit 60 changes. The display of the lesion site in the global virtual endoscopic image 118, the virtual developed image 120, etc. is updated.

前記実内視鏡画像表示制御部68は、前記内視鏡24の観察部34により取得された画像(実画像)を前記映像表示装置20に表示させる。すなわち、前記観察部34により取得され、前記接続ケーブル38及び前記インターフェイス30等を介して入力される画像を前記映像表示装置20に表示させる。好適には、前記内視鏡24の観察部34により取得された画像を、前記臓器図像表示制御部70により表示される前記外形像112、前記仮想内視鏡画像表示制御部72により表示される前記仮想内視鏡画像116、全球型仮想内視鏡画像118、及び前記仮想展開像表示制御部74により表示される前記仮想展開像120のうち少なくとも1つと共に前記映像表示装置20に表示させる。或いは、前記外形像112、前記仮想内視鏡画像116、前記全球型仮想内視鏡画像118、及び前記仮想展開像120等が表示される前記映像表示装置20とは異なる映像表示装置に、前記内視鏡24の観察部34により取得された画像を表示させるものであってもよい。更に、前記実内視鏡画像表示制御部68は、前記支援装置10とは別体の制御装置に備えられたものであってもよい。   The actual endoscope image display control unit 68 causes the video display device 20 to display an image (actual image) acquired by the observation unit 34 of the endoscope 24. That is, an image acquired by the observation unit 34 and input via the connection cable 38 and the interface 30 is displayed on the video display device 20. Preferably, an image acquired by the observation unit 34 of the endoscope 24 is displayed by the outline image 112 displayed by the organ iconographic display control unit 70 and the virtual endoscopic image display control unit 72. The image is displayed on the video display device 20 together with at least one of the virtual endoscopic image 116, the global virtual endoscopic image 118, and the virtual developed image 120 displayed by the virtual developed image display control unit 74. Alternatively, the external image 112, the virtual endoscopic image 116, the global virtual endoscopic image 118, the virtual developed image 120, etc. are displayed on a video display device different from the video display device 20 on which the image display device 20 is displayed. An image acquired by the observation unit 34 of the endoscope 24 may be displayed. Further, the actual endoscope image display control unit 68 may be provided in a control device separate from the support device 10.

図21は、前記内視鏡24による大腸の観察における前記支援装置10による観察支援制御に際して、前記画像表示制御部66により前記映像表示装置20に表示される他の内視鏡ナビゲーション画面130を例示する図である。この図21に示すように、前記画像表示制御部66は、好適には、前記実内視鏡画像表示制御部68により表示される前記内視鏡24の実観察画像(ライブ大腸鏡像)132と、前記臓器図像表示制御部70により表示される前記大腸の外形像134と、前記仮想内視鏡画像表示制御部72により表示される前記大腸の仮想内視鏡画像(仮想化内視鏡像)136と、前記仮想展開像表示制御部74により表示される前記大腸の仰臥位仮想展開像138及び伏臥位仮想展開像140と、前記病変存在検出部62による検出結果に対応する病変の存在(ポリープナビ)142と、前記観察位置推定部60により推定される前記内視鏡24の観察位置が、前記病変存在検出部62により検出された病変付近に達した旨の警告144と、その病変部位に対応して前記仮想内視鏡画像表示制御部72により表示される仮想内視鏡画像(対応仮想化大腸鏡像)146とを、含む内視鏡ナビゲーション画面130を前記映像表示装置20における1画面に表示させる。更に、前記仮想内視鏡画像136上に、前記病変存在検出部62により検出された病変の位置に対応する病変部位136dを表示させる。   FIG. 21 illustrates another endoscope navigation screen 130 displayed on the video display device 20 by the image display control unit 66 during observation support control by the support device 10 in observing the large intestine by the endoscope 24. It is a figure to do. As shown in FIG. 21, the image display control unit 66 preferably includes an actual observation image (live colonoscopy image) 132 of the endoscope 24 displayed by the real endoscope image display control unit 68. The outline image 134 of the large intestine displayed by the organ image display control unit 70 and the virtual endoscopic image (virtualized endoscopic image) 136 of the large intestine displayed by the virtual endoscopic image display control unit 72. And the supine virtual developed image 138 and prone virtual developed image 140 of the large intestine displayed by the virtual developed image display control unit 74, and the presence of a lesion corresponding to the detection result by the lesion presence detecting unit 62 (polyp navigation) 142), a warning 144 that the observation position of the endoscope 24 estimated by the observation position estimation unit 60 has reached the vicinity of the lesion detected by the lesion presence detection unit 62, and the lesion site Correspondingly, an endoscope navigation screen 130 including a virtual endoscopic image (corresponding virtualized colonoscopic image) 146 displayed by the virtual endoscopic image display control unit 72 is displayed on one screen of the video display device 20. Display. Further, a lesion site 136 d corresponding to the position of the lesion detected by the lesion presence detection unit 62 is displayed on the virtual endoscopic image 136.

図22は、前記支援装置10のCPU12による内視鏡ナビゲーション制御の一例の要部を説明するフローチャートであり、所定の周期で繰り返し実行されるものである。   FIG. 22 is a flowchart for explaining a main part of an example of endoscope navigation control by the CPU 12 of the support apparatus 10, and is repeatedly executed at a predetermined cycle.

先ず、ステップ(以下、ステップを省略する)S1において、前記支援装置10による前記内視鏡24の観察支援(ナビゲーション)制御が開始されるか否かが判断される。好適には、前記内視鏡24の先端部(観察部34)が盲腸まで挿入され、前記内視鏡24の観察が開始されるか否かが判断される。このS1の判断が否定される場合には、それをもって本ルーチンが終了させられるが、S1の判断が肯定される場合には、S2において、前記内視鏡24による観察の対象となる大腸に対して予め取得され、前記画像データベース44に記憶された3次元画像データが読み出される。次に、S3において、S2にて読み出された3次元画像データに基づいて大腸の長手方向に沿った仮想芯線100が算出される。   First, in step (hereinafter, step is omitted) S1, it is determined whether or not observation support (navigation) control of the endoscope 24 by the support apparatus 10 is started. Preferably, the distal end portion (observation unit 34) of the endoscope 24 is inserted up to the cecum, and it is determined whether or not the observation of the endoscope 24 is started. If the determination at S1 is negative, the routine is terminated. If the determination at S1 is affirmative, at S2, the routine proceeds to the large intestine to be observed by the endoscope 24. The three-dimensional image data acquired in advance and stored in the image database 44 is read out. Next, in S3, the virtual core line 100 along the longitudinal direction of the large intestine is calculated based on the three-dimensional image data read in S2.

次に、S4において、前記複数の位置センサ42それぞれにより検出される位置情報及び方向情報に基づいて、大腸内に挿入された前記内視鏡24の形状を示す内視鏡線98が算出される。次に、S5において、S3にて算出された前記仮想芯線100に対応する座標系と、S4にて算出された前記内視鏡線98に対応する座標系との対応付けを行う座標系レジストレーション処理が実行される。次に、S6において、S5の座標系レジストレーション処理の結果に基づいて、S3にて算出された前記仮想芯線100と、S4にて算出された前記内視鏡線98との対応関係を算出する線レジストレーション処理が実行される。次に、S7において、S6にて導出された対応関係に基づいて、前記大腸内における前記内視鏡24の観察位置(先端位置)が推定される。   Next, in S4, an endoscope line 98 indicating the shape of the endoscope 24 inserted into the large intestine is calculated based on position information and direction information detected by each of the plurality of position sensors 42. . Next, in S5, a coordinate system registration for associating the coordinate system corresponding to the virtual core line 100 calculated in S3 and the coordinate system corresponding to the endoscope line 98 calculated in S4. Processing is executed. Next, in S6, based on the result of the coordinate system registration process in S5, the correspondence between the virtual core line 100 calculated in S3 and the endoscope line 98 calculated in S4 is calculated. A line registration process is executed. Next, in S7, the observation position (tip position) of the endoscope 24 in the large intestine is estimated based on the correspondence relationship derived in S6.

次に、S8において、前記仮想芯線100における相互に隣接する前記ランドマーク106相互間に含まれる前記内視鏡線98の長さが変更されたか否かが判断される。このS8の判断が肯定される場合には、S6以下の処理が再び実行されるが、S8の判断が否定される場合には、SSにおいて、図23に示す画像表示処理が実行された後、S9において、前記支援装置10による前記内視鏡24の観察支援制御が終了させられるか否かが判断される。このS9の判断が否定される場合には、S8以下の処理が再び実行されるが、S9の判断が肯定される場合には、それをもって本ルーチンが終了させられる。   Next, in S8, it is determined whether or not the length of the endoscope line 98 included between the landmarks 106 adjacent to each other in the virtual core line 100 has been changed. If the determination in S8 is affirmed, the processes in and after S6 are executed again. However, if the determination in S8 is negative, after the image display process shown in FIG. 23 is executed in SS, In S9, it is determined whether or not the observation support control of the endoscope 24 by the support device 10 is terminated. If the determination in S9 is negative, the processing from S8 is executed again, but if the determination in S9 is affirmative, the routine is terminated accordingly.

図23に示す画像表示制御においては、先ず、SS1において、前記内視鏡24の観察部34により取得された画像(実画像)が前記映像表示装置20に表示される。このSS1の処理は必ずしも実行されなくともよい。次に、SS2において、前記映像表示装置20に前記大腸の外形像を表示させる外形像表示モードであるか否かが判断される。このSS2の判断が否定される場合には、SS4以下の処理が実行されるが、SS2の判断が肯定される場合には、SS3において、S2にて読み出された3次元画像データに基づいて前記大腸の外形を示す外形像が生成され、前記映像表示装置20に表示されると共に、S7にて推定された前記内視鏡24の観察位置が前記大腸の外形像上に表示される。   In the image display control shown in FIG. 23, first, an image (actual image) acquired by the observation unit 34 of the endoscope 24 is displayed on the video display device 20 in SS1. This SS1 process need not necessarily be executed. Next, in SS2, it is determined whether or not it is an external image display mode in which the external image of the large intestine is displayed on the video display device 20. When the determination of SS2 is negative, the processing after SS4 is executed. However, when the determination of SS2 is positive, in SS3, based on the three-dimensional image data read in S2. An outline image showing the outline of the large intestine is generated and displayed on the video display device 20, and the observation position of the endoscope 24 estimated in S7 is displayed on the outline image of the large intestine.

次に、SS4において、前記映像表示装置20に前記大腸の仮想内視鏡画像を表示させる仮想内視鏡画像表示モードであるか否かが判断される。このSS4の判断が否定される場合には、SS6以下の処理が実行されるが、SS4の判断が肯定される場合には、SS5において、S2にて読み出された3次元画像データに基づいて、S7にて推定された前記内視鏡24の観察位置に対応する前記大腸の仮想内視鏡画像が生成され、前記映像表示装置20に表示される。次に、SS6において、前記映像表示装置20に前記大腸の仮想展開像を表示させる仮想展開像表示モードであるか否かが判断される。このSS6の判断が否定される場合には、SS8以下の処理が実行されるが、SS6の判断が肯定される場合には、SS7において、S2にて読み出された3次元画像データに基づいて前記大腸の仮想展開像が生成され、前記映像表示装置20に表示されると共に、S7にて推定された前記内視鏡24の観察位置の誤差に基づいて、前記大腸の仮想展開像における前記内視鏡24の観察位置を含む所定範囲の明度が、余の部分よりも明るく表示させられる。   Next, in SS4, it is determined whether or not the video display device 20 is in a virtual endoscopic image display mode for displaying the virtual endoscopic image of the large intestine. If the determination at SS4 is negative, the processing below SS6 is executed, but if the determination at SS4 is affirmative, at SS5, based on the three-dimensional image data read at S2. , A virtual endoscopic image of the large intestine corresponding to the observation position of the endoscope 24 estimated in S7 is generated and displayed on the video display device 20. Next, in SS6, it is determined whether or not it is a virtual developed image display mode in which the video display device 20 displays the virtual developed image of the large intestine. If the determination at SS6 is negative, the processing from SS8 is executed. If the determination at SS6 is affirmative, based on the three-dimensional image data read at S2 at SS7. A virtual unfolded image of the large intestine is generated and displayed on the video display device 20, and the internal image in the virtual unfolded image of the large intestine is based on the error of the observation position of the endoscope 24 estimated in S7. The brightness of a predetermined range including the observation position of the endoscope 24 is displayed brighter than the remaining part.

次に、SS8において、S2にて読み出された3次元画像データに基づいて、前記大腸に病変が疑われる部位が存在するか否かが判断される。このSS8の判断が否定される場合には、SS10以下の処理が実行されるが、SS8の判断が肯定される場合には、SS9において、検出された病変の存在が前記映像表示装置20に表示される。好適には、SS3にて表示された外形像、SS5にて表示された仮想内視鏡画像、SS7にて表示された仮想展開像のうち少なくとも1つにおける、検出された病変に対応する部位にその存在を表示させる。次に、SS10において、S7にて推定された前記内視鏡24の観察位置が、SS8にて検出された病変付近に達したか否かが判断される。このSS10の判断が否定される場合には、それをもって図22に示す制御に復帰させられるが、SS10の判断が肯定される場合には、SS11において、前記内視鏡24の観察位置が、前記大腸における病変が疑われる部位に接近している警告が前記映像表示装置20等において報知された後、それをもって図22に示す制御に復帰させられる。   Next, in SS8, based on the three-dimensional image data read in S2, it is determined whether or not there is a suspected lesion in the large intestine. If the determination at SS8 is negative, the processing from SS10 onward is executed. If the determination at SS8 is positive, the presence of the detected lesion is displayed on the video display device 20 at SS9. Is done. Preferably, at least one of the outline image displayed at SS3, the virtual endoscopic image displayed at SS5, and the virtual developed image displayed at SS7, at a site corresponding to the detected lesion. Display its presence. Next, in SS10, it is determined whether or not the observation position of the endoscope 24 estimated in S7 has reached the vicinity of the lesion detected in SS8. When the determination of SS10 is negative, the control is returned to the control shown in FIG. 22. However, when the determination of SS10 is positive, the observation position of the endoscope 24 is After a warning approaching a region suspected of having a lesion in the large intestine is notified in the video display device 20 or the like, the control returns to the control shown in FIG.

以上の制御において、S3が前記仮想芯線算出部50の動作に、S4が前記内視鏡線算出部52の動作に、S5及びS6が前記マッチング処理部54の動作に、S5が前記座標系レジストレーション処理部56の動作に、S6が前記線レジストレーション処理部58の動作に、S7が前記観察位置推定部60の動作に、SS8が前記病変存在検出部62の動作に、SS11が前記病変報知制御部64の動作に、SSが前記画像表示制御部66の動作に、SS1が前記実内視鏡画像表示制御部68の動作に、SS3が前記臓器図像表示制御部70の動作に、SS5が前記仮想内視鏡画像表示制御部72の動作に、SS7が前記仮想展開像表示制御部74の動作に、SS9が前記病変検出結果表示制御部76の動作に、それぞれ対応する。   In the above control, S3 is the operation of the virtual core calculation unit 50, S4 is the operation of the endoscope calculation unit 52, S5 and S6 are the operation of the matching processing unit 54, and S5 is the coordinate system registration. S6 is the operation of the line registration processing unit 58, S7 is the operation of the observation position estimation unit 60, SS8 is the operation of the lesion presence detection unit 62, and SS11 is the lesion notification. For the operation of the control unit 64, SS for the operation of the image display control unit 66, SS1 for the operation of the real endoscopic image display control unit 68, SS3 for the operation of the organ image display control unit 70, and SS5 for SS7 corresponds to the operation of the virtual endoscopic image display control unit 72, SS7 corresponds to the operation of the virtual developed image display control unit 74, and SS9 corresponds to the operation of the lesion detection result display control unit 76, respectively.

このように、本実施例によれば、前記3次元画像データに基づいて前記管腔臓器の長手方向に沿った仮想芯線100を算出する仮想芯線算出部50(S3)と、前記管腔臓器内に挿入された前記内視鏡24の形状を示す内視鏡線98を算出する内視鏡線算出部52(S4)と、前記仮想芯線算出部50により算出された前記仮想芯線100と、前記内視鏡線算出部52により算出された前記内視鏡線98との対応関係を導出するマッチング処理部54(S5及びS6)と、そのマッチング処理部54により導出された対応関係に基づいて、前記管腔臓器内における前記内視鏡24の観察位置を推定する観察位置推定部56(S7)とを、備えたものであることから、大腸等の変形しやすい管腔臓器であっても、その管腔臓器の仮想芯線100と前記内視鏡の形状を示す内視鏡線98とのマッチングにより、内視鏡24による観察の支援を好適に実現することができる。すなわち、大腸等の管腔臓器の観察を支援する支援装置10を提供することができる。   Thus, according to the present embodiment, the virtual core calculation unit 50 (S3) that calculates the virtual core 100 along the longitudinal direction of the luminal organ based on the three-dimensional image data, and the inside of the luminal organ An endoscope line calculation unit 52 (S4) for calculating an endoscope line 98 indicating the shape of the endoscope 24 inserted into the endoscope 24, the virtual core line 100 calculated by the virtual core line calculation unit 50, and Based on the matching processing unit 54 (S5 and S6) for deriving the correspondence with the endoscope line 98 calculated by the endoscope line calculation unit 52, and the correspondence derived by the matching processing unit 54, Since it includes the observation position estimation unit 56 (S7) that estimates the observation position of the endoscope 24 in the hollow organ, even if it is a deformable lumen organ such as the large intestine, Virtual core 100 of the luminal organ The matching of the endoscope line 98 indicating the shape of the endoscope, the support of the observation by the endoscope 24 can be suitably implemented. That is, the support device 10 that supports observation of a luminal organ such as the large intestine can be provided.

前記仮想芯線算出部50により算出された前記仮想芯線100に対応する座標系と、前記内視鏡線算出部52により算出された前記内視鏡線98に対応する座標系との対応付けを行う座標系レジストレーション処理部56(S5)を備え、前記マッチング処理部54は、その座標系レジストレーション処理部56による対応付けの結果に基づいて、前記仮想芯線100と前記内視鏡線98との対応関係を導出するものであるため、好適且つ実用的な態様で前記管腔臓器の仮想芯線100と前記内視鏡24の形状を示す内視鏡線98との対応関係を導出できる。   The coordinate system corresponding to the virtual core line 100 calculated by the virtual core line calculation unit 50 is associated with the coordinate system corresponding to the endoscope line 98 calculated by the endoscope line calculation unit 52. A coordinate system registration processing unit 56 (S5) is provided, and the matching processing unit 54 determines whether the virtual core wire 100 and the endoscope line 98 are based on the result of association by the coordinate system registration processing unit 56. Since the correspondence relationship is derived, the correspondence relationship between the virtual core wire 100 of the luminal organ and the endoscope line 98 indicating the shape of the endoscope 24 can be derived in a preferable and practical manner.

前記マッチング処理部54は、前記仮想芯線算出部50により算出された前記仮想芯線100について複数のランドマーク106を検出し、それら複数のランドマーク106に基づいて前記仮想芯線100と前記内視鏡線98との対応関係を導出するものであるため、好適且つ実用的な態様で前記管腔臓器の仮想芯線100と前記内視鏡24の形状を示す内視鏡線98との対応関係を導出できる。   The matching processing unit 54 detects a plurality of landmarks 106 with respect to the virtual core wire 100 calculated by the virtual core wire calculation unit 50, and the virtual core wire 100 and the endoscope line based on the plurality of landmarks 106. 98, the correspondence between the virtual core wire 100 of the luminal organ and the endoscope line 98 indicating the shape of the endoscope 24 can be derived in a suitable and practical manner. .

前記3次元画像データに基づいて前記管腔臓器の図像である外形像112を表示させ、前記観察位置推定部56により推定される前記内視鏡24の観察位置を前記外形像112上に表示させる臓器図像表示制御部70(SS3)を備えたものであるため、内視鏡24による観察位置を、観察対象である管腔臓器の外形像112上に表示させる実用的な内視鏡ナビゲーションを実現できる。   Based on the three-dimensional image data, an outline image 112 that is a graphic image of the luminal organ is displayed, and an observation position of the endoscope 24 estimated by the observation position estimation unit 56 is displayed on the outline image 112. Since the organ image display control unit 70 (SS3) is provided, practical endoscope navigation for displaying the observation position by the endoscope 24 on the outline image 112 of the luminal organ to be observed is realized. it can.

前記3次元画像データに基づいて、前記観察位置推定部56により推定される前記内視鏡24の観察位置に対応する前記管腔臓器の仮想内視鏡画像116を表示させる仮想内視鏡画像表示制御部72(SS5)を備えたものであるため、内視鏡24による観察位置に対応する管腔臓器の仮想内視鏡画像116を表示させる実用的な内視鏡ナビゲーションを実現できる。   A virtual endoscopic image display for displaying a virtual endoscopic image 116 of the luminal organ corresponding to the observation position of the endoscope 24 estimated by the observation position estimation unit 56 based on the three-dimensional image data. Since the control unit 72 (SS5) is provided, practical endoscope navigation for displaying the virtual endoscopic image 116 of the luminal organ corresponding to the observation position by the endoscope 24 can be realized.

前記仮想内視鏡画像表示制御部72は、前記3次元画像データに基づいて、前記観察位置推定部56により推定される前記内視鏡24の観察位置に対応する前記管腔臓器の全球型仮想内視鏡画像118を表示させるものであるため、内視鏡24による観察位置に対応する管腔臓器の全球型仮想内視鏡画像118を表示させる実用的な内視鏡ナビゲーションを実現できる。   The virtual endoscopic image display control unit 72 is a global virtual type of the luminal organ corresponding to the observation position of the endoscope 24 estimated by the observation position estimation unit 56 based on the three-dimensional image data. Since the endoscopic image 118 is displayed, practical endoscopic navigation for displaying the global virtual endoscopic image 118 of the luminal organ corresponding to the observation position by the endoscope 24 can be realized.

前記3次元画像データに基づいて前記管腔臓器の仮想展開像120を表示させ、前記観察位置推定部56により推定される前記内視鏡24の観察位置を前記管腔臓器の仮想展開像120上に表示させる仮想展開像表示制御部74(SS7)を備えたものであるため、内視鏡24による観察位置に対応する管腔臓器の仮想展開像120を表示させる実用的な内視鏡ナビゲーションを実現できる。   Based on the three-dimensional image data, the virtual development image 120 of the luminal organ is displayed, and the observation position of the endoscope 24 estimated by the observation position estimation unit 56 is displayed on the virtual development image 120 of the luminal organ. Since the virtual developed image display control unit 74 (SS7) to be displayed is provided, practical endoscope navigation for displaying the virtual developed image 120 of the luminal organ corresponding to the observation position by the endoscope 24 is performed. realizable.

前記仮想展開像表示制御部74は、前記観察位置推定部56により推定される前記内視鏡24の観察位置の誤差に基づいて、前記管腔臓器の仮想展開像120における前記内視鏡24の観察位置を含む所定範囲120aの表示を、余の部分120b、120cとは異なる表示とするものであるため、内視鏡24による観察位置に対応する管腔臓器の仮想展開像120を更に分かり易く表示させる内視鏡ナビゲーションを実現できる。   The virtual developed image display control unit 74 is configured to detect the endoscope 24 in the virtual developed image 120 of the luminal organ based on the error in the observation position of the endoscope 24 estimated by the observation position estimating unit 56. Since the display of the predetermined range 120a including the observation position is displayed differently from the other portions 120b and 120c, the virtual development image 120 of the luminal organ corresponding to the observation position by the endoscope 24 is further easily understood. Endoscopic navigation to be displayed can be realized.

前記3次元画像データに基づいて前記管腔臓器における病変の存在を検出する病変存在検出部62(SS8)と、その病変存在検出部62による検出結果を表示させる病変検出結果表示制御部76(SS9)とを、備えたものであるため、内視鏡24による観察対象である管腔臓器における病変の有無を表示させる実用的な内視鏡ナビゲーションを実現できる。   A lesion presence detection unit 62 (SS8) that detects the presence of a lesion in the hollow organ based on the three-dimensional image data, and a lesion detection result display control unit 76 (SS9) that displays a detection result by the lesion presence detection unit 62. Therefore, practical endoscope navigation for displaying the presence or absence of a lesion in a hollow organ that is an object to be observed by the endoscope 24 can be realized.

前記観察位置推定部56により推定される前記内視鏡24の観察位置が、前記病変存在検出部62により検出された病変付近に達した場合には、その旨の報知を行う病変報知制御部64(SS11)を備えたものであるため、内視鏡24による観察位置が病変付近に達した場合、その旨の報知を行う実用的な内視鏡ナビゲーションを実現できる。   When the observation position of the endoscope 24 estimated by the observation position estimation unit 56 reaches the vicinity of a lesion detected by the lesion presence detection unit 62, a lesion notification control unit 64 that performs notification to that effect. Since (SS11) is provided, when the observation position by the endoscope 24 reaches the vicinity of the lesion, practical endoscope navigation for notifying that effect can be realized.

前記臓器図像表示制御部70により表示される前記管腔臓器の外形像112、前記仮想内視鏡画像表示制御部72により表示される前記管腔臓器の仮想内視鏡画像116、全球型仮想内視鏡画像118、及び、前記仮想展開像表示制御部74により表示される前記管腔臓器の仮想展開像120のうち少なくとも1つを表示させ、前記病変検出結果表示制御部76は、前記病変存在検出部62により検出された病変の存在を、前記管腔臓器の外形像112、前記管腔臓器の仮想内視鏡画像116、全球型仮想内視鏡画像118、及び前記管腔臓器の仮想展開像120のうち少なくとも1つにおける、検出された病変に対応する部位に表示させるものであるため、各画像上に検出された病変部位を表示させることで、実用的且つ分かり易い内視鏡ナビゲーションを実現できる。   Outline image 112 of the luminal organ displayed by the organ image display control unit 70, virtual endoscopic image 116 of the luminal organ displayed by the virtual endoscopic image display control unit 72, global virtual interior At least one of the endoscopic image 118 and the virtual developed image 120 of the luminal organ displayed by the virtual developed image display control unit 74 is displayed, and the lesion detection result display control unit 76 displays the lesion presence. The presence of a lesion detected by the detection unit 62 is determined based on the outline image 112 of the luminal organ, the virtual endoscopic image 116 of the luminal organ, the global virtual endoscopic image 118, and the virtual development of the luminal organ. Since it is displayed on a portion corresponding to the detected lesion in at least one of the images 120, a practical and easy-to-understand endoscope is displayed by displaying the detected lesion on each image. It can be realized navigation.

前記マッチング処理部54は、前記仮想芯線100の形状に基づいてその仮想芯線100における複数のランドマーク106を検出し、検出された前記仮想芯線100における複数のランドマーク106から前記内視鏡線98までの距離に基づいて前記仮想芯線100と前記内視鏡線98との対応関係を導出するものであるため、好適且つ実用的な態様で前記管腔臓器の仮想芯線100と前記内視鏡24の形状を示す内視鏡線98との対応関係を導出できる。   The matching processing unit 54 detects a plurality of landmarks 106 in the virtual core wire 100 based on the shape of the virtual core wire 100, and the endoscope line 98 from the detected plurality of landmarks 106 in the virtual core wire 100. Since the correspondence relationship between the virtual core line 100 and the endoscope line 98 is derived based on the distance up to, the virtual core line 100 of the luminal organ and the endoscope 24 in a suitable and practical manner. It is possible to derive the correspondence with the endoscope line 98 indicating the shape of

前記マッチング処理部54は、前記ランドマーク106相互間における前記仮想芯線100上の各点及び前記内視鏡線98上の各点における対応関係を線形補間により導出するものであるため、好適且つ実用的な態様で前記管腔臓器の仮想芯線100と前記内視鏡24の形状を示す内視鏡線98との対応関係を導出できる。   The matching processing unit 54 derives a correspondence relationship between each point on the virtual core line 100 and each point on the endoscope line 98 between the landmarks 106 by linear interpolation. The correspondence relationship between the virtual core wire 100 of the hollow organ and the endoscope line 98 indicating the shape of the endoscope 24 can be derived in a specific manner.

前記マッチング処理部54は、相互に隣接する前記ランドマーク106相互間に含まれる前記内視鏡線98の長さが変更される毎に、前記仮想芯線100と前記内視鏡線98との対応関係を更新するものであるため、前記管腔臓器から内視鏡24が引き抜かれたり挿入されたたりする毎に、前記管腔臓器の仮想芯線100と前記内視鏡24の形状を示す内視鏡線98との対応関係をリアルタイムで導出できる。   Whenever the length of the endoscope line 98 included between the landmarks 106 adjacent to each other is changed, the matching processing unit 54 associates the virtual core line 100 with the endoscope line 98. Since the relationship is updated, each time the endoscope 24 is pulled out or inserted from the hollow organ, the virtual core 100 of the hollow organ and the endoscope showing the shape of the endoscope 24 are displayed. The correspondence with the mirror line 98 can be derived in real time.

以上、本発明の好適な実施例を図面に基づいて詳細に説明したが、本発明はこれに限定されるものではなく、更に別の態様においても実施される。   The preferred embodiments of the present invention have been described in detail with reference to the drawings. However, the present invention is not limited to these embodiments, and may be implemented in other modes.

例えば、前述の実施例において、前記支援装置10は、前記内視鏡24による管腔臓器としての大腸の観察を支援するものであったが、本発明はこれに限定されるものではなく、例えば、前記内視鏡24による小腸等の管腔臓器の観察を支援するものであってもよい。   For example, in the above-described embodiment, the support device 10 supports the observation of the large intestine as a luminal organ by the endoscope 24, but the present invention is not limited to this. The endoscope 24 may support observation of a luminal organ such as a small intestine.

前述の実施例において、前記内視鏡24は、その先端部に単一の観察部34を備えたものであったが、前記管状部32の先端部に加え、或いは先端部を除く中腹に単数乃至複数の観察部34を備えたものであってもよい。斯かる内視鏡24による観察において、前記支援装置10における観察位置推定部60は、好適には、前記内視鏡24における複数の観察部34それぞれに対応する観察位置を推定する。   In the above-described embodiment, the endoscope 24 is provided with the single observation part 34 at the distal end thereof. However, the endoscope 24 is singular in addition to the distal end of the tubular part 32 or in the middle part excluding the distal end. Thru | or the thing provided with the some observation part 34 may be sufficient. In such observation by the endoscope 24, the observation position estimation unit 60 in the support device 10 preferably estimates observation positions corresponding to the plurality of observation units 34 in the endoscope 24, respectively.

前述の実施例においては、前記外形像112、仮想内視鏡画像116、及び仮想展開像120が、前記映像表示装置20における1画面に表示される表示態様について説明したが、複数の映像表示装置20が設けられており、前記外形像112、仮想内視鏡画像116、及び仮想展開像120がそれぞれ異なる画面(異なる映像表示装置)に表示されるものであっても当然に構わない。   In the above-described embodiment, the display mode in which the outline image 112, the virtual endoscopic image 116, and the virtual developed image 120 are displayed on one screen in the video display device 20 has been described. Of course, the outer shape image 112, the virtual endoscopic image 116, and the virtual developed image 120 may be displayed on different screens (different video display devices).

前述の実施例において、前記内視鏡24の管状部32には、所定の間隔で4つの位置センサ42が設けられたものであったが、3つ以下の位置センサ或いは5つ以上の位置センサが設けられたものであってもよい。位置センサの数が多いほど、前記管腔臓器に対する前記内視鏡24(管状部32)の相対位置を好適に検出することができる。   In the above-described embodiment, the tubular portion 32 of the endoscope 24 is provided with four position sensors 42 at a predetermined interval. However, the number of position sensors is three or less, or five or more position sensors. May be provided. The greater the number of position sensors, the better the relative position of the endoscope 24 (tubular portion 32) relative to the luminal organ can be detected.

前述の実施例において、前記マッチング処理部54は、大腸に対応する前記仮想芯線100において5つのランドマーク106を検出するものであったが、4つ以下のランドマーク或いは6つ以上のランドマークを検出するものであってもよい。検出されるランドマークの数が多いほど、前記仮想芯線100と前記内視鏡線98との対応関係を好適に導出することができる。   In the above-described embodiment, the matching processing unit 54 detects five landmarks 106 in the virtual core wire 100 corresponding to the large intestine. However, the matching processing unit 54 detects four or less landmarks or six or more landmarks. It may be detected. The greater the number of landmarks detected, the better the correspondence between the virtual core line 100 and the endoscope line 98 can be derived.

その他、一々例示はしないが、本発明はその趣旨を逸脱しない範囲内において種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.

10:内視鏡観察支援装置、24:内視鏡、50:仮想芯線算出部、52:内視鏡線算出部、54:マッチング処理部、56:座標系レジストレーション処理部、60:観察位置推定部、62:病変存在検出部、64:病変報知制御部、70:臓器図像表示制御部、72:仮想内視鏡画像表示制御部、74:仮想展開像表示制御部、76:病変検出結果表示制御部、98:内視鏡線、100:仮想芯線、106:ランドマーク、112:外形像(図像)、114:観察位置、116、136、146:仮想内視鏡画像、116d、118d、120d、136d:病変部位、118:全球型仮想内視鏡画像、120:仮想展開像、120a:所定範囲、120b、120c:余の部分、138:仰臥仮想展開像、140:伏臥仮想展開像、142:病変の存在、144:警告   10: Endoscopic observation support device, 24: Endoscope, 50: Virtual core calculation unit, 52: Endoscope calculation unit, 54: Matching processing unit, 56: Coordinate system registration processing unit, 60: Observation position Estimator 62: Lesion presence detector 64: Lesion notification controller 70: Organ image display controller 72: Virtual endoscopic image display controller 74: Virtual developed image display controller 76: Lesion detection result Display control unit, 98: Endoscopic line, 100: Virtual core line, 106: Landmark, 112: Outline image (graphic image), 114: Observation position, 116, 136, 146: Virtual endoscopic image, 116d, 118d, 120d, 136d: lesion site, 118: global virtual endoscopic image, 120: virtual developed image, 120a: predetermined range, 120b, 120c: extra portion, 138: supine virtual developed image, 140: prone virtual developed image, 1 2: The presence of lesions, 144: warning

Claims (12)

予め得られた管腔臓器の3次元画像データに基づいて、該管腔臓器内に挿入された内視鏡による観察を支援する内視鏡観察支援装置であって、
前記3次元画像データに基づいて前記管腔臓器の長手方向に沿った仮想芯線を算出する仮想芯線算出部と、
前記管腔臓器内に挿入された前記内視鏡の形状を示す内視鏡線を算出する内視鏡線算出部と、
前記仮想芯線算出部により算出された前記仮想芯線と前記内視鏡線算出部により算出された前記内視鏡線との対応関係を導出するマッチング処理部と、
該マッチング処理部により導出された対応関係に基づいて前記管腔臓器内における前記内視鏡の観察位置を推定する観察位置推定部と
前記3次元画像データに基づいて前記管腔臓器の仮想展開像を表示させ、前記観察位置推定部により推定される前記内視鏡の観察位置を前記管腔臓器の仮想展開像上に表示させる仮想展開像表示制御部とを、備え、
前記仮想展開像表示制御部は、前記観察位置推定部により推定される前記内視鏡の観察位置の誤差に基づいて、前記管腔臓器の仮想展開像における前記内視鏡の観察位置を含む所定範囲の表示を、余の部分とは異なる表示とするものである
ことを特徴とする内視鏡観察支援装置。
An endoscopic observation support device that supports observation with an endoscope inserted into a hollow organ based on three-dimensional image data of the hollow organ obtained in advance,
A virtual core calculation unit that calculates a virtual core along the longitudinal direction of the luminal organ based on the three-dimensional image data;
An endoscope line calculation unit for calculating an endoscope line indicating the shape of the endoscope inserted into the lumen organ;
A matching processing unit for deriving a correspondence relationship between the virtual core line calculated by the virtual core line calculation unit and the endoscope line calculated by the endoscope line calculation unit;
An observation position estimation unit that estimates the observation position of the endoscope in the luminal organ based on the correspondence relationship derived by the matching processing unit ;
A virtual development image of the luminal organ is displayed based on the three-dimensional image data, and a virtual display image of the observation position of the endoscope estimated by the observation position estimation unit is displayed on the virtual development image of the luminal organ. A developed image display control unit,
The virtual developed image display control unit is a predetermined unit including an observation position of the endoscope in a virtual developed image of the luminal organ based on an error in the observation position of the endoscope estimated by the observation position estimation unit. An endoscope observation support apparatus characterized in that the display of the range is a display different from that of the remaining part .
前記仮想芯線算出部により算出された前記仮想芯線に対応する座標系と、前記内視鏡線算出部により算出された前記内視鏡線に対応する座標系との対応付けを行う座標系レジストレーション処理部を備え、
前記マッチング処理部は、該座標系レジストレーション処理部による対応付けの結果に基づいて、前記仮想芯線と前記内視鏡線との対応関係を導出するものである請求項1に記載の内視鏡観察支援装置。
Coordinate system registration for associating a coordinate system corresponding to the virtual core calculated by the virtual core calculator with a coordinate system corresponding to the endoscope calculated by the endoscope line calculator With a processing unit,
The endoscope according to claim 1, wherein the matching processing unit derives a correspondence relationship between the virtual core line and the endoscope line based on a result of association by the coordinate system registration processing unit. Observation support device.
前記マッチング処理部は、前記仮想芯線算出部により算出された前記仮想芯線について複数のランドマークを検出し、それら複数のランドマークに基づいて前記仮想芯線と前記内視鏡線との対応関係を導出するものである請求項1又は2に記載の内視鏡観察支援装置。   The matching processing unit detects a plurality of landmarks for the virtual core line calculated by the virtual core line calculation unit, and derives a correspondence relationship between the virtual core line and the endoscope line based on the plurality of landmarks. The endoscopic observation support device according to claim 1 or 2. 前記3次元画像データに基づいて前記管腔臓器の図像を表示させ、前記観察位置推定部により推定される前記内視鏡の観察位置を前記管腔臓器の図像上に表示させる臓器図像表示制御部を備えたものである請求項1から3の何れか1項に記載の内視鏡観察支援装置。   An organ image display control unit that displays a pictorial image of the luminal organ based on the three-dimensional image data, and displays an observation position of the endoscope estimated by the observation position estimation unit on a graphic image of the luminal organ. The endoscopic observation support apparatus according to any one of claims 1 to 3, further comprising: 前記3次元画像データに基づいて、前記観察位置推定部により推定される前記内視鏡の観察位置に対応する前記管腔臓器の仮想内視鏡画像を表示させる仮想内視鏡画像表示制御部を備えたものである請求項1から4の何れか1項に記載の内視鏡観察支援装置。   A virtual endoscopic image display control unit configured to display a virtual endoscopic image of the luminal organ corresponding to the observation position of the endoscope estimated by the observation position estimation unit based on the three-dimensional image data; The endoscope observation support apparatus according to any one of claims 1 to 4, wherein the endoscope observation support apparatus is provided. 前記仮想内視鏡画像表示制御部は、前記3次元画像データに基づいて、前記観察位置推定部により推定される前記内視鏡の観察位置に対応する前記管腔臓器の全球型仮想内視鏡画像を表示させるものである請求項5に記載の内視鏡観察支援装置。   The virtual endoscopic image display control unit is a global virtual endoscope of the luminal organ corresponding to the observation position of the endoscope estimated by the observation position estimation unit based on the three-dimensional image data. The endoscope observation support apparatus according to claim 5, which displays an image. 前記3次元画像データに基づいて前記管腔臓器における病変の存在を検出する病変存在検出部と、
該病変存在検出部による検出結果を表示させる病変検出結果表示制御部と
を、備えたものである請求項1からの何れか1項に記載の内視鏡観察支援装置。
A lesion presence detector that detects the presence of a lesion in the hollow organ based on the three-dimensional image data;
The endoscopic observation support apparatus according to any one of claims 1 to 6 , further comprising a lesion detection result display control unit configured to display a detection result by the lesion presence detection unit.
前記観察位置推定部により推定される前記内視鏡の観察位置が、前記病変存在検出部により検出された病変付近に達した場合には、その旨の報知を行う病変報知制御部を備えたものである請求項に記載の内視鏡観察支援装置。 When the observation position of the endoscope estimated by the observation position estimation unit reaches the vicinity of a lesion detected by the lesion presence detection unit, a lesion notification control unit that notifies that fact is provided The endoscope observation support apparatus according to claim 7 . 請求項4に記載の臓器図像表示制御部により表示される前記管腔臓器の図像、
請求項5又は6に記載の仮想内視鏡画像表示制御部により表示される前記管腔臓器の仮想内視鏡画像、
及び、請求項に記載の仮想展開像表示制御部により表示される前記管腔臓器の仮想展開像
のうち少なくとも1つを表示させ、
請求項に記載の病変検出結果表示制御部は、請求項に記載の病変存在検出部により検出された病変の存在を、前記管腔臓器の図像、前記管腔臓器の仮想内視鏡画像、及び前記管腔臓器の仮想展開像のうち少なくとも1つにおける、検出された病変に対応する部位に表示させるものである
ことを特徴とする内視鏡観察支援装置。
An image of the luminal organ displayed by the organ image display control unit according to claim 4,
A virtual endoscopic image of the luminal organ displayed by the virtual endoscopic image display control unit according to claim 5 or 6,
And displaying at least one of the virtual developed images of the luminal organ displayed by the virtual developed image display control unit according to claim 1 ,
Lesion detection result display control unit according to claim 7, for the presence of lesions detected by the lesion-existence detection portion according to claim 7, wherein the luminal organ iconography, virtual endoscopic image of the luminal organ And at least one of the virtual developed images of the luminal organ displayed on a site corresponding to the detected lesion.
前記マッチング処理部は、前記仮想芯線の形状に基づいて該仮想芯線における複数のランドマークを検出し、検出された前記仮想芯線における複数のランドマークから前記内視鏡線までの距離に基づいて前記仮想芯線と前記内視鏡線との対応関係を導出するものである請求項3に記載の内視鏡観察支援装置。   The matching processing unit detects a plurality of landmarks in the virtual core line based on the shape of the virtual core line, and based on distances from the plurality of landmarks in the detected virtual core line to the endoscope line The endoscope observation support apparatus according to claim 3, wherein a correspondence relationship between a virtual core line and the endoscope line is derived. 前記マッチング処理部は、前記ランドマーク相互間における前記仮想芯線上の各点及び前記内視鏡線上の各点における対応関係を線形補間により導出するものである請求項3又は10に記載の内視鏡観察支援装置。 The endoscope according to claim 3 or 10 , wherein the matching processing unit derives a correspondence relationship between each point on the virtual core line and each point on the endoscope line between the landmarks by linear interpolation. Mirror observation support device. 前記マッチング処理部は、相互に隣接する前記ランドマーク相互間に含まれる前記内視鏡線の長さが変更される毎に、前記仮想芯線と前記内視鏡線との対応関係を更新するものである請求項3、10、及び11の何れか1項に記載の内視鏡観察支援装置。 The matching processing unit updates the correspondence between the virtual core line and the endoscope line every time the length of the endoscope line included between the landmarks adjacent to each other is changed. The endoscopic observation support device according to any one of claims 3, 10 , and 11 .
JP2013112396A 2013-05-28 2013-05-28 Endoscopic observation support device Active JP6206869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013112396A JP6206869B2 (en) 2013-05-28 2013-05-28 Endoscopic observation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013112396A JP6206869B2 (en) 2013-05-28 2013-05-28 Endoscopic observation support device

Publications (2)

Publication Number Publication Date
JP2014230612A JP2014230612A (en) 2014-12-11
JP6206869B2 true JP6206869B2 (en) 2017-10-04

Family

ID=52124393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013112396A Active JP6206869B2 (en) 2013-05-28 2013-05-28 Endoscopic observation support device

Country Status (1)

Country Link
JP (1) JP6206869B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163262B2 (en) * 2015-06-19 2018-12-25 Covidien Lp Systems and methods for navigating through airways in a virtual bronchoscopy view
WO2017068650A1 (en) * 2015-10-20 2017-04-27 オリンパス株式会社 Insertion body support system
JP6633383B2 (en) * 2015-12-17 2020-01-22 株式会社Aze Image diagnosis support apparatus and control method thereof, program and storage medium
EP3603483A4 (en) 2017-03-30 2020-04-22 FUJIFILM Corporation Endoscope system and method for operating same
JP7148534B2 (en) * 2017-10-31 2022-10-05 富士フイルム株式会社 Image processing device, program, and endoscope system
JP6840263B2 (en) * 2017-10-31 2021-03-10 富士フイルム株式会社 Endoscope system and program
WO2019130868A1 (en) * 2017-12-25 2019-07-04 富士フイルム株式会社 Image processing device, processor device, endoscope system, image processing method, and program
JP2022071617A (en) 2020-10-28 2022-05-16 富士フイルム株式会社 Endoscope system and endoscope device
WO2023100310A1 (en) * 2021-12-02 2023-06-08 日本電気株式会社 Endoscopic examination assistance device, endoscopic examination assistance system, endoscopic examination assistance method, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4676021B2 (en) * 2009-04-16 2011-04-27 富士フイルム株式会社 Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP2011189074A (en) * 2010-03-16 2011-09-29 Olympus Medical Systems Corp Medical device
JP5435360B2 (en) * 2010-03-31 2014-03-05 国立大学法人名古屋大学 Virtual endoscopic device with global view
JP2012024518A (en) * 2010-07-28 2012-02-09 Fujifilm Corp Device, method, and program for assisting endoscopic observation
JP5918548B2 (en) * 2012-01-24 2016-05-18 富士フイルム株式会社 Endoscopic image diagnosis support apparatus, operation method thereof, and endoscopic image diagnosis support program

Also Published As

Publication number Publication date
JP2014230612A (en) 2014-12-11

Similar Documents

Publication Publication Date Title
JP6206869B2 (en) Endoscopic observation support device
JP7154832B2 (en) Improving registration by orbital information with shape estimation
US10085672B2 (en) Diagnostic endoscopic imaging support apparatus and method, and non-transitory computer readable medium on which is recorded diagnostic endoscopic imaging support program
US8248414B2 (en) Multi-dimensional navigation of endoscopic video
US7824328B2 (en) Method and apparatus for tracking a surgical instrument during surgery
US7945310B2 (en) Surgical instrument path computation and display for endoluminal surgery
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5369078B2 (en) Medical image processing apparatus and method, and program
US8696547B2 (en) System and method for determining airway diameter using endoscope
US20120053408A1 (en) Endoscopic image processing device, method and program
JP6049202B2 (en) Image processing apparatus, method, and program
US20080071141A1 (en) Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
JP6254053B2 (en) Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus
JP2006519631A (en) Execution system and execution method for virtual endoscopy
JP7254742B2 (en) Program, information processing method, information processing device, and diagnosis support system
JP2012165838A (en) Endoscope insertion support device
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
Kumar et al. Stereoscopic visualization of laparoscope image using depth information from 3D model
EP4177664A1 (en) Program, information processing method, and endoscope system
JP4981336B2 (en) Medical image processing apparatus and medical image processing method
US20240057847A1 (en) Endoscope system, lumen structure calculation system, and method for creating lumen structure information
JP2015000094A (en) Virtual endoscope image generating apparatus, method, and program
Armin Automated visibility map from colonoscopy video to support clinical diagnosis and improve the quality of colonoscopy
WO2023275974A1 (en) Image processing device, image processing method, and storage medium
WO2022239518A1 (en) Program, information processing method, and endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R150 Certificate of patent or registration of utility model

Ref document number: 6206869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250