JP2015107268A - Endoscope observation support device - Google Patents

Endoscope observation support device Download PDF

Info

Publication number
JP2015107268A
JP2015107268A JP2013252454A JP2013252454A JP2015107268A JP 2015107268 A JP2015107268 A JP 2015107268A JP 2013252454 A JP2013252454 A JP 2013252454A JP 2013252454 A JP2013252454 A JP 2013252454A JP 2015107268 A JP2015107268 A JP 2015107268A
Authority
JP
Japan
Prior art keywords
endoscope
image
observation
ultrasonic probe
ultrasonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013252454A
Other languages
Japanese (ja)
Other versions
JP6270026B2 (en
Inventor
健策 森
Kensaku Mori
健策 森
雄彪 羅
Xiongbiao Luo
雄彪 羅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2013252454A priority Critical patent/JP6270026B2/en
Publication of JP2015107268A publication Critical patent/JP2015107268A/en
Application granted granted Critical
Publication of JP6270026B2 publication Critical patent/JP6270026B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an endoscope observation support device which effectively supports observation with an ultrasonic probe.SOLUTION: An endoscope observation support device includes: an ultrasonic probe 32 which can change a projection amount from an endoscope tip part; a sensor device 18 which detects the tip positions of an endoscope 26 and the ultrasonic probe 32; a camera/ultrasonic image observation position estimation part 56 which performs association between the observation positions of the endoscope 26 and the ultrasonic probe 32 in a three-dimensional image of luminal organs constructed based on three-dimensional image data; an ultrasonic image acquisition part 48 which consecutively acquires a plurality of ultrasonic images of the observation positions while changing the projection amount of the ultrasonic probe 32; and an ultrasonic image three-dimensional reconstruction part 72 which reconstructs a three-dimensional image of the observation position by the ultrasonic probe 32 on the basis of the plurality of acquired ultrasonic images, suitably grasps correspondence between the observation position of the ultrasonic probe 32 and the three-dimensional image of luminal organs and reconstructs a three-dimensional image of a target site.

Description

本発明は、管腔臓器内に挿入された内視鏡による観察を支援する内視鏡観察支援装置に関し、特に、内視鏡に備えられた超音波プローブによる観察を効果的に支援するための改良に関する。   The present invention relates to an endoscope observation support apparatus that supports observation with an endoscope inserted into a hollow organ, and in particular, to effectively support observation with an ultrasonic probe provided in the endoscope. Regarding improvements.

現在、被検体の管腔臓器の検査として、その管腔臓器内に内視鏡を挿入して内部の画像を取得する内視鏡検査が行われている。例えば、気管支内腔の検査として、被検体の口又は鼻から内視鏡(気管支鏡)を挿入する気管支鏡検査が行われる。この気管支鏡検査では、内視鏡によって気管支内腔の表面性状の観察を行うことができる。しかし、内視鏡による観察では、気管支内腔よりも外側(気管支壁の向こう側)における組織の観察は困難である。このため、肺癌等の病変が疑われる部位に対しては、病変がどの程度まで浸潤しているか等の調査を行うために、例えば内視鏡の鉗子口から超音波プローブが挿入される。そして、前記超音波プローブにより取得される超音波画像に基づいて、目的となる部位の観察延いては診断が行われる。   At present, as an examination of a luminal organ of a subject, an endoscopic examination is performed in which an endoscope is inserted into the luminal organ to acquire an internal image. For example, bronchoscopy in which an endoscope (bronchoscope) is inserted from the mouth or nose of a subject is performed as an inspection of the bronchial lumen. In this bronchoscopy, the surface properties of the bronchial lumen can be observed with an endoscope. However, in observation with an endoscope, it is difficult to observe a tissue outside the bronchial lumen (on the other side of the bronchial wall). For this reason, an ultrasonic probe is inserted into, for example, a forceps opening of an endoscope in order to investigate to what extent the lesion has infiltrated into a region suspected of having a lesion such as lung cancer. Then, based on the ultrasonic image acquired by the ultrasonic probe, the observation of the target portion and the diagnosis are performed.

前記のような内視鏡検査に関して、前記内視鏡による観察を支援(ナビゲーション)する技術が提案されている。例えば、特許文献1及び非特許文献1に記載された技術がその一例である。特許文献1に記載された技術は、内視鏡を挿入する場合にどの枝に挿入すればよいかを示すことで、内視鏡を目的となる部位まで誘導するものである。非特許文献1に記載された技術は、内視鏡挿入長センサによって得られる情報と内視鏡カメラから得られる画像、そして、内視鏡検査前に予め撮影されるCT画像から生成される仮想化内視鏡像を利用して、現在の内視鏡の位置を推定するものである。   With respect to the endoscopy as described above, a technique for supporting (navigating) observation with the endoscope has been proposed. For example, the techniques described in Patent Literature 1 and Non-Patent Literature 1 are examples. The technique described in Patent Document 1 guides an endoscope to a target site by indicating which branch should be inserted when the endoscope is inserted. The technique described in Non-Patent Document 1 is a virtual that is generated from information obtained by an endoscope insertion length sensor, an image obtained from an endoscope camera, and a CT image taken in advance before endoscopy. The position of the current endoscope is estimated using the modified endoscope image.

特許第4822142号公報Japanese Patent No. 4822142

Xiongbiao Luo, Takayuki Kitasaka, Kensaku Mori, "Externally Navigated bronchoscopy using 2-D motion sensors: Dynamic phantom validation," IEEE Transactions on Medical Imaging, DOI(identifier) 10.1109/TMI.2013.2263152(2013/05/08)Xiongbiao Luo, Takayuki Kitasaka, Kensaku Mori, "Externally Navigated bronchoscopy using 2-D motion sensors: Dynamic phantom validation," IEEE Transactions on Medical Imaging, DOI (identifier) 10.1109 / TMI.2013.2263152 (2013/05/08)

ところで、基端部からの突出量を変更できる超音波プローブを備えた内視鏡においては、前記超音波プローブの突出量の変更によりその超音波プローブによる観察位置と前記内視鏡による観察位置との対応関係が変化し、更には前記超音波プローブの観察位置と前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像との対応関係も変化する。このため、前記従来の技術では、内視鏡に備えられた超音波プローブによる観察を必ずしも効率的に支援することができなかった。このような課題は、超音波プローブを備えた内視鏡の性能向上を意図して本発明者等が鋭意研究を継続する過程において新たに見出したものである。   By the way, in an endoscope provided with an ultrasonic probe capable of changing the amount of protrusion from the base end, the observation position by the ultrasonic probe and the observation position by the endoscope are changed by changing the protrusion amount of the ultrasonic probe. And the corresponding relationship between the observation position of the ultrasonic probe and the three-dimensional image of the hollow organ constructed based on the three-dimensional image data also changes. For this reason, the conventional technique cannot always efficiently support the observation with the ultrasonic probe provided in the endoscope. Such a problem has been newly found in the process of continual research by the present inventors with the intention of improving the performance of an endoscope equipped with an ultrasonic probe.

本発明は、以上の事情を背景として為されたものであり、その目的とするところは、超音波プローブによる観察を効果的に支援する内視鏡観察支援装置を提供することにある。   The present invention has been made in the background of the above circumstances, and an object of the present invention is to provide an endoscope observation support apparatus that effectively supports observation with an ultrasonic probe.

斯かる目的を達成するために、本第1発明の要旨とするところは、予め得られた管腔臓器の3次元画像データに基づいて、その管腔臓器内に挿入された内視鏡による観察を支援する内視鏡観察支援装置であって、基端部からの突出量を変更できる超音波プローブと、前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出する先端位置検出部と、その先端位置検出部による検出結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像における、前記内視鏡による観察位置及び前記超音波プローブによる観察位置の対応付けを行う観察位置対応付部と、前記超音波プローブにおける前記基端部からの突出量を変化させつつ前記超音波プローブによる観察位置の超音波画像を連続的に複数取得する超音波画像取得部と、その超音波画像取得部により取得された複数の超音波画像に基づいて、前記超音波プローブによる観察位置の3次元画像を再構築する3次元画像再構築部とを、備えたことを特徴とするものである。   In order to achieve such an object, the gist of the first aspect of the present invention is that observation based on a three-dimensional image data of a hollow organ obtained in advance by an endoscope inserted into the hollow organ is provided. An ultrasonic observation support device that supports the ultrasound probe, which can change the amount of protrusion from the proximal end portion, and the distal end position detection unit that detects the distal end position of the endoscope and the distal end position of the ultrasonic probe And an observation position by the endoscope and an observation position by the ultrasonic probe in the three-dimensional image of the hollow organ constructed based on the three-dimensional image data based on the detection result by the tip position detection unit And an ultrasonic wave that continuously acquires a plurality of ultrasonic images of the observation position by the ultrasonic probe while changing the amount of protrusion from the base end part of the ultrasonic probe. An image acquisition unit, and a three-dimensional image reconstruction unit that reconstructs a three-dimensional image of the observation position by the ultrasonic probe based on a plurality of ultrasonic images acquired by the ultrasonic image acquisition unit. It is characterized by this.

このように、前記第1発明によれば、基端部からの突出量を変更できる超音波プローブと、前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出する先端位置検出部と、その先端位置検出部による検出結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像における、前記内視鏡による観察位置及び前記超音波プローブによる観察位置の対応付けを行う観察位置対応付部と、前記超音波プローブにおける前記基端部からの突出量を変化させつつ前記超音波プローブによる観察位置の超音波画像を連続的に複数取得する超音波画像取得部と、その超音波画像取得部により取得された複数の超音波画像に基づいて、前記超音波プローブによる観察位置の3次元画像を再構築する3次元画像再構築部とを、備えたものであることから、前記超音波プローブによる観察位置と前記内視鏡による観察位置との対応関係が変化し、更には前記超音波プローブの観察位置と前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像との対応関係が変化した場合においても、前記超音波プローブによる観察位置と前記内視鏡による観察位置、更には前記管腔臓器の3次元画像との対応関係を好適に把握し、目的となる部位の3次元画像を再構築できる。すなわち、超音波プローブによる観察を効果的に支援する内視鏡観察支援装置を提供することができる。   As described above, according to the first aspect of the present invention, the ultrasonic probe that can change the amount of protrusion from the proximal end portion, and the distal end position detection unit that detects the distal end position of the endoscope and the distal end position of the ultrasonic probe, Based on the detection result by the tip position detection unit, the observation position by the endoscope and the observation position by the ultrasonic probe in the three-dimensional image of the hollow organ constructed based on the three-dimensional image data Ultrasound image acquisition for continuously acquiring a plurality of ultrasonic images of observation positions by the ultrasonic probe while changing the projection amount from the base end part of the ultrasonic probe, and an observation position association unit that performs association And a three-dimensional image reconstruction unit that reconstructs a three-dimensional image of the observation position by the ultrasonic probe based on a plurality of ultrasonic images acquired by the ultrasonic image acquisition unit. Since the correspondence relationship between the observation position by the ultrasonic probe and the observation position by the endoscope changes, it is constructed based on the observation position of the ultrasonic probe and the three-dimensional image data. Even when the correspondence relationship with the three-dimensional image of the luminal organ changes, the correspondence between the observation position by the ultrasonic probe and the observation position by the endoscope, and further, the three-dimensional image of the luminal organ It is possible to appropriately grasp the relationship and reconstruct a three-dimensional image of the target part. That is, it is possible to provide an endoscope observation support apparatus that effectively supports observation with an ultrasonic probe.

前記第1発明に従属する本第2発明の要旨とするところは、前記超音波画像取得部により取得された複数の超音波画像に基づいて、前記超音波プローブによる観察位置における特定部位の3次元画像を抽出する特定部位画像抽出部と、前記観察位置対応付部による対応付けの結果に基づいて、前記特定部位画像抽出部により抽出された前記特定部位の3次元画像を、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像に合成表示させる特定部位画像合成表示部とを、備えたものである。このようにすれば、前記超音波プローブにより取得される超音波画像に基づいて、観察対象となる管腔臓器の3次元画像上に、病変部をはじめとする特定部位の3次元画像を好適に合成表示できる。   The gist of the second invention subordinate to the first invention is that a three-dimensional portion of a specific part at an observation position by the ultrasonic probe is based on a plurality of ultrasonic images acquired by the ultrasonic image acquiring unit. A three-dimensional image of the specific part extracted by the specific part image extraction unit based on a result of association by the specific part image extraction unit for extracting an image and the observation position association unit is converted into the three-dimensional image data. And a specific part image composition display unit that composes and displays a three-dimensional image of the luminal organ constructed based on the above. In this way, based on the ultrasonic image acquired by the ultrasonic probe, a three-dimensional image of a specific part including the lesioned part is suitably displayed on the three-dimensional image of the luminal organ to be observed. Composite display is possible.

前記第1発明又は第2発明に従属する本第3発明の要旨とするところは、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像と、前記内視鏡により取得される内視鏡画像と、前記超音波プローブにより取得される超音波画像とを、同期して表示させる画像表示制御部を備えたものである。このようにすれば、観察対象である管腔臓器の3次元画像、内視鏡画像、及び超音波画像を表示させる実用的なナビゲーションを実現できる。   The gist of the third invention subordinate to the first invention or the second invention is that the three-dimensional image of the luminal organ constructed based on the three-dimensional image data is acquired by the endoscope. An image display control unit that synchronously displays an endoscopic image and an ultrasonic image acquired by the ultrasonic probe. In this way, practical navigation for displaying a three-dimensional image, an endoscopic image, and an ultrasonic image of the luminal organ to be observed can be realized.

前記第1発明から第3発明の何れかに従属する本第4発明の要旨とするところは、前記観察位置対応付部による対応付けの結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像上に、前記超音波プローブによる観察位置を表示させる観察位置表示制御部を備えたものである。このようにすれば、超音波プローブによる観察位置を、観察対象である管腔臓器の3次元画像上に表示させる実用的なナビゲーションを実現できる。   The gist of the fourth invention according to any one of the first to third inventions is constructed based on the three-dimensional image data based on the result of association by the observation position association unit. An observation position display control unit for displaying an observation position by the ultrasonic probe on a three-dimensional image of the luminal organ. In this way, practical navigation for displaying the observation position by the ultrasonic probe on the three-dimensional image of the luminal organ to be observed can be realized.

前記第1発明から第4発明の何れかに従属する本第5発明の要旨とするところは、前記先端位置検出部は、前記内視鏡の先端部及び前記超音波プローブの先端部にそれぞれ設けられた磁気式位置センサの検出結果に基づいて、前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出するものである。このようにすれば、実用的な態様で前記内視鏡及び前記超音波プローブの先端位置を検出できる。   The gist of the fifth invention according to any one of the first to fourth inventions is that the tip position detector is provided at the tip of the endoscope and the tip of the ultrasonic probe, respectively. The tip position of the endoscope and the tip position of the ultrasonic probe are detected based on the detection result of the magnetic position sensor. In this way, the tip positions of the endoscope and the ultrasonic probe can be detected in a practical manner.

前記第1発明から第4発明の何れかに従属する本第6発明の要旨とするところは、前記先端位置検出部は、前記内視鏡の先端部に設けられた磁気式位置センサの検出結果に基づいて前記内視鏡の先端位置を検出し、その内視鏡の先端位置及び前記超音波プローブの挿入長を検出する超音波プローブ挿入長センサの検出結果に基づいて前記超音波プローブの先端位置を検出するものである。このようにすれば、実用的な態様で前記内視鏡及び前記超音波プローブの先端位置を検出できる。   The gist of the sixth invention according to any one of the first to fourth inventions is that the tip position detecting unit is a detection result of a magnetic position sensor provided at the tip of the endoscope. The tip of the ultrasonic probe is detected based on the detection result of the ultrasonic probe insertion length sensor that detects the tip position of the endoscope and the insertion length of the ultrasonic probe. The position is detected. In this way, the tip positions of the endoscope and the ultrasonic probe can be detected in a practical manner.

前記第1発明から第4発明の何れかに従属する本第7発明の要旨とするところは、前記先端位置検出部は、前記内視鏡の挿入長を検出する内視鏡挿入長センサの検出結果と、前記超音波プローブの挿入長を検出する超音波プローブ挿入長センサの検出結果とに基づいて、前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出するものである。このようにすれば、実用的な態様で前記内視鏡及び前記超音波プローブの先端位置を検出できる。   The gist of the seventh invention according to any one of the first to fourth inventions is that the distal end position detector detects an insertion length sensor of the endoscope that detects the insertion length of the endoscope. Based on the result and the detection result of the ultrasonic probe insertion length sensor for detecting the insertion length of the ultrasonic probe, the tip position of the endoscope and the tip position of the ultrasonic probe are detected. In this way, the tip positions of the endoscope and the ultrasonic probe can be detected in a practical manner.

本発明の実施例である内視鏡観察支援装置の構成を例示する図である。It is a figure which illustrates the structure of the endoscope observation assistance apparatus which is an Example of this invention. 図1に示す内視鏡観察支援装置に備えられた内視鏡本体の構成を概略的に説明する図である。It is a figure which illustrates roughly the structure of the endoscope main body with which the endoscope observation assistance apparatus shown in FIG. 1 was equipped. 図2に示す内視鏡本体における管状部の端部の構成を概略的に示す図である。It is a figure which shows schematically the structure of the edge part of the tubular part in the endoscope main body shown in FIG. 超音波プローブ挿入長センサを用いて超音波プローブの先端位置検出を行う態様における、図2に示す内視鏡本体の構成を模式的に示す図である。It is a figure which shows typically the structure of the endoscope main body shown in FIG. 2 in the aspect which detects the front-end | tip position of an ultrasonic probe using an ultrasonic probe insertion length sensor. 図1に示す内視鏡観察支援装置による、被検体の肺に係る各種情報の抽出について説明する図である。It is a figure explaining extraction of the various information which concerns on the lungs of a subject by the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置により生成される気管支の図像の一例を模式的に示す図である。It is a figure which shows typically an example of the image of the bronchus produced | generated by the endoscope observation assistance apparatus shown in FIG. 図6に示す気管支の図像に対応して検出される病変部について説明する図である。It is a figure explaining the lesioned part detected corresponding to the image of the bronchus shown in FIG. 図1に示す内視鏡観察支援装置の超音波プローブにより病変部の超音波画像が取得される様子を説明する図である。It is a figure explaining a mode that the ultrasonic image of a lesioned part is acquired with the ultrasonic probe of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の超音波プローブにより連続的に取得された複数の超音波画像に基づく病変部の3次元画像の再構築について説明する図である。It is a figure explaining reconstruction of the three-dimensional image of the lesion part based on the several ultrasonic image acquired continuously by the ultrasonic probe of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の観察に際して映像表示装置に表示される観察画面の一例を示す図である。It is a figure which shows an example of the observation screen displayed on a video display apparatus at the time of observation of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の観察に際して映像表示装置に表示される観察画面の他の一例を示す図である。It is a figure which shows another example of the observation screen displayed on a video display apparatus at the time of observation of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の観察に際して映像表示装置に表示される観察画面の更に別の一例を示す図である。It is a figure which shows another example of the observation screen displayed on a video display apparatus at the time of observation of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の観察に際して映像表示装置に表示される観察画面の更に別の一例を示す図である。It is a figure which shows another example of the observation screen displayed on a video display apparatus at the time of observation of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の観察に際して映像表示装置に表示される観察画面の更に別の一例を示す図である。It is a figure which shows another example of the observation screen displayed on a video display apparatus at the time of observation of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の観察に際して映像表示装置に表示される観察画面の更に別の一例を示す図である。It is a figure which shows another example of the observation screen displayed on a video display apparatus at the time of observation of the endoscope observation assistance apparatus shown in FIG. 図1に示す内視鏡観察支援装置の制御装置による内視鏡に対応する座標系と磁気式位置センサに対応する座標系との変換行列決定制御の一例の要部を説明するフローチャートである。7 is a flowchart for explaining a main part of an example of transformation matrix determination control between a coordinate system corresponding to an endoscope and a coordinate system corresponding to a magnetic position sensor by the control device of the endoscope observation support apparatus shown in FIG. 1. 図1に示す内視鏡観察支援装置の制御装置による超音波プローブに対応する座標系と磁気式位置センサに対応する座標系との変換行列決定制御の一例の要部を説明するフローチャートである。6 is a flowchart for explaining a main part of an example of transformation matrix determination control between a coordinate system corresponding to an ultrasonic probe and a coordinate system corresponding to a magnetic position sensor by the control device of the endoscope observation support apparatus shown in FIG. 1. 図1に示す内視鏡観察支援装置の制御装置による3次元仮想画像に対応する座標系と磁気式位置センサに対応する座標系との変換行列決定制御の一例の要部を説明するフローチャートである。3 is a flowchart for explaining a main part of an example of transformation matrix determination control between a coordinate system corresponding to a three-dimensional virtual image and a coordinate system corresponding to a magnetic position sensor by the control device of the endoscope observation support apparatus shown in FIG. 1. . 図1に示す内視鏡観察支援装置の制御装置による内視鏡観察支援制御の一例の要部を説明するフローチャートである。It is a flowchart explaining the principal part of an example of the endoscopic observation assistance control by the control apparatus of the endoscopic observation assistance apparatus shown in FIG.

以下、本発明の好適な実施例について、図面を参照しつつ詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例である内視鏡観察支援装置10(以下、単に支援装置10という)の構成を例示する図である。この図1に示すように、本実施例の支援装置10は、制御装置12と、映像表示装置14と、内視鏡装置16と、センサ装置18と、内視鏡本体20とを、備えて構成されている。前記制御装置12は、例えば、CPUによりRAMの一時記憶機能を利用しつつROMに予め記憶された所定のプログラムに基づいて電子情報を処理・制御する所謂コンピュータである。前記映像表示装置14は、好適には、TFT(Thin Film Transistor Liquid Crystal)等の公知の表示装置(ディスプレイ)であり、出力インターフェイスを介して前記制御装置12等に接続されている。   FIG. 1 is a diagram illustrating the configuration of an endoscope observation support apparatus 10 (hereinafter simply referred to as support apparatus 10) that is an embodiment of the present invention. As shown in FIG. 1, the support device 10 according to the present embodiment includes a control device 12, a video display device 14, an endoscope device 16, a sensor device 18, and an endoscope body 20. It is configured. The control device 12 is, for example, a so-called computer that processes and controls electronic information based on a predetermined program stored in advance in a ROM while using a temporary storage function of a RAM by a CPU. The video display device 14 is preferably a known display device (display) such as a TFT (Thin Film Transistor Liquid Crystal), and is connected to the control device 12 and the like via an output interface.

図2は、前記内視鏡本体20の構成を概略的に説明する図である。この図2に示すように、前記内視鏡本体20は、長手管状に形成された可曲性(可撓性)の管状部22と、その管状部22における一方の端部に設けられた操作部24とを、備えて構成されている。前記管状部22は、前記操作部24に設けられた図示しないアングル(つまみ)等による操作に応じて、前記管状部22の先端部すなわち前記操作部24とは逆側の端部22aの指向する方向を自在に変化させられるように構成されている。前記管状部22には、好適には、生検鉗子をはじめとする処置具の出し入れを行うための構成である鉗子口(器具挿入チャンネル)や、空気や水を送出或いは吸引するためのパイプ等が組み込まれている。斯かる構成については、図3等を用いて後述する。   FIG. 2 is a diagram schematically illustrating the configuration of the endoscope body 20. As shown in FIG. 2, the endoscope body 20 includes a bendable (flexible) tubular portion 22 formed in a long tubular shape, and an operation provided at one end of the tubular portion 22. The unit 24 is provided. The tubular portion 22 is directed to the distal end portion of the tubular portion 22, that is, the end portion 22 a opposite to the operation portion 24, in response to an operation by an angle (knob) (not shown) provided in the operation portion 24. It is configured so that the direction can be freely changed. Preferably, the tubular portion 22 is a forceps port (instrument insertion channel) that is a configuration for taking in and out a treatment tool such as a biopsy forceps, a pipe for sending or sucking air or water, and the like. Is incorporated. Such a configuration will be described later with reference to FIG.

前記管状部22には、内視鏡26が設けられている。この内視鏡26は、管腔臓器の観察に用いられる公知の電子スコープ或いはファイバスコープ等であり、好適には、主に気管や気管支の観察に用いられる気管支鏡(bronchoscope)である。前記内視鏡26は、前記管状部22における前記操作部24とは逆側の端部(先端部)22aに設けられた観察部28と、その観察部28に接続されると共に前記管状部22内に設けられたケーブル部30とを、備えて構成されている。前記内視鏡26は、前記ケーブル部30を介して前記内視鏡装置16に接続される。すなわち、前記観察部28により取得された内視鏡画像が、前記ケーブル部30を介して前記内視鏡装置16延いては前記制御装置12へ供給されるように構成されている。   The tubular portion 22 is provided with an endoscope 26. The endoscope 26 is a known electronic scope or fiberscope used for observing a luminal organ, and is preferably a bronchoscope mainly used for observing the trachea or bronchus. The endoscope 26 is connected to the observation portion 28 provided at an end portion (tip portion) 22a opposite to the operation portion 24 in the tubular portion 22, and the tubular portion 22 while being connected to the observation portion 28. The cable part 30 provided in the inside is provided and comprised. The endoscope 26 is connected to the endoscope apparatus 16 via the cable part 30. That is, the endoscope image acquired by the observation unit 28 is configured to be supplied to the endoscope device 16 and the control device 12 via the cable unit 30.

前記観察部28は、前記内視鏡26における画像(被検体の像)の取得部に対応し、前記管状部22の先端に相当する端部22aに設けられている。前記内視鏡26が電子スコープである場合において、前記観察部28は、CCD(Charge Coupled Device)等の撮像素子に相当する。前記内視鏡26がファイバスコープである場合において、前記観察部28は、前記管状部22内に設けられたガラス繊維(光ファイバ)に前記画像を取り入れるためのレンズ部に相当する。前記管状部22における前記観察部28の付近には、管腔臓器内における前記観察部28による観察部位を照らすための光源22b(図3を参照)が設けられている。前記内視鏡26がファイバスコープである場合においては、照明用の光を管腔臓器内に導くための別の光ファイバが前記管状部22内に組み込まれている。   The observation unit 28 corresponds to an image (subject image) acquisition unit in the endoscope 26 and is provided at an end 22 a corresponding to the distal end of the tubular portion 22. When the endoscope 26 is an electronic scope, the observation unit 28 corresponds to an image sensor such as a CCD (Charge Coupled Device). When the endoscope 26 is a fiberscope, the observation unit 28 corresponds to a lens unit for taking the image into a glass fiber (optical fiber) provided in the tubular unit 22. A light source 22b (see FIG. 3) for illuminating an observation site by the observation unit 28 in a hollow organ is provided near the observation unit 28 in the tubular portion 22. In the case where the endoscope 26 is a fiberscope, another optical fiber for guiding illumination light into the hollow organ is incorporated in the tubular portion 22.

前記内視鏡本体20には、超音波プローブ32が設けられている。この超音波プローブ32は、観察対象となる部位に対して超音波を放出させると共に、その超音波の反射波を受信することで、前記観察対象となる部位の超音波画像を取得する公知の装置である。前記超音波プローブ32は、前記管状部22における前記操作部24とは逆側の端部(先端部)22aに設けられた送受信部34と、その送受信部34と前記内視鏡装置16とを接続するケーブル部36とを、備えて構成されている。前記送受信部34は、前記観察対象となる部位に対して超音波を放出させると共に、その超音波の反射波を受信する装置であり、前記超音波プローブ32の本体に相当する。前記送受信部34は、前記ケーブル部36を介して前記内視鏡装置16に接続される。すなわち、前記送受信部34により取得された超音波画像が、前記ケーブル部36を介して前記内視鏡装置16延いては前記制御装置12へ供給されるように構成されている。   The endoscope body 20 is provided with an ultrasonic probe 32. The ultrasonic probe 32 emits an ultrasonic wave to a part to be observed and receives a reflected wave of the ultrasonic wave, thereby acquiring an ultrasonic image of the part to be observed. It is. The ultrasonic probe 32 includes a transmission / reception unit 34 provided at an end (tip portion) 22a of the tubular portion 22 opposite to the operation unit 24, and the transmission / reception unit 34 and the endoscope device 16. A cable portion 36 to be connected is provided. The transmission / reception unit 34 is a device that emits an ultrasonic wave to the site to be observed and receives a reflected wave of the ultrasonic wave, and corresponds to the main body of the ultrasonic probe 32. The transmission / reception unit 34 is connected to the endoscope device 16 via the cable unit 36. That is, the ultrasonic image acquired by the transmission / reception unit 34 is configured to be supplied to the endoscope device 16 and then to the control device 12 via the cable unit 36.

前記超音波プローブ32は、好適には、前記管状部22に備えられた鉗子口に相当するチャンネル22c(図3を参照)に挿通されて設けられている。すなわち、前記ケーブル部36が、前記管状部22に備えられた前記チャンネル22cに挿通されて設けられており、前記送受信部34が、前記管状部22の端部22aから突出して設けられている。前記送受信部34は、前記管状部22における前記端部22aからの突出量を変更できるように構成されている。すなわち、本実施例において、前記管状部22における端部(操作部24とは反対側の端部)22aが基端部に相当する。図3に示すように、前記送受信部34は、好適には、前記端部22aからの突出方向に長手状に構成されている。更に好適には、前記端部22aからの突出方向に軸心を有する円柱状に構成されている。前記超音波プローブ32は、好適には、前記送受信部34の、前記端部22aからの突出量を制御するアクチュエータを備えている。このアクチュエータは、前記制御装置12等からの指令に応じて前記送受信部34の突出量を自動で変更するものであってもよいし、前記操作部24に備えられたつまみ等の操作に応じて前記送受信部34の突出量を変更するものであってもよい。前記アクチュエータは、好適には、前記送受信部34を連続的に回転させつつ前記端部22aからの突出量を制御する。或いは、前記超音波プローブ32は、前記管状部22に対する挿入長を手動(手繰り)で変更することで、前記送受信部34の、前記端部22aからの突出量を、手動で変更できるように構成されたものであってもよい。   The ultrasonic probe 32 is preferably provided by being inserted through a channel 22c (see FIG. 3) corresponding to a forceps opening provided in the tubular portion 22. That is, the cable portion 36 is provided by being inserted through the channel 22 c provided in the tubular portion 22, and the transmitting / receiving portion 34 is provided so as to protrude from the end portion 22 a of the tubular portion 22. The transmission / reception unit 34 is configured to change the amount of protrusion of the tubular portion 22 from the end 22a. That is, in this embodiment, the end portion (end portion on the side opposite to the operation portion 24) 22a of the tubular portion 22 corresponds to the base end portion. As shown in FIG. 3, the transmission / reception unit 34 is preferably formed in a longitudinal shape in the protruding direction from the end 22a. More preferably, it is configured in a columnar shape having an axial center in the protruding direction from the end 22a. The ultrasonic probe 32 preferably includes an actuator that controls the protruding amount of the transmitting / receiving unit 34 from the end 22a. This actuator may automatically change the protruding amount of the transmission / reception unit 34 according to a command from the control device 12 or the like, or according to an operation of a knob or the like provided in the operation unit 24. The protrusion amount of the transmission / reception unit 34 may be changed. The actuator preferably controls the amount of protrusion from the end 22a while continuously rotating the transmitting / receiving unit 34. Alternatively, the ultrasonic probe 32 is configured to be able to manually change the protruding amount of the transmitting / receiving unit 34 from the end 22a by manually changing the insertion length with respect to the tubular portion 22 (hand). It may be what was done.

図3は、前記管状部22の端部22aの構成を概略的に示す図である。この図2に示すように、前記内視鏡本体20は、好適には、前記内視鏡26の先端部及び前記超音波プローブ32の先端部にそれぞれ磁気式位置センサ38、40を備えている。すなわち、前記内視鏡26の先端部における前記観察部28の近傍に前記磁気式位置センサ38が、前記超音波プローブ32の先端部における前記送受信部34の近傍に前記磁気式位置センサ40が、それぞれ設けられている。図3においては、前記内視鏡26の先端部に対応して設けられた磁気式位置センサ38が前記管状部22の側面に固定(外付け)された態様を示しているが、前記磁気式位置センサ38は、前記管状部22のチャンネル内等に内蔵されたものであってもよい。前記超音波プローブ32の先端部に対応して設けられた磁気式位置センサの位置も、その超音波プローブ32の先端部を好適に検出し得る位置であれば、図3に示す態様には限定されない。   FIG. 3 is a diagram schematically showing the configuration of the end portion 22 a of the tubular portion 22. As shown in FIG. 2, the endoscope body 20 preferably includes magnetic position sensors 38 and 40 at the distal end portion of the endoscope 26 and the distal end portion of the ultrasonic probe 32, respectively. . That is, the magnetic position sensor 38 is near the observation unit 28 at the distal end of the endoscope 26, and the magnetic position sensor 40 is near the transmission / reception unit 34 at the distal end of the ultrasonic probe 32. Each is provided. FIG. 3 shows a mode in which a magnetic position sensor 38 provided corresponding to the distal end portion of the endoscope 26 is fixed (externally attached) to the side surface of the tubular portion 22. The position sensor 38 may be incorporated in the channel of the tubular portion 22 or the like. The position of the magnetic position sensor provided corresponding to the tip of the ultrasonic probe 32 is also limited to the mode shown in FIG. 3 as long as the tip of the ultrasonic probe 32 can be suitably detected. Not.

前記磁気式位置センサ38、40は、好適には、磁場発生装置により発生させられる磁場(磁気信号)を検出することで各センサの位置を検出する公知の磁気式位置センサであり、前記センサ装置18に接続されている。前記センサ装置18は、図示しない磁場発生装置を備えている。前記センサ装置18においては、例えば、前記磁場発生装置から発信される磁気信号を各磁気式位置センサ38、40が受信することにより、各磁気式位置センサ38、40から例えば5次元の情報すなわち3次元の位置情報及び2次元の方向情報が取得され、前記センサ装置18を介して前記制御装置12等に供給されるようになっている。このように、前記センサ装置18は、好適には、前記内視鏡26の先端部及び前記超音波プローブ32の先端部にそれぞれ設けられた磁気式位置センサ38、40の検出結果に基づいて、前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を検出するものである。すなわち、本実施例において、前記センサ装置18は、前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を検出する先端位置検出部に相当する。前記センサ装置18は、前記磁気式位置センサ38、40により前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を直接検出するものであってもよいし、それら磁気式位置センサ38、40の検出結果に基づいて前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を算出(推定)するものであってもよい。   The magnetic position sensors 38 and 40 are preferably known magnetic position sensors that detect the position of each sensor by detecting a magnetic field (magnetic signal) generated by a magnetic field generator, and the sensor device 18 is connected. The sensor device 18 includes a magnetic field generator (not shown). In the sensor device 18, for example, when each magnetic position sensor 38, 40 receives a magnetic signal transmitted from the magnetic field generation device, for example, five-dimensional information, that is, three-dimensional information from each magnetic position sensor 38, 40. Two-dimensional position information and two-dimensional direction information are acquired and supplied to the control device 12 and the like via the sensor device 18. Thus, the sensor device 18 is preferably based on the detection results of the magnetic position sensors 38 and 40 provided at the distal end portion of the endoscope 26 and the distal end portion of the ultrasonic probe 32, respectively. The tip position of the endoscope 26 and the tip position of the ultrasonic probe 32 are detected. That is, in the present embodiment, the sensor device 18 corresponds to a tip position detection unit that detects the tip position of the endoscope 26 and the tip position of the ultrasonic probe 32. The sensor device 18 may directly detect the tip position of the endoscope 26 and the tip position of the ultrasonic probe 32 by the magnetic position sensors 38 and 40, or the magnetic position sensor 38. , 40 may be used to calculate (estimate) the distal end position of the endoscope 26 and the distal end position of the ultrasonic probe 32 based on the detection results.

前記支援装置10は、前記超音波プローブ32に対応する前記磁気式位置センサ40の代替として、前記管状部22に対する前記超音波プローブ32の挿入長を検出する超音波プローブ挿入長センサ90を備えたものであってもよい。図4は、前記超音波プローブ挿入長センサ90を用いて前記超音波プローブ32の先端位置検出を行う態様における前記内視鏡本体20の構成を模式的に示す図である。前記超音波プローブ挿入長センサ90は、例えば、光学式の移動距離センサやロータリエンコーダ等の公知の非接触式挿入長センサである。前記超音波プローブ挿入長センサ90は、好適には、図4に示すように、前記管状部22に設けられた鉗子口等のチャンネル22cにおける前記操作部24側の開口部に設けられており、その開口部から前記管状部22に対する前記超音波プローブ32の挿入長(挿入長さ寸法)を検出する。   The support apparatus 10 includes an ultrasonic probe insertion length sensor 90 that detects the insertion length of the ultrasonic probe 32 with respect to the tubular portion 22 as an alternative to the magnetic position sensor 40 corresponding to the ultrasonic probe 32. It may be a thing. FIG. 4 is a diagram schematically showing the configuration of the endoscope main body 20 in a mode in which the tip position of the ultrasonic probe 32 is detected using the ultrasonic probe insertion length sensor 90. The ultrasonic probe insertion length sensor 90 is a known non-contact insertion length sensor such as an optical movement distance sensor or a rotary encoder. As shown in FIG. 4, the ultrasonic probe insertion length sensor 90 is preferably provided in an opening on the operation unit 24 side in a channel 22c such as a forceps port provided in the tubular portion 22. The insertion length (insertion length dimension) of the ultrasonic probe 32 with respect to the tubular portion 22 is detected from the opening.

図4に示す態様において、前記センサ装置18は、好適には、前記磁気式位置センサ38の検出結果に基づいて前記内視鏡26の先端位置を検出し、その内視鏡26の先端位置及び前記超音波プローブ挿入長センサ90の検出結果に基づいて前記超音波プローブ32の先端位置を検出する。前記管状部22に設けられたチャンネル22cの長さ寸法及び前記超音波プローブ32の長さ寸法は予め求められるため、基端部に対応する前記端部22aからの前記超音波プローブ32の突出量は、前記管状部22に対する前記超音波プローブ32の挿入長に対応する。本実施例において、前記内視鏡26の先端位置は、前記管状部22の端部22aに対応する。従って、前記内視鏡26の先端位置及び前記端部22aからの前記超音波プローブ32の突出量に基づいて、前記内視鏡26の先端位置に対する相対位置としての前記超音波プローブ32の先端位置を検出することができる。   In the embodiment shown in FIG. 4, the sensor device 18 preferably detects the tip position of the endoscope 26 based on the detection result of the magnetic position sensor 38, and the tip position of the endoscope 26 and Based on the detection result of the ultrasonic probe insertion length sensor 90, the tip position of the ultrasonic probe 32 is detected. Since the length dimension of the channel 22c provided in the tubular portion 22 and the length dimension of the ultrasonic probe 32 are obtained in advance, the protruding amount of the ultrasonic probe 32 from the end portion 22a corresponding to the base end portion. Corresponds to the insertion length of the ultrasonic probe 32 into the tubular portion 22. In the present embodiment, the distal end position of the endoscope 26 corresponds to the end portion 22 a of the tubular portion 22. Therefore, the distal end position of the ultrasonic probe 32 as a relative position with respect to the distal end position of the endoscope 26 based on the distal end position of the endoscope 26 and the protruding amount of the ultrasonic probe 32 from the end portion 22a. Can be detected.

図4に破線で示すように、前記支援装置10は、更に、前記内視鏡26に対応する前記磁気式位置センサ38の代替として、被検体(観察対象となる管腔臓器)に対する前記内視鏡26(管状部22)の挿入長を検出する内視鏡挿入長センサ92を備えたものであってもよい。前記内視鏡挿入長センサ92は、例えば、内視鏡検査に際して被検体が口唇にくわえる内視鏡挿入補助具(マウスピース)94に装着された公知の気管支鏡挿入長センサである。掛かる態様において、前記センサ装置18は、前記内視鏡挿入長センサ92の検出結果と、前記超音波プローブ挿入長センサ90の検出結果とに基づいて、前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を検出する。   As indicated by a broken line in FIG. 4, the support device 10 further includes the endoscope for the subject (a luminal organ to be observed) as an alternative to the magnetic position sensor 38 corresponding to the endoscope 26. An endoscope insertion length sensor 92 that detects the insertion length of the mirror 26 (tubular portion 22) may be provided. The endoscope insertion length sensor 92 is, for example, a known bronchoscope insertion length sensor attached to an endoscope insertion assisting tool (mouthpiece) 94 that holds a subject on the lip during an endoscopic examination. In this embodiment, the sensor device 18 determines the position of the distal end of the endoscope 26 and the ultrasonography based on the detection result of the endoscope insertion length sensor 92 and the detection result of the ultrasonic probe insertion length sensor 90. The tip position of the acoustic probe 32 is detected.

更に別の態様として、前記センサ装置18は、基端部に対応する前記端部22aからの前記超音波プローブ32の突出量そのものを検出するものであってもよい。例えば、前記送受信部34の長手方向(端部22aからの突出方向)に、例えば二次元コード等のパターンが所定間隔でマーキングされており、そのパターンを検出することで前記端部22aからの前記超音波プローブ32(送受信部34)の突出量を検出するものであってもよい。或いは、前記内視鏡26により取得される内視鏡画像に含まれる、前記端部22aから突出する前記超音波プローブ32(送受信部34)の像を解析することにより、前記端部22aからの前記超音波プローブ32の突出量を算出(推定)する等の態様も考えられる。   As yet another aspect, the sensor device 18 may detect the amount of protrusion of the ultrasonic probe 32 from the end 22a corresponding to the base end. For example, a pattern such as a two-dimensional code is marked at a predetermined interval in the longitudinal direction (projecting direction from the end 22a) of the transmission / reception unit 34, and the pattern from the end 22a is detected by detecting the pattern. The amount of protrusion of the ultrasonic probe 32 (transmission / reception unit 34) may be detected. Alternatively, by analyzing an image of the ultrasonic probe 32 (transmission / reception unit 34) protruding from the end 22a included in the endoscopic image acquired by the endoscope 26, the image from the end 22a is analyzed. A mode of calculating (estimating) the protruding amount of the ultrasonic probe 32 is also conceivable.

図1に示すように、前記制御装置12は、記憶部42を備えている。この記憶部42は、好適には、情報を記憶可能なハードディスクドライブ等の公知の記憶装置(記憶媒体)である。小型メモリカードや光ディスク等の着脱式記憶媒体であってもよい。前記記憶部42には、画像データベース44及び臓器データベース46等の各種データベースが設けられている。前記画像データベース44には、公知のX線CT(Computed Tomography)装置や磁気共鳴(MRI;Magnetic Resonance Imaging)装置等によって予め得られた被検体の3次元画像データが記憶される。この3次元画像データは、X線CTにより得られたものにおいては、被検体に対して多方向からX線を照射し、被検体を透過してきたX線を検出器で検出して、透過X線量の情報をコンピュータで処理して3次元画像として再構成したものである。前記画像データベース44には、例えば、X線CTや磁気共鳴装置等により得られた被検体の3次元濃淡画像、換言すれば被検体の単位体積であるボクセル毎の画素値(濃度値)が記憶される。前記画像データベース44には、X線CTや磁気共鳴装置等により得られた管腔臓器の3次元画像データが記憶される。好適には、X線CTや磁気共鳴装置等により得られた気管支の3次元画像データが記憶される。   As shown in FIG. 1, the control device 12 includes a storage unit 42. The storage unit 42 is preferably a known storage device (storage medium) such as a hard disk drive capable of storing information. It may be a removable storage medium such as a small memory card or an optical disk. The storage unit 42 is provided with various databases such as an image database 44 and an organ database 46. The image database 44 stores three-dimensional image data of a subject obtained in advance by a known X-ray CT (Computed Tomography) apparatus, magnetic resonance (MRI) apparatus, or the like. In the case where the three-dimensional image data is obtained by X-ray CT, X-rays are irradiated to the subject from multiple directions, the X-rays transmitted through the subject are detected by a detector, and transmitted X The dose information is processed by a computer and reconstructed as a three-dimensional image. The image database 44 stores, for example, a three-dimensional grayscale image of a subject obtained by X-ray CT, a magnetic resonance apparatus, or the like, in other words, a pixel value (density value) for each voxel that is a unit volume of the subject. Is done. The image database 44 stores three-dimensional image data of a luminal organ obtained by X-ray CT, a magnetic resonance apparatus, or the like. Preferably, three-dimensional image data of bronchi obtained by X-ray CT, a magnetic resonance apparatus, or the like is stored.

前記臓器データベース46は、観察対象である被検体の前記管腔臓器に関する各種情報を格納する。好適には、木構造をなす臓器の一例として、被検体の気管支に関する各種情報を格納する。例えば、前記臓器データベース46は、被検体の気管支に関する情報として、気管支においてそれぞれ所定の解剖学的名称で識別される複数の部位それぞれに対応して、各部位の解剖学的名称情報、各部位の走行方向、長さ、断面積等の特徴情報を格納する。   The organ database 46 stores various types of information related to the luminal organ of the subject to be observed. Preferably, various types of information regarding the bronchus of the subject are stored as an example of an organ having a tree structure. For example, the organ database 46 includes, as information on the bronchi of the subject, corresponding to each of a plurality of parts identified by a predetermined anatomical name in the bronchus, Stores characteristic information such as traveling direction, length, and cross-sectional area.

本実施例の支援装置10は、被検体の管腔臓器に関して予めX線CTや磁気共鳴装置等により得られた前記3次元画像データに基づいて、その管腔臓器内に挿入された前記内視鏡26及び超音波プローブ32による観察を支援する制御を行う。好適には、気管支等の木構造をなす臓器に対応する前記3次元仮想画像を生成すると共に、その3次元仮想画像の観察を支援する。好適には、気管支の3次元画像データに基づいて、その気管支内に挿入された前記内視鏡26及び超音波プローブ32による観察を支援する制御を行う。すなわち、前記内視鏡26及び超音波プローブ32による所定の気管支の観察に際して、その気管支に対応して予め得られて前記画像データベース44に記憶された3次元画像データを読み出し、その3次元画像データに基づいて後述する制御を行うことにより、その気管支内に挿入された前記内視鏡26及び超音波プローブ32による観察を支援する。或いは、大腸、小腸、十二指腸、胃、胆管、膵管、リンパ管等の管腔臓器(中空臓器)に対応する3次元仮想画像の観察及び支援を行うものであってもよい。   The support apparatus 10 of the present embodiment is configured so that the endoscope inserted into the hollow organ based on the three-dimensional image data obtained in advance by an X-ray CT, a magnetic resonance apparatus, or the like regarding the hollow organ of the subject. Control for supporting observation by the mirror 26 and the ultrasonic probe 32 is performed. Preferably, the three-dimensional virtual image corresponding to an organ having a tree structure such as a bronchus is generated, and observation of the three-dimensional virtual image is supported. Preferably, based on the three-dimensional image data of the bronchi, control is performed to support observation with the endoscope 26 and the ultrasonic probe 32 inserted into the bronchus. That is, when observing a predetermined bronchus with the endoscope 26 and the ultrasonic probe 32, the three-dimensional image data obtained in advance corresponding to the bronchus and stored in the image database 44 is read out. By performing the control to be described later based on the above, observation by the endoscope 26 and the ultrasonic probe 32 inserted into the bronchi is supported. Or you may observe and support the three-dimensional virtual image corresponding to luminal organs (hollow organ), such as large intestine, small intestine, duodenum, stomach, bile duct, pancreatic duct, lymphatic duct.

図1に示すように、前記支援装置10は、超音波画像取得部48、CT画像データ取込部50、情報処理部52、情報抽出部60、情報融合処理部62、解剖学的名称情報表示部80、及び情報可視化部82等の制御部を備えている。これらの制御部は、好適には、何れも前記制御装置12に機能的に備えられたものであるが、各制御部が個別に複数の制御装置やコンピュータに設けられると共に相互に通信が可能に構成されたものであってもよい。前記各制御部のうち一部が前記支援装置10とは別の制御装置に備えられたものであってもよい。例えば、前記情報融合処理部62、情報可視化部82等が前記支援装置10とは別の装置(例えば、表示専用の装置)に備えられたものであってもよい。   As shown in FIG. 1, the support apparatus 10 includes an ultrasonic image acquisition unit 48, a CT image data capture unit 50, an information processing unit 52, an information extraction unit 60, an information fusion processing unit 62, and an anatomical name information display. The control part, such as the part 80 and the information visualization part 82, is provided. These control units are preferably all functionally provided in the control device 12, but each control unit is individually provided in a plurality of control devices and computers and can communicate with each other. It may be configured. A part of each control unit may be provided in a control device different from the support device 10. For example, the information fusion processing unit 62, the information visualization unit 82, and the like may be provided in a device different from the support device 10 (for example, a display-only device).

前記超音波画像取得部48は、前記超音波プローブ32による観察位置の超音波画像を取得する。すなわち、前記超音波プローブ32の送受信部34から前記観察対象となる部位に対して超音波を放出させると共に、その超音波の反射波を受信することで、前記観察位置の超音波画像を取得する。   The ultrasonic image acquisition unit 48 acquires an ultrasonic image of the observation position by the ultrasonic probe 32. That is, an ultrasonic image of the observation position is acquired by emitting an ultrasonic wave from the transmission / reception unit 34 of the ultrasonic probe 32 to the site to be observed and receiving a reflected wave of the ultrasonic wave. .

前記超音波画像取得部48は、前記超音波プローブ32における前記管状部22の前記端部22aからの突出量を変化させつつ前記超音波プローブ32による観察位置の超音波画像を連続的に複数取得する。好適には、前記超音波プローブ32に備えられたアクチュエータにより、前記送受信部34を連続的に回転させると共に前記端部22aからの前記送受信部34の突出量を変化させつつ、その送受信部34により超音波画像を連続的に複数取得する。換言すれば、被検体における観察対象部位に対して、前記送受信部34を連続的に回転させると共に微小に出し入れしつつ、当該部位の超音波画像を連続的に複数取得する。すなわち、被検体における観察対象部位に関して、その3次元領域について連続スキャンを行う。   The ultrasonic image acquisition unit 48 continuously acquires a plurality of ultrasonic images of the observation position by the ultrasonic probe 32 while changing the protruding amount of the tubular portion 22 from the end 22a of the ultrasonic probe 32. To do. Preferably, the transmitting / receiving unit 34 continuously rotates the transmitting / receiving unit 34 and changes the amount of protrusion of the transmitting / receiving unit 34 from the end 22a by an actuator provided in the ultrasonic probe 32. A plurality of ultrasonic images are acquired continuously. In other words, while the transmitter / receiver 34 is continuously rotated with respect to the site to be observed in the subject and a minute amount is taken in and out, a plurality of ultrasonic images of the site are continuously acquired. That is, continuous scanning is performed on the three-dimensional region of the observation target region in the subject.

前記CT画像データ取込部50は、観察対象となる前記管腔臓器に対応して予め得られて前記画像データベース44に記憶された3次元画像データを、その画像データベース44から取り込む。すなわち、前記3次元画像データを読み込んで、前記制御装置12におけるRAM等に展開する。   The CT image data capturing unit 50 captures, from the image database 44, three-dimensional image data obtained in advance corresponding to the luminal organ to be observed and stored in the image database 44. That is, the three-dimensional image data is read and developed in a RAM or the like in the control device 12.

前記情報処理部52は、前記内視鏡装置16及びセンサ装置18から供給される情報を処理する。すなわち、前記内視鏡装置16及びセンサ装置18による被検体の観察に係る各種情報の処理を行う。このため、前記情報処理部52は、カメラ/センサ/プローブ校正部54、カメラ/超音波画像観察位置推定部56、及び管腔臓器画像作成部58を備えている。以下、各制御部の処理について説明する。   The information processing unit 52 processes information supplied from the endoscope device 16 and the sensor device 18. That is, various types of information related to observation of the subject by the endoscope device 16 and the sensor device 18 are processed. Therefore, the information processing unit 52 includes a camera / sensor / probe calibration unit 54, a camera / ultrasound image observation position estimation unit 56, and a luminal organ image creation unit 58. Hereinafter, processing of each control unit will be described.

前記カメラ/センサ/プローブ校正部54は、所定のアルゴリズムに基づいて、前記内視鏡装置16及びセンサ装置18から供給される情報の校正(補正)を行う。例えば、前記内視鏡26により取得される内視鏡画像における歪みの校正等を行う。前記超音波プローブ32により取得される超音波画像における歪みの校正等を行う。前記磁気式位置センサ38、40により検出される位置ぶれの校正、磁場歪みの校正等を行う。   The camera / sensor / probe calibration unit 54 calibrates (corrects) information supplied from the endoscope device 16 and the sensor device 18 based on a predetermined algorithm. For example, distortion correction in an endoscopic image acquired by the endoscope 26 is performed. Calibration of distortion in the ultrasonic image acquired by the ultrasonic probe 32 is performed. Calibration of position blur detected by the magnetic position sensors 38 and 40, calibration of magnetic field distortion, and the like are performed.

前記管腔臓器画像作成部58は、前記CT画像データ取込部50により取り込まれた3次元画像データに基づいて、観察対象となる前記管腔臓器の図像を作成する。例えば、前記CT画像データ取込部50により取り込まれた3次元画像データに基づいて、前記管腔臓器の3次元仮想画像を生成する。前記画像データベース44に記憶された3次元画像データは、例えば、CT装置等を用いて、X線照射器・検出器を連続的に回転させつつ被検体を体軸方向に連続送りすることにより、被検体の3次元領域について連続スキャンを行った3次元画像データである。前記管腔臓器画像作成部58は、斯かる3次元画像データを読み出し、3次元領域の連続するスライスの断層像を積み重ねることによって臓器の3次元仮想画像を作成する。本実施例においては、観察対象となる臓器の仮想的な外形(例えば、正面側から視た外観を表す像)を示す3次元仮想画像の表示制御について説明するが、例えば管腔臓器の内部(内腔)に内視鏡を挿入して撮影を行った際の映像に対応する3次元仮想内視鏡画像を、前記3次元画像データに基づいて表示させる表示制御にも、本発明は好適に適用される。   The luminal organ image creating unit 58 creates an image of the luminal organ to be observed based on the three-dimensional image data captured by the CT image data capturing unit 50. For example, a three-dimensional virtual image of the luminal organ is generated based on the three-dimensional image data captured by the CT image data capturing unit 50. The three-dimensional image data stored in the image database 44 is obtained by continuously feeding the subject in the body axis direction while continuously rotating the X-ray irradiator / detector using, for example, a CT apparatus. This is three-dimensional image data obtained by continuously scanning a three-dimensional region of a subject. The luminal organ image creation unit 58 reads out such 3D image data and creates a 3D virtual image of the organ by stacking tomographic images of successive slices of the 3D region. In the present embodiment, display control of a three-dimensional virtual image showing a virtual outer shape of an organ to be observed (for example, an image representing an appearance viewed from the front side) will be described. The present invention is also suitable for display control in which a three-dimensional virtual endoscopic image corresponding to an image obtained by inserting an endoscope into a lumen is displayed based on the three-dimensional image data. Applied.

前記情報抽出部60は、前記管腔臓器画像作成部58により作成される前記3次元仮想画像に関して、観察対象である管腔臓器に係る各種情報を抽出する。前記情報抽出部60は、例えば、それぞれ所定の解剖学的名称で識別される複数の臓器(臓器の部位)に関して、前記管腔臓器画像作成部58により生成される前記3次元仮想画像における各部が、どの臓器(臓器の部位)に対応するか識別する。好適には、前記管腔臓器画像作成部58により生成される前記3次元仮想画像における各部の走行方向、長さ、断面積等の特徴を抽出し、前記臓器データベース46に記憶された特徴情報を参照することで、対象となる部位がどの臓器に対応するか識別する。例えば、前記臓器データベース46に記憶された特徴情報に関して、走行方向、長さ、断面積等の特徴が最も近い臓器を、対象となる部位に対応する臓器として識別する。前記情報抽出部60は、前記管腔臓器画像作成部58により生成される前記臓器の3次元仮想画像を、体積領域であるVOI(Volume Of Interest:注目体積領域=以下、単にVOIと記す)により分割し、VOI内の臓器の領域情報及び構造情報を抽出すること等により、観察対象である臓器を識別するものであってもよい。   The information extraction unit 60 extracts various types of information related to the luminal organ to be observed with respect to the three-dimensional virtual image created by the luminal organ image creation unit 58. For example, each of the parts in the three-dimensional virtual image generated by the luminal organ image creation unit 58 is associated with a plurality of organs (organ parts) identified by predetermined anatomical names. Identify which organ (part of the organ) corresponds to. Preferably, features such as the running direction, length, and cross-sectional area of each part in the three-dimensional virtual image generated by the luminal organ image creation unit 58 are extracted, and the feature information stored in the organ database 46 is extracted. By referencing, it is identified which organ the target region corresponds to. For example, regarding the feature information stored in the organ database 46, the organ having the closest feature such as the traveling direction, length, cross-sectional area, etc. is identified as the organ corresponding to the target region. The information extraction unit 60 uses the VOI (Volume Of Interest: hereinafter referred to simply as VOI) as a volume region of the three-dimensional virtual image of the organ generated by the luminal organ image creation unit 58. The organ to be observed may be identified by dividing and extracting organ region information and structure information in the VOI.

図5は、前記情報抽出部60による、被検体の肺に係る各種情報の抽出について説明する図である。この図5に示すように、前記情報抽出部60は、前記管腔臓器画像作成部58により生成される前記臓器の3次元仮想画像において、気管及び気管支に対応する部分、肺のリンパ節に対応する部分、肺の血管(動脈、静脈)に対応する部分、肺野及び肺葉に対応する部分の区分(セグメンテーション)を行う。そして、区分された気管及び気管支に対応する部分、リンパ節に対応する部分、血管に対応する部分、肺野及び肺葉に対応する部分それぞれに含まれる、解剖学的名称で識別される複数の臓器の区分を行う。以上のようにして、前記管腔臓器画像作成部58により生成される前記3次元仮想画像における各部と、被検体における肺の構造との対応付けを行う。   FIG. 5 is a diagram for explaining extraction of various types of information related to the lungs of the subject by the information extraction unit 60. As shown in FIG. 5, the information extraction unit 60 corresponds to a portion corresponding to the trachea and bronchus and a lymph node of the lung in the three-dimensional virtual image of the organ generated by the luminal organ image creation unit 58. Segmentation (segmentation) of a portion corresponding to a blood vessel (artery, vein) of a lung, a portion corresponding to a lung field and a lung lobe. A plurality of organs identified by an anatomical name included in each of a portion corresponding to the divided trachea and bronchus, a portion corresponding to a lymph node, a portion corresponding to a blood vessel, and a portion corresponding to a lung field and a lung lobe The classification is performed. As described above, each part in the three-dimensional virtual image generated by the luminal organ image creation unit 58 is associated with the lung structure in the subject.

前記カメラ/超音波画像観察位置推定部56は、前記センサ装置18による検出結果に基づいて、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置を推定する。前記内視鏡26による観察位置は、例えば、前記観察部28のレンズ位置に対応する。前記超音波プローブ32による観察位置は、例えば、前記送受信部34における超音波の送信及び反射波の受信を行う部位(例えば、送受信部34の先端部)に対応する。前記カメラ/超音波画像観察位置推定部56は、前記管腔臓器画像作成部58により作成される3次元仮想画像における相対位置としての、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置を推定する。すなわち、本実施例においては、前記カメラ/超音波画像観察位置推定部56が、前記センサ装置16による検出結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像における、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置の対応付けを行う観察位置対応付部に相当する。   The camera / ultrasound image observation position estimation unit 56 estimates the observation position by the endoscope 26 and the observation position by the ultrasonic probe 32 based on the detection result by the sensor device 18. The observation position by the endoscope 26 corresponds to the lens position of the observation unit 28, for example. The observation position by the ultrasonic probe 32 corresponds to, for example, a portion (for example, a front end portion of the transmission / reception unit 34) that transmits and receives ultrasonic waves in the transmission / reception unit 34. The camera / ultrasonic image observation position estimation unit 56 uses the observation position by the endoscope 26 and the ultrasonic probe 32 as relative positions in the three-dimensional virtual image created by the luminal organ image creation unit 58. Estimate the observation position. In other words, in the present embodiment, the camera / ultrasound image observation position estimation unit 56 is constructed based on the detection result by the sensor device 16 and is constructed based on the three-dimensional image data. This corresponds to an observation position correspondence unit that associates an observation position by the endoscope 26 and an observation position by the ultrasonic probe 32 in the image.

前記カメラ/超音波画像観察位置推定部56は、例えば、(1)前記内視鏡26に対応する座標系、(2)前記超音波プローブ32に対応する座標系、(3)前記磁気式位置センサ38、40に対応する座標系、(4)前記3次元仮想画像に対応する座標系等、複数の座標系(例えば、それぞれ3次元の座標系)を考え、各座標系相互の変換行列を導出することで、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置の対応付けを行う。例えば、(a)前記内視鏡26に対応する座標系と前記磁気式位置センサ38に対応する座標系との変換行列、(b)前記超音波プローブ32に対応する座標系と前記磁気式位置センサ40に対応する座標系との変換行列、及び(c)前記3次元仮想画像に対応する座標系と前記磁気式位置センサ38、40に対応する座標系との変換行列を導出することで、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置の対応付けを行う。好適には、前記内視鏡26により取得される内視鏡画像の解析により得られるその内視鏡画像の特徴、前記超音波プローブ32により取得される超音波画像の解析により得られるその超音波画像の特徴、及び前記3次元仮想画像の解析により得られるその3次元仮想画像(例えば、気管支の芯線)等に基づいて、前記座標系の対応付けが行われる。この座標系の対応付けについては、「久郷 達也, 北坂 孝幸, 羅 雄彪, 森 健策, “画像情報統合に基づく超音波気管支鏡ナビゲーションシステム,”電子情報通信学会技術研究報告, Vol.111, No.47(IE2011 9-39), Page.7-12(2011.05.12)」に詳しい。   The camera / ultrasound image observation position estimation unit 56 includes, for example, (1) a coordinate system corresponding to the endoscope 26, (2) a coordinate system corresponding to the ultrasonic probe 32, and (3) the magnetic position. Considering a plurality of coordinate systems (for example, a three-dimensional coordinate system, respectively) such as a coordinate system corresponding to the sensors 38 and 40, and (4) a coordinate system corresponding to the three-dimensional virtual image, a transformation matrix between the coordinate systems By deriving, the observation position by the endoscope 26 and the observation position by the ultrasonic probe 32 are associated with each other. For example, (a) a transformation matrix between a coordinate system corresponding to the endoscope 26 and a coordinate system corresponding to the magnetic position sensor 38, and (b) a coordinate system corresponding to the ultrasonic probe 32 and the magnetic position. Deriving a transformation matrix between the coordinate system corresponding to the sensor 40, and (c) a transformation matrix between the coordinate system corresponding to the three-dimensional virtual image and the coordinate system corresponding to the magnetic position sensors 38 and 40, The observation position by the endoscope 26 and the observation position by the ultrasonic probe 32 are associated with each other. Preferably, characteristics of the endoscopic image obtained by analyzing the endoscopic image acquired by the endoscope 26, and ultrasonic waves obtained by analyzing the ultrasonic image acquired by the ultrasonic probe 32 The coordinate systems are associated based on the characteristics of the image and the three-dimensional virtual image (for example, the bronchus core line) obtained by analyzing the three-dimensional virtual image. For the correspondence of this coordinate system, see “Tatsuya Hisato, Takayuki Kitasaka, Yugo Ra and Kensaku Mori,“ Ultrasonic Bronchoscope Navigation System Based on Image Information Integration, ”IEICE Technical Report, Vol.111, No. .47 (IE2011 9-39), Page.7-12 (2011.05.12) ”.

前記情報融合処理部62は、前記情報処理部52により処理された情報に関して、各種情報を融合(合成)させ、情報可視化部82を介して前記映像表示装置14に表示させる制御を行う。好適には、以下に詳述するように、前記管腔臓器画像作成部58により作成される前記管腔臓器の3次元仮想画像と、前記内視鏡26により取得される内視鏡画像と、前記超音波プローブ32により取得される超音波画像とを、前記映像表示装置14に同期して表示させる。すなわち、本実施例においては、前記情報融合処理部62が画像表示制御部として機能する。このため、前記情報融合処理部62は、挿入経路生成部64、カメラ/プローブ位置提示部66、CT像/超音波画像融合部68、経路名称表示部70、超音波画像3次元再構築部72、特定部位検出部74、特定部位画像抽出部76、及び生検目的部位表示部78を備えている。以下、各制御部の処理について説明する。   The information fusion processing unit 62 controls the information processed by the information processing unit 52 to fuse (synthesize) various information and display the information on the video display device 14 via the information visualization unit 82. Preferably, as described in detail below, a three-dimensional virtual image of the luminal organ created by the luminal organ image creation unit 58, an endoscope image acquired by the endoscope 26, The ultrasonic image acquired by the ultrasonic probe 32 is displayed in synchronization with the video display device 14. That is, in this embodiment, the information fusion processing unit 62 functions as an image display control unit. Therefore, the information fusion processing unit 62 includes an insertion path generation unit 64, a camera / probe position presentation unit 66, a CT image / ultrasound image fusion unit 68, a path name display unit 70, and an ultrasound image three-dimensional reconstruction unit 72. , A specific part detection unit 74, a specific part image extraction unit 76, and a biopsy target site display unit 78. Hereinafter, processing of each control unit will be described.

前記挿入経路生成部64は、前記管腔臓器画像作成部58により作成される前記3次元仮想画像において、前記内視鏡本体20(管状部22)が挿入される経路に対応する経路情報を生成する。例えば、前記カメラ/超音波画像観察位置推定部56による対応付けの結果に基づいて、前記3次元仮想画像において、前記内視鏡本体20が挿入される始点から、前記内視鏡26による観察位置(或いは、超音波プローブ32による観察位置)までの経路に対応する経路情報を生成する。例えば、気管支に対応する前記3次元仮想画像において、前記内視鏡本体20が挿入される始点に相当する気管の咽喉側端部から、前記内視鏡26による観察位置(或いは、超音波プローブ32による観察位置)までの経路に対応する経路情報を生成する。前記挿入経路生成部64は、好適には、後述する特定部位検出部74により検出された特定部位までの経路に対応する経路情報を生成する。例えば、前記内視鏡本体20が挿入される始点から、前記特定部位検出部74により検出された特定部位までの経路に対応する経路情報を生成する。   The insertion path generation unit 64 generates path information corresponding to the path through which the endoscope body 20 (tubular part 22) is inserted in the three-dimensional virtual image created by the luminal organ image creation unit 58. To do. For example, based on the result of association by the camera / ultrasound image observation position estimation unit 56, the observation position by the endoscope 26 from the starting point at which the endoscope body 20 is inserted in the three-dimensional virtual image. Route information corresponding to the route to (or the observation position by the ultrasonic probe 32) is generated. For example, in the three-dimensional virtual image corresponding to the bronchi, the observation position (or the ultrasonic probe 32) by the endoscope 26 from the throat side end portion of the trachea corresponding to the starting point where the endoscope body 20 is inserted. The route information corresponding to the route to the observation position) is generated. The insertion path generation unit 64 preferably generates path information corresponding to the path to the specific part detected by the specific part detection unit 74 described later. For example, route information corresponding to the route from the starting point at which the endoscope main body 20 is inserted to the specific part detected by the specific part detection unit 74 is generated.

前記経路名称表示部70は、前記挿入経路生成部64により生成された経路情報に関する名称情報を表示させる。例えば、前記カメラ/超音波画像観察位置推定部56による対応付けの結果に基づいて、前記情報抽出部60により抽出される、前記経路情報に対応する経路上における臓器の解剖学的名称を表示させる。例えば、気管支に対応する経路情報に関して、その経路情報に対応する経路上における「Left Main Bronchus」、「Right Main Bronchus」等の気管支名称を、前記挿入経路生成部64により生成される経路情報における各臓器の対応する位置に表示させる。   The route name display unit 70 displays name information related to the route information generated by the insertion route generation unit 64. For example, based on the result of association by the camera / ultrasound image observation position estimation unit 56, the anatomical name of the organ on the path corresponding to the path information extracted by the information extraction unit 60 is displayed. . For example, regarding the route information corresponding to the bronchi, bronchial names such as “Left Main Bronchus” and “Right Main Bronchus” on the route corresponding to the route information are displayed in the route information generated by the insertion route generation unit 64. Display at the corresponding position of the organ.

前記解剖学的名称情報表示部80は、観察対象である臓器の解剖学的名称情報を生成して表示させる。例えば、観察対象である臓器の解剖学的名称に対応するテキストデータ(文字画像データ)を生成して表示させる。好適には、前記管腔臓器画像作成部58により作成される前記管腔臓器の3次元仮想画像に対して、生成されたテキストデータを合成表示させる。好適には、前記管腔臓器画像作成部58により作成される前記管腔臓器の3次元仮想画像において、前記情報抽出部60により抽出(識別)される観察対象である臓器に対応する部位に、その臓器の解剖学的名称に対応するテキストデータを合成表示させる。   The anatomical name information display unit 80 generates and displays anatomical name information of the organ to be observed. For example, text data (character image data) corresponding to the anatomical name of the organ to be observed is generated and displayed. Preferably, the generated text data is synthesized and displayed on the three-dimensional virtual image of the hollow organ created by the hollow organ image creation unit 58. Preferably, in the three-dimensional virtual image of the luminal organ created by the luminal organ image creation unit 58, the region corresponding to the organ that is the observation target extracted (identified) by the information extraction unit 60, Text data corresponding to the anatomical name of the organ is synthesized and displayed.

前記カメラ/プローブ位置提示部66は、前記管腔臓器画像作成部58により作成される前記3次元仮想画像上に、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置を提示する。好適には、前記カメラ/超音波画像観察位置推定部56による推定結果、すなわち前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置の対応付けの結果に基づいて、前記管腔臓器画像作成部58により作成される前記3次元仮想画像上に、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置を表示させる。すなわち、本実施例においては、前記カメラ/プローブ位置提示部66が観察位置表示制御部に相当する。   The camera / probe position presentation unit 66 presents the observation position by the endoscope 26 and the observation position by the ultrasonic probe 32 on the three-dimensional virtual image created by the luminal organ image creation unit 58. . Preferably, based on the estimation result by the camera / ultrasound image observation position estimation unit 56, that is, the result of the correspondence between the observation position by the endoscope 26 and the observation position by the ultrasonic probe 32, the luminal organ The observation position by the endoscope 26 and the observation position by the ultrasonic probe 32 are displayed on the three-dimensional virtual image created by the image creation unit 58. That is, in the present embodiment, the camera / probe position presentation unit 66 corresponds to an observation position display control unit.

前記CT像/超音波画像融合部68は、前記管腔臓器画像作成部58により作成される前記3次元仮想画像と、前記超音波プローブ32により取得された超音波画像とを、合成表示させる。好適には、前記カメラ/超音波画像観察位置推定部56による推定結果、すなわち前記超音波プローブ32による観察位置の対応付けの結果に基づいて、前記管腔臓器画像作成部58により作成される前記3次元仮想画像上における、前記超音波プローブ32による観察位置に、前記超音波プローブ32により取得された超音波画像を合成表示させる。   The CT image / ultrasound image fusion unit 68 synthesizes and displays the three-dimensional virtual image created by the luminal organ image creation unit 58 and the ultrasound image acquired by the ultrasound probe 32. Preferably, the luminal organ image creation unit 58 creates the luminal organ image creation unit 58 based on the estimation result by the camera / ultrasonic image observation position estimation unit 56, that is, the result of the observation position association by the ultrasonic probe 32. The ultrasonic image acquired by the ultrasonic probe 32 is synthesized and displayed at the observation position by the ultrasonic probe 32 on the three-dimensional virtual image.

前記超音波画像3次元再構築部72は、前記超音波画像取得部48により前記超音波プローブ32の突出量を変化させつつ取得された複数の超音波画像に基づいて、前記超音波プローブ32による観察位置の3次元画像を再構築する。例えば、前記超音波画像取得部48により取得された複数の超音波画像に基づいて、3次元領域の連続するスライスの断層像を積み重ねることによって前記観察部位の3次元仮想画像を作成する。すなわち、本実施例においては、前記超音波画像3次元再構築部72が3次元画像再構築部に相当する。   The ultrasonic image three-dimensional reconstruction unit 72 uses the ultrasonic probe 32 based on a plurality of ultrasonic images acquired by the ultrasonic image acquisition unit 48 while changing the protruding amount of the ultrasonic probe 32. A three-dimensional image of the observation position is reconstructed. For example, based on a plurality of ultrasonic images acquired by the ultrasonic image acquisition unit 48, a three-dimensional virtual image of the observation site is created by stacking tomographic images of consecutive slices of a three-dimensional region. That is, in this embodiment, the ultrasonic image three-dimensional reconstruction unit 72 corresponds to a three-dimensional image reconstruction unit.

前記特定部位検出部74は、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像における特定部位を検出する。好適には、前記特定部位として、前記管腔臓器の3次元画像における病変部すなわち病変の存在が疑われる部位を検出する。好適には、前記3次元画像データに基づいて、例えば所定のCT値のボクセルの具合である等、予め定められた条件に合致すること等により前記管腔臓器における病変部の存在を検出する。例えば、被検体の気管支内腔よりも外側(気管支壁の向こう側)における肺癌をはじめとする病変部の存在を検出する。   The specific part detection unit 74 detects a specific part in the three-dimensional image of the hollow organ constructed based on the three-dimensional image data. Preferably, as the specific part, a lesioned part in the three-dimensional image of the hollow organ, that is, a part suspected of having a lesion is detected. Preferably, based on the three-dimensional image data, the presence of a lesion in the luminal organ is detected by matching a predetermined condition such as the condition of a voxel having a predetermined CT value. For example, the presence of a lesion such as lung cancer is detected outside the bronchial lumen of the subject (on the other side of the bronchial wall).

前記特定部位画像抽出部76は、前記特定部位検出部74により検出された特定部位に関して、前記超音波画像取得部48により取得された複数の超音波画像に基づいて、前記超音波プローブ32による観察位置における前記特定部位の3次元画像を抽出する。例えば、前記超音波画像3次元再構築部72により再構築された前記超音波プローブ32による観察部位の3次元仮想画像から、前記特定部位検出部74により検出された前記特定部位に対応する3次元仮想画像を抽出する。以下、図6〜図9を参照して特定部位(病変部)の検出及びその特定部位に対応する3次元仮想画像の抽出について説明する。   The specific part image extraction unit 76 observes the specific part detected by the specific part detection unit 74 using the ultrasonic probe 32 based on a plurality of ultrasonic images acquired by the ultrasonic image acquisition unit 48. A three-dimensional image of the specific part at the position is extracted. For example, the three-dimensional corresponding to the specific part detected by the specific part detection unit 74 from the three-dimensional virtual image of the observation part by the ultrasonic probe 32 reconstructed by the ultrasonic image three-dimensional reconstruction part 72 Extract a virtual image. Hereinafter, detection of a specific part (lesion) and extraction of a three-dimensional virtual image corresponding to the specific part will be described with reference to FIGS.

図6は、前記支援装置10により生成される気管支の図像の一例を模式的に示す図である。この図6に示す図像100は、前記CT画像データ取込部50により取り込まれた3次元画像データに基づいて、前記管腔臓器画像作成部58により作成された前記内視鏡26による観察対象である管腔臓器の3次元仮想画像(外形像)に相当する。図6に示す例では、前記気管支の図像100上に、前記挿入経路生成部64により生成された経路情報に基づいて、前記気管支内に挿入される前記内視鏡26の経路102が合成されている。更に、前記内視鏡26により取得された内視鏡画像104が、前記気管支の図像100上における前記内視鏡26の観察位置に合成表示されると共に、前記挿入経路生成部64により生成された経路情報における、対応する臓器の情報が、前記経路名称表示部70により表示される様子を示している。   FIG. 6 is a diagram schematically illustrating an example of a bronchial image generated by the support apparatus 10. The image 100 shown in FIG. 6 is an object to be observed by the endoscope 26 created by the luminal organ image creation unit 58 based on the three-dimensional image data captured by the CT image data capture unit 50. This corresponds to a three-dimensional virtual image (outline image) of a certain hollow organ. In the example shown in FIG. 6, the path 102 of the endoscope 26 inserted into the bronchus is synthesized on the bronchial image 100 based on the path information generated by the insertion path generation unit 64. Yes. Further, the endoscope image 104 acquired by the endoscope 26 is synthesized and displayed at the observation position of the endoscope 26 on the bronchial image 100 and is generated by the insertion path generation unit 64. In the route information, the corresponding organ information is displayed by the route name display unit 70.

図7は、前記気管支の図像100に対応して検出される病変部について説明する図である。図7に示す例では、前記管腔臓器画像作成部58により作成された3次元仮想画像である前記気管支の図像100において、前記特定部位検出部74により、前記特定部位としての病変部106が検出される様子を示している。このようにして病変部106が検出された場合、前記挿入経路生成部64により、前記内視鏡本体20が挿入される始点から、前記病変部106までの経路に対応する経路情報が生成される。図7に示す例では、前記気管支の図像100上に、前記挿入経路生成部64により生成された経路情報に基づいて、前記内視鏡本体20が挿入される始点から前記病変部106までの経路108が合成されている。   FIG. 7 is a diagram for explaining a lesion portion detected in correspondence with the bronchial image 100. In the example shown in FIG. 7, in the bronchial image 100 that is a three-dimensional virtual image created by the luminal organ image creation unit 58, the specific part detection unit 74 detects the lesioned part 106 as the specific part. It shows how it is done. When the lesioned part 106 is detected in this way, the insertion path generation unit 64 generates path information corresponding to the path from the starting point where the endoscope body 20 is inserted to the lesioned part 106. . In the example shown in FIG. 7, the path from the starting point at which the endoscope body 20 is inserted to the lesioned part 106 on the bronchial image 100 based on the path information generated by the insertion path generating unit 64. 108 is synthesized.

図8及び図9は、前記超音波プローブ32により前記病変部106の超音波画像が取得される様子を説明する図である。前記気管支の図像100に合成された前記経路108に従って、前記気管支内に前記内視鏡26を挿通(進行)させることで、図8に示すように、前記内視鏡26の観察部28(超音波プローブ32の送受信部34)を前記病変部106まで簡便に誘導できる。ここで、前記内視鏡26では、気管支内腔よりも外側(気管支壁の向こう側)における組織の観察はできない。そこで、前記病変部106に対して、前記超音波プローブ32により超音波画像の取得が行われる。図8においては、前記超音波プローブ32により取得された超音波画像108が、前記気管支の図像100上における前記超音波プローブ32の観察位置に合成表示される様子を示している。図8に示すように、前記超音波画像108は、例えば、前記超音波プローブ32における前記送受信部34の長手方向に垂直な平面に対応する画像である。前記超音波プローブ32により取得された超音波画像108には、気管支内腔よりも外側における組織の像が含まれる。例えば、前記超音波画像108は、前記気管支に対応する像110、気管支近傍における血管に対応する像112、及び前記病変部106に対応する像114を含んでいる。   FIG. 8 and FIG. 9 are diagrams for explaining how an ultrasonic image of the lesioned part 106 is acquired by the ultrasonic probe 32. By inserting (advancing) the endoscope 26 into the bronchus according to the path 108 synthesized with the bronchial image 100, as shown in FIG. The transmitting / receiving unit 34) of the acoustic probe 32 can be easily guided to the lesioned part 106. Here, the endoscope 26 cannot observe the tissue outside the bronchial lumen (on the other side of the bronchial wall). Therefore, an ultrasonic image is acquired from the lesioned portion 106 by the ultrasonic probe 32. FIG. 8 shows a state in which the ultrasonic image 108 acquired by the ultrasonic probe 32 is synthesized and displayed at the observation position of the ultrasonic probe 32 on the bronchial image 100. As shown in FIG. 8, the ultrasonic image 108 is an image corresponding to a plane perpendicular to the longitudinal direction of the transmitter / receiver 34 in the ultrasonic probe 32, for example. The ultrasound image 108 acquired by the ultrasound probe 32 includes an image of a tissue outside the bronchial lumen. For example, the ultrasound image 108 includes an image 110 corresponding to the bronchi, an image 112 corresponding to a blood vessel near the bronchus, and an image 114 corresponding to the lesioned part 106.

前記支援装置10においては、図9に示すように、前記超音波画像取得部48により前記超音波プローブ32における前記管状部22の端部22aからの突出量が変化させられつつ前記病変部106の超音波画像108a、108b、108c、・・・(以下、特に区別しない場合には単に超音波画像108という)が連続的に複数取得される。例えば、前記気管支における、前記病変部106近傍の細い管に対して前記超音波プローブ32が微小に出し入れされつつ、当該部位の超音波画像108が連続的に複数取得される。好適には、前記送受信部34が連続的に回転させられると共に、前記管に対して前記超音波プローブ32が微小に出し入れされつつ、当該部位の超音波画像108が連続的に複数取得される。このようにして取得された複数の超音波画像108に基づいて、3次元領域の連続するスライスの断層像を積み重ねることによって前記超音波プローブ32の観察部位の3次元仮想画像が再構築される。そして、図9に示すように、その3次元仮想画像から、前記病変部106に対応する3次元画像116が抽出される。   In the support device 10, as shown in FIG. 9, the amount of protrusion of the ultrasonic probe 32 from the end 22 a of the tubular portion 22 is changed by the ultrasonic image acquisition unit 48, while the lesioned portion 106 is changed. A plurality of ultrasonic images 108a, 108b, 108c,... (Hereinafter simply referred to as ultrasonic images 108 unless otherwise distinguished) are acquired continuously. For example, a plurality of ultrasonic images 108 of the part are continuously acquired while the ultrasonic probe 32 is inserted and removed minutely with respect to a thin tube near the lesioned part 106 in the bronchus. Preferably, the transmission / reception unit 34 is continuously rotated, and a plurality of ultrasonic images 108 of the part are continuously acquired while the ultrasonic probe 32 is slightly inserted into and extracted from the tube. A three-dimensional virtual image of the observation site of the ultrasonic probe 32 is reconstructed by stacking tomographic images of successive slices of a three-dimensional region based on the plurality of ultrasonic images 108 thus acquired. Then, as shown in FIG. 9, a three-dimensional image 116 corresponding to the lesioned part 106 is extracted from the three-dimensional virtual image.

前記CT像/超音波画像融合部68は、前記カメラ/超音波観察位置推定部56により推定される前記超音波プローブ32の観察位置に基づいて、前記特定部位画像抽出部76により抽出された前記特定部位の3次元画像を、前記管腔臓器画像作成部58により作成された前記管腔臓器の3次元画像に合成表示させる。例えば、前記のようにして抽出された前記病変部106に対応する3次元画像116を、前記気管支の図像100における前記病変部106に対応する位置に合成表示させる。すなわち、本実施例においては、前記CT像/超音波画像融合部68が特定部位画像合成表示部に相当する。ここで、前記超音波画像108の取得時には、前記超音波プローブ32の突出量が変化させられる。従って、前記管腔臓器画像作成部58により作成された前記管腔臓器の3次元画像に対する、前記超音波プローブ32による観察位置の相対的な位置関係も変化するが、本実施例においては、前記カメラ/超音波画像観察位置推定部56により前記超音波プローブ32の観察位置が前記管腔臓器の3次元画像に対応付けられているため、再構築された特定部位の3次元画像を、臓器全体の3次元画像におけるより正確な位置に合成表示させることができる。   The CT image / ultrasonic image fusion unit 68 is extracted by the specific part image extraction unit 76 based on the observation position of the ultrasonic probe 32 estimated by the camera / ultrasonic observation position estimation unit 56. A three-dimensional image of the specific part is synthesized and displayed on the three-dimensional image of the luminal organ created by the luminal organ image creation unit 58. For example, the three-dimensional image 116 corresponding to the lesioned part 106 extracted as described above is synthesized and displayed at a position corresponding to the lesioned part 106 in the bronchial image 100. That is, in the present embodiment, the CT image / ultrasound image fusion unit 68 corresponds to a specific part image composition display unit. Here, when the ultrasonic image 108 is acquired, the protruding amount of the ultrasonic probe 32 is changed. Therefore, the relative positional relationship of the observation position by the ultrasonic probe 32 with respect to the three-dimensional image of the hollow organ created by the hollow organ image creation unit 58 also changes. Since the observation position of the ultrasonic probe 32 is associated with the three-dimensional image of the luminal organ by the camera / ultrasonic image observation position estimation unit 56, the reconstructed three-dimensional image of the specific part is displayed as the whole organ. Can be synthesized and displayed at a more accurate position in the three-dimensional image.

前記生検目的部位表示部78は、前記管腔臓器画像作成部58により作成された前記管腔臓器の3次元画像において、前記特定部位検出部74により検出された特定部位を、生検目的部位として表示させる。好適には、前記CT像/超音波画像融合部68により前記管腔臓器の3次元画像に合成表示された、前記病変部106に対応する3次元画像116を、生検目的部位として表示させる。この生検目的部位とは、例えば、前記内視鏡本体20における管状部22に備えられた鉗子口に挿入された針や生検鉗子をはじめとする処置具による生検の対象となる部位に相当する。すなわち、組織の採取のために前記針が刺される部位、或いは生検鉗子により掴み取られる部位に相当する。例えば、気管支の内視鏡検査において被検体が呼吸している場合には、その呼吸に合わせて気管支の形状が若干変形する。このため、予め得られた管腔臓器の3次元画像データに基づいて作成された3次元画像に基づいて生検目的部位を決定した場合、その生検目的部位が組織を採取すべき部位(例えば、病変部106)から若干ずれるおそれがある。本実施例においては、前記超音波プローブ32により連続的に取得された複数の超音波画像108に基づいて生成された、前記病変部106に対応する3次元画像116が生検目的部位として表示されるため、組織の採取のために前記針が刺される部位、或いは生検鉗子により掴み取られる部位としてより正確な位置を提示することができる。   The biopsy target site display unit 78 displays the specific site detected by the specific site detection unit 74 in the three-dimensional image of the hollow organ created by the luminal organ image creation unit 58. Display as. Preferably, the CT image / ultrasound image fusion unit 68 displays the three-dimensional image 116 corresponding to the lesioned portion 106 synthesized and displayed on the three-dimensional image of the luminal organ as a biopsy target site. The biopsy target site is, for example, a site to be subjected to biopsy with a treatment tool such as a needle inserted into a forceps opening provided in the tubular portion 22 of the endoscope body 20 or a biopsy forceps. Equivalent to. That is, it corresponds to a site where the needle is stabbed for tissue collection or a site grasped by a biopsy forceps. For example, when the subject is breathing in endoscopic examination of bronchi, the shape of the bronchus is slightly deformed according to the breathing. For this reason, when a biopsy target site is determined based on a three-dimensional image created based on three-dimensional image data of a luminal organ obtained in advance, the biopsy target site is a site where tissue should be collected (for example, , There is a risk of slight deviation from the lesioned part 106). In the present embodiment, a three-dimensional image 116 corresponding to the lesioned part 106 generated based on a plurality of ultrasonic images 108 continuously acquired by the ultrasonic probe 32 is displayed as a biopsy target site. Therefore, it is possible to present a more accurate position as a part where the needle is inserted for tissue collection or a part grasped by the biopsy forceps.

以上に説明したように、前記情報処理部52及び情報融合処理部54により生成延いては合成された画像は、前記情報可視化部82を介して前記映像表示装置14に表示される。図10〜図15は、前記情報可視化部82を介して前記映像表示装置14に表示される観察画面を例示している。図10に示す観察画面118では、前記内視鏡26により取得された内視鏡画像及びその内視鏡26の経路名称を含む画像120、及び前記内視鏡26の位置及び方向から作成した前記管腔臓器内部の3次元仮想画像122が、1つの画面内に同期して表示されている。図11に示す観察画面124では、前記画像120、122に加え、前記内視鏡26の動きや経路、目的部位としての前記特定部位(病変部106)や周辺情報等を含む画像126が、1つの画面内に同期して表示されている。図12に示す観察画面128では、前記画像120、122に加え、前記内視鏡26の動きや経路、前記超音波プローブ32により取得される超音波画像等を含む画像130、及び前記超音波プローブ32により取得される超音波画像132が、1つの画面内に同期して表示されている。図13に示す観察画面134では、前記画像120、122、132に加え、予め得られた管腔臓器の3次元画像データに基づいて構築された3次元仮想画像(CT像)上における前記内視鏡26及び超音波プローブ32による観察位置を示す画像136、前記内視鏡26の動きや経路、目的部位としての前記特定部位や周辺情報、前記超音波プローブ32により取得される超音波画像等を含む画像138が、1つの画面内に同期して表示されている。図14に示す観察画面140では、前記画像120、122、132、136、138が、図13に示す観察画面134とは異なる配置で1つの画面内に同期して表示されている。図15に示す観察画面142では、前記画像120、122、132、136、138に加え、前記超音波プローブ32により取得された複数の超音波画像から再構築された目的部位としての前記特定部位の3次元画像144、及び前記複数の超音波画像から再構築された3次元画像に対する生検目的部位を提示する画像146が、1つの画面内に同期して表示されている。   As described above, the image generated and synthesized by the information processing unit 52 and the information fusion processing unit 54 is displayed on the video display device 14 via the information visualization unit 82. 10 to 15 illustrate an observation screen displayed on the video display device 14 via the information visualization unit 82. In the observation screen 118 shown in FIG. 10, the endoscope image acquired by the endoscope 26 and the image 120 including the path name of the endoscope 26, and the position and direction of the endoscope 26 are created. A three-dimensional virtual image 122 inside the luminal organ is displayed synchronously in one screen. In the observation screen 124 shown in FIG. 11, in addition to the images 120 and 122, an image 126 including the movement and path of the endoscope 26, the specific site (lesioned portion 106) as a target site, peripheral information, and the like is 1 Are displayed in sync on one screen. In the observation screen 128 shown in FIG. 12, in addition to the images 120 and 122, an image 130 including the movement and path of the endoscope 26, an ultrasonic image acquired by the ultrasonic probe 32, and the ultrasonic probe The ultrasonic image 132 acquired by 32 is displayed synchronously within one screen. In the observation screen 134 shown in FIG. 13, in addition to the images 120, 122, and 132, the internal view on a three-dimensional virtual image (CT image) constructed based on the three-dimensional image data of a hollow organ obtained in advance. An image 136 showing an observation position by the mirror 26 and the ultrasonic probe 32, a movement and a route of the endoscope 26, the specific part as a target part and peripheral information, an ultrasonic image acquired by the ultrasonic probe 32, and the like. The included image 138 is displayed in synchronization within one screen. In the observation screen 140 shown in FIG. 14, the images 120, 122, 132, 136, and 138 are displayed in a single screen in a different arrangement from the observation screen 134 shown in FIG. 13. In the observation screen 142 shown in FIG. 15, in addition to the images 120, 122, 132, 136, and 138, the specific region as a target region reconstructed from a plurality of ultrasonic images acquired by the ultrasonic probe 32 is displayed. A three-dimensional image 144 and an image 146 presenting a biopsy target site for the three-dimensional image reconstructed from the plurality of ultrasonic images are displayed in synchronization within one screen.

図16は、前記支援装置10の制御装置12による前記内視鏡26に対応する座標系と前記磁気式位置センサ38に対応する座標系との変換行列決定制御の一例の要部を説明するフローチャートであり、所定の周期で繰り返し実行されるものである。   FIG. 16 is a flowchart for explaining a main part of an example of conversion matrix determination control between the coordinate system corresponding to the endoscope 26 and the coordinate system corresponding to the magnetic position sensor 38 by the control device 12 of the support device 10. And is repeatedly executed at a predetermined cycle.

先ず、ステップ(以下、ステップを省略する)SA1において、前記内視鏡26により取得される内視鏡画像と、前記磁気式位置センサ38の検出結果とが取り込まれる。次に、SA2において、SA1にて取り込まれた内視鏡画像が解析され、その内視鏡画像における特徴が抽出される。次に、SA3において、SA1にて取り込まれた前記磁気式位置センサ38の検出結果及びSA2にて抽出された内視鏡画像における特徴に基づいて、変換行列の初期値が設定される。次に、SA4において、SA3にて設定された変換行列による変換誤差が算出される。次に、SA5において、SA4にて算出された変換誤差が、予め定められた許容誤差の範囲内であるか否かが判断される。このSA5の判断が否定される場合には、SA6において、変換行列が変更された後、SA4以下の処理が再び実行されるが、SA5の判断が肯定される場合には、SA7において、SA3にて設定された変換行列或いはSA6にて変更された変換行列が、前記内視鏡26に対応する座標系と前記磁気式位置センサ38に対応する座標系との変換行列として決定された後、それをもって本ルーチンが終了させられる。   First, in step (hereinafter, step is omitted) SA1, an endoscopic image acquired by the endoscope 26 and a detection result of the magnetic position sensor 38 are captured. Next, in SA2, the endoscopic image captured in SA1 is analyzed, and features in the endoscopic image are extracted. Next, in SA3, the initial value of the transformation matrix is set based on the detection result of the magnetic position sensor 38 captured in SA1 and the features in the endoscopic image extracted in SA2. Next, in SA4, a conversion error due to the conversion matrix set in SA3 is calculated. Next, in SA5, it is determined whether or not the conversion error calculated in SA4 is within a predetermined allowable error range. If the determination at SA5 is negative, the process after SA4 is executed again after the conversion matrix is changed at SA6. If the determination at SA5 is affirmative, the determination at SA7 is SA3. The transformation matrix set in step S6 or the transformation matrix changed in SA6 is determined as a transformation matrix between the coordinate system corresponding to the endoscope 26 and the coordinate system corresponding to the magnetic position sensor 38, This routine is terminated.

図17は、前記支援装置10の制御装置12による前記超音波プローブ32に対応する座標系と前記磁気式位置センサ40に対応する座標系との変換行列決定制御の他の一例の要部を説明するフローチャートであり、所定の周期で繰り返し実行されるものである。   FIG. 17 illustrates a main part of another example of conversion matrix determination control between the coordinate system corresponding to the ultrasonic probe 32 and the coordinate system corresponding to the magnetic position sensor 40 by the control device 12 of the support device 10. This flowchart is repeatedly executed at a predetermined cycle.

先ず、SB1において、前記超音波プローブ32により取得される内視鏡画像と、前記磁気式位置センサ40の検出結果とが取り込まれる。次に、SB2において、SB1にて取り込まれた超音波画像が解析され、その超音波画像における特徴が抽出される。次に、SB3において、SB1にて取り込まれた前記磁気式位置センサ40の検出結果及びSB2にて抽出された超音波画像における特徴に基づいて、変換行列の初期値が設定される。次に、SB4において、SB3にて設定された変換行列による変換誤差が算出される。次に、SB5において、SB4にて算出された変換誤差が、予め定められた許容誤差の範囲内であるか否かが判断される。このSB5の判断が否定される場合には、SB6において、変換行列が変更された後、SB4以下の処理が再び実行されるが、SB5の判断が肯定される場合には、SB7において、SB3にて設定された変換行列或いはSB6にて変更された変換行列が、前記超音波プローブ32に対応する座標系と前記磁気式位置センサ40に対応する座標系との変換行列として決定された後、それをもって本ルーチンが終了させられる。   First, in SB1, an endoscopic image acquired by the ultrasonic probe 32 and a detection result of the magnetic position sensor 40 are captured. Next, in SB2, the ultrasonic image captured in SB1 is analyzed, and features in the ultrasonic image are extracted. Next, in SB3, the initial value of the transformation matrix is set based on the detection result of the magnetic position sensor 40 captured in SB1 and the features in the ultrasonic image extracted in SB2. Next, in SB4, a conversion error due to the conversion matrix set in SB3 is calculated. Next, in SB5, it is determined whether or not the conversion error calculated in SB4 is within a predetermined allowable error range. If the determination at SB5 is negative, the process after SB4 is executed again after the conversion matrix is changed at SB6. However, if the determination at SB5 is affirmative, SB7 is changed to SB3. After the transformation matrix set in step SB6 or the transformation matrix changed in SB6 is determined as a transformation matrix between the coordinate system corresponding to the ultrasonic probe 32 and the coordinate system corresponding to the magnetic position sensor 40, This routine is terminated.

図18は、前記支援装置10の制御装置12による前記3次元仮想画像に対応する座標系と前記磁気式位置センサ38、40に対応する座標系との変換行列決定制御の更に別の一例の要部を説明するフローチャートであり、所定の周期で繰り返し実行されるものである。   FIG. 18 shows another example of conversion matrix determination control between the coordinate system corresponding to the three-dimensional virtual image and the coordinate system corresponding to the magnetic position sensors 38 and 40 by the control device 12 of the support device 10. FIG. 6 is a flowchart for explaining a section, which is repeatedly executed at a predetermined cycle.

先ず、SC1において、予め得られた管腔臓器の3次元画像データに基づいて生成される3次元仮想画像(CT画像)と、前記磁気式位置センサ38、40の検出結果とが取り込まれる。次に、SC2において、SC1にて取り込まれた3次元仮想画像が解析され、その3次元仮想画像における特徴として、例えば気管支芯線(気管支の長手方向に沿った中心線)が抽出される。次に、SC3において、SC1にて取り込まれた前記磁気式位置センサ38、40の検出結果及びSC2にて抽出された気管支芯線に基づいて、変換行列の初期値が設定される。次に、SC4において、SC3にて設定された変換行列による変換誤差が算出される。次に、SC5において、SC4にて算出された変換誤差が、予め定められた許容誤差の範囲内であるか否かが判断される。このSC5の判断が否定される場合には、SC6において、変換行列が変更された後、SC4以下の処理が再び実行されるが、SC5の判断が肯定される場合には、SC7において、SC3にて設定された変換行列或いはSC6にて変更された変換行列が、前記3次元仮想画像に対応する座標系と前記磁気式位置センサ38、40に対応する座標系との変換行列として決定された後、それをもって本ルーチンが終了させられる。   First, in SC1, a three-dimensional virtual image (CT image) generated based on previously obtained three-dimensional image data of a hollow organ and the detection results of the magnetic position sensors 38 and 40 are captured. Next, in SC2, the three-dimensional virtual image captured in SC1 is analyzed, and, for example, a bronchial core line (center line along the longitudinal direction of the bronchus) is extracted as a feature in the three-dimensional virtual image. Next, in SC3, the initial value of the transformation matrix is set based on the detection results of the magnetic position sensors 38 and 40 taken in in SC1 and the bronchial core line extracted in SC2. Next, in SC4, a conversion error based on the conversion matrix set in SC3 is calculated. Next, in SC5, it is determined whether or not the conversion error calculated in SC4 is within a predetermined allowable error range. If the determination at SC5 is negative, the process after SC4 is executed again after the conversion matrix is changed at SC6. If the determination at SC5 is affirmative, the process proceeds to SC3 at SC7. After the transformation matrix set in step S6 or the transformation matrix changed in SC6 is determined as a transformation matrix between the coordinate system corresponding to the three-dimensional virtual image and the coordinate system corresponding to the magnetic position sensors 38 and 40. This routine is then terminated.

図19は、前記支援装置10の制御装置12による内視鏡観察支援制御の一例の要部を説明するフローチャートであり、所定の周期で繰り返し実行されるものである。   FIG. 19 is a flowchart for explaining a main part of an example of the endoscope observation support control by the control device 12 of the support device 10 and is repeatedly executed at a predetermined cycle.

先ず、S1において、予め得られた管腔臓器の3次元画像データが前記画像データベース44から読み出され、その3次元画像データに基づいて、前記管腔臓器の3次元仮想画像が生成される。次に、S2において、前記内視鏡26により内視鏡画像が取得されると共に、前記超音波プローブ32により超音波画像が取得される。次に、S3において、SA1〜SA7、SB1〜SB7、SC1〜SC7にて決定された変換行列に基づいて、S1にて生成された前記管腔臓器の3次元仮想画像に対して前記内視鏡26の観察位置及び前記超音波プローブ32の観察位置が対応付けられる。次に、S4において、S3の対応付けの結果に基づいて、S1にて生成された前記管腔臓器の3次元仮想画像上に、前記内視鏡26により取得された内視鏡画像、前記超音波プローブ32により取得された超音波画像等が合成されると共に、前記内視鏡26及び前記超音波プローブ32の先端位置等の情報が提示され、前記映像表示装置14に表示される。次に、S5において、S1にて生成された前記管腔臓器の3次元仮想画像における特定部位として、病変部の存在が検出されたか否かが判断される。このS5の判断が否定される場合には、S1以下の処理が再び実行されるが、S5の判断が肯定される場合には、S6において、S5にて検出された病変部までの経路情報が作成され、S1にて生成された前記管腔臓器の3次元仮想画像上に提示される。次に、S7において、前記内視鏡26(超音波プローブ32)の先端位置が、S5にて検出された病変部に到達したか否かが判断される。このS7の判断が否定されるうちは、S7の判断が繰り返されることにより待機させられるが、S7の判断が肯定される場合には、S8において、前記超音波プローブ32における前記端部22aからの突出量が変化させられつつ、前記超音波プローブ32による観察位置の超音波画像が連続的に複数取得される。次に、S9において、S8にて取得された複数の超音波画像に基づいて、前記超音波プローブ32による観察位置の3次元画像が再構築される。次に、S10において、S9にて再構築された3次元画像から、S5にて検出された病変部の3次元画像が抽出される。次に、S11において、S10にて抽出された病変部の3次元画像が、S1にて生成された前記管腔臓器の3次元仮想画像上における、検出された病変部に対応する位置に合成され、前記映像表示装置14に表示された後、それをもって本ルーチンが終了させられる。   First, in S1, three-dimensional image data of a luminal organ obtained in advance is read from the image database 44, and a three-dimensional virtual image of the luminal organ is generated based on the three-dimensional image data. Next, in S <b> 2, an endoscopic image is acquired by the endoscope 26 and an ultrasonic image is acquired by the ultrasonic probe 32. Next, in S3, based on the transformation matrix determined in SA1 to SA7, SB1 to SB7, and SC1 to SC7, the endoscope is applied to the three-dimensional virtual image of the luminal organ generated in S1. 26 observation positions and the observation position of the ultrasonic probe 32 are associated with each other. Next, in S4, the endoscopic image acquired by the endoscope 26 on the three-dimensional virtual image of the luminal organ generated in S1 based on the result of the association in S3, the super image The ultrasonic image acquired by the sonic probe 32 is synthesized, and information such as the positions of the endoscope 26 and the tip of the ultrasonic probe 32 is presented and displayed on the video display device 14. Next, in S5, it is determined whether or not the presence of a lesion is detected as a specific site in the three-dimensional virtual image of the luminal organ generated in S1. When the determination at S5 is negative, the processing after S1 is executed again. However, when the determination at S5 is affirmative, the route information to the lesion part detected at S5 is obtained at S6. Created and presented on the three-dimensional virtual image of the luminal organ generated in S1. Next, in S7, it is determined whether or not the distal end position of the endoscope 26 (ultrasound probe 32) has reached the lesioned part detected in S5. While the determination of S7 is denied, the process waits by repeating the determination of S7. However, when the determination of S7 is affirmed, in S8, the ultrasonic probe 32 from the end 22a is While the protrusion amount is changed, a plurality of ultrasonic images at the observation position by the ultrasonic probe 32 are continuously acquired. Next, in S9, a three-dimensional image of the observation position by the ultrasonic probe 32 is reconstructed based on the plurality of ultrasonic images acquired in S8. Next, in S10, the three-dimensional image of the lesion detected in S5 is extracted from the three-dimensional image reconstructed in S9. Next, in S11, the three-dimensional image of the lesion extracted in S10 is synthesized at a position corresponding to the detected lesion on the three-dimensional virtual image of the luminal organ generated in S1. After being displayed on the video display device 14, this routine is terminated.

以上の制御において、S2及びS8が前記超音波画像取得部48の動作に、S3が観察位置対応付部としての前記カメラ/超音波画像観察位置推定部56の動作に、S1が前記管腔臓器画像作成部58の動作に、S4が画像表示制御部としての前記情報融合処理部62及び観察位置表示制御部としての前記カメラ/プローブ位置提示部66の動作に、S11が特定部位画像合成表示部としての前記CT像/超音波画像融合部68の動作に、S9が3次元画像再構築部としての前記超音波画像3次元再構築部72の動作に、S10が前記特定部位画像抽出部76の動作に、それぞれ対応する。   In the above control, S2 and S8 are the operation of the ultrasonic image acquisition unit 48, S3 is the operation of the camera / ultrasonic image observation position estimation unit 56 as the observation position association unit, and S1 is the lumen organ. S4 is the operation of the image creation unit 58, S4 is the operation of the information fusion processing unit 62 as the image display control unit and the camera / probe position presentation unit 66 as the observation position display control unit, and S11 is the specific part image composition display unit. The operation of the CT image / ultrasound image fusion unit 68 as S9, the operation of the ultrasound image 3D reconstruction unit 72 as a 3D image reconstruction unit, and S10 of the specific part image extraction unit 76 It corresponds to each operation.

このように、本実施例によれば、基端部としての端部22aからの突出量を変更できる超音波プローブ32と、内視鏡26の先端位置及び前記超音波プローブ32の先端位置を検出する先端位置検出部としてのセンサ装置18と、そのセンサ装置18による検出結果に基づいて、3次元画像データに基づいて構築される前記管腔臓器の3次元画像における、前記内視鏡26による観察位置及び前記超音波プローブ32による観察位置の対応付けを行う観察位置対応付部としての前記カメラ/超音波画像観察位置推定部56(S3)と、前記超音波プローブ32における前記端部22aからの突出量を変化させつつ前記超音波プローブ32による観察位置の超音波画像を連続的に複数取得する超音波画像取得部48(S8)と、その超音波画像取得部48により取得された複数の超音波画像に基づいて、前記超音波プローブ32による観察位置の3次元画像を再構築する3次元画像再構築部としての超音波画像3次元再構築部72(S9)とを、備えたものであることから、前記超音波プローブ32による観察位置と前記内視鏡26による観察位置との対応関係が変化し、更には前記超音波プローブ32の観察位置と前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像との対応関係が変化した場合においても、前記超音波プローブ32による観察位置と前記内視鏡26による観察位置、更には前記管腔臓器の3次元画像との対応関係を好適に把握し、目的となる部位の3次元画像を再構築できる。すなわち、超音波プローブ32による観察を効果的に支援する支援装置10を提供することができる。   Thus, according to the present embodiment, the ultrasonic probe 32 that can change the amount of protrusion from the end 22a as the base end, the distal end position of the endoscope 26, and the distal end position of the ultrasonic probe 32 are detected. Observation by the endoscope 26 in a three-dimensional image of the luminal organ constructed based on the three-dimensional image data based on the detection result by the sensor device 18 as the tip position detecting unit and the detection result by the sensor device 18 The camera / ultrasonic image observation position estimation unit 56 (S3) as an observation position correspondence unit for associating the position and the observation position by the ultrasonic probe 32, and the end 22a of the ultrasonic probe 32 from the end 22a. An ultrasonic image acquisition unit 48 (S8) for continuously acquiring a plurality of ultrasonic images at the observation position by the ultrasonic probe 32 while changing the protrusion amount, and the ultrasonic image An ultrasonic image three-dimensional reconstruction unit 72 (a three-dimensional image reconstruction unit that reconstructs a three-dimensional image of the observation position by the ultrasonic probe 32 based on a plurality of ultrasonic images acquired by the acquisition unit 48 ( S9), the correspondence relationship between the observation position by the ultrasonic probe 32 and the observation position by the endoscope 26 is changed, and further, the observation position of the ultrasonic probe 32 and the observation position are changed. Even when the correspondence relationship with the three-dimensional image of the hollow organ constructed based on the three-dimensional image data changes, the observation position by the ultrasonic probe 32, the observation position by the endoscope 26, and further, It is possible to appropriately grasp the correspondence relationship with the three-dimensional image of the luminal organ and reconstruct the three-dimensional image of the target part. That is, it is possible to provide the support apparatus 10 that effectively supports observation with the ultrasonic probe 32.

前記超音波画像取得部48により取得された複数の超音波画像に基づいて、前記超音波プローブ32による観察位置における特定部位の3次元画像を抽出する特定部位画像抽出部76(S10)と、前記カメラ/超音波画像観察位置推定部56による対応付けの結果に基づいて、前記特定部位画像抽出部76により抽出された前記特定部位の3次元画像を、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像に合成表示させる特定部位画像合成表示部としての前記CT像/超音波画像融合部68(S11)とを、備えたものであるため、前記超音波プローブ32により取得される超音波画像に基づいて、観察対象となる管腔臓器の3次元画像上に、病変部をはじめとする特定部位の3次元画像を好適に合成表示できる。   A specific part image extracting unit 76 (S10) for extracting a three-dimensional image of a specific part at an observation position by the ultrasonic probe 32 based on a plurality of ultrasonic images acquired by the ultrasonic image acquiring unit 48; Based on the result of association by the camera / ultrasound image observation position estimation unit 56, a three-dimensional image of the specific part extracted by the specific part image extraction unit 76 is constructed based on the three-dimensional image data. Since it is provided with the CT image / ultrasound image fusion unit 68 (S11) as a specific part image synthesis display unit that is synthesized and displayed on the three-dimensional image of the luminal organ, it is acquired by the ultrasound probe 32. Based on the ultrasonic image, a three-dimensional image of a specific part including the lesioned part can be suitably synthesized and displayed on the three-dimensional image of the luminal organ to be observed.

前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像と、前記内視鏡26により取得される内視鏡画像と、前記超音波プローブ32により取得される超音波画像とを、同期して表示させる画像表示制御部としての前記情報融合処理部62(S4)を備えたものであるため、観察対象である管腔臓器の3次元画像、内視鏡画像、及び超音波画像を表示させる実用的なナビゲーションを実現できる。   A three-dimensional image of the hollow organ constructed based on the three-dimensional image data, an endoscopic image acquired by the endoscope 26, and an ultrasonic image acquired by the ultrasonic probe 32 Since the information fusion processing unit 62 (S4) is provided as an image display control unit for synchronous display, a three-dimensional image, endoscopic image, and ultrasonic image of the luminal organ to be observed Practical navigation that displays can be realized.

前記カメラ/超音波画像観察位置推定部56による対応付けの結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像上に、前記超音波プローブ32による観察位置を表示させる観察位置表示制御部としての前記カメラ/プローブ位置提示部66(S4)を備えたものであるため、超音波プローブ32による観察位置を、観察対象である管腔臓器の3次元画像上に表示させる実用的なナビゲーションを実現できる。   Based on the result of association by the camera / ultrasonic image observation position estimation unit 56, the observation position by the ultrasonic probe 32 on the three-dimensional image of the hollow organ constructed based on the three-dimensional image data. Since the camera / probe position presenting unit 66 (S4) is provided as an observation position display control unit for displaying the image, the observation position by the ultrasonic probe 32 is displayed on the three-dimensional image of the luminal organ to be observed. Practical navigation can be realized.

前記センサ装置18は、前記内視鏡26の先端部及び前記超音波プローブ32の先端部にそれぞれ設けられた磁気式位置センサ38、40の検出結果に基づいて、前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を検出するものであるため、実用的な態様で前記内視鏡26及び前記超音波プローブ32の先端位置を検出できる。   The sensor device 18 detects the position of the distal end of the endoscope 26 based on the detection results of the magnetic position sensors 38 and 40 provided at the distal end of the endoscope 26 and the distal end of the ultrasonic probe 32, respectively. Since the tip position of the ultrasonic probe 32 is detected, the tip positions of the endoscope 26 and the ultrasonic probe 32 can be detected in a practical manner.

前記センサ装置18は、前記内視鏡26の先端部に設けられた磁気式位置センサ38の検出結果に基づいて前記内視鏡26の先端位置を検出し、その内視鏡26の先端位置及び前記超音波プローブ32の挿入長を検出する超音波プローブ挿入長センサ90の検出結果に基づいて前記超音波プローブ32の先端位置を検出するものであるため、実用的な態様で前記内視鏡26及び前記超音波プローブ32の先端位置を検出できる。   The sensor device 18 detects the distal end position of the endoscope 26 based on the detection result of the magnetic position sensor 38 provided at the distal end portion of the endoscope 26, and the distal end position of the endoscope 26 and Since the tip position of the ultrasonic probe 32 is detected based on the detection result of the ultrasonic probe insertion length sensor 90 that detects the insertion length of the ultrasonic probe 32, the endoscope 26 is used in a practical manner. In addition, the tip position of the ultrasonic probe 32 can be detected.

前記センサ装置18は、前記内視鏡26の挿入長を検出する内視鏡挿入長センサ92の検出結果と、前記超音波プローブ32の挿入長を検出する超音波プローブ挿入長センサ90の検出結果とに基づいて、前記内視鏡26の先端位置及び前記超音波プローブ32の先端位置を検出するものであるため、実用的な態様で前記内視鏡26及び前記超音波プローブ32の先端位置を検出できる。   The sensor device 18 includes a detection result of an endoscope insertion length sensor 92 that detects the insertion length of the endoscope 26 and a detection result of an ultrasonic probe insertion length sensor 90 that detects the insertion length of the ultrasonic probe 32. Based on the above, the tip position of the endoscope 26 and the ultrasonic probe 32 are detected in a practical manner because the tip position of the endoscope 26 and the tip position of the ultrasonic probe 32 are detected. It can be detected.

以上、本発明の好適な実施例を図面に基づいて詳細に説明したが、本発明はこれに限定されるものではなく、更に別の態様においても実施される。   The preferred embodiments of the present invention have been described in detail with reference to the drawings. However, the present invention is not limited to these embodiments, and may be implemented in other modes.

例えば、前述の実施例では、前記支援装置10により管腔臓器としての気管支の観察を支援する態様について説明したが、本発明はこれに限定されるものではなく、前記支援装置10は、例えば、大腸、小腸、十二指腸、胃、胆管、膵管、リンパ管等の管腔臓器(中空臓器)に対応する3次元仮想画像の観察にも好適に使用される。   For example, in the above-described embodiment, the aspect in which the support device 10 supports the observation of the bronchus as a luminal organ has been described, but the present invention is not limited to this, and the support device 10 includes, for example, It is also preferably used for observing a three-dimensional virtual image corresponding to a luminal organ (hollow organ) such as the large intestine, small intestine, duodenum, stomach, bile duct, pancreatic duct, lymphatic duct and the like.

前述の実施例において、前記超音波プローブ32は、その先端部に前記送受信部34を備え、その送受信部34の長手方向に垂直な平面に対応する超音波画像を取得するものであったが、本発明に備えられる超音波プローブは、斯かる態様には限定されない。例えば、長手方向の側部(側面)から超音波を放出すると共に、その側部において反射波を受信する形式の超音波プローブを備えた内視鏡観察支援装置にも、本発明は好適に適用される。前記内視鏡26は、その先端部に単一の観察部28を備えたものであったが、前記管状部22の端部22aに加え、或いは端部22aを除く中腹に単数乃至複数の観察部28を備えたものであってもよい。   In the above-described embodiment, the ultrasonic probe 32 includes the transmission / reception unit 34 at the tip thereof, and acquires an ultrasonic image corresponding to a plane perpendicular to the longitudinal direction of the transmission / reception unit 34. The ultrasonic probe provided in the present invention is not limited to such an embodiment. For example, the present invention is also suitably applied to an endoscope observation support apparatus that includes an ultrasonic probe that emits ultrasonic waves from a side (side) in the longitudinal direction and receives reflected waves at the side. Is done. The endoscope 26 is provided with a single observation part 28 at its distal end, but in addition to the end 22a of the tubular part 22 or a single or a plurality of observations in the middle except for the end 22a. The part 28 may be provided.

前述の実施例においては、前記観察画面118等において、画像120、122等が前記映像表示装置14の1画面に同期して表示される表示態様について説明したが、複数の映像表示装置14が設けられており、前記120、122等がそれぞれ異なる画面(異なる映像表示装置)に同期して表示されるものであっても当然に構わない。   In the above-described embodiment, the display mode in which the images 120, 122, etc. are displayed in synchronization with one screen of the video display device 14 on the observation screen 118 has been described, but a plurality of video display devices 14 are provided. Of course, the above-mentioned 120, 122, etc. may be displayed in synchronism with different screens (different video display devices).

その他、一々例示はしないが、本発明はその趣旨を逸脱しない範囲内において種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.

10:内視鏡観察支援装置、18:センサ装置(先端位置検出部)、22a:端部(基端部)、26:内視鏡、32:超音波プローブ、38、40:磁気式位置センサ、48:超音波画像取得部、56:カメラ/超音波画像観察位置推定部(観察位置対応付部)、62:情報融合処理部(画像表示制御部)、66:カメラ/プローブ位置提示部(観察位置表示制御部)、68:CT像/超音波画像融合部(特定部位画像合成表示部)、72:超音波画像3次元再構築部(3次元画像再構築部)、76:特定部位画像抽出部、90:超音波プローブ挿入長センサ、92:内視鏡挿入長センサ、100:図像(3次元画像)、104:内視鏡画像、106:病変部(特定部位)、108:超音波画像   DESCRIPTION OF SYMBOLS 10: Endoscope observation assistance apparatus, 18: Sensor apparatus (front-end | tip position detection part), 22a: End part (base end part), 26: Endoscope, 32: Ultrasonic probe, 38, 40: Magnetic position sensor 48: Ultrasonic image acquisition unit 56: Camera / ultrasonic image observation position estimation unit (observation position correspondence unit) 62: Information fusion processing unit (image display control unit) 66: Camera / probe position presentation unit ( (Observation position display control unit), 68: CT image / ultrasound image fusion unit (specific site image synthesis display unit), 72: ultrasound image 3D reconstruction unit (3D image reconstruction unit), 76: specific site image Extraction unit, 90: ultrasonic probe insertion length sensor, 92: endoscope insertion length sensor, 100: image (three-dimensional image), 104: endoscopic image, 106: lesion (specific site), 108: ultrasound image

Claims (7)

予め得られた管腔臓器の3次元画像データに基づいて、該管腔臓器内に挿入された内視鏡による観察を支援する内視鏡観察支援装置であって、
基端部からの突出量を変更できる超音波プローブと、
前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出する先端位置検出部と、
該先端位置検出部による検出結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像における、前記内視鏡による観察位置及び前記超音波プローブによる観察位置の対応付けを行う観察位置対応付部と、
前記超音波プローブにおける前記基端部からの突出量を変化させつつ前記超音波プローブによる観察位置の超音波画像を連続的に複数取得する超音波画像取得部と、
該超音波画像取得部により取得された複数の超音波画像に基づいて、前記超音波プローブによる観察位置の3次元画像を再構築する3次元画像再構築部と
を、備えたことを特徴とする内視鏡観察支援装置。
An endoscopic observation support device that supports observation with an endoscope inserted into a hollow organ based on three-dimensional image data of the hollow organ obtained in advance,
An ultrasonic probe that can change the amount of protrusion from the base end, and
A tip position detector for detecting a tip position of the endoscope and a tip position of the ultrasonic probe;
Correspondence between the observation position by the endoscope and the observation position by the ultrasonic probe in the three-dimensional image of the hollow organ constructed based on the three-dimensional image data based on the detection result by the tip position detection unit An observation position corresponding part for attaching,
An ultrasonic image acquisition unit for continuously acquiring a plurality of ultrasonic images at the observation position by the ultrasonic probe while changing the amount of protrusion from the base end in the ultrasonic probe;
A three-dimensional image reconstruction unit that reconstructs a three-dimensional image of the observation position by the ultrasonic probe based on a plurality of ultrasonic images acquired by the ultrasonic image acquisition unit. Endoscope observation support device.
前記超音波画像取得部により取得された複数の超音波画像に基づいて、前記超音波プローブによる観察位置における特定部位の3次元画像を抽出する特定部位画像抽出部と、
前記観察位置対応付部による対応付けの結果に基づいて、前記特定部位画像抽出部により抽出された前記特定部位の3次元画像を、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像に合成表示させる特定部位画像合成表示部と
を、備えたものである請求項1に記載の内視鏡観察支援装置。
A specific part image extracting unit that extracts a three-dimensional image of a specific part at an observation position by the ultrasonic probe based on a plurality of ultrasonic images acquired by the ultrasonic image acquiring unit;
Based on the result of the association by the observation position association unit, the three-dimensional image of the specific part extracted by the specific part image extraction unit is created based on the three-dimensional image data. The endoscopic observation support apparatus according to claim 1, further comprising: a specific part image composition display unit that performs composition display on a three-dimensional image.
前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像と、前記内視鏡により取得される内視鏡画像と、前記超音波プローブにより取得される超音波画像とを、同期して表示させる画像表示制御部を備えたものである請求項1又は2に記載の内視鏡観察支援装置。   A three-dimensional image of the hollow organ constructed based on the three-dimensional image data, an endoscopic image acquired by the endoscope, and an ultrasonic image acquired by the ultrasonic probe are synchronized. The endoscopic observation support apparatus according to claim 1, further comprising an image display control unit to be displayed. 前記観察位置対応付部による対応付けの結果に基づいて、前記3次元画像データに基づいて構築される前記管腔臓器の3次元画像上に、前記超音波プローブによる観察位置を表示させる観察位置表示制御部を備えたものである請求項1から3の何れか1項に記載の内視鏡観察支援装置。   Observation position display for displaying the observation position by the ultrasonic probe on the three-dimensional image of the hollow organ constructed based on the three-dimensional image data based on the result of the association by the observation position association unit The endoscope observation support apparatus according to any one of claims 1 to 3, further comprising a control unit. 前記先端位置検出部は、前記内視鏡の先端部及び前記超音波プローブの先端部にそれぞれ設けられた磁気式位置センサの検出結果に基づいて、前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出するものである請求項1から4の何れか1項に記載の内視鏡観察支援装置。   The tip position detection unit is configured to detect the tip position of the endoscope and the ultrasound probe based on detection results of a magnetic position sensor provided at the tip of the endoscope and the tip of the ultrasound probe, respectively. The endoscope observation support apparatus according to any one of claims 1 to 4, wherein the tip position of the endoscope is detected. 前記先端位置検出部は、前記内視鏡の先端部に設けられた磁気式位置センサの検出結果に基づいて前記内視鏡の先端位置を検出し、該内視鏡の先端位置及び前記超音波プローブの挿入長を検出する超音波プローブ挿入長センサの検出結果に基づいて前記超音波プローブの先端位置を検出するものである請求項1から4の何れか1項に記載の内視鏡観察支援装置。   The tip position detection unit detects a tip position of the endoscope based on a detection result of a magnetic position sensor provided at a tip portion of the endoscope, and the tip position of the endoscope and the ultrasonic wave The endoscope observation support according to any one of claims 1 to 4, wherein a tip position of the ultrasonic probe is detected based on a detection result of an ultrasonic probe insertion length sensor for detecting an insertion length of the probe. apparatus. 前記先端位置検出部は、前記内視鏡の挿入長を検出する内視鏡挿入長センサの検出結果と、前記超音波プローブの挿入長を検出する超音波プローブ挿入長センサの検出結果とに基づいて、前記内視鏡の先端位置及び前記超音波プローブの先端位置を検出するものである請求項1から4の何れか1項に記載の内視鏡観察支援装置。   The tip position detection unit is based on a detection result of an endoscope insertion length sensor that detects an insertion length of the endoscope and a detection result of an ultrasonic probe insertion length sensor that detects an insertion length of the ultrasonic probe. The endoscope observation support apparatus according to any one of claims 1 to 4, which detects a tip position of the endoscope and a tip position of the ultrasonic probe.
JP2013252454A 2013-12-05 2013-12-05 Endoscopic observation support device Active JP6270026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013252454A JP6270026B2 (en) 2013-12-05 2013-12-05 Endoscopic observation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013252454A JP6270026B2 (en) 2013-12-05 2013-12-05 Endoscopic observation support device

Publications (2)

Publication Number Publication Date
JP2015107268A true JP2015107268A (en) 2015-06-11
JP6270026B2 JP6270026B2 (en) 2018-01-31

Family

ID=53438129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013252454A Active JP6270026B2 (en) 2013-12-05 2013-12-05 Endoscopic observation support device

Country Status (1)

Country Link
JP (1) JP6270026B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019517291A (en) * 2016-05-31 2019-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image-based fusion of endoscopic and ultrasound images
WO2019198322A1 (en) * 2018-04-10 2019-10-17 オリンパス株式会社 Medical treatment system
JPWO2020174778A1 (en) * 2019-02-28 2021-12-16 富士フイルム株式会社 How to operate the ultrasonic endoscopy system and the ultrasonic endoscopy system
JP2021534858A (en) * 2018-08-22 2021-12-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Coronary circulation using intracardiac echo
KR20220122312A (en) * 2021-02-26 2022-09-02 주식회사 인피니트헬스케어 Artificial intelligence-based gastroscopy diagnosis supporting system and method
WO2023054366A1 (en) * 2021-10-01 2023-04-06 富士フイルム株式会社 Medical image processing system
JP7443353B2 (en) 2018-10-04 2024-03-05 バイオセンス・ウエブスター・(イスラエル)・リミテッド Correction of computed tomography (CT) images using position and orientation (P&D) tracking-assisted optical visualization

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62284635A (en) * 1986-06-04 1987-12-10 オリンパス光学工業株式会社 Ultrasonic diagnostic apparatus
JP2007531553A (en) * 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ Intraoperative targeting system and method
WO2010140441A1 (en) * 2009-06-01 2010-12-09 オリンパスメディカルシステムズ株式会社 Medical equipment system and method for calibrating medical instrument
WO2011062035A1 (en) * 2009-11-17 2011-05-26 オリンパスメディカルシステムズ株式会社 Biopsy support system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62284635A (en) * 1986-06-04 1987-12-10 オリンパス光学工業株式会社 Ultrasonic diagnostic apparatus
JP2007531553A (en) * 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ Intraoperative targeting system and method
WO2010140441A1 (en) * 2009-06-01 2010-12-09 オリンパスメディカルシステムズ株式会社 Medical equipment system and method for calibrating medical instrument
US20110060185A1 (en) * 2009-06-01 2011-03-10 Olympus Medical Systems Corp. Medical device system and calibration method for medical instrument
WO2011062035A1 (en) * 2009-11-17 2011-05-26 オリンパスメディカルシステムズ株式会社 Biopsy support system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019517291A (en) * 2016-05-31 2019-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image-based fusion of endoscopic and ultrasound images
JP7133474B2 (en) 2016-05-31 2022-09-08 コーニンクレッカ フィリップス エヌ ヴェ Image-based fusion of endoscopic and ultrasound images
WO2019198322A1 (en) * 2018-04-10 2019-10-17 オリンパス株式会社 Medical treatment system
JP2021534858A (en) * 2018-08-22 2021-12-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Coronary circulation using intracardiac echo
JP7133087B2 (en) 2018-08-22 2022-09-07 コーニンクレッカ フィリップス エヌ ヴェ Coronary circulation with intracardiac echo
JP7443353B2 (en) 2018-10-04 2024-03-05 バイオセンス・ウエブスター・(イスラエル)・リミテッド Correction of computed tomography (CT) images using position and orientation (P&D) tracking-assisted optical visualization
JPWO2020174778A1 (en) * 2019-02-28 2021-12-16 富士フイルム株式会社 How to operate the ultrasonic endoscopy system and the ultrasonic endoscopy system
KR20220122312A (en) * 2021-02-26 2022-09-02 주식회사 인피니트헬스케어 Artificial intelligence-based gastroscopy diagnosis supporting system and method
KR102536369B1 (en) * 2021-02-26 2023-05-26 주식회사 인피니트헬스케어 Artificial intelligence-based gastroscopy diagnosis supporting system and method
WO2023054366A1 (en) * 2021-10-01 2023-04-06 富士フイルム株式会社 Medical image processing system

Also Published As

Publication number Publication date
JP6270026B2 (en) 2018-01-31

Similar Documents

Publication Publication Date Title
JP6270026B2 (en) Endoscopic observation support device
EP2430979B1 (en) Biopsy support system
US10765308B2 (en) Method and apparatus for tracking in a medical procedure
JP6535020B2 (en) System for measuring 3D distance and dimensions of visible objects in endoscopic images
JP5918548B2 (en) Endoscopic image diagnosis support apparatus, operation method thereof, and endoscopic image diagnosis support program
JP6600690B2 (en) Insert support system
JP2006230906A (en) Medical diagnostic system and apparatus, and endoscope
JP2012165838A (en) Endoscope insertion support device
JP2009125394A (en) Intravascular image diagnostic apparatus and intravascular image diagnostic system
JP2012024518A (en) Device, method, and program for assisting endoscopic observation
JP4334839B2 (en) Endoscope observation device
JP4869197B2 (en) Medical guide device
JP2018075080A (en) Image diagnostic device, and control method and program of image diagnostic device
JP5226244B2 (en) Medical guide system
JP2018134197A (en) Medical procedure navigation system and method
JP2014204904A (en) Medical guide system
JP2017131348A (en) Image display device, control method thereof, and radiopaque marker detection method
JP4700405B2 (en) Ultrasonic diagnostic equipment
JP5854399B2 (en) Medical system
WO2022209652A1 (en) Computer program, information processing method, and information processing device
WO2022239529A1 (en) Medical image processing device, medical image processing method, and program
US20230233196A1 (en) Living tissue sampling method and biopsy support system
JP4190454B2 (en) Insertion support device
JP2003175042A (en) Ultrasonograph diagnostic apparatus
JP4354353B2 (en) Insertion support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6270026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250