JP2012165838A - 内視鏡挿入支援装置 - Google Patents

内視鏡挿入支援装置 Download PDF

Info

Publication number
JP2012165838A
JP2012165838A JP2011027761A JP2011027761A JP2012165838A JP 2012165838 A JP2012165838 A JP 2012165838A JP 2011027761 A JP2011027761 A JP 2011027761A JP 2011027761 A JP2011027761 A JP 2011027761A JP 2012165838 A JP2012165838 A JP 2012165838A
Authority
JP
Japan
Prior art keywords
endoscope
subject
information
endoscope insertion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011027761A
Other languages
English (en)
Inventor
Kensaku Mori
健策 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2011027761A priority Critical patent/JP2012165838A/ja
Publication of JP2012165838A publication Critical patent/JP2012165838A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】管腔臓器を内視鏡により観察する場合の支援情報を提示する内視鏡挿入支援装置を提供する。
【解決手段】被検体の管腔臓器内部に内視鏡を挿入して観察する場合に、被検体に内視鏡12が挿入される部位に内視鏡挿入補助具34と一体化した内視鏡12の長手方向の移動距離情報並びに長手方向に垂直な移動距離情報を測定可能な非接触型センサ14を設置し、非接触型センサ14から得られる移動距離情報から内視鏡挿入長の時間変化並びに回転角度の時間変化情報を利用して、被検体の3次元画像データ上における現在の内視鏡位置姿勢に対応する位置姿勢を大まかに推定したのち、被検体管腔臓器内に挿入された内視鏡画像と被検体の3次元画像データから生成される仮想化内視鏡画像と比較することによって精密に内視鏡位置姿勢を求め、内視鏡挿入支援情報を生成するものである。
【選択図】図1

Description

本発明は、管腔臓器を内視鏡により観察する場合の支援情報を提供する内視鏡挿入支援装置に関するものである。
内視鏡は細いチューブの先端にレンズが取り付けられ、被検体の体内に挿入することで、被検体の臓器内部の状態を接観察するものである。内視鏡は、胃、気管支、十二指腸、小腸、大腸、直腸といった管腔臓器だけでなく、脳、縦隔、腹腔といった様々な臓器の内部を光学的に直接的に観察するもことができる。最近では極細気管支内視鏡など、非常に細い内視鏡が開発されており、例えば、気管支末梢などといった非常に細い臓器の内部までを直接的観察することが可能となってきた。
しかしながら、内視鏡は被検体内部のごく一部を光学的に観察しながら挿入されるものであり、その操作には高度な技術と多くの経験を要す。さらに、医師が内視鏡を目的とする部位まで的確に挿入するには、内視鏡によって撮影される臓器内部のビデオ画像を見ながら、目的とする臓器に関する一般的な解剖学的構造、被検体の解剖学的構造の一般的な解剖学的構造からの違いといいた医学的知識と照らし合わし、高度な判断を下しながら、内視鏡を操作する必要がある。
一方、X線CT(Computed Tomography)画像撮像装置、磁気共鳴画像撮像装置、超音波画像撮像装置等の医用画像撮像機器を用いることで被検体内部の構造を取得することが可能である。X線CT画像撮像装置ではX線照射機と検出器を用いて被検体を輪切りにしたかのような断面画像(CT画像)を取得する。被検体を等間隔で撮影したCT画像を計算機上に取り込み、これを基に被検体の3次元形状を計算機上に構成することが可能である。ここで得られる画像は3次元画像データと呼ばれる。
このような医用画像撮像装置から得られた被検体の3次元画像データを利用することで、被検体内部に内視鏡を挿入する際に、内視鏡挿入を支援する情報を提示する装置の開発が行われてきた。
CT画像やMR画像といった被検体の3次元画像からあたかも内視鏡で観察したかのような画像(仮想化内視鏡画像、あるいは、仮想内視鏡画像と呼ばれる)を生成することで、内視鏡検査を支援する技術が報告されている。
特許文献1の先行技術では、医用画像撮像装置から得られた情報を基に、被検体の管腔臓器を抽出し、そこから被検体の仮想的な内視鏡画像を被検体の管腔臓器の分岐点ごとに提示し、被検体の管腔臓器内部への内視鏡挿入を支援する装置が述べられている。
非特許文献1に示される先行技術では、内視鏡先端にその位置を追跡する超小型磁気式位置センサを装着し、被検体の管腔臓器の芯線情報と位置センサ情報を基に、被検体の3次元画像データにおける内視鏡の位置並びに姿勢を推定し、その結果を基に内視鏡挿入支援情報を生成する手法を述べている。
非特許文献2に示される先行技術では、被検体の3次元画像データから生成される仮想化内視鏡と被検体に挿入された内視鏡画像とを比較することで、被検体に挿入された内視鏡の位置姿勢を推定し、内視鏡の位置姿勢推定結果から内視鏡挿入支援情報を提示する技術が示されている。
WO2007/129616
出口 大輔, 石谷 和愛, 北坂 孝幸, 森 健策, 末永 康仁, 高畠 博嗣, 森 雅樹, 名取 博, ``超小型位置センサを用いたマーカレス気管支鏡位置追跡手法に関する検討,'' 電子情報通信学会技術研究報告, MI2006-52, pp.17-22 (2006/09) Daisuke Deguchi, Kensaku Mori, Marco Feuerstein, Takayuki Kitasaka, Calvin R.Maurer Jr., Yasuhito Suenaga, Hirotsugu Takabatake, Masaki Mori, Hiroshi Natori, ``Selective image similarity measure for bronchoscope tracking based on image registration,'' Medical Image Analysis, Vol.13, No.4, pp. 621-633(2009/06)
しかしながら、特許文献1の技術は被検体の管腔臓器内部に挿入された内視鏡画像に連動して、内視鏡挿入支援情報を生成するものではなく、被検体の3次元画像データに基づき、通るべき経路を仮想化内視鏡画像として示しているにすぎない。
非特許文献1の技術は、被検体の管腔臓器内に挿入された内視鏡に連動して、被検体の3次元画像データから内視鏡挿入支援情報を生成可能であるが、磁気式位置センサに位置情報を送る磁場発生装置が大がかりとなること、内視鏡先端に位置センサを装着することが必要といった問題点がある。
非特許文献2のシステムでは、管腔臓器が咳などにより閉塞した場合には、被検体に挿入された内視鏡からは仮想化内視鏡と比較するのに十分な情報が得られない、内視鏡を高速に出し入れした場合には内視鏡位置姿勢追跡処理が追随できないなどの問題点が存在した。
本発明は、上記の課題を解決するためになされたものであり、被検体に挿入された内視鏡の動きに連動して内視鏡挿入支援情報が提示でき、内視鏡先端のセンサや大がかりな装置を必要とせず、内視鏡カメラが遮蔽物によって一時的にさえぎられた場合や内視鏡を高速に操作した場合でも内視鏡位置姿勢を推定可能とする内視鏡挿入支援装置を提供することを目的とする。
この欄においては、発明に対する理解を容易にするため、必要に応じて「発明を実施するための形態」欄において用いた符号を付すが、この符号によって請求の範囲を限定することを意味するものではない。
上記「発明が解決しようとする課題」において述べた問題を解決するためになされた請求項1に記載の発明は、内視鏡長手方向の時間的な移動距離情報及び長手方向に垂直な移動距離情報を取得するための非接触型センサが取り付けられた内視鏡挿入補助具(34)と、内視鏡挿入補助具(34)に取り付けられた非接触型センサから得られる内視鏡長手方向の時間的な移動距離情報及び長手方向に垂直な移動距離情報から被検体の管腔臓器に挿入された内視鏡の挿入長及びひねり回転角度情報を推定する内視鏡挿入長ひねり回転角度推定手段(111)と、内視鏡挿入長ひねり回転角度推定手段(111)によって推定された内視鏡の挿入長及びひねり回転角度情報から被検体に挿入された内視鏡の位置姿勢を推定する内視鏡位置姿勢粗推定手段(112)と、被検体の1つ以上の3次元画像データに基づき、被検体の仮想的な内視鏡画像を生成する仮想化内視鏡画像生成手段(114)と、被検体の管腔臓器に挿入された内視鏡から被検体の管腔臓器の内視鏡画像を得る内視鏡画像取得手段(15)と、内視鏡画像取得手段(15)によって得られる被検体の管腔臓器の内視鏡画像と仮想化内視鏡画像生成手段(114)によって得られる被検体の管腔臓器の仮想化内視鏡画像を比較する内視鏡画像比較手段(113)と、内視鏡画像比較手段(113)において内視鏡画像と仮想化内視鏡画像が一致したか否かを判定する収束判定手段(116)と、収束判定手段(116)の結果に応じて内視鏡位置姿勢情報を更新する内視鏡位置姿勢推定更新手段(118)と、少なくとも内視鏡位置姿勢推定更新手段(118)によって得られた情報をもとに、内視鏡挿入を支援する情報を提示する内視鏡挿入支援情報提示手段(120)、を備えることを特徴とする内視鏡挿入支援装置(11)である。
これによって、口、鼻、肛門などにおかれる内視鏡挿入補助具に取り付けられた非接触型位置センサから内視鏡長手方向の時間的な移動距離と長手方向に垂直な移動距離情報から被検体の管腔臓器に挿入された内視鏡の挿入長とひねり回転角度情報を推定する内視鏡挿入長ひねり回転角度を推定し、得られた内視鏡挿入長ひねり回転角度情報から被検体に挿入された内視鏡の現在の位置姿勢を大まかに推定し、さらに、被検体の3次元画像データから生成される仮想化内視鏡画像と被検体の管腔臓器内に挿入された内視鏡から得られる画像とを比較することで、精密に被検体内部に挿入された内視鏡の被検体の3次元画像データにおける位置・姿勢を求めることできる。この情報を基に、内視鏡挿入を支援する情報を提示することが可能となる。
また、これまでの内視鏡挿入位置姿勢を記憶する内視鏡挿入経路記憶手段(117)を備え、内視鏡挿入経路情報に基づき、内視鏡位置姿勢を推定するようにするとよい。
これによって、これまでに挿入された内視鏡経路を記憶することによって、内視鏡位置姿勢推定手段(112)における内視鏡位置姿勢推定性能を向上させることができる。
さらに、内視鏡挿入補助具に一体化された非接触型センサは、内視鏡長手方向の時間的な移動距離と長手方向に垂直な移動距離情報内視鏡挿入長を計測可能であり、この情報から内視鏡挿入長の時間変化、内視鏡回転角の時間変化を算出可能である。
内視鏡挿入補助具に非接触型センサを組み込むことで、内視鏡に接触することなく内視鏡挿入長、並びに、内視鏡ひねり回転角度を測定可能であり、滅菌等の手間を軽減することができ、内視鏡挿入支援装置(11)を簡便に取り扱うことが可能となる。
また、請求項2に記載のように、内視鏡が被検体に挿入されてからの内視鏡挿入位置及び姿勢を記憶する内視鏡挿入経路記憶手段(117)を備え、内視鏡位置姿勢推定手段(112)は、内視鏡挿入経路記憶手段(117)に記憶された内視鏡が被検体に挿入されてからの内視鏡挿入位置及び姿勢に基づき、内視鏡の位置姿勢を推定するようにするとよい。
さらに、請求項3に記載のように、被検体の3次元画像データから管腔臓器の構造情報を抽出する構造情報抽出手段(19)を備え、内視鏡位置姿勢推定手段(112)は、内視鏡挿入経路記憶手段(117)に記憶された内視鏡が被検体に挿入されてからの内視鏡挿入位置及び姿勢に加え、構造情報抽出手段(19)から得られた管腔臓器の構造情報に基づいて、内視鏡の位置姿勢を推定するようにしてもよい。
本発明の実施形態に係る内視鏡挿入支援装置の機能の概要を示すブロック図である。 管腔臓器の構造情報を説明する図である。 内視鏡挿入補助具一体型非接触型センサを説明する図である。 非接触型センサにより計測される内視鏡長手方向並びに長手方向に垂直な移動距離を説明する図である。 内視鏡挿入を支援する情報の表示方法に関する図である。
以下、本発明が適用された実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
図1は本発明の実施形態による内視鏡挿入支援装置11の構成の概要を示す機能ブロック図である。
内視鏡挿入支援装置11は3次元画像データ入力部16、3次元画像データ格納部18、被検体に挿入された内視鏡から内視鏡画像を入力する内視鏡画像入力部15、内視鏡挿入補助具34に取り付けられた非接触型センサ部14、被接触型センサから得られた情報を基に内視鏡挿入長、回転角の変化分を計算する非接触型センサ情報処理部17、内視鏡挿入長、内視鏡ひねり回転角度の変化分の推定を行う内視鏡挿入長・ひねり回転角度推定部111、被検体の3次元画像から所望とする臓器の略中心線を抽出する構造情報抽出部19、得られた構造情報を格納する構造情報格納部110、内視鏡挿入長回転角度推定部の出力と対象とする管腔臓器特徴形状情報、並びに後述する軌跡格納部に格納された内視鏡挿入軌跡情報を基に、現在の内視鏡位置並びに姿勢を粗推定する内視鏡位置姿勢粗推定部112、管腔臓器の仮想化内視鏡画像を生成する仮想化内視鏡画像生成部114、仮想化内視鏡画像と被検体の内視鏡画像とを比較する内視鏡画像比較部113、仮想化内視鏡の視点位置・視線方向を更新する内視鏡位置姿勢推定更新部118、仮想化内視鏡画像と被検体の内視鏡画像が一致したか否かを判定する収束判定部116、内視鏡位置姿勢を一時的に保存する内視鏡位置姿勢一時保存部115、推定された内視鏡位置姿勢に基づいて内視鏡挿入支援情報を表示する内視鏡挿入支援情報生成部120、被検体に挿入された内視鏡が過去に通過した位置並びにその時の姿勢を格納する軌跡格納部117から構成される。
本実施形態では、内視鏡挿入支援装置11の3次元画像データ入力部16は、医用画像撮像装置にて取得された被検体の3次元画像を取り込む。医用画像撮像装置は、X線CT画像撮像装置、核磁気共鳴画像撮像装置、超音波画像撮像装置等の被検体の生体組織の画像情報を取得する公知の装置である。前記3次元画像データは、被検体の管腔臓器が撮影されたものとする。
3次元画像データ格納部18は、3次元画像データ入力部16によって取り込まれた3次元画像データを格納する。
内視鏡画像入力部15では、被検体の管腔臓器に挿入された内視鏡12から得られた内視鏡画像を取得し、本内視鏡挿入支援装置11に取り込むものである。
非接触型センサ部14は、内視鏡挿入の際に内視鏡のスムースな挿入を可能とする円筒、リング、半円筒、半リング状の補助具に一体化され、該補助具を介して内視鏡が挿入される場合、内視鏡表面を光学的なカメラによって撮影する、あるいは、超音波センサによって、内視鏡の長手方向の移動距離、並びに、内視鏡長手方向に垂直な方向の移動距離を測定する。
非接触型センサ情報処理部17では、非接触型センサ部14によって得られた内視鏡の長手方向の移動距離、並びに、内視鏡長手方向に垂直な方向の移動距離からノイズ成分を取り除く処理を行う。
内視鏡挿入長・ひねり回転角度推定部111では、非接触型センサ情報処理部17において得られた内視鏡の長手方向の移動距離、並びに、内視鏡長手方向に垂直な方向の移動距離から、内視鏡挿入長変化分、並びに、内視鏡ひねり回転角度変化分を計算する。
内視鏡位置姿勢粗推定部112では、非接触型センサ情報処理部17から得られた内視鏡挿入長、ひねり回転角度の変化分、一つ前の時刻における内視鏡位置・姿勢情報、並びに該管腔臓器の構造情報を利用して内視鏡挿入長、並びに、内視鏡ひねり回転角度の推定を行い、一つ前の時刻における被検体の管腔臓器内部に挿入された内視鏡の位置並びに姿勢に対応する仮想化内視鏡画像を生成する位置、姿勢情報を、該内視鏡挿入長、並びに、該内視鏡ひねり回転角度推定結果を利用して更新し、仮想化内視鏡位置・姿勢粗推定結果とする。
仮想化内視鏡画像生成部114では、3次元画像データ格納部18に格納された被検体の3次元画像データと、内視鏡位置姿勢粗推定部112で推定された仮想化内視鏡位置・姿勢情報に基づいて、仮想的な内視鏡画像(仮想化内視鏡画像)を生成する。
内視鏡画像比較部113では、仮想化内視鏡画像生成部114から生成されたか仮想内視鏡画像と被検体の現在の内視鏡画像とを比較し、その類似性を評価する値を求める。
収束判定部116では、被検体の管腔臓器内部に挿入された内視鏡から得られる現時刻における内視鏡画像と仮想化内視鏡画像が十分に類似したもの否かを判断する。
つまり、内視鏡画像比較部113で求められた類似性を評価する値が所定の値であるか否かを判定することにより、類似したもの否かを判断する。
十分に類似したと判断されない場合には、内視鏡位置姿勢推定更新部118へと進む。
内視鏡位置姿勢推定更新部118では、仮想化内視鏡画像と被検体の内視鏡画像が一致するように、内視鏡画像比較部113の結果を利用して、仮想化内視鏡の位置・姿勢情報を更新する。
類似していると判断された場合は、得られた仮想化内視鏡の位置・姿勢情報を被検体の管腔臓器内部に挿入された内視鏡の位置・姿勢情報とみなし、現フレーム位置姿勢計算結果格納部119に格納する。
現フレーム位置姿勢計算結果格納部119に位置・姿勢情報が格納されたならば、内視鏡挿入支援情報生成部120では、得られた仮想化内視鏡位置・姿勢情報を基に、内視鏡挿入支援情報を生成・表示する。
また、内視鏡位置姿勢推定を軌跡格納部117に格納して次の内視鏡画像フレームへ進む。
以下、図1を用いて、本実施形態における内視鏡挿入支援情報を生成する方法を説明する。
医用画像撮像装置13で撮像された被検体の3次元画像データが3次元画像データ入力部16によって取り込まれると、この3次元画像データは3次元画像データ格納部18へと送られる。
3次元画像データ格納部18は3次元画像データ入力部16から受け取ったデータを格納する。3次元画像データ格納部18が格納した画像は、構造情報抽出部19、仮想化内視鏡画像生成部114、内視鏡挿入支援情報生成部120へ送られる。
構造情報抽出部19では、3次元画像データから対象とする臓器の領域を取り出し、得られた臓器領域から、臓器領域の大まかな中心線を表す略中心線を得る。
この略中心線について、図2を用いて説明する。図2に示すように、気管支21であれば、気管支の各枝の構造を表した気管支中心線22、大腸23であれば、大腸内部を通る大腸中心線24が、略中心線となる。
この略中心線を得るには、例えば、国際公開番号WO2007/129493公報に記載されている方法を参考にするとよい。得られ略中心線は、構造情報格納部に格納される。
また、被検体の管腔臓器内部に挿入された内視鏡から得られる内視鏡画像は、内視鏡画像入力部15によって、本システムに取り込まれる。なお、ここでは、便宜上あるフレーム番号tの内視鏡画像をRtとして表す。
内視鏡を被検体の管腔臓器内部に挿入する場合には、内視鏡のスムースな挿入を可能とする円筒、リング、半円筒、半リング状の内視鏡挿入補助具34を介して行う。この補助具には小型カメラあるいは超音波センサといった非接触型センサ14部が一体化される。
非接触型センサ部14は、カメラ、あるいは、超音波センサによって、内視鏡の長手方向の移動距離、並びに、内視鏡長手方向に垂直な方向の移動距離を非接触的に測定する。
ここで、図3を用いて内視鏡挿入補助具一体型非接触型センサについて説明する。
内視鏡挿入補助具34は、図3に示すように、円筒、リング、半円筒、半リング状をしており、その中央を内視鏡が通過するように用いられる。
非接触型センサ35は、内視鏡挿入補助具34の側面に備え付けられており、非接触的に内視鏡側面の状態をセンシングすることができるようになっている。
図4に示すように、非接触型センサーの機能を果たすカメラが内視鏡挿入補助具34に装着された場合には、内視鏡表面の微細なパターンをカメラが捉えることで、単位時間における内視鏡長手方向の移動距離、並びに、その垂直方向の移動距離を画像処理的に検出する。この移動距離検出には、特開2004−220612号公報に記載されている方法を利用してもよい。また、カメラによる距離検出ではなく、超音波センサを利用してもよい。
以下、内視鏡画像フレーム番号tにおける内視鏡位置並びに姿勢を(xt,yt,zt,θt,φt,ψt)とする。この内視鏡位置並びに姿勢は被検体の3次元画像データの座標系で表される。xt,yt,ztは3次元的な位置を表し、θt,φt,ψtは内視鏡の姿勢を表すオイラー角である。
(xt,yt,zt,θt,φt,ψt)の位置並びに姿勢で3次元画像データを基に仮想化内視鏡画像生成部114で仮想化内視鏡画像を生成するならば、被検体の管腔臓器内部に挿入された内視鏡により得られる画像Rtと等しい仮想化内視鏡画像を得ることができることになる。
すなわち、被検体内部に挿入された内視鏡の位置・姿勢は、仮想化内視鏡の位置・姿勢情報として表すことと等価である。
なお、内視鏡画像フレーム番号0における内視鏡位置並びに姿勢は、手動で与えるか、決められた位置に内視鏡を保持するなどして与えるものとする。
被検体の管腔臓器に内視鏡を挿入すると、非接触型センサ部14によって内視鏡長手方向の移動距離、並びに、その垂直方向の移動距離の変化量が非接触型センサ情報処理部17へと送られる。
非接触型センサ情報処理部17では、平滑化処理、外れ値除去などのノイズ処理を行い、内視鏡長手方向の移動距離、並びに、その垂直方向の移動距離の変化量が内視鏡挿入長・ひねり回転角度推定部へと伝えられる。
内視鏡挿入長・ひねり回転角度推定部111では、非接触型センサ情報処理部17において得られた内視鏡の長手方向の移動距離、並びに、内視鏡長手方向に垂直な方向の移動距離から、内視鏡挿入長変化分、並びに、内視鏡ひねり回転角度変化分を計算する。 非接触型センサ情報処理部17で得られる情報は相対的な情報であるため、ここから、内視鏡画像フレーム番号t−1から内視鏡画像フレーム番号tに対する絶対的な挿入長変化分Δlt並びに回転角度変化分Δθtを計算する。
次に、内視鏡位置姿勢粗推定部112では、挿入長変化分Δlt並びに回転角度変化分Δθt、一つ前の内視鏡画像フレーム番号t−1における内視鏡位置・姿勢情報 (xt-1,yt-1,zt-1,θt-1,φt-1,ψt-1)、構造情報格納部110に格納された略中心線情報から、現内視鏡画像フレーム番号tにおける内視鏡位置姿勢粗推定結果(x’t,y’t,z’t,θ’t,φ’t,ψ’t)を得る。
まず、挿入長変化分Δlt並びに回転角度変化分Δθtを利用して、内視鏡画像フレーム番号t−1における位置姿勢(xt-1,yt-1,zt-1,θt-1,φt-1,ψt-1)を更新する。
ここでは、内視鏡位置(xt-1,yt-1,zt-1)を内視鏡画像フレーム番号t−1における内視鏡姿勢(θt-1,φt-1,ψt-1)から得られる内視鏡視線方向に向かってΔltだけ進める。次に、内視鏡姿勢(θt-1,φt-1,ψt-1)を内視鏡画像フレーム番号t−1における内視鏡視線回り方向にΔθtだけ回転させ、一時的な内視鏡位置・姿勢情報(x*t,y*t,z*t,θ*t,φ*t,ψ* t) を得る。
次に、軌跡格納部117に格納されているこれまでの内視鏡挿入軌跡情報を基に、一時的な内視鏡位置・姿勢情報(x*t,y*t,z*t,θ*t,φ*t,ψ*t)が、これまでの挿入軌跡から大きく離れていないかどうかを距離情報を基に判断する。大きく離れている場合には、(xt-1,yt-1,zt-1,θt-1,φt-1,ψt-1)を(x*t,y*t,z*t,θ*t,φ*t,ψ*t)とする。
さらに、得られた内視鏡位置・姿勢情報(x*t,y*t,z*t,θ*t,φ*t,ψ*t)からもっとも略中心線に近い点を求め、その点を内視鏡位置粗推定結果とし、現内視鏡画像フレーム番号tにおける内視鏡位置姿勢粗推定結果(x’t,y’t,z’t,θ’t,φ’t,ψ’t)を得る。
次に、得られた内視鏡位置姿勢粗推定結果は、内視鏡位置姿勢一時保存部115へと送られる。内視鏡画像フレーム番号tにおける内視鏡位置姿勢一時保存部115更新回数をiで表す。
内視鏡位置姿勢粗推定部112から内視鏡位置姿勢一時保存部115へ送られた内視鏡位置姿勢粗推定結果は(x’t (i),y’t (i),z’t (i),θ’t (i),φ’t (i),ψ’t (i))として記述される。
仮想化内視鏡画像生成部114では、内視鏡位置姿勢一時保存部115に格納されている(x’t (i),y’t (i),z’t (i),θ’t (i),φ’t (i),ψ’t (i))を基に仮想化内視鏡画像V’t (i)を被検体の3次元画像データを基にボリュームレンダリング法により生成する。
この仮想化内視鏡画像の生成には、非特許文献吉岡 政洋, 森 健策, 末永 康仁, 鳥脇 純一郎, ``ソフトウェアによる高速ボリュームレンダリング手法の開発と仮想化内視鏡システムへの適用,'' MEDICAL IMAGING TECHNOLOGY, Vol.19, No.6, pp.477-486 (2001/11)を参考にするとよい。また、ボリュームレンダリング法だけでなく、マーチングキューブズ法を利用したサーフェスレンダリング法などを用いてもよい。
内視鏡画像比較部113では、内視鏡位置姿勢一時保存部115に格納されている(x’t (i),y’t (i),z’t (i),θ’t (i),φ’t (i),ψ’t (i))から生成された仮想化内視鏡画像V’t (i)と現在内視鏡フレーム番号Rtとの間の類似度計算を行い、類似度計算結果を収束判定部116へと送る。
この類似度計算には、非特許文献2に記載の類似度評価式を利用するとよい。また、正規化相互相関、自乗平均誤差、正規化相互情報量などを利用してもよい。
内視鏡画像比較部113で得られた類似度計算結果を受け取る収束判定部116では、被検体の管腔臓器内部に挿入された内視鏡から得られる現フレーム番号の内視鏡画像と仮想化内視鏡画像が十分に類似したもの否かを判断する。
十分に類似したと判断されない場合には、内視鏡位置姿勢推定更新部118において、内視鏡画像Rtと仮想化内視鏡画像との類似度が向上するように内視鏡位置姿勢一時保存部115に格納されている(x’t (i),y’t (i),z’t (i),θ’t (i),φ’t (i),ψ’t (i))を更新しi←i+1とした後、再度仮想化内視鏡画像生成部114へと戻る。
類似していると判断された場合は、得られた内視鏡の位置・姿勢情報(x’t (i),y’t (i),z’t (i),θ’t (i),φ’t (i),ψ’t (i))を被検体の管腔臓器内部に挿入された内視鏡の位置・姿勢情報とし、内視鏡の位置・姿勢情報を現フレーム位置姿勢計算結果格納部119に格納した後、内視鏡の位置・姿勢情報を内視鏡挿入支援情報生成部120へと送る。
内視鏡挿入支援情報生成部120では、最終的に得られた内視鏡の位置・姿勢情報(x’t (i),y’t (i),z’t (i),θ’t (i),φ’t (i),ψ’t (i))を用いて、内視鏡挿入を支援する情報を生成する。
図5を用いて内視鏡挿入を支援する情報の表示方法の例を示す。図5(a)にフレーム番号tにおける被検体の管腔臓器を観察している内視鏡画像が示され、図5(b)では対応するフレーム番号tに対応する仮想化内視鏡画像が示される。この画像では、臓器壁面を半透明表示することで、管腔臓器壁面の向こう側に存在する解剖学的構造物を表示可能である。 図5(c)では、管腔臓器の外形像が示され、これまでの内視鏡挿入軌跡、現在位置を表示する。図5(d)では、当該3次元画像データの断面画像が記され、その画面上に現在の内視鏡位置が記される。
本発明によって被検体の管腔臓器内部に挿入された内視鏡の位置・姿勢をリアルタイムで追跡することが可能であり、内視鏡挿入支援情報は随時更新される。なお、ここでは、4画面表示を行ったが、必要に応じて、現在位置から目的地まで進むべき経路、現在地における解剖学的名称などを表示してもよい。
内視鏡フレーム番号tにおける内視鏡挿入支援情報を表示したならば、現フレームの位置姿勢計算結果を軌跡格納部117に格納しt→t+1として、次の内視鏡フレーム画像の処理に移る。
(内視鏡挿入支援装置11の特徴)
以上に説明した内視鏡挿入支援装置11は、被検体の管腔臓器内部に内視鏡を挿入して観察する場合に、被検体に内視鏡が挿入される部位(気管支、胃、十二指腸、膵臓、小腸であれば口若しくは鼻、直腸、結腸であれば肛門)に内視鏡挿入補助具と一体化した内視鏡の長手方向の移動距離情報並びに長手方向に垂直な移動距離情報を測定可能な非接触型センサを設置し、非接触型センサから得られる移動距離情報から内視鏡挿入長の時間変化並びに回転角度の時間変化情報を利用して、被検体の3次元画像データ上における現在の内視鏡位置姿勢に対応する位置姿勢を大まかに推定したのち、被検体管腔臓器内に挿入された内視鏡画像と被検体の3次元画像データから生成される仮想化内視鏡画像と比較することによって精密に内視鏡位置姿勢を求め、内視鏡挿入支援情報を生成するものである。
したがって、内視鏡挿入支援装置11によれば、口、鼻、肛門に置かれた内視鏡挿入補助具と一体化した非接触型センサから得られる情報を基に、現在の内視鏡位置姿勢情報を大まかに推定し、得られた内視鏡位置姿勢情報を利用して、被検体管腔臓器内に挿入された内視鏡から得られる内視鏡画像と被検体の3次元画像データから生成される仮想化内視鏡画像と比較することで内視鏡位置姿勢を精密に求めることで、被検体に挿入された内視鏡の動きに連動して内視鏡挿入支援情報を提示することが可能となる。
また、内視鏡先端に特殊なセンサを設置する必要がなく、また、大がかりな装置を必要としない、内視鏡カメラが遮蔽物によって一時的にさえぎられた場合でも内視鏡位置姿勢を追跡可能、内視鏡を高速に操作した場合でも、非接触型センサから得られる内視鏡挿入長の時間変化並びに回転角度の時間変化情報によって内視鏡位置姿勢を推定可能といった特徴を持つ。これによって、内視鏡操作に応じた内視鏡挿入支援上を提示することが可能となり、内視鏡手術検査を行う医師の負担を大幅に軽減することが可能となる。
11 本発明の実施形態に係る内視鏡挿入支援装置
12 内視鏡
13 医用画像撮像装置
14 非接触型センサ
15 内視鏡画像入力部
16 3次元画像データ入力部
17 非接触型センサ 情報処理部
18 3次元画像データ格納部
19 構造情報抽出部
21 気管支
22 気管支略中心線
23 大腸
24 大腸中心線
31 内視鏡操作部
32 内視鏡操作レバー
33 内視鏡チューブ
34 非接触型センサを有す内視鏡挿入補助具
35 非接触型センサ
41 内視鏡チューブの一部
42 内視鏡長手方向移動距離
43 内視鏡長手方向に垂直な移動距離
51 内視鏡映像
52 最終的に得られた内視鏡の位置・姿勢情報(x’ t (i), y’ t (i), z’ t (i), θ’ t (i), φ’ t (i), ψ’ t (i))によって生成された仮想化内視鏡画像
52 最終的に得られた内視鏡の位置・姿勢情報(x’ t (i), y’ t (i), z’ t (i), θ’ t (i), φ’ t (i), ψ’ t (i))によって生成された仮想化内視鏡画像
53 これまでの内視鏡挿入軌跡、現在位置情報を含む管腔臓器の外形像
54 現在の内視鏡位置が示された当該3次元画像データの断面画像
110 構造情報格納部
111 内視鏡挿入長・ひねり回転角度推定部
112 内視鏡位置姿勢粗推定部
113 内視鏡画像比較部
114 仮想化内視鏡画像生成部
115 内視鏡位置姿勢一時保存部
116 収束判定部
117 軌跡格納部
118 内視鏡位置姿勢推定更新部
119 現フレーム位置姿勢計算結果格納部
120 内視鏡挿入支援情報生成部

Claims (3)

  1. 内視鏡長手方向の時間的な移動距離情報及び長手方向に垂直な移動距離情報を取得するための非接触型センサが取り付けられた内視鏡挿入補助具と、
    前記内視鏡挿入補助具に取り付けられた非接触型センサから得られる内視鏡長手方向の時間的な移動距離情報及び長手方向に垂直な移動距離情報から被検体の管腔臓器に挿入された内視鏡の挿入長及びひねり回転角度情報を推定する内視鏡挿入長ひねり回転角度推定手段と、
    前記内視鏡挿入長ひねり回転角度推定手段によって推定された内視鏡の挿入長及びひねり回転角度情報から前記被検体に挿入された前記内視鏡の位置姿勢を推定する内視鏡位置姿勢推定手段と、
    前記被検体の1つ以上の3次元画像データに基づき、前記被検体の仮想的な内視鏡画像を生成する仮想化内視鏡画像生成手段と、
    前記被検体の管腔臓器に挿入された前記内視鏡から前記被検体の管腔臓器の内視鏡画像を得る内視鏡画像取得手段と、
    前記内視鏡画像取得手段によって得られる前記被検体の前記管腔臓器の前記内視鏡画像と前記仮想化内視鏡画像生成手段によって得られる前記被検体の前記管腔臓器の前記仮想化内視鏡画像を比較する内視鏡画像比較手段と、
    前記内視鏡画像比較手段において前記内視鏡画像と前記仮想化内視鏡画像が一致したか否かを判定する収束判定手段と、
    前記収束判定手段の結果に応じて前記内視鏡位置姿勢情報を更新する内視鏡位置姿勢推定更新手段と、
    少なくとも前記内視鏡位置姿勢推定更新手段によって得られた情報をもとに、内視鏡挿入を支援する情報を提示する内視鏡挿入支援情報提示手段と、
    を備えることを特徴とする内視鏡挿入支援装置。
  2. 前記内視鏡が前記被検体に挿入されてからの内視鏡挿入位置及び姿勢を記憶する内視鏡挿入経路記憶手段を備え、
    前記内視鏡位置姿勢推定手段は、
    前記内視鏡挿入経路記憶手段に記憶された前記内視鏡が前記被検体に挿入されてからの内視鏡挿入位置及び姿勢に基づき、前記内視鏡の位置姿勢を推定することを特徴とする請求項1に記載の内視鏡挿入支援装置。
  3. 前記被検体の前記3次元画像データから前記管腔臓器の構造情報を抽出する構造情報抽出手段を備え、
    前記内視鏡位置姿勢推定手段は、
    前記内視鏡挿入経路記憶手段に記憶された前記内視鏡が前記被検体に挿入されてからの内視鏡挿入位置及び姿勢に加え、前記構造情報抽出手段から得られた前記管腔臓器の構造情報に基づいて、前記内視鏡の位置姿勢を推定することを特徴とする請求項1又は請求項2に記載の内視鏡挿入支援装置。
JP2011027761A 2011-02-10 2011-02-10 内視鏡挿入支援装置 Pending JP2012165838A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011027761A JP2012165838A (ja) 2011-02-10 2011-02-10 内視鏡挿入支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011027761A JP2012165838A (ja) 2011-02-10 2011-02-10 内視鏡挿入支援装置

Publications (1)

Publication Number Publication Date
JP2012165838A true JP2012165838A (ja) 2012-09-06

Family

ID=46970633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011027761A Pending JP2012165838A (ja) 2011-02-10 2011-02-10 内視鏡挿入支援装置

Country Status (1)

Country Link
JP (1) JP2012165838A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014038322A1 (ja) * 2012-09-07 2014-03-13 オリンパスメディカルシステムズ株式会社 医療装置
CN104887314A (zh) * 2015-04-21 2015-09-09 长春理工大学 用于立体内窥镜手术导航的虚拟立体内窥镜显示方法及设备
DE102016105165A1 (de) 2015-03-30 2016-10-06 Fujifilm Corporation Gerät, verfahren und nicht-flüchtiges, computerlesbares medium zum erkennen eines von einem endoskop abgebildeten körperteils
JP2016209399A (ja) * 2015-05-12 2016-12-15 国立大学法人京都大学 画像処理装置及び方法、並びにコンピュータプログラム
WO2017068650A1 (ja) * 2015-10-20 2017-04-27 オリンパス株式会社 挿入体支援システム
KR20190024194A (ko) * 2017-08-31 2019-03-08 (주)레벨소프트 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
WO2019130390A1 (ja) * 2017-12-25 2019-07-04 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
JP2020074926A (ja) * 2018-11-07 2020-05-21 ソニー株式会社 医療用観察システム、信号処理装置及び医療用観察方法
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
CN114126531A (zh) * 2019-06-21 2022-03-01 索尼集团公司 医疗成像系统、医疗成像处理方法及医疗信息处理设备
WO2022239518A1 (ja) * 2021-05-12 2022-11-17 Hoya株式会社 プログラム、情報処理方法及び内視鏡システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0928661A (ja) * 1995-07-17 1997-02-04 Olympus Optical Co Ltd 内視鏡形状検出装置
JPH10234662A (ja) * 1997-02-27 1998-09-08 Toshiba Corp 画像処理装置
JPH11325810A (ja) * 1998-03-18 1999-11-26 Olympus Optical Co Ltd 位置推定装置
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2004105725A (ja) * 2002-08-30 2004-04-08 Olympus Corp 内視鏡装置及び内視鏡挿入動作プログラム
JP2007000608A (ja) * 2005-05-26 2007-01-11 Olympus Medical Systems Corp カプセル型医療装置
JP2009279250A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2009279251A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0928661A (ja) * 1995-07-17 1997-02-04 Olympus Optical Co Ltd 内視鏡形状検出装置
JPH10234662A (ja) * 1997-02-27 1998-09-08 Toshiba Corp 画像処理装置
JPH11325810A (ja) * 1998-03-18 1999-11-26 Olympus Optical Co Ltd 位置推定装置
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2004105725A (ja) * 2002-08-30 2004-04-08 Olympus Corp 内視鏡装置及び内視鏡挿入動作プログラム
JP2007000608A (ja) * 2005-05-26 2007-01-11 Olympus Medical Systems Corp カプセル型医療装置
JP2009279250A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2009279251A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014038322A1 (ja) * 2012-09-07 2014-03-13 オリンパスメディカルシステムズ株式会社 医療装置
JP5613353B2 (ja) * 2012-09-07 2014-10-22 オリンパスメディカルシステムズ株式会社 医療装置
CN104321007A (zh) * 2012-09-07 2015-01-28 奥林巴斯医疗株式会社 医疗装置
US9345394B2 (en) 2012-09-07 2016-05-24 Olympus Corporation Medical apparatus
DE102016105165A1 (de) 2015-03-30 2016-10-06 Fujifilm Corporation Gerät, verfahren und nicht-flüchtiges, computerlesbares medium zum erkennen eines von einem endoskop abgebildeten körperteils
US10092216B2 (en) 2015-03-30 2018-10-09 Fujifilm Corporation Device, method, and non-transitory computer-readable medium for identifying body part imaged by endoscope
CN104887314A (zh) * 2015-04-21 2015-09-09 长春理工大学 用于立体内窥镜手术导航的虚拟立体内窥镜显示方法及设备
JP2016209399A (ja) * 2015-05-12 2016-12-15 国立大学法人京都大学 画像処理装置及び方法、並びにコンピュータプログラム
WO2017068650A1 (ja) * 2015-10-20 2017-04-27 オリンパス株式会社 挿入体支援システム
JPWO2017068650A1 (ja) * 2015-10-20 2018-08-09 オリンパス株式会社 挿入体支援システム
KR20190024194A (ko) * 2017-08-31 2019-03-08 (주)레벨소프트 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR101977650B1 (ko) * 2017-08-31 2019-05-13 (주)레벨소프트 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
US11676706B2 (en) 2017-08-31 2023-06-13 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
WO2019130390A1 (ja) * 2017-12-25 2019-07-04 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
JPWO2019130390A1 (ja) * 2017-12-25 2020-12-17 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
JP2020074926A (ja) * 2018-11-07 2020-05-21 ソニー株式会社 医療用観察システム、信号処理装置及び医療用観察方法
JP7286948B2 (ja) 2018-11-07 2023-06-06 ソニーグループ株式会社 医療用観察システム、信号処理装置及び医療用観察方法
CN114126531A (zh) * 2019-06-21 2022-03-01 索尼集团公司 医疗成像系统、医疗成像处理方法及医疗信息处理设备
WO2022239518A1 (ja) * 2021-05-12 2022-11-17 Hoya株式会社 プログラム、情報処理方法及び内視鏡システム

Similar Documents

Publication Publication Date Title
JP7154832B2 (ja) 形状推定をともなう軌道情報による位置合わせの改良
JP2012165838A (ja) 内視鏡挿入支援装置
US20230057983A1 (en) Robotic systems for navigation of luminal networks that compensate for physiological noise
Mori et al. Hybrid bronchoscope tracking using a magnetic tracking sensor and image registration
US10321803B2 (en) System and method for image-based alignment of an endoscope
US20130281821A1 (en) Intraoperative camera calibration for endoscopic surgery
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
US20150148690A1 (en) Method and system for determining a shape of a lumen in an anatomical structure
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
US20130195338A1 (en) Instrument-based image registration for fusing images with tubular structures
JP4922107B2 (ja) 内視鏡装置
US8696547B2 (en) System and method for determining airway diameter using endoscope
JP2017508529A (ja) 内視鏡測定システム及び方法
JP2012525190A (ja) 単眼の内視鏡画像からのリアルタイム深度推定
WO2006076789A1 (en) A bronchoscopy navigation system and method
WO2012014438A1 (ja) 内視鏡観察を支援する装置および方法、並びに、プログラム
Merritt et al. Real-time CT-video registration for continuous endoscopic guidance
JP2018153346A (ja) 内視鏡位置特定装置、方法およびプログラム
JP2014064721A (ja) 仮想内視鏡画像生成装置および方法並びにプログラム
JP4022192B2 (ja) 挿入支援システム
Deguchi et al. A method for bronchoscope tracking using position sensor without fiducial markers
JP2018153345A (ja) 内視鏡位置特定装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150217