JP4334839B2 - Endoscope observation device - Google Patents

Endoscope observation device Download PDF

Info

Publication number
JP4334839B2
JP4334839B2 JP2002267193A JP2002267193A JP4334839B2 JP 4334839 B2 JP4334839 B2 JP 4334839B2 JP 2002267193 A JP2002267193 A JP 2002267193A JP 2002267193 A JP2002267193 A JP 2002267193A JP 4334839 B2 JP4334839 B2 JP 4334839B2
Authority
JP
Japan
Prior art keywords
endoscope
image
biopsy
unit
lesion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002267193A
Other languages
Japanese (ja)
Other versions
JP2004097696A (en
JP2004097696A5 (en
Inventor
俊也 秋本
順一 大西
英一 小林
国英 梶
明人 斉藤
隆男 柴崎
泰治 峯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2002267193A priority Critical patent/JP4334839B2/en
Publication of JP2004097696A publication Critical patent/JP2004097696A/en
Publication of JP2004097696A5 publication Critical patent/JP2004097696A5/ja
Application granted granted Critical
Publication of JP4334839B2 publication Critical patent/JP4334839B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、内視鏡観測装置に関し、特に例えば気管支等のような体内の管路で生検(生体検査)等を行う際に用いられる内視鏡観測装置に関する。
【0002】
【従来の技術】
近年、内視鏡は、広く用いられている。内視鏡は、体腔内に細長な挿入部を挿入することで、体腔内の臓器を観察したり、必要に応じて処置具挿入用チャンネル内に挿入した処置具を用いて、生検(生体検査)等、各種治療処置ができる。
【0003】
また、近年、内視鏡検査は、例えばCT( Computed Tomography )装置等により被検体の断層像を撮像して得た3次元画像データを用いて患部の診断が行われるようになってきた。
【0004】
このような内視鏡検査に用いられる内視鏡観測装置は、例えば、上記3次元画像データに基づいて作成されたナビゲーション画像により、被検体内管路の目的部位まで内視鏡(の挿入部)が導かれるものがある。
そして、上記内視鏡観測装置は、処置具挿通用チャンネルを挿通させた生検鉗子等を用いて生体組織のサンプル( sample )を採取することが行われる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来の内視鏡観測装置は、例えば、気管支での生検(生体検査)時、内視鏡の挿入部が肺の末梢部まで挿入し難い。この場合、上記従来の内視鏡観測装置は、肺の末梢部にある目的部位近傍まで到達可能であるが、目的部位まで到達することが困難である。
このため、上記従来の内視鏡観測装置は、内視鏡観察画像上において、目的部位近傍で盲の状態で上記生検鉗子等を用いて生検(生体検査)を行うこととなる。
【0006】
本発明は、上述した問題点に鑑みてなされたものであり、体腔内管路の末梢部における生診率(生体検査診断率)の向上化が可能な内視鏡観測装置を提供する。
【0007】
【課題を解決するための手段】
本発明の第1の内視鏡観測装置は、病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、前記内視鏡を用いて前記病変近傍に指標を配置する指標配置手段と、前記指標配置手段により前記指標を配置した状態で、前記病変近傍と前記内視鏡と前記指標とを含む領域の断層画像データを取得する断層画像データ取得手段と、前記断層画像データ取得手段で得た断層画像データから得た、前記病変の重心位置情報および前記指標の重心位置情報と、前記内視鏡の視線方向情報とに基づき、前記病変近傍に達した前記内視鏡の先端部の視点からみた場合の病変位置を特定する相対位置特定手段と、を具備したことを特徴とする。
本発明の第2の内視鏡観測装置は、病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、前記内視鏡を用いて前記病変近傍に指標を配置する指標配置手段と、前記指標配置手段により前記指標を配置した状態で、前記病変近傍と前記内視鏡と前記指標とを含む領域の断層画像データを取得する断層画像データ取得手段と、前記断層画像データ取得手段で得た断層画像データに基づき、前記病変近傍に達した前記内視鏡の先端部からみた場合の病変位置を特定する相対位置特定手段と、を具備し、前記相対位置特定手段は、前記断層画像データから得た前記病変の重心と、前記内視鏡の先端部の重心と、前記指標の重心とに基づき、前記病変位置を特定することを特徴とする。
【0008】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施の形態)
図1ないし図11は本発明の第1の実施の形態に係り、図1は本発明の第1の実施の形態の内視鏡観測装置を示す全体構成図、図2は図1の内視鏡観測装置で実行される生検メインのフローチャート、図3はランドマークを気管支のターゲット近傍の粘膜に貼り付けた際のモニタ表示例、図4は図3の生検位置確認のフローチャート、図5は観察画像(内視鏡画像)にターゲットが合成された合成画像のモニタ表示例、図6は図3の対象の位置関係算出のフローチャート、図7は目盛りが形成されている生検鉗子を示す概略図であり、図7(a)は生検カップが閉じている際の生検鉗子を示す概略図、図7(b)は生検カップが開いている際の生検鉗子を示す概略図、図8は長さに応じて着色されている生検鉗子を示す概略図であり、図8(a)は生検カップが閉じている際の生検鉗子を示す概略図、図8(b)は生検カップが開いている際の生検鉗子を示す概略図、図9は図3の生検のフローチャート、図10は形状の異なるランドマークを最低2つターゲット近傍に貼り付けた際のモニタ表示例、図11は変形例の生検位置確認のフローチャートである。
【0009】
尚、本実施の形態では、気管支内視鏡に本発明を適用した場合を説明する。
【0010】
図1に示すように本発明の第1の実施の形態を備えた内視鏡観測装置1は、気管支に挿入可能な気管支内視鏡(以下、単に内視鏡)2及び、この内視鏡2の図示しない撮像手段で撮像して得た内視鏡像を信号処理して標準的な映像信号を生成するカメラコントロールユニット(以下、CCU)3で構成される内視鏡装置4と、被検体の断層像を撮像して3次元画像(以下、CT画像)データを得るCT装置5と、このCT装置5で得たCT画像データから抽出されるターゲット(目的部位)の位置とこのターゲット(目的部位)近傍に挿入された内視鏡2との位置関係を求め、前記CCU3で信号処理された内視鏡画像(以下、観察画像と記す)にターゲット(目的部位)を合成する処理を行う観測装置本体6と、この観測装置本体6からの合成画像を表示するモニタ7とから主に構成されている。
【0011】
前記内視鏡2は、細長で可撓性の図示しない挿入部を有して構成される。また、前記内視鏡2は、生検鉗子8等の処置具を図示しない処置具挿入口から挿入し、図示しない処置具挿通用チャンネルを介して前記挿入部先端部に形成されているチャンネル開口から処置具の先端側を突出させて生検などを行うことができるようになっている。
【0012】
また、前記内視鏡2は、照明光を伝達する図示しないライトガイドが挿通配設されている。このライトガイドは、図示しない光源からの照明光を伝達するようになっている。前記ライトガイドから伝達された照明光は、前記挿入部先端部に固定された図示しない照明窓の先端面から患部などの被写体を照明するようになっている。
【0013】
照明された被写体は、前記照明窓に隣接して設けた図示しない観察窓から被写体像が内視鏡2へ取り込まれる。この取り込まれた被写体像は、図示しない撮像装置により撮像されて光電変換され、撮像信号に変換されるようになっている。そして、この撮像信号は、図示しない信号ケーブルを伝達し、前記CCU3へ出力される。
【0014】
前記CCU3は、前記内視鏡2の前記撮像装置からの撮像信号を信号処理して、標準的な映像信号を生成し、この映像信号を前記モニタ7に出力して、このモニタ7の表示面に観察画像を表示させるようになっている。
【0015】
尚、内視鏡観測装置1は、図示しないが予め前記CT装置5で得たCT画像データにより生成した仮想の内視鏡画像(以下、VBS画像と記す)を構築するナビゲーションユニット(以下、ナビユニット)に接続されるようになっている。そして、このナビユニットは、生成したVBS画像を内視鏡2(の挿入部先端部)の位置にリンクして前記モニタ7に表示させ、ターゲット近傍までの内視鏡2(の挿入部先端部)のナビゲーションを行うように構成されている。
【0016】
前記内視鏡2は、前記ナビユニットにより前記モニタ7に表示されるVBS画像で導かれながら例えば、気管支内のターゲット近傍に内視鏡2(の挿入部先端部)が到達されるようになっている。そして、内視鏡観測装置1は、ターゲット近傍で内視鏡観察・処置(生検や治療)等を行うようになっている。
【0017】
ここで、内視鏡観測装置1は、ターゲットを生検(生体検査)によって確認するために、生検鉗子8等で生体組織のサンプル( sample )を採取することが行われるようになっている。
【0018】
このとき、後述するように内視鏡観測装置1は、金や白金等の生体安全性を有する金属箔で形成されたランドマーク10を、指標配置手段である生検鉗子8でターゲット近傍に貼り付けて(図3参照)、このターゲット近傍を前記CT装置5でCT撮影する。尚、ランドマーク10は、CT撮影可能な金属箔で形成されているので、体腔内臓器と容易に区別でき、識別可能である。
そして、内視鏡観測装置1は、CT画像データからランドマーク10、ターゲット、内視鏡2の挿入部先端部の位置関係を求め、観察画像上にターゲットを合成して生検位置を確認するようになっている。
【0019】
次に、前記観測装置本体6の詳細構成を説明する。
前記観測装置本体6は、前記内視鏡装置4と接続し、観察画像を取得する内視鏡画像入力部11と、使用している内視鏡2に記憶保持されたIDを検出する内視鏡機種検出部12と、この内視鏡機種検出部12で検出したIDに基づき、予め記録した内視鏡2の光学特性を出力する内視鏡情報記録部13と、この内視鏡情報記録部13からの光学特性に基づき、前記内視鏡画像入力部11で入力された観察画像の画角や歪等のディストーションを補正する画像補正部14と、この画像補正部14で補正された観察画像から前記ランドマーク10を識別する内視鏡側対象識別部15と、この内視鏡側対象識別部15で識別されたターゲットの位置関係を算出する内視鏡側位置算出部16と、断層画像データ取得手段として前記CT装置5と接続し、このCT装置5のWS(ワークステーション)からCT画像データを取得するCT画像入力部17と、このCT画像入力部17で入力されたCT画像データからターゲット、ランドマーク10、内視鏡2の挿入部先端部を識別するCT側対象識別部18と、相対位置特定手段として前記CT側対象識別部18で識別されたターゲット、ランドマーク10、内視鏡2の挿入部先端部の位置関係を算出するCT側位置算出部19と、このCT側位置算出部19で算出されたCT画像データのターゲット、ランドマーク10、内視鏡2の位置関係と前記内視鏡側位置算出部16で算出された観察画像のランドマーク10の位置関係とから、内視鏡2の挿入部先端部の視点でのターゲットの位置を算出し、観察画像上に合成してこの合成画像を前記モニタ7に出力する画像合成部20とを有して構成される。
【0020】
また、前記観測装置本体6は、図示しないフロントパネルに設けた切換釦の押下操作によりオンし、前記モニタ7に表示する画像を観察画像からVBS画像に切り換える切換部21と、予め前記CT装置5で得たCT画像データによりターゲットまでのVBS画像を生成し、記録しているVBS画像記録部22と、切換部21を介して前記内視鏡画像入力部11から入力された観察画像上で生検鉗子8の種類を識別する鉗子識別部23と、この鉗子識別部23で識別された生検鉗子8の種類に基づき、入力された観察画像上で生検鉗子8の色、又は目盛り(図8,図9参照)を識別して生検鉗子8の挿入長を判定する鉗子挿入長判定部24と、この鉗子挿入長判定部24で判定した生検鉗子8の挿入長に応じて、前記VBS画像記録部22で生成記録したVBS画像を読み込み、前記モニタ7に出力する画像参照部25とを有して構成される。
【0021】
尚、前記切換部21は、挿入部先端部から生検鉗子8を突出させたときを、前記内視鏡画像入力部11で入力された観察画像から検出して自動的にオンするように構成していても良い。
また、前記観測装置本体6は、生検鉗子8に接続した光ファイバ先端の明暗(明るさ)を検出するフォトダイオード等の光検出部26と、この光検出部26で検出した明暗(明るさ)により、生検鉗子8の先端がターゲットに到達して接触した否かを判断し、その結果をVBS画像に重畳する生検判定部27とを有して構成される。
【0022】
このように構成される内視鏡観測装置1は、気管支疾患等の内視鏡観察・処置(生検や治療)に用いられる。
先ず、術者は、患者の体腔内に経口的或いは経鼻的に内視鏡2の挿入部を挿入し、術者が判る所定位置、例えば気管の上端(喉頭部)まで内視鏡2の挿入部先端部を進める。このとき、術者は、モニタ7に表示される内視鏡2で得た観察画像を見ながら、挿入部の挿入を行っている。
【0023】
そして、術者は、内視鏡2の挿入部先端部を所定位置まで進めると、ここからナビユニットを起動し、モニタ7に表示されるVBS画像を参照しながら、ターゲットに至る経路に従い、ターゲット近傍まで内視鏡2の挿入部の挿入を行う。
【0024】
そして、ターゲット近傍まで内視鏡2の挿入部先端部が到達したら、術者は、図2に示す生検メインのフローチャートに従って生検(生体検査)を行う。
先ず、術者は、観察画像を見ながら内視鏡2の処置具挿通用チャンネルに挿通させた生検鉗子8等を用いてランドマーク10を例えば、図3に示すように気管支のターゲット近傍の粘膜に貼り付ける(ステップS1)。尚、このとき、図示しないが、モニタ7は、この表示面に観察画像(内視鏡画像)のみが表示されている。
【0025】
次に、術者は、このままの状態(内視鏡2を挿入した状態)でCT装置5でターゲット近傍をCT撮影する(ステップS2)。
そして、術者は、観測装置本体6による後述の図4に示す生検位置確認のフローチャートに従って、生検位置の確認を行う(ステップS3)。そして、生検位置の確認が終了したら、術者は、観測装置本体6による後述の図9に示す生検のフローチャートに従って、生検を行い(ステップS4)、生検が終了する。
【0026】
次に、図4に示す生検位置確認のフローチャートを説明する。
観測装置本体6は、図2の生検メインのステップS2で得たCT画像データから抽出されるターゲットの位置と、このターゲット(目的部位)近傍に挿入された内視鏡2の挿入部先端部との位置関係を求め、観察画像にターゲットを合成する生検位置確認処理を行う。
【0027】
先ず、観測装置本体6は、CT装置5のWSからCT画像データをCT画像入力部17で入力される(ステップS11)。
次に、観測装置本体6は、CT画像入力部17から入力されたCT画像データから対象であるターゲット、ランドマーク10、内視鏡2の挿入部先端部をCT側対象識別部18で識別する(ステップS12)。
【0028】
次に、観測装置本体6は、CT側対象識別部18で識別されたターゲット、ランドマーク10、内視鏡2の挿入部先端部の位置関係をCT側位置算出部19で算出する(ステップS13)。ここで、CT側位置算出部19は、後述の図6に示す対象の位置関係のフローチャートに従って、算出する。
【0029】
次に、観測装置本体6は、使用している内視鏡2に記憶保持されたIDを内視鏡機種検出部12で検出し(ステップS14)、内視鏡機種検出部12で検出したIDに基づき、内視鏡情報記録部13が予め記録した内視鏡2の光学特性を画像補正部14に出力する。
【0030】
次に、観測装置本体6は、内視鏡装置4(CCU3)から観察画像(内視鏡画像)を内視鏡画像入力部11で入力される(ステップS15)。
そして、観測装置本体6は、内視鏡情報記録部13からの光学特性に基づき、内視鏡画像入力部11で入力された観察画像(内視鏡画像)に対して画像補正部14が画角や歪等の光学特性(ディストーション)を補正する(ステップS16)。
【0031】
次に、観測装置本体6は、画像補正部14で補正された観察画像(内視鏡画像)から対象であるランドマーク10を内視鏡側対象識別部15で識別し(ステップS17)、この内視鏡側対象識別部15で識別されたランドマーク10の位置関係を内視鏡側位置算出部16で算出する(ステップS18)。ここで、内視鏡側位置算出部16は、CT側位置算出部19と同様に後述の図6に示す対象の位置関係のフローチャートに従って、算出する。
【0032】
そして、観測装置本体6は、CT側位置算出部19で算出されたCT画像データのターゲット、ランドマーク10、内視鏡2の位置関係と内視鏡側位置算出部16で算出された観察画像のランドマーク10の位置関係とから、内視鏡2の挿入部先端部からの視点でのターゲットの位置を算出し、観察画像(内視鏡画像)上に合成して(ステップS19)、この合成画像をモニタ7に出力する。
【0033】
そして、モニタ7は、図5に示すように観察画像(内視鏡画像)にターゲット31が半透明で合成された合成画像を表示される。術者は、このモニタ7に表示される合成画像により、生検位置を確認可能である。尚、ここで、合成画像は、手ぶれ等で内視鏡2の挿入部先端部の位置がずれると、ターゲット31の位置が不正確となるが、貼り付けるランドマーク10は1つで良い。
【0034】
次に、図6を参照してCT側位置算出部19又は内視鏡側位置算出部16で行われる対象の位置関係算出のフローチャートを説明する。尚、ここでは、都合上、CT側位置算出部19を例にして説明する。
CT側位置算出部19は、CT画像データからターゲット31、ランドマーク10、内視鏡2の挿入部先端部の輪郭を抽出する(ステップS21)。
【0035】
そして、CT側位置算出部19は、抽出した輪郭からターゲット31、ランドマーク10、内視鏡2の挿入部先端部を識別する(ステップS22)。
そして、CT側位置算出部19は、識別したターゲット31、ランドマーク10、内視鏡2の挿入部先端部のそれぞれの重心(位置),方向を算出する(ステップS23)。尚、CT側位置算出部19は、内視鏡2の挿入部先端部の方向を内視鏡2の挿入部先端部とその基端側の2点の重心から算出して、内視鏡2の挿入部先端部をベクトルとして求めるようになっている。
【0036】
これにより、CT側位置算出部19は、ターゲット31、ランドマーク10、内視鏡2の挿入部先端部の位置関係を算出可能である。
尚、内視鏡側位置算出部16は、上述のCT側位置算出部19とほぼ同様であり、対象としてランドマーク10の位置関係を算出するのみである。
【0037】
次に、生検について説明する。
先ず、本実施の形態で使用される生検鉗子8について図7及び図8を参照して説明する。
本実施の形態で使用される生検鉗子8は、生検カップ8aにターゲット31からの反射光を検出するための光ファイバ41の光入射端面41aが取り付けられている。この光ファイバ41の基端側は、観測装置本体6に接続されており、光ファイバ41の光出射端面からの光を光検出部26(図1参照)で受光するようになっている。
【0038】
また、生検鉗子8は、挿入長がわかるように例えば、図7に示すように目盛りが形成されているか、図8に示すように長さに応じて着色されている。
尚、図7(a),図8(a)は、生検カップ8aが閉じている際の生検鉗子8を示し、図7(b),図8(b)は生検カップ8aが開いている際の生検鉗子8を示している。
【0039】
このような生検鉗子8を用いて、術者は、生検鉗子8を処置具挿入口から挿入し、処置具挿通用チャンネルを介して挿入部先端部のチャンネル開口から先端側を突出させる。そして、術者は、観測装置本体6による図9に示す生検のフローチャートに従って、生検を行う。
【0040】
観測装置本体6は、内視鏡装置4(CCU3)から観察画像(内視鏡画像)を内視鏡画像入力部11で入力される(ステップS31)。尚、このとき、観測装置本体6は、上述したように観察画像(内視鏡画像)に対して画像補正部14による光学特性の補正処理が行われている。
【0041】
次に、観測装置本体6は、切換部21を介して入力された観察画像(内視鏡画像)から鉗子識別部23で生検鉗子8を識別する(ステップS32)。尚、このとき、観測装置本体6は、上述したように観察画像(内視鏡画像)から内視鏡側位置算出部16による生検鉗子8の位置関係算出の処理が行われている。
【0042】
そして、観測装置本体6は、鉗子識別部23で識別された生検鉗子8の種類に基づき、鉗子挿入長判定部24で、入力された観察画像(内視鏡画像)上から生検鉗子8の色又は目盛りを識別し(ステップS33)、この識別した結果に基づき、生検鉗子8の挿入長を判定する(ステップS34)。
【0043】
ここで、生検鉗子8の生検カップ8aがターゲット31に近づき、内視鏡2の観察範囲から生検カップ8aが外れて観察画像(内視鏡画像)から生検カップ8aが見えなくなったとき、術者は、観測装置本体6のフロントパネルに設けた切換釦を押下操作する。
【0044】
すると、観測装置本体6は、切換釦の切換信号を受信し、切換部21がモニタ7に表示される画像を観察画像からVBS画像に切り換える。尚、観測装置本体6は、切換釦を再度、押下操作されると、VBS画像から観察画像(内視鏡画像)に切り換えるようになっている。
【0045】
そして、観測装置本体6は、VBS画像記録部22に記録されているVBS画像を、算出した生検鉗子8の挿入長に応じて画像参照部25が読み出して更新しつつ(ステップS35)、モニタ7に出力する。即ち、モニタ7の表示面に表示されるVBS画像は、生検鉗子8の先端(生検カップ8a)からの視点となり、挿入長に応じて変化するようになっている。
【0046】
そして、観測装置本体6は、生検鉗子8の先端(生検カップ8a)の明暗(明るさ)を検出する光検出部26の出力が閾値以下になるか否かを生検判定部27で判定する(ステップS36)。
【0047】
光検出部26の出力が閾値以下になったとき、生検判定部27は、生検鉗子8の生検カップ8aがターゲット31に到達したと判断し、その結果をモニタ7に出力してVBS画像に重畳する。
一方、光検出部26の出力が閾値を超えているとき、生検判定部27は、生検鉗子8の生検カップ8aがターゲット31に到達していないと判断する。
【0048】
すると、観測装置本体6は、光検出部26の出力(明暗)が閾値以下になるまで上記S31からS35までのステップを繰り返す。そして、術者は、モニタ7の表示面に表示されるVBS画像を参照しながら、生検鉗子8を操作して生体組織を採取し、生検が終了する。
【0049】
このことにより、内視鏡観測装置は、内視鏡2の挿入部先端部が挿入し難く、即ち、内視鏡2の観察範囲(観察画像)から外れる体腔内管路の末梢部に存在しているターゲット31まで生検鉗子8を到達させて生検を行うことが可能となる。
この結果、本実施の形態の内視鏡観測装置1は、体腔内管路の末梢部における生診率(生体検査診断率)が向上するという効果を得る。
【0050】
尚、内視鏡観測装置1は、それぞれ個別に識別可能なランドマーク10を複数設置することで、CT撮影時及び生検位置確認時における内視鏡2の挿入部先端部の位置ずれを補正可能なように構成しても良い。
この場合、図10に示すように、術者は、形状の異なるランドマーク10を最低2つターゲット近傍に貼り付ける。このランドマーク10の形状は、CT画像データ上で互いに識別可能であるならばどのようなものでも良い。
【0051】
そして、観測装置本体6は、図11に示す生検位置確認のフローチャートに従って、生検位置の確認処理を行う。
尚、ここで、生検位置の確認処理は、観察画像(内視鏡画像)上で2つのランドマーク10の位置関係を常に検出することで、内視鏡2の挿入部先端部のずれ量を逐次検出し、合成画像を更新するようになっている。それ以外は、上記第1の実施の形態で説明したのと同様である。
【0052】
先ず、観測装置本体6は、CT装置5のWSからCT画像データをCT画像入力部17で入力される(ステップS11’)。
次に、観測装置本体6は、CT画像入力部17から入力されたCT画像データから対象であるターゲット31、2つのランドマーク10、内視鏡2の挿入部先端部をCT側対象識別部18で識別する(ステップS12’)。
【0053】
次に、観測装置本体6は、CT側対象識別部18で識別されたターゲット31、2つのランドマーク10、内視鏡2の挿入部先端部の位置関係をCT側位置算出部19で算出する(ステップS13’)。
次に、観測装置本体6は、使用している内視鏡2に記憶保持されたIDを内視鏡機種検出部12で検出(ステップS14’)し、内視鏡機種検出部12で検出したIDに基づき、内視鏡情報記録部13が予め記録した内視鏡2の光学特性を画像補正部14に出力する。
【0054】
次に、観測装置本体6は、内視鏡装置4(CCU3)から観察画像(内視鏡画像)を内視鏡画像入力部11で入力される(ステップS15’)。
そして、観測装置本体6は、内視鏡情報記録部13からの光学特性に基づき、内視鏡画像入力部11で入力された観察画像(内視鏡画像)に対して画像補正部14が画角や歪等の光学特性(ディストーション)を補正する(ステップS16’)。
【0055】
次に、観測装置本体6は、画像補正部14で補正された観察画像(内視鏡画像)から対象である2つのランドマーク10を内視鏡側対象識別部15で識別(ステップS17’)し、この内視鏡側対象識別部15で識別された2つのランドマーク10の位置関係を内視鏡側位置算出部16で算出する(ステップS18’)。
【0056】
そして、観測装置本体6は、CT側位置算出部19で算出されたCT画像データのターゲット31、2つのランドマーク10、内視鏡2の位置関係と内視鏡側位置算出部16で算出された観察画像の2つのランドマーク10の位置関係とから、内視鏡2の挿入部先端部からの視点でのターゲット31の位置を算出し、観察画像(内視鏡画像)上に合成(ステップS19’)してこの合成画像をモニタ7に出力する。そして、観測装置本体6は、生検終了(ステップS40)まで上記ステップS15’から処理を繰り返す。
【0057】
これにより、本変形例の内視鏡観測装置1は、観測装置本体6が観察画像(内視鏡画像)上で2つのランドマーク10の位置関係を常に検出することで、内視鏡2の挿入部先端部のずれ量を逐次検出し、合成画像を更新することが可能となる。
【0058】
(第2の実施の形態)
図12ないし図21は本発明の第2の実施の形態に係り、図12は本発明の第2の実施の形態の内視鏡観測装置を示す全体構成図、図13は図12の内視鏡観測装置で実行される生検メインのフローチャート、図14は図13の生検位置姿勢算出のフローチャート、図15はCTボリュームと超音波ボリュームとのボリュームマッチングを示す概念図、図16は内視鏡又は生検鉗子の位置姿勢が合成されたCT合成画像の表示例、図17はCT画像としてのMIP画像を示す表示例、図18は図3の生検のフローチャート、図19は変形例の内視鏡観測装置を示す全体構成図、図20は図19の内視鏡観測装置で実行される生検位置姿勢算出のフローチャート、図21は図19の内視鏡観測装置で実行される生検のフローチャートである。
【0059】
本第2の実施の形態は、生検(生体検査)時に超音波断層像を撮影して得た超音波3次元画像データにより内視鏡2又は生検鉗子8の位置姿勢(位置及び傾き)を算出するように構成する。それ以外の構成は、上記第1の実施の形態と同様なので説明を省略し、同じ構成には同じ符号を付して説明する。
【0060】
即ち、図12に示すように本第2の実施の形態の内視鏡観測装置1Bは、体外から被検体の超音波断層像を撮像して超音波3次元画像(以下、超音波画像)データを得る体外式超音波装置50と、この体外式超音波装置50で得た超音波画像データから内視鏡2又は生検鉗子8の位置姿勢を抽出し、予め得たCT画像データの座標系における内視鏡2又は生検鉗子8の位置姿勢を算出してCT画像上に合成する処理を行う観測装置本体6Bとを有して構成されている。
【0061】
尚、内視鏡観測装置1Bは、前記第1の実施の形態で説明したのと同様にナビユニットに接続され、ターゲット近傍までの内視鏡2の挿入部のナビゲーションを行うように構成されている。そして、内視鏡観測装置1Bは、ターゲット近傍で内視鏡観察・処置(生検や治療)等を行うようになっている。
【0062】
このとき、後述するように内視鏡観測装置1Bは、ターゲット近傍を前記体外式超音波装置50で超音波撮影する。そして、内視鏡観測装置1Bは、体外式超音波装置50で得た超音波画像データから内視鏡2又は生検鉗子8の位置姿勢を抽出し、予め得たCT画像データの座標系における内視鏡2又は生検鉗子8の位置姿勢を算出してCT画像上に合成して生検位置姿勢を確認可能にしている。
【0063】
次に、前記観測装置本体6Bの詳細構成を説明する。
前記観測装置本体6Bは、上記第1の実施の形態で説明したのと同様な前記内視鏡画像入力部11と、前記内視鏡機種検出部12と、前記内視鏡情報記録部13と、前記画像補正部14と、前記CT画像入力部17と、前記切換部21と、前記VBS画像記録部22と、前記鉗子識別部23と、前記画像参照部25と、前記光検出部26と、前記生検判定部27とを有して構成される。
【0064】
更に、前記観測装置本体6Bは、断層画像データ取得手段として前記体外式超音波装置50と接続し、超音波断層画像を取得する超音波画像入力部51と、この超音波画像入力部51で入力された超音波画像データから3次元的な超音波ボリュームを構築する超音波ボリューム生成部52と、この超音波ボリューム生成部52で構築された超音波ボリュームを画像処理し、超音波画像データの座標系における内視鏡2又は生検鉗子8の3次元的位置姿勢を抽出する位置姿勢抽出部53と、前記CT画像入力部17で入力された予め得たターゲット31までのCT画像データから3次元的なCTボリュームを構築するCTボリューム生成部54と、このCTボリューム生成部54からのCTボリュームと前記超音波ボリューム生成部52からの前記超音波ボリュームとの関係として超音波座標系→CT座標系への変換マトリクスを算出するマトリクス演算部55と、相対位置特定手段として前記マトリクス演算部55で算出した変換マトリクスに基づき、前記位置姿勢抽出部53で抽出した内視鏡2又は生検鉗子8の3次元的位置姿勢から予め得たCT画像データの座標系における内視鏡2又は生検鉗子8の位置姿勢を算出する位置姿勢算出部56と、この位置姿勢算出部56で算出したCT画像データの座標系における内視鏡2又は生検鉗子8の位置姿勢をCT画像上に合成し、モニタ7に出力するCT画像合成部57とを有して構成される。
尚、本実施の形態では、鉗子挿入長判定部24bは、前記超音波画像入力部51で入力された超音波画像データから生検鉗子8の挿入長を判定するようになっている。
【0065】
このように構成される内視鏡観測装置1Bは、上記第1の実施の形態で説明したの同様にナビユニットによるナビゲーションでターゲット近傍まで内視鏡2の挿入部先端部を導かれる。そして、術者は、図13に示す生検メインのフローチャートに従って生検(生体検査)を行う。
【0066】
先ず、術者は、内視鏡2を挿入した状態で、体外式超音波装置50を作動させて超音波撮影しながら、観測装置本体6Bによる後述の図14に示す生検位置姿勢算出のフローチャートに従って、生検位置姿勢を確認する(ステップS51)。尚、このとき、図示しないが、モニタ7は、この表示面に観察画像(内視鏡画像)と、予め得たCT画像データとの2つが例えば、並列に表示されている。術者は、この生検位置姿勢を確認しながら、観測装置本体6Bによる後述の図18に示す生検のフローチャートに従って、生検を行い(ステップS52)、生検が終了する。
【0067】
次に、図14に示す生検位置姿勢算出のフローチャートを説明する。
観測装置本体6Bは、体外式超音波装置50で得た超音波画像データから内視鏡2又は生検鉗子8を抽出し、これら内視鏡2又は生検鉗子8の位置姿勢を算出して予め得たCT画像上に合成する生検位置姿勢算出処理を行う。
【0068】
先ず、観測装置本体6Bは、CT装置5のWSから予め得たターゲット31までのCT画像データをCT画像入力部17で入力される。そして、観測装置本体6Bは、CT画像入力部17から入力されたCT画像データから3次元的なCTボリュームをCTボリューム生成部54で生成する(ステップS61)。
【0069】
次に、観測装置本体6Bは、体外式超音波装置50からの超音波画像データを超音波画像入力部51で入力される。そして、観測装置本体6Bは、超音波画像入力部51から入力された超音波画像データから3次元的な超音波ボリュームを超音波ボリューム生成部52で生成する(ステップS62)。
【0070】
次に、観測装置本体6Bは、超音波ボリューム生成部52で生成された超音波ボリュームを位置姿勢抽出部53で画像処理し、超音波画像データの座標系における内視鏡2又は生検鉗子8の3次元的位置姿勢を抽出する(ステップS63)。
【0071】
そして、観測装置本体6Bは、超音波ボリューム生成部52で生成された超音波ボリュームと、CTボリューム生成部54で生成されたCTボリュームとをマトリクス演算部55で図15に示すようにボリュームマッチングすることで、超音波座標系→CT座標系への変換マトリクスを算出して、CTボリュームと超音波ボリューム生成部52からの超音波ボリュームとの関係を算出する(ステップS64)。
【0072】
ここで、変換マトリクスは、超音波座標系→CT座標系への座標を変換するためのマトリクスであり、回転,スケール,平行移動の成分が含まれる。
尚、回転及びスケールは、3×3の行列によって表すことができるが、ここでは平行移動も含め4×4の行列で表す。
【0073】
座標系を(x、y、z)だけ平行移動させるマトリクスは、
【式1】

Figure 0004334839
である。
また、座標系をX、Y、Z方向に対して(x、y、z)倍するマトリクスは、
【式2】
Figure 0004334839
である。
また、座標系をx軸の周囲をa(ラジアン)だけ回転させるマトリクスは、
【式3】
Figure 0004334839
である。
【0074】
そして、超音波画像データの座標系からCT画像データの座標系への変換マトリクスをMとすると、超音波画像データの座標系で内視鏡2の視線方向ベクトルV(x、y、z、)をCT画像データの座標系における視線方向ベクトルV’(x’、y’、z’)に変換するには、
V’=M×V ・・・(式4)
で求めることができる。
このことにより、マトリクス演算部55は、CTボリュームと超音波ボリューム生成部52からの超音波ボリュームとの関係を算出することができる。
【0075】
次に、観測装置本体6Bは、マトリクス演算部55で算出した変換マトリクスに基づき、位置姿勢抽出部53で抽出した内視鏡2又は生検鉗子8の3次元的位置姿勢から位置姿勢算出部56で予め得たCT画像データの座標系における内視鏡2又は生検鉗子8の位置姿勢を算出する(ステップS65)。
【0076】
次に、観測装置本体6Bは、位置姿勢算出部56で算出したCT画像データの座標系における内視鏡2又は生検鉗子8の位置姿勢をCT画像合成部57で予め得たCT画像に合成してこのCT合成画像をモニタ7に出力する。そして、モニタ7は、この表示面に表示されているCT画像の代わりにCT合成画像が表示される(ステップS66)。
【0077】
ここで、CT合成画像は、図16に示すように内視鏡2又は生検鉗子8の位置姿勢がX記号61と→62で表示される。
尚、図16に示すCT合成画像は、多断面再構成MPR( Multi Planar Reconstrrution )画像である。また、CT合成画像は、図17に示すようなMIP( Maximum Intensity Projection or Minimum Intensity Projection )画像上に内視鏡2又は生検鉗子8の位置姿勢を合成するようにしても良い。
術者は、このモニタ7に表示されるCT合成画像により、内視鏡2又は生検鉗子8の位置姿勢を確認可能である。
【0078】
次に、生検について説明する。
生検鉗子8は、上述したように上記第1の実施の形態で説明したのと同様なものを使用する。そして、術者は、観測装置本体6Bによる図18に示す生検のフローチャートに従って、生検を行う。
【0079】
観測装置本体6Bは、内視鏡装置4(CCU3)から観察画像(内視鏡画像)を内視鏡画像入力部11で入力される(ステップS71)。尚、このとき、観測装置本体6Bは、上記第1の実施の形態で説明したのと同様に観察画像(内視鏡画像)に対して画像補正部14による光学特性の補正処理が行われている。
次に、観測装置本体6Bは、上記第1の実施の形態で説明したのと同様に観察画像(内視鏡画像)から鉗子識別部23で生検鉗子8を識別する。
【0080】
そして、観測装置本体6Bは、鉗子識別部23で識別された生検鉗子8の種類に基づき、鉗子挿入長判定部24bで、入力された超音波画像データから生検鉗子8の挿入長を判定する(ステップS72)。尚、鉗子挿入長判定部24bは、上記第1の実施の形態で説明したのと同様に観察画像(内視鏡画像)から生検鉗子8の色、又は目盛りを識別して生検鉗子8の挿入長を判定するようにしても良い。
【0081】
そして、観測装置本体6Bは、鉗子挿入長判定部24で判定した生検鉗子8の挿入長をCT合成画像上に表示する(ステップS73)。
また、生検鉗子8の生検カップ8aがターゲット31に近づき、内視鏡2の観察範囲から生検カップ8aが外れて観察画像(内視鏡画像)から生検カップ8aが見えなくなったとき、術者は、観測装置本体6Bのフロントパネルに設けた切換釦を押下操作して、上記第1の実施の形態で説明したのと同様に観察画像をVBS画像に切り換え、算出した生検鉗子8の挿入長に応じて更新されるVBS画像を表示させる。尚、観測装置本体6Bは、切換釦を再度、押下操作されると、VBS画像から観察画像(内視鏡画像)に切り換えるようになっている。
【0082】
そして、観測装置本体6Bは、上記第1の実施の形態で説明したのと同様に生検鉗子8の先端(生検カップ8a)の明暗(明るさ)を検出することで、生検鉗子8の生検カップ8aがターゲット31に到達したか否かを判断し、ターゲット31に到達したと判断したときその結果をモニタ7に出力してVBS画像に重畳する。
【0083】
そして、観測装置本体6Bは、術者による生検が終了するまで上記ステップS74までを繰り返す。そして、術者は、モニタ7の表示面に表示されるVBS画像及びCT合成画像を参照しながら、生検鉗子8を操作して生体組織を採取し、生検が終了する。
【0084】
この結果、本第2の実施の形態の内視鏡観測装置1Bは、上記第1の実施の形態と同様な効果を得ることに加え、生検(生体検査)時にCT撮影を行うことが無いので操作性が向上する。
【0085】
尚、内視鏡観測装置は、図19に示すように体外式超音波装置50の代わりに内視鏡2の処置具挿通用チャンネルに挿入可能な超音波プローブを用いて構成しても良い。
図19に示すように内視鏡観測装置1Cは、内視鏡2の処置具挿通用チャンネルに挿入して、体腔内から被検体の超音波断層像を撮像して超音波3次元画像(以下、超音波画像)データを得る超音波プローブ70と、この超音波プローブ70で得た超音波画像データから内視鏡2の位置姿勢を抽出し、予め得たCT画像データの座標系における内視鏡2の位置姿勢を算出してCT画像上に合成する処理を行う観測装置本体6Cとを有して構成されている。
【0086】
前記超音波プローブ70は、超音波照射・検出を連続的に回転させつつ被検体内を体軸方向に連続送りすることにより、被検体の3次元領域について螺旋状の連続スキャン(ヘリカルスキャン: helical scan )を行い、3次元領域の連続するスライスの断層像から、3次元超音波画像データを生成するように構成されている。
【0087】
前記観測装置本体6Cは、上記第1の実施の形態で説明したのと同様な前記内視鏡画像入力部11と、前記内視鏡機種検出部12と、前記内視鏡情報記録部13と、前記画像補正部14と、前記CT画像入力部17と、前記切換部21と、前記VBS画像記録部22と、前記鉗子識別部23と、前記鉗子挿入長判定部24と、前記画像参照部25と、前記光検出部26と、前記生検判定部27とを有して構成される。
また、前記観測装置本体6Cは、上記第1の実施の形態で説明したのと同様な前記CTボリューム生成部54と、前記超音波ボリューム生成部52と、前記マトリクス演算部55とを有して構成される。
【0088】
更に、前記観測装置本体6Cは、前記超音波プローブ70と接続し、超音波断層画像を取得する超音波画像入力部51cと、前記超音波ボリューム生成部52で構築された超音波ボリュームを画像処理し、超音波画像データの座標系における内視鏡2の3次元的位置姿勢を抽出する位置姿勢抽出部53cと、前記マトリクス演算部55で算出した変換マトリクスに基づき、前記位置姿勢抽出部53cで抽出した内視鏡2の3次元的位置姿勢から予め得たCT画像データの座標系における内視鏡2の位置姿勢を算出する位置姿勢算出部56cと、この位置姿勢算出部56cで算出したCT画像データの座標系における内視鏡2の位置姿勢をCT画像上に合成し、モニタ7に出力するCT画像合成部57cとを有して構成される。
【0089】
このように構成される内視鏡観測装置1Cは、上記第1の実施の形態で説明したの同様にナビユニットによるナビゲーションでターゲット近傍まで内視鏡2の挿入部先端部を導かれる。そして、内視鏡観測装置1Cは、内視鏡2の処置具挿通用チャンネルに超音波プローブ70を挿入されて、図20に示す生検位置姿勢算出のフローチャートに従って、超音波プローブ70で得た超音波画像データから内視鏡2を抽出し、この内視鏡2の位置姿勢を算出して予め得たCT画像上に合成する生検位置姿勢算出処理を行う。
【0090】
先ず、観測装置本体6Cは、上記第2の実施の形態で説明したのと同様にCT装置5のWSから予め得たターゲット31までのCT画像データをCT画像入力部17で入力され、この入力されたCT画像データから3次元的なCTボリュームをCTボリューム生成部54で生成する(ステップS61’)。
【0091】
次に、観測装置本体6Cは、図示しない入力装置により予め入力されたスキャン範囲を超音波プローブ70に対して設定する(ステップS67)。
そして、観測装置本体6Cは、超音波プローブ70からの超音波画像データを超音波画像入力部51cで入力され、3次元的な超音波ボリュームを超音波ボリューム生成部52で生成する(ステップS62’)。
【0092】
次に、観測装置本体6Cは、上記第2の実施の形態で説明したのと同様に超音波ボリューム生成部52で生成された超音波ボリュームを位置姿勢抽出部53cで画像処理し、超音波画像データの座標系における内視鏡2の3次元的位置姿勢を抽出する(ステップS63’)。
【0093】
そして、観測装置本体6Cは、上記第2の実施の形態で説明したのと同様に超音波ボリューム生成部52で生成された超音波ボリュームと、CTボリューム生成部54で生成されたCTボリュームとをマトリクス演算部55でボリュームマッチングすることで、超音波座標系→CT座標系への変換マトリクスを算出する(ステップS64’)。
【0094】
次に、観測装置本体6Cは、マトリクス演算部55で算出した変換マトリクスに基づき、位置姿勢抽出部53cで抽出した内視鏡2の3次元的位置姿勢から位置姿勢算出部56cで予め得たCT画像データの座標系における内視鏡2の位置姿勢を算出する(ステップS65’)。
【0095】
次に、観測装置本体6Cは、位置姿勢算出部56cで算出したCT画像データの座標系における内視鏡2の位置姿勢をCT画像合成部57cで予め得たCT画像に合成してこのCT合成画像をモニタ7に出力する。そして、モニタ7は、この表示面に表示されているCT画像の代わりにCT合成画像が表示される(ステップS66’)。
術者は、このモニタ7に表示されるCT合成画像により、内視鏡2の位置姿勢を確認可能である。
【0096】
次に、生検について説明する。
術者は、超音波プローブ70を内視鏡2から引き抜き、代わりに生検鉗子8を挿入する。ここで、生検鉗子8は、上述したように上記第1の実施の形態で説明したのと同様なものを使用する。そして、術者は、観測装置本体6Cによる図21に示す生検のフローチャートに従って、生検を行う。
観測装置本体6Cは、内視鏡装置4(CCU3)から観察画像(内視鏡画像)を内視鏡画像入力部11で入力される(ステップS71’)。
【0097】
次に、観測装置本体6Cは、上記第1の実施の形態で説明したのと同様に観察画像(内視鏡画像)から鉗子識別部23で生検鉗子8を識別し(ステップS32’)、鉗子挿入長判定部24で、入力された観察画像(内視鏡画像)上から生検鉗子8の色又は目盛りを識別し(ステップS33’)、この識別した結果に基づき、生検鉗子8の挿入長を判定する(ステップS34’)。 ◎
そして、観測装置本体6Cは、鉗子挿入長判定部24で判定した生検鉗子8の挿入長をCT合成画像上に表示する(ステップS73’)。
【0098】
また、生検鉗子8の生検カップ8aがターゲット31に近づき、内視鏡2の観察範囲から生検カップ8aが外れて観察画像(内視鏡画像)から生検カップ8aが見えなくなったとき、術者は、観測装置本体6Cのフロントパネルに設けた切換釦を押下操作して、上記第1の実施の形態で説明したのと同様に観察画像をVBS画像に切り換え、算出した生検鉗子8の挿入長に応じて更新されるVBS画像を表示させる。
【0099】
そして、観測装置本体6Cは、上記第1の実施の形態で説明したのと同様に生検鉗子8の先端(生検カップ8a)の明暗(明るさ)を検出することで、生検鉗子8の生検カップ8aがターゲット31に到達したか否かを判断し、ターゲット31に到達したと判断したときその結果をモニタ7に出力してVBS画像に重畳する。
【0100】
そして、観測装置本体6Cは、術者による生検が終了する(ステップS74’)まで上記ステップS74’までを繰り返す。そして、術者は、モニタ7の表示面に表示されるVBS画像及びCT合成画像を参照しながら、生検鉗子8を操作して生体組織を採取し、生検が終了する。
【0101】
この結果、本変形例の内視鏡観測装置1Cは、上記第2の実施の形態と同様な効果を得ることに加え、超音波プローブ70を内視鏡2に挿入することで、体腔内からの超音波画像データを得られ、より詳細な内視鏡2の位置姿勢を得ることができる。
尚、本発明は、以上述べた実施の形態のみに限定されるものではなく、発明の要旨を逸脱しない範囲で種々変形実施可能である。
【0102】
[付記]
(付記項1) 病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、
前記内視鏡を用いて前記病変近傍に指標を配置する指標配置手段と、
前記指標配置手段により前記指標を配置した状態で、前記病変近傍と前記内視鏡とを含む領域の断層画像データを得る断層画像データ取得手段と、
前記断層画像データ取得手段で得た断層画像データに基づき、病変部と前記内視鏡との相対位置を特定する相対位置特定手段と、
を具備したことを特徴とする内視鏡観測装置。
【0103】
(付記項2) 病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、
前記内視鏡を用いて前記病変近傍に指標を配置する指標配置手段と、
前記指標配置手段により前記指標を配置した状態で、前記病変近傍と前記内視鏡と前記指標とを含む領域の断層画像データを取得する断層画像データ取得手段と、
前記断層画像データ取得手段で得た断層画像データに基づき、病変部と前記内視鏡との相対位置を特定する相対位置特定手段と、
を具備したことを特徴とする内視鏡観測装置。
【0104】
(付記項3) 前記相対位置特定手段は、前記断層画像データから得た前記病変部の中心点と、前記内視鏡のベクトルとで前記病変部位と前記内視鏡との相対位置を特定することを特徴とする付記項1に記載の内視鏡観測装置。
【0105】
(付記項4) 前記相対位置特定手段は、前記断層画像データから得た前記病変部の中心点と、前記内視鏡の挿入部先端部の中心点と、前記指標の中心点とで前記病変部位と前記内視鏡との相対位置を特定することを特徴とする付記項2に記載の内視鏡観測装置。
【0106】
(付記項5) 病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、
前記病変近傍の断層画像データを積層した第1の3次元データを取得する第1の3次元データ取得手段と、
前記病変近傍の超音波断層画像データを得て第2の3次元データを取得する第2の3次元データ取得手段と、
前記第1の3次元データ取得手段で得た前記第1の3次元データと前記第2の3次元データ取得手段で得た前記第2の3次元データとの相関を求める第1の相関手段と、
前記第2の3次元データ取得手段で得た前記第2の3次元データと前記内視鏡との相関を求める第2の相関手段と、
前記第1の相関手段及び前記第2の相関手段で得た相関関係に基づき、前記内視鏡の位置と前記第1の3次元データとを関連付ける関連付け手段と、
を具備したことを特徴とする内視鏡観測装置。
【0107】
【発明の効果】
以上説明したように本発明によれば、体腔内管路の末梢部における生診率(生体検査診断率)の向上化が可能な内視鏡観測装置を実現できる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の内視鏡観測装置を示す全体構成図
【図2】図1の内視鏡観測装置で実行される生検メインのフローチャート
【図3】ランドマークを気管支のターゲット近傍の粘膜に貼り付けた際のモニタ表示例
【図4】図3の生検位置確認のフローチャート
【図5】観察画像(内視鏡画像)にターゲットが合成された合成画像のモニタ表示例
【図6】図3の対象の位置関係算出のフローチャート、図7は目盛りが形成されている生検鉗子を示す概略図
【図7】目盛りが形成されている生検鉗子を示す概略図
【図8】長さに応じて着色されている生検鉗子を示す概略図
【図9】図3の生検のフローチャート
【図10】形状の異なるランドマークを最低2つターゲット近傍に貼り付けた際のモニタ表示
【図11】変形例の生検位置確認のフローチャート
【図12】本発明の第2の実施の形態の内視鏡観測装置を示す全体構成図
【図13】図12の内視鏡観測装置で実行される生検メインのフローチャート
【図14】図13の生検位置姿勢算出のフローチャート
【図15】CTボリュームと超音波ボリュームとのボリュームマッチングを示す概念図
【図16】内視鏡又は生検鉗子の位置姿勢が合成されたCT合成画像の表示例
【図17】CT画像としてのMIP画像を示す表示例
【図18】図3の生検のフローチャート
【図19】変形例の内視鏡観測装置を示す全体構成図
【図20】図19の内視鏡観測装置で実行される生検位置姿勢算出のフローチャート
【図21】図19の内視鏡観測装置で実行される生検のフローチャート
【符号の説明】
1…内視鏡観測装置
2…内視鏡
3…CCU
4…内視鏡装置
5…CT装置
6…観測装置本体
7…モニタ
8…生検鉗子(指標配置手段)
10…ランドマーク
11…内視鏡画像入力部
12…内視鏡機種検出部
13…内視鏡情報記録部
14…画像補正部
15…内視鏡側対象識別部
16…内視鏡側位置算出部
17…CT画像入力部(断層画像データ取得手段)
18…CT側対象識別部
19…CT側位置算出部(相対位置特定手段)
20…画像合成部
21…切換部
22…VBS画像記録部
23…鉗子識別部
24…鉗子挿入長判定部
25…画像参照部
26…光検出部
27…生検判定部
31…ターゲット
41…光ファイバ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an endoscope observation apparatus, and more particularly to an endoscope observation apparatus used when performing a biopsy (biological examination) or the like in a body duct such as a bronchi.
[0002]
[Prior art]
In recent years, endoscopes have been widely used. An endoscope uses a treatment tool inserted into a treatment instrument insertion channel by observing an organ in a body cavity by inserting an elongated insertion portion into the body cavity, and using a treatment tool inserted into a treatment instrument insertion channel as necessary. Various treatments such as inspection) can be performed.
[0003]
In recent years, endoscopic examination has been performed to diagnose an affected area using three-dimensional image data obtained by capturing a tomographic image of a subject using, for example, a CT (Computed Tomography) apparatus.
[0004]
An endoscope observation apparatus used for such an endoscopy, for example, uses an endoscope (insertion unit thereof) up to a target site in a subject's internal duct by using a navigation image created based on the three-dimensional image data. ) Is guided.
The endoscope observation apparatus collects a sample of a biological tissue using a biopsy forceps or the like inserted through a treatment instrument insertion channel.
[0005]
[Problems to be solved by the invention]
However, in the above conventional endoscope observation apparatus, for example, at the time of biopsy (biological examination) in the bronchus, it is difficult for the insertion portion of the endoscope to be inserted to the peripheral portion of the lung. In this case, the conventional endoscope observation apparatus can reach the vicinity of the target site in the peripheral part of the lung, but it is difficult to reach the target site.
For this reason, the conventional endoscope observation apparatus performs a biopsy (biological examination) using the biopsy forceps or the like in a blind state in the vicinity of a target site on an endoscope observation image.
[0006]
The present invention has been made in view of the above-described problems, and provides an endoscope observation apparatus capable of improving a biopsy rate (biological examination diagnosis rate) in a peripheral portion of a body cavity duct.
[0007]
[Means for Solving the Problems]
  Of the present inventionFirst endoscope observation apparatusHas an endoscope that reaches the vicinity of the lesion and observes the vicinity of the lesion, and in an endoscope observation apparatus that obtains an observation image of the vicinity of the lesion obtained by the endoscope, the lesion using the endoscope An index placement means for placing an index in the vicinity, and the vicinity of the lesion and the endoscope in a state where the index is placed by the index placement meansThe indicator andTomographic image data of the area includinggetTomographic image data acquisition means and tomographic image data obtained by the tomographic image data acquisition meansBased on the centroid position information of the lesion and the centroid position information of the index obtained from the above, and the gaze direction information of the endoscope,The distal end of the endoscope reaching the vicinity of the lesionPerspectiveAnd relative position specifying means for specifying the lesion position when viewed fromFeatures.
  Of the present inventionSecond endoscope observation deviceHas an endoscope that reaches the vicinity of the lesion and observes the vicinity of the lesion, and in an endoscope observation apparatus that obtains an observation image of the vicinity of the lesion obtained by the endoscope, the lesion using the endoscope Index placement means for placing a marker in the vicinity, and tomographic image data acquisition for obtaining tomographic image data of a region including the vicinity of the lesion, the endoscope, and the marker in a state where the marker is placed by the marker placement means And relative position specifying means for specifying a lesion position when viewed from the distal end portion of the endoscope that has reached the vicinity of the lesion, based on the tomographic image data obtained by the tomographic image data acquisition means.The relative position specifying means specifies the lesion position based on the center of gravity of the lesion obtained from the tomographic image data, the center of gravity of the distal end portion of the endoscope, and the center of gravity of the index. To do.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIGS. 1 to 11 relate to a first embodiment of the present invention, FIG. 1 is an overall configuration diagram showing an endoscope observation apparatus according to the first embodiment of the present invention, and FIG. 2 is an internal view of FIG. FIG. 3 is an example of a monitor display when a landmark is attached to a mucous membrane near a bronchial target, FIG. 4 is a flowchart of biopsy position confirmation in FIG. 3, and FIG. Is a monitor display example of a composite image in which a target is combined with an observation image (endoscopic image), FIG. 6 is a flowchart for calculating the positional relationship of the target in FIG. 3, and FIG. 7 shows a biopsy forceps in which a scale is formed. FIG. 7A is a schematic view showing a biopsy forceps when the biopsy cup is closed, and FIG. 7B is a schematic view showing the biopsy forceps when the biopsy cup is opened. FIG. 8 is a schematic view showing biopsy forceps colored according to length. ) Is a schematic view showing the biopsy forceps when the biopsy cup is closed, FIG. 8B is a schematic view showing the biopsy forceps when the biopsy cup is open, and FIG. 9 is a biopsy of FIG. FIG. 10 is a monitor display example when at least two landmarks having different shapes are pasted in the vicinity of the target, and FIG. 11 is a flowchart of biopsy position confirmation in a modified example.
[0009]
In the present embodiment, a case where the present invention is applied to a bronchoscope will be described.
[0010]
As shown in FIG. 1, an endoscope observation apparatus 1 having a first embodiment of the present invention includes a bronchial endoscope (hereinafter simply referred to as an endoscope) 2 that can be inserted into a bronchus, and the endoscope. An endoscope apparatus 4 including a camera control unit (hereinafter referred to as CCU) 3 that generates a standard video signal by performing signal processing on an endoscopic image obtained by imaging means 2 (not shown); A CT apparatus 5 that obtains three-dimensional image (hereinafter referred to as CT image) data by capturing a tomographic image of the target, the position of the target (target part) extracted from the CT image data obtained by the CT apparatus 5, and the target (target) Observation that obtains the positional relationship with the endoscope 2 inserted in the vicinity of the part) and synthesizes the target (target part) with the endoscope image (hereinafter referred to as observation image) signal-processed by the CCU 3 From the main body 6 and the observation main body 6 It is mainly a monitor 7 for displaying the formed image.
[0011]
The endoscope 2 has an elongated and flexible insertion portion (not shown). Further, the endoscope 2 inserts a treatment tool such as a biopsy forceps 8 from a treatment tool insertion port (not shown), and a channel opening formed at the distal end portion of the insertion portion via a treatment tool insertion channel (not shown). The distal end side of the treatment tool protrudes from the base and can be biopsied.
[0012]
The endoscope 2 is provided with a light guide (not shown) that transmits illumination light. The light guide transmits illumination light from a light source (not shown). Illumination light transmitted from the light guide illuminates a subject such as an affected part from a distal end surface of an illumination window (not shown) fixed to the distal end portion of the insertion portion.
[0013]
For the illuminated subject, a subject image is taken into the endoscope 2 from an observation window (not shown) provided adjacent to the illumination window. The captured subject image is picked up by an image pickup device (not shown), subjected to photoelectric conversion, and converted into an image pickup signal. The imaging signal is transmitted to a signal cable (not shown) and output to the CCU 3.
[0014]
The CCU 3 processes an imaging signal from the imaging device of the endoscope 2 to generate a standard video signal, outputs the video signal to the monitor 7, and displays the display surface of the monitor 7. The observation image is displayed on the screen.
[0015]
Although not shown, the endoscope observation apparatus 1 is a navigation unit (hereinafter referred to as a navigation) that constructs a virtual endoscope image (hereinafter referred to as a VBS image) generated based on CT image data obtained in advance by the CT apparatus 5. Unit). Then, the navigation unit links the generated VBS image to the position of the endoscope 2 (the distal end portion of the insertion portion) and displays it on the monitor 7, and the endoscope 2 (the distal end portion of the insertion portion thereof) up to the vicinity of the target. ) Navigation.
[0016]
While the endoscope 2 is guided by a VBS image displayed on the monitor 7 by the navigation unit, for example, the endoscope 2 (the distal end portion of the insertion portion) reaches the vicinity of the target in the bronchus. ing. The endoscope observation apparatus 1 performs endoscope observation / treatment (biopsy or treatment) in the vicinity of the target.
[0017]
Here, the endoscope observation apparatus 1 is configured to collect a sample of a biological tissue with a biopsy forceps 8 or the like in order to confirm the target by biopsy (biological examination). .
[0018]
At this time, as will be described later, the endoscope observation apparatus 1 attaches a landmark 10 formed of a metal foil having biosafety such as gold or platinum to the vicinity of the target with a biopsy forceps 8 that is an indicator placement means. In addition (see FIG. 3), CT imaging is performed by the CT apparatus 5 near the target. The landmark 10 is formed of a metal foil capable of CT imaging, so that it can be easily distinguished from the organ in the body cavity and can be identified.
The endoscope observation apparatus 1 obtains the positional relationship between the landmark 10, the target, and the distal end of the insertion portion of the endoscope 2 from the CT image data, and synthesizes the target on the observation image to confirm the biopsy position. It is like that.
[0019]
Next, a detailed configuration of the observation apparatus body 6 will be described.
The observation apparatus main body 6 is connected to the endoscope apparatus 4 and an endoscope image input unit 11 that acquires an observation image, and an endoscope that detects an ID stored and held in the endoscope 2 being used. Based on the ID detected by the endoscope model detection unit 12, the endoscope information recording unit 13 that outputs the optical characteristics of the endoscope 2 recorded in advance based on the ID detected by the endoscope model detection unit 12, and the endoscope information recording Based on the optical characteristics from the unit 13, an image correction unit 14 that corrects distortions such as an angle of view and distortion of the observation image input by the endoscope image input unit 11, and an observation corrected by the image correction unit 14 An endoscope-side object identifying unit 15 for identifying the landmark 10 from the image; an endoscope-side position calculating unit 16 for calculating the positional relationship of the targets identified by the endoscope-side object identifying unit 15; Connected with the CT apparatus 5 as image data acquisition means The CT image input unit 17 that acquires CT image data from the WS (workstation) of the CT apparatus 5, and the target, landmark 10, and endoscope 2 of the CT image data input from the CT image input unit 17 The positional relationship between the CT-side object identifying unit 18 that identifies the distal end of the insertion unit, and the target, landmark 10, and distal end of the insertion unit of the endoscope 2 that are identified by the CT-side target identifying unit 18 as relative position specifying means. The calculated CT side position calculation unit 19, the positional relationship between the target of the CT image data calculated by the CT side position calculation unit 19, the landmark 10, and the endoscope 2 and the endoscope side position calculation unit 16 The position of the target at the viewpoint of the distal end portion of the insertion portion of the endoscope 2 is calculated from the positional relationship of the landmarks 10 in the observed image, and is synthesized on the observed image and the synthesized image is converted into the previous image. Constructed and an image synthesizing unit 20 to be output to the monitor 7.
[0020]
The observation apparatus body 6 is turned on by pressing a switching button provided on a front panel (not shown), and a switching unit 21 that switches an image displayed on the monitor 7 from an observation image to a VBS image, and the CT apparatus 5 in advance. A VBS image up to the target is generated based on the CT image data obtained in the above, and the recorded VBS image is recorded on the observation image input from the endoscope image input unit 11 via the switching unit 21 and the switching unit 21. Based on the type of the biopsy forceps 8 identified by the forceps identification unit 23 and the type of the biopsy forceps 8 identified by the forceps identification unit 23, the color or scale (see FIG. 8 and FIG. 9), the forceps insertion length determination unit 24 for determining the insertion length of the biopsy forceps 8 and the insertion length of the biopsy forceps 8 determined by the forceps insertion length determination unit 24 In the VBS image recording unit 22 Load the VBS image formed recording, configured to have an image reference unit 25 to be output to the monitor 7.
[0021]
The switching unit 21 is configured to detect and automatically turn on when the biopsy forceps 8 protrude from the distal end of the insertion unit from the observation image input by the endoscope image input unit 11. You may do it.
The observation device body 6 includes a light detection unit 26 such as a photodiode that detects the light and darkness (brightness) of the tip of the optical fiber connected to the biopsy forceps 8, and the light and darkness (brightness) detected by the light detection unit 26. ) To determine whether or not the tip of the biopsy forceps 8 has reached and contacted the target, and has a biopsy determination unit 27 that superimposes the result on the VBS image.
[0022]
The endoscope observation apparatus 1 configured as described above is used for endoscopic observation / treatment (biopsy or treatment) such as bronchial diseases.
First, the operator inserts the insertion portion of the endoscope 2 into the body cavity of the patient orally or nasally, and moves the endoscope 2 to a predetermined position that the operator understands, for example, the upper end (the larynx) of the trachea. Advance the tip of the insertion section. At this time, the surgeon inserts the insertion portion while viewing the observation image obtained by the endoscope 2 displayed on the monitor 7.
[0023]
Then, when the surgeon advances the distal end portion of the insertion portion of the endoscope 2 to a predetermined position, the navigation unit is started from here, and the target to the target is observed while referring to the VBS image displayed on the monitor 7. The insertion part of the endoscope 2 is inserted to the vicinity.
[0024]
When the distal end portion of the insertion portion of the endoscope 2 reaches the vicinity of the target, the surgeon performs a biopsy (biological examination) according to the biopsy main flowchart shown in FIG.
First, the operator uses the biopsy forceps 8 or the like inserted through the treatment instrument insertion channel of the endoscope 2 while viewing the observation image, for example, as shown in FIG. Affixing to the mucous membrane (step S1). At this time, although not shown, the monitor 7 displays only the observation image (endoscopic image) on the display surface.
[0025]
Next, the surgeon performs CT imaging of the vicinity of the target with the CT apparatus 5 in this state (a state in which the endoscope 2 is inserted) (step S2).
Then, the surgeon confirms the biopsy position according to the biopsy position confirmation flowchart shown in FIG. 4 described later by the observation apparatus body 6 (step S3). When the biopsy position is confirmed, the surgeon performs a biopsy according to the biopsy flowchart shown in FIG. 9 described later by the observation apparatus body 6 (step S4), and the biopsy is completed.
[0026]
Next, a flowchart of biopsy position confirmation shown in FIG. 4 will be described.
The observation apparatus main body 6 includes the position of the target extracted from the CT image data obtained in step S2 of the biopsy main in FIG. 2 and the distal end of the insertion portion of the endoscope 2 inserted in the vicinity of the target (target site). The biopsy position confirmation process which synthesize | combines a target with an observation image is calculated | required.
[0027]
First, the observation apparatus body 6 receives CT image data from the WS of the CT apparatus 5 via the CT image input unit 17 (step S11).
Next, the observation apparatus main body 6 identifies the target, the landmark 10, and the distal end portion of the insertion portion of the endoscope 2 from the CT image data input from the CT image input unit 17 with the CT-side object identification unit 18. (Step S12).
[0028]
Next, the observation apparatus body 6 calculates the positional relationship between the target identified by the CT-side object identifying unit 18, the landmark 10, and the distal end of the insertion portion of the endoscope 2 by the CT-side position calculating unit 19 (Step S <b> 13). ). Here, the CT side position calculation unit 19 calculates according to the flowchart of the positional relationship of the object shown in FIG.
[0029]
Next, the observation apparatus body 6 detects the ID stored and held in the endoscope 2 in use by the endoscope model detection unit 12 (step S14), and the ID detected by the endoscope model detection unit 12 Based on the above, the optical characteristics of the endoscope 2 recorded in advance by the endoscope information recording unit 13 are output to the image correcting unit 14.
[0030]
Next, the observation apparatus body 6 receives an observation image (endoscopic image) from the endoscope apparatus 4 (CCU3) through the endoscope image input unit 11 (step S15).
The observation apparatus body 6 includes an image correction unit 14 configured to display an observation image (endoscope image) input by the endoscope image input unit 11 based on the optical characteristics from the endoscope information recording unit 13. Optical characteristics (distortion) such as corners and distortion are corrected (step S16).
[0031]
Next, the observation apparatus body 6 identifies the landmark 10 as a target from the observation image (endoscopic image) corrected by the image correction unit 14 by using the endoscope-side target identification unit 15 (step S17). The positional relationship of the landmark 10 identified by the endoscope side target identifying unit 15 is calculated by the endoscope side position calculating unit 16 (step S18). Here, the endoscope side position calculation unit 16 calculates in accordance with the flowchart of the positional relationship of the object shown in FIG. 6 described later, similarly to the CT side position calculation unit 19.
[0032]
Then, the observation apparatus body 6 includes the positional relationship between the target of the CT image data calculated by the CT side position calculation unit 19, the landmark 10, and the endoscope 2 and the observation image calculated by the endoscope side position calculation unit 16. The position of the target at the viewpoint from the distal end portion of the insertion portion of the endoscope 2 is calculated from the positional relationship of the landmark 10 and synthesized on the observation image (endoscopic image) (step S19). The composite image is output to the monitor 7.
[0033]
As shown in FIG. 5, the monitor 7 displays a composite image in which the target 31 is semitransparently combined with the observation image (endoscopic image). The surgeon can confirm the biopsy position from the composite image displayed on the monitor 7. Here, in the composite image, if the position of the distal end portion of the insertion portion of the endoscope 2 is shifted due to camera shake or the like, the position of the target 31 becomes inaccurate, but one landmark 10 may be pasted.
[0034]
Next, with reference to FIG. 6, a flowchart for calculating the positional relationship of the target performed by the CT side position calculation unit 19 or the endoscope side position calculation unit 16 will be described. Here, for convenience, the CT side position calculation unit 19 will be described as an example.
The CT side position calculation unit 19 extracts the contours of the target 31, the landmark 10, and the distal end portion of the insertion portion of the endoscope 2 from the CT image data (step S21).
[0035]
Then, the CT side position calculation unit 19 identifies the target 31, the landmark 10, and the insertion portion distal end portion of the endoscope 2 from the extracted contour (step S22).
Then, the CT-side position calculation unit 19 calculates the center of gravity (position) and direction of the identified target 31, landmark 10, and distal end of the insertion portion of the endoscope 2 (step S23). The CT-side position calculation unit 19 calculates the direction of the distal end portion of the insertion portion of the endoscope 2 from the center of gravity of the distal end portion of the insertion portion of the endoscope 2 and its proximal end side, and the endoscope 2 The tip of the insertion part is obtained as a vector.
[0036]
Thereby, the CT side position calculation unit 19 can calculate the positional relationship between the target 31, the landmark 10, and the distal end portion of the insertion portion of the endoscope 2.
The endoscope side position calculation unit 16 is substantially the same as the CT side position calculation unit 19 described above, and only calculates the positional relationship of the landmark 10 as a target.
[0037]
Next, biopsy will be described.
First, the biopsy forceps 8 used in the present embodiment will be described with reference to FIGS.
In the biopsy forceps 8 used in this embodiment, a light incident end face 41a of an optical fiber 41 for detecting reflected light from a target 31 is attached to a biopsy cup 8a. The proximal end side of the optical fiber 41 is connected to the observation apparatus main body 6, and the light from the light emitting end face of the optical fiber 41 is received by the light detection unit 26 (see FIG. 1).
[0038]
Further, the biopsy forceps 8 is, for example, formed with a scale as shown in FIG. 7 or colored according to the length as shown in FIG. 8 so as to know the insertion length.
7A and 8A show the biopsy forceps 8 when the biopsy cup 8a is closed, and FIGS. 7B and 8B show the biopsy cup 8a opened. The biopsy forceps 8 is shown.
[0039]
Using such a biopsy forceps 8, the operator inserts the biopsy forceps 8 from the treatment instrument insertion port, and projects the distal end side from the channel opening at the distal end of the insertion section through the treatment instrument insertion channel. The surgeon performs biopsy according to the biopsy flowchart shown in FIG.
[0040]
The observation apparatus body 6 receives an observation image (endoscopic image) from the endoscope apparatus 4 (CCU3) through the endoscope image input unit 11 (step S31). At this time, in the observation apparatus main body 6, as described above, the optical characteristic correction processing by the image correction unit 14 is performed on the observation image (endoscopic image).
[0041]
Next, the observation apparatus body 6 identifies the biopsy forceps 8 by the forceps identification unit 23 from the observation image (endoscopic image) input via the switching unit 21 (step S32). At this time, in the observation apparatus main body 6, as described above, the positional relationship calculation processing of the biopsy forceps 8 by the endoscope side position calculation unit 16 is performed from the observation image (endoscopic image).
[0042]
Based on the type of biopsy forceps 8 identified by the forceps identification unit 23, the observation device body 6 determines the biopsy forceps 8 from the input observation image (endoscopic image) by the forceps insertion length determination unit 24. Is identified (step S33), and the insertion length of the biopsy forceps 8 is determined based on the identified result (step S34).
[0043]
Here, the biopsy cup 8a of the biopsy forceps 8 approaches the target 31, the biopsy cup 8a is removed from the observation range of the endoscope 2, and the biopsy cup 8a is not visible from the observation image (endoscopic image). At this time, the surgeon depresses a switching button provided on the front panel of the observation apparatus body 6.
[0044]
Then, the observation apparatus body 6 receives the switching signal of the switching button, and the switching unit 21 switches the image displayed on the monitor 7 from the observation image to the VBS image. Note that the observation device body 6 switches from the VBS image to the observation image (endoscopic image) when the switching button is pressed again.
[0045]
Then, in the observation apparatus main body 6, the VBS image recorded in the VBS image recording unit 22 is read and updated by the image reference unit 25 according to the calculated insertion length of the biopsy forceps 8 (step S <b> 35). 7 is output. That is, the VBS image displayed on the display surface of the monitor 7 is a viewpoint from the tip of the biopsy forceps 8 (biopsy cup 8a) and changes according to the insertion length.
[0046]
Then, the observation apparatus body 6 uses the biopsy determination unit 27 to determine whether or not the output of the light detection unit 26 that detects the brightness (brightness) of the tip (biopsy cup 8a) of the biopsy forceps 8 is equal to or less than a threshold value. Determination is made (step S36).
[0047]
When the output of the light detection unit 26 is equal to or less than the threshold value, the biopsy determination unit 27 determines that the biopsy cup 8a of the biopsy forceps 8 has reached the target 31, and outputs the result to the monitor 7 to output VBS. Superimpose on the image.
On the other hand, when the output of the light detection unit 26 exceeds the threshold value, the biopsy determination unit 27 determines that the biopsy cup 8 a of the biopsy forceps 8 has not reached the target 31.
[0048]
Then, the observation apparatus body 6 repeats the steps from S31 to S35 until the output (brightness / darkness) of the light detection unit 26 becomes equal to or less than the threshold value. Then, the surgeon operates the biopsy forceps 8 to collect the biological tissue while referring to the VBS image displayed on the display surface of the monitor 7, and the biopsy is completed.
[0049]
Accordingly, the endoscope observation apparatus is difficult to insert the distal end portion of the insertion portion of the endoscope 2, that is, exists in the peripheral portion of the body cavity duct that is out of the observation range (observation image) of the endoscope 2. The biopsy forceps 8 can be made to reach the target 31 that is present, and biopsy can be performed.
As a result, the endoscope observation apparatus 1 according to the present embodiment has an effect that the biopsy rate (biological examination diagnosis rate) in the peripheral part of the body cavity duct is improved.
[0050]
The endoscope observation apparatus 1 corrects a positional deviation of the distal end portion of the insertion portion of the endoscope 2 at the time of CT imaging and biopsy position confirmation by installing a plurality of individually identifiable landmarks 10. It may be configured as possible.
In this case, as shown in FIG. 10, the surgeon attaches at least two landmarks 10 having different shapes in the vicinity of the target. The shape of the landmark 10 may be any shape as long as it can be distinguished from each other on the CT image data.
[0051]
And the observation apparatus main body 6 performs the biopsy position confirmation process according to the flowchart of biopsy position confirmation shown in FIG.
Here, the confirmation process of the biopsy position is performed by always detecting the positional relationship between the two landmarks 10 on the observation image (endoscopic image), so that the deviation amount of the distal end portion of the insertion portion of the endoscope 2 is detected. Are sequentially detected and the composite image is updated. The rest is the same as that described in the first embodiment.
[0052]
First, the observation apparatus body 6 receives CT image data from the WS of the CT apparatus 5 via the CT image input unit 17 (step S11 ').
Next, the observation apparatus body 6 sets the target 31, two landmarks 10, and the insertion portion distal end portion of the endoscope 2 from the CT image data input from the CT image input unit 17 to the CT side target identification unit 18. (Step S12 ′).
[0053]
Next, the observation apparatus main body 6 calculates the positional relationship between the target 31, the two landmarks 10 identified by the CT-side object identification unit 18, and the distal end of the insertion unit of the endoscope 2 by the CT-side position calculation unit 19. (Step S13 ′).
Next, the observation apparatus body 6 detects the ID stored and held in the endoscope 2 in use by the endoscope model detection unit 12 (step S14 ′) and detects the ID by the endoscope model detection unit 12. Based on the ID, the endoscope information recording unit 13 outputs the optical characteristics of the endoscope 2 recorded in advance to the image correction unit 14.
[0054]
Next, the observation apparatus body 6 receives an observation image (endoscopic image) from the endoscope apparatus 4 (CCU3) through the endoscope image input unit 11 (step S15 ').
The observation apparatus body 6 includes an image correction unit 14 configured to display an observation image (endoscope image) input by the endoscope image input unit 11 based on the optical characteristics from the endoscope information recording unit 13. Optical characteristics (distortion) such as corners and distortion are corrected (step S16 ′).
[0055]
Next, the observation apparatus body 6 identifies the two landmarks 10 as targets from the observation image (endoscopic image) corrected by the image correction unit 14 by the endoscope-side target identification unit 15 (step S17 ′). Then, the positional relationship between the two landmarks 10 identified by the endoscope-side object identifying unit 15 is calculated by the endoscope-side position calculating unit 16 (step S18 ′).
[0056]
The observation apparatus main body 6 is calculated by the positional relationship between the target 31, the two landmarks 10, and the endoscope 2 of the CT image data calculated by the CT side position calculation unit 19 and the endoscope side position calculation unit 16. The position of the target 31 at the viewpoint from the distal end portion of the insertion portion of the endoscope 2 is calculated from the positional relationship between the two landmarks 10 of the observed image and synthesized on the observation image (endoscopic image) (step In step S19 ′, the composite image is output to the monitor 7. And the observation apparatus main body 6 repeats a process from said step S15 'until biopsy completion (step S40).
[0057]
As a result, the endoscope observation apparatus 1 according to the present modification is configured so that the observation apparatus body 6 always detects the positional relationship between the two landmarks 10 on the observation image (endoscope image). It is possible to sequentially detect the shift amount of the distal end portion of the insertion portion and update the composite image.
[0058]
(Second Embodiment)
FIGS. 12 to 21 relate to a second embodiment of the present invention, FIG. 12 is an overall configuration diagram showing an endoscope observation apparatus of the second embodiment of the present invention, and FIG. 13 is an internal view of FIG. FIG. 14 is a flowchart of biopsy position and orientation calculation in FIG. 13, FIG. 15 is a conceptual diagram showing volume matching between a CT volume and an ultrasonic volume, and FIG. FIG. 17 is a display example showing a MIP image as a CT image, FIG. 18 is a flowchart of the biopsy in FIG. 3, and FIG. 19 is a modified example. FIG. 20 is a flowchart of the biopsy position / orientation calculation executed by the endoscope observation apparatus in FIG. 19, and FIG. 21 is a raw view executed by the endoscope observation apparatus in FIG. It is an inspection flowchart.
[0059]
In the second embodiment, the position and orientation (position and inclination) of the endoscope 2 or the biopsy forceps 8 are obtained from ultrasonic three-dimensional image data obtained by imaging an ultrasonic tomogram during biopsy (biological examination). Is configured to calculate. Since other configurations are the same as those of the first embodiment, description thereof will be omitted, and the same components will be described with the same reference numerals.
[0060]
That is, as shown in FIG. 12, the endoscope observation apparatus 1B according to the second embodiment picks up an ultrasonic tomographic image of a subject from outside the body to obtain ultrasonic three-dimensional image (hereinafter referred to as ultrasonic image) data. And the position and orientation of the endoscope 2 or biopsy forceps 8 from the ultrasonic image data obtained by the extracorporeal ultrasonic device 50, and the coordinate system of CT image data obtained in advance. And an observation apparatus body 6B that performs processing for calculating the position and orientation of the endoscope 2 or the biopsy forceps 8 and synthesizing the position and orientation on the CT image.
[0061]
The endoscope observation apparatus 1B is connected to the navigation unit in the same manner as described in the first embodiment, and is configured to perform navigation of the insertion portion of the endoscope 2 to the vicinity of the target. Yes. The endoscope observation apparatus 1B performs endoscope observation / treatment (biopsy or treatment) in the vicinity of the target.
[0062]
At this time, as will be described later, the endoscope observation apparatus 1 </ b> B performs ultrasonic imaging of the vicinity of the target with the external ultrasonic apparatus 50. Then, the endoscope observation apparatus 1B extracts the position and orientation of the endoscope 2 or the biopsy forceps 8 from the ultrasonic image data obtained by the extracorporeal ultrasonic apparatus 50, and in the coordinate system of the CT image data obtained in advance. The position and orientation of the endoscope 2 or biopsy forceps 8 are calculated and synthesized on the CT image so that the biopsy position and orientation can be confirmed.
[0063]
Next, a detailed configuration of the observation apparatus body 6B will be described.
The observation apparatus main body 6B includes the endoscope image input unit 11, the endoscope model detection unit 12, the endoscope information recording unit 13, and the like described in the first embodiment. The image correction unit 14, the CT image input unit 17, the switching unit 21, the VBS image recording unit 22, the forceps identification unit 23, the image reference unit 25, and the light detection unit 26. The biopsy determination unit 27 is configured.
[0064]
Further, the observation apparatus main body 6B is connected to the extracorporeal ultrasonic apparatus 50 as a tomographic image data acquisition means, and an ultrasonic image input unit 51 for acquiring an ultrasonic tomographic image, and an input by the ultrasonic image input unit 51. An ultrasonic volume generation unit 52 for constructing a three-dimensional ultrasonic volume from the obtained ultrasonic image data, and image processing is performed on the ultrasonic volume constructed by the ultrasonic volume generation unit 52, and coordinates of the ultrasonic image data are obtained. A position / orientation extraction unit 53 that extracts a three-dimensional position / orientation of the endoscope 2 or the biopsy forceps 8 in the system, and three-dimensional data from the CT image data obtained in advance by the CT image input unit 17 up to the target 31. CT volume generation unit 54 for constructing a typical CT volume, the CT volume from the CT volume generation unit 54, and the ultrasonic volume generation unit 52 Based on the matrix calculation unit 55 that calculates a conversion matrix from an ultrasonic coordinate system to a CT coordinate system as a relationship with the ultrasonic volume, and the position and orientation based on the conversion matrix calculated by the matrix calculation unit 55 as a relative position specifying unit Position and orientation calculation for calculating the position and orientation of the endoscope 2 or biopsy forceps 8 in the coordinate system of CT image data obtained in advance from the three-dimensional position and orientation of the endoscope 2 or biopsy forceps 8 extracted by the extraction unit 53 Unit 56 and the CT image composition unit 57 for synthesizing the position and orientation of the endoscope 2 or biopsy forceps 8 in the coordinate system of the CT image data calculated by the position and orientation calculation unit 56 on the CT image and outputting them to the monitor 7 And is configured.
In the present embodiment, the forceps insertion length determination unit 24b determines the insertion length of the biopsy forceps 8 from the ultrasound image data input by the ultrasound image input unit 51.
[0065]
In the endoscope observation apparatus 1B configured as described above, the distal end portion of the insertion portion of the endoscope 2 is guided to the vicinity of the target by navigation by the navigation unit as described in the first embodiment. Then, the surgeon performs a biopsy (biological examination) according to the main biopsy flowchart shown in FIG.
[0066]
First, the operator operates the extracorporeal ultrasonic device 50 with the endoscope 2 inserted, and performs ultrasound imaging while performing the biopsy position / posture calculation flowchart shown in FIG. Accordingly, the biopsy position and orientation are confirmed (step S51). At this time, although not shown, the monitor 7 displays, for example, two images, that is, an observation image (endoscopic image) and CT image data obtained in advance in parallel on the display surface. While confirming this biopsy position and orientation, the surgeon performs a biopsy according to a biopsy flowchart shown in FIG. 18 described later by the observation apparatus body 6B (step S52), and the biopsy is completed.
[0067]
Next, a flowchart of biopsy position / posture calculation shown in FIG. 14 will be described.
The observation apparatus body 6B extracts the endoscope 2 or the biopsy forceps 8 from the ultrasonic image data obtained by the external ultrasonic apparatus 50, and calculates the position and orientation of the endoscope 2 or the biopsy forceps 8. A biopsy position / orientation calculation process is performed on a CT image obtained in advance.
[0068]
First, the CT image input unit 17 inputs CT image data from the WS of the CT apparatus 5 to the target 31 obtained in advance in the observation apparatus body 6B. Then, the observation apparatus body 6B generates a three-dimensional CT volume from the CT image data input from the CT image input unit 17 using the CT volume generation unit 54 (step S61).
[0069]
Next, in the observation apparatus body 6 </ b> B, ultrasonic image data from the external ultrasonic apparatus 50 is input by the ultrasonic image input unit 51. Then, the observation apparatus body 6B generates a three-dimensional ultrasonic volume from the ultrasonic image data input from the ultrasonic image input unit 51 using the ultrasonic volume generation unit 52 (step S62).
[0070]
Next, the observation apparatus body 6B performs image processing on the ultrasonic volume generated by the ultrasonic volume generation unit 52 by the position and orientation extraction unit 53, and the endoscope 2 or the biopsy forceps 8 in the coordinate system of the ultrasonic image data. Are extracted (step S63).
[0071]
Then, the observation apparatus body 6B performs volume matching between the ultrasonic volume generated by the ultrasonic volume generation unit 52 and the CT volume generated by the CT volume generation unit 54 as shown in FIG. Thus, a conversion matrix from the ultrasonic coordinate system to the CT coordinate system is calculated, and the relationship between the CT volume and the ultrasonic volume from the ultrasonic volume generation unit 52 is calculated (step S64).
[0072]
Here, the conversion matrix is a matrix for converting coordinates from the ultrasonic coordinate system to the CT coordinate system, and includes rotation, scale, and translation components.
The rotation and scale can be represented by a 3 × 3 matrix, but here, it is represented by a 4 × 4 matrix including translation.
[0073]
A matrix that translates the coordinate system by (x, y, z) is
[Formula 1]
Figure 0004334839
It is.
In addition, a matrix for multiplying the coordinate system by (x, y, z) in the X, Y, and Z directions is
[Formula 2]
Figure 0004334839
It is.
Also, the matrix that rotates the coordinate system around the x axis by a (radians) is
[Formula 3]
Figure 0004334839
It is.
[0074]
If the conversion matrix from the coordinate system of the ultrasonic image data to the coordinate system of the CT image data is M, the line-of-sight direction vector V (x, y, z,) of the endoscope 2 in the coordinate system of the ultrasonic image data. Is converted into a line-of-sight direction vector V ′ (x ′, y ′, z ′) in the coordinate system of CT image data.
V ′ = M × V (Formula 4)
Can be obtained.
Accordingly, the matrix calculation unit 55 can calculate the relationship between the CT volume and the ultrasonic volume from the ultrasonic volume generation unit 52.
[0075]
Next, the observation apparatus main body 6 </ b> B is based on the conversion matrix calculated by the matrix calculation unit 55, and the position / orientation calculation unit 56 from the three-dimensional position / orientation of the endoscope 2 or the biopsy forceps 8 extracted by the position / orientation extraction unit 53. The position / orientation of the endoscope 2 or the biopsy forceps 8 in the coordinate system of the CT image data obtained in advance is calculated (step S65).
[0076]
Next, the observation apparatus body 6B synthesizes the position and orientation of the endoscope 2 or the biopsy forceps 8 in the coordinate system of the CT image data calculated by the position and orientation calculation unit 56 with the CT image obtained in advance by the CT image synthesis unit 57. Then, this CT composite image is output to the monitor 7. The monitor 7 displays a CT composite image instead of the CT image displayed on the display surface (step S66).
[0077]
Here, in the CT composite image, the position and orientation of the endoscope 2 or the biopsy forceps 8 are displayed as X symbols 61 and → 62 as shown in FIG.
The CT composite image shown in FIG. 16 is a multi-section reconstruction MPR (Multi Planar Reconstrrution) image. Further, the CT synthesized image may be obtained by synthesizing the position and orientation of the endoscope 2 or the biopsy forceps 8 on a MIP (Maximum Intensity Projection or Minimum Intensity Projection) image as shown in FIG.
The operator can confirm the position and orientation of the endoscope 2 or the biopsy forceps 8 from the CT composite image displayed on the monitor 7.
[0078]
Next, biopsy will be described.
As described above, the biopsy forceps 8 is the same as that described in the first embodiment. Then, the surgeon performs a biopsy according to the biopsy flowchart shown in FIG. 18 by the observation apparatus body 6B.
[0079]
The observation apparatus body 6B receives an observation image (endoscopic image) from the endoscope apparatus 4 (CCU3) through the endoscope image input unit 11 (step S71). At this time, in the observation apparatus body 6B, the optical characteristic correction processing by the image correction unit 14 is performed on the observation image (endoscopic image) as described in the first embodiment. Yes.
Next, the observation device main body 6B identifies the biopsy forceps 8 by the forceps identification unit 23 from the observation image (endoscopic image) in the same manner as described in the first embodiment.
[0080]
The observation device body 6B determines the insertion length of the biopsy forceps 8 from the input ultrasonic image data by the forceps insertion length determination unit 24b based on the type of the biopsy forceps 8 identified by the forceps identification unit 23. (Step S72). The forceps insertion length determination unit 24b identifies the color or scale of the biopsy forceps 8 from the observation image (endoscopic image) in the same manner as described in the first embodiment, and biopsy forceps 8 The insertion length may be determined.
[0081]
Then, the observation apparatus body 6B displays the insertion length of the biopsy forceps 8 determined by the forceps insertion length determination unit 24 on the CT composite image (step S73).
Further, when the biopsy cup 8a of the biopsy forceps 8 approaches the target 31, the biopsy cup 8a is removed from the observation range of the endoscope 2, and the biopsy cup 8a becomes invisible from the observation image (endoscopic image). The surgeon depresses a switching button provided on the front panel of the observation apparatus main body 6B to switch the observation image to the VBS image and calculates the biopsy forceps in the same manner as described in the first embodiment. The VBS image updated according to the insertion length of 8 is displayed. Note that the observation apparatus body 6B switches from the VBS image to the observation image (endoscopic image) when the switching button is pressed again.
[0082]
Then, the observation device main body 6B detects the brightness (brightness) of the tip (biopsy cup 8a) of the biopsy forceps 8 in the same manner as described in the first embodiment, so that the biopsy forceps 8 It is determined whether the biopsy cup 8a has reached the target 31, and when it is determined that the target 31 has been reached, the result is output to the monitor 7 and superimposed on the VBS image.
[0083]
And the observation apparatus main body 6B repeats to said step S74 until the biopsy by an operator is complete | finished. Then, the surgeon operates the biopsy forceps 8 while referring to the VBS image and the CT composite image displayed on the display surface of the monitor 7, and the biopsy is completed.
[0084]
As a result, the endoscope observation apparatus 1B according to the second embodiment obtains the same effect as that of the first embodiment, and does not perform CT imaging during a biopsy (biological examination). Therefore, operability is improved.
[0085]
The endoscope observation apparatus may be configured using an ultrasonic probe that can be inserted into the treatment instrument insertion channel of the endoscope 2 instead of the extracorporeal ultrasonic apparatus 50 as shown in FIG.
As shown in FIG. 19, the endoscope observation apparatus 1C is inserted into a treatment instrument insertion channel of the endoscope 2, picks up an ultrasonic tomographic image of the subject from inside the body cavity, and obtains an ultrasonic three-dimensional image (hereinafter referred to as an ultrasonic tomographic image). , Ultrasonic image) The ultrasonic probe 70 for obtaining data, and the position and orientation of the endoscope 2 are extracted from the ultrasonic image data obtained by the ultrasonic probe 70, and the endoscope in the coordinate system of the CT image data obtained in advance An observation apparatus main body 6C that performs a process of calculating the position and orientation of the mirror 2 and combining it on the CT image is configured.
[0086]
The ultrasonic probe 70 continuously feeds the inside of the subject in the body axis direction while continuously rotating and irradiating and detecting ultrasonic waves, so that a helical continuous scan (helical scan: helical) is performed on the three-dimensional region of the subject. scan) to generate 3D ultrasonic image data from tomographic images of successive slices of the 3D region.
[0087]
The observation apparatus main body 6C includes the endoscope image input unit 11, the endoscope model detection unit 12, the endoscope information recording unit 13, and the like described in the first embodiment. The image correction unit 14, the CT image input unit 17, the switching unit 21, the VBS image recording unit 22, the forceps identification unit 23, the forceps insertion length determination unit 24, and the image reference unit 25, the light detection unit 26, and the biopsy determination unit 27.
The observation apparatus main body 6C includes the CT volume generation unit 54, the ultrasonic volume generation unit 52, and the matrix calculation unit 55 similar to those described in the first embodiment. Composed.
[0088]
Further, the observation apparatus main body 6C is connected to the ultrasonic probe 70, and performs image processing on the ultrasonic volume constructed by the ultrasonic image input unit 51c for acquiring an ultrasonic tomographic image and the ultrasonic volume generation unit 52. The position and orientation extraction unit 53 c extracts the three-dimensional position and orientation of the endoscope 2 in the coordinate system of the ultrasonic image data, and the position and orientation extraction unit 53 c based on the conversion matrix calculated by the matrix calculation unit 55. A position / orientation calculation unit 56c for calculating the position / orientation of the endoscope 2 in the coordinate system of CT image data obtained in advance from the extracted three-dimensional position / orientation of the endoscope 2, and a CT calculated by the position / orientation calculation unit 56c. A CT image synthesizing unit 57 c that synthesizes the position and orientation of the endoscope 2 in the coordinate system of the image data on the CT image and outputs it to the monitor 7 is configured.
[0089]
In the endoscope observation apparatus 1C configured as described above, the distal end portion of the insertion portion of the endoscope 2 is guided to the vicinity of the target by navigation by the navigation unit as described in the first embodiment. The endoscope observation apparatus 1C was obtained with the ultrasonic probe 70 in accordance with the biopsy position / posture calculation flowchart shown in FIG. 20 with the ultrasonic probe 70 inserted into the treatment instrument insertion channel of the endoscope 2. A biopsy position / orientation calculation process is performed in which the endoscope 2 is extracted from the ultrasound image data, the position / orientation of the endoscope 2 is calculated and synthesized on a CT image obtained in advance.
[0090]
First, in the observation apparatus body 6C, CT image data from the WS of the CT apparatus 5 to the target 31 obtained in advance is input by the CT image input unit 17 in the same manner as described in the second embodiment. A three-dimensional CT volume is generated from the CT image data thus obtained by the CT volume generation unit 54 (step S61 ′).
[0091]
Next, the observation apparatus body 6C sets a scan range input in advance by an input device (not shown) for the ultrasonic probe 70 (step S67).
The observation apparatus main body 6C receives the ultrasonic image data from the ultrasonic probe 70 by the ultrasonic image input unit 51c, and generates a three-dimensional ultrasonic volume by the ultrasonic volume generation unit 52 (step S62 ′). ).
[0092]
Next, in the same manner as described in the second embodiment, the observation apparatus main body 6C performs image processing on the ultrasonic volume generated by the ultrasonic volume generation unit 52 by the position / orientation extraction unit 53c, and generates an ultrasonic image. The three-dimensional position and orientation of the endoscope 2 in the data coordinate system are extracted (step S63 ').
[0093]
Then, the observation apparatus main body 6C uses the ultrasonic volume generated by the ultrasonic volume generation unit 52 and the CT volume generated by the CT volume generation unit 54 in the same manner as described in the second embodiment. The matrix calculation unit 55 performs volume matching to calculate a conversion matrix from the ultrasonic coordinate system to the CT coordinate system (step S64 ′).
[0094]
Next, the observation apparatus main body 6C uses the CT obtained in advance by the position / orientation calculation unit 56c from the three-dimensional position / orientation of the endoscope 2 extracted by the position / orientation extraction unit 53c based on the conversion matrix calculated by the matrix calculation unit 55. The position and orientation of the endoscope 2 in the coordinate system of the image data are calculated (step S65 ′).
[0095]
Next, the observation apparatus main body 6C synthesizes the position and orientation of the endoscope 2 in the coordinate system of the CT image data calculated by the position and orientation calculation unit 56c with the CT image obtained in advance by the CT image synthesis unit 57c and performs this CT synthesis. The image is output to the monitor 7. The monitor 7 displays a CT composite image instead of the CT image displayed on the display surface (step S66 ').
The surgeon can confirm the position and orientation of the endoscope 2 from the CT composite image displayed on the monitor 7.
[0096]
Next, biopsy will be described.
The operator pulls out the ultrasonic probe 70 from the endoscope 2 and inserts the biopsy forceps 8 instead. Here, the biopsy forceps 8 is the same as described in the first embodiment as described above. Then, the surgeon performs biopsy according to the biopsy flowchart shown in FIG.
The observation apparatus body 6C receives an observation image (endoscopic image) from the endoscope apparatus 4 (CCU3) through the endoscope image input unit 11 (step S71 ').
[0097]
Next, the observation device main body 6C identifies the biopsy forceps 8 with the forceps identification unit 23 from the observation image (endoscopic image) in the same manner as described in the first embodiment (step S32 ′). The forceps insertion length determination unit 24 identifies the color or scale of the biopsy forceps 8 from the input observation image (endoscopic image) (step S33 ′), and based on the identified result, the biopsy forceps 8 The insertion length is determined (step S34 ′). ◎
Then, the observation apparatus body 6C displays the insertion length of the biopsy forceps 8 determined by the forceps insertion length determination unit 24 on the CT composite image (step S73 ').
[0098]
Further, when the biopsy cup 8a of the biopsy forceps 8 approaches the target 31, the biopsy cup 8a is detached from the observation range of the endoscope 2, and the biopsy cup 8a becomes invisible from the observation image (endoscopic image). The surgeon depresses a switching button provided on the front panel of the observation apparatus main body 6C to switch the observation image to the VBS image and calculates the biopsy forceps as described in the first embodiment. The VBS image updated according to the insertion length of 8 is displayed.
[0099]
Then, the observation device main body 6C detects the brightness (brightness) of the tip (biopsy cup 8a) of the biopsy forceps 8 in the same manner as described in the first embodiment, so that the biopsy forceps 8 It is determined whether the biopsy cup 8a has reached the target 31, and when it is determined that the target 31 has been reached, the result is output to the monitor 7 and superimposed on the VBS image.
[0100]
Then, the observation apparatus body 6C repeats the process up to step S74 'until the biopsy by the operator is completed (step S74'). Then, the surgeon operates the biopsy forceps 8 while referring to the VBS image and the CT composite image displayed on the display surface of the monitor 7, and the biopsy is completed.
[0101]
As a result, the endoscope observation apparatus 1C according to the present modified example obtains the same effect as that of the second embodiment, and also inserts the ultrasonic probe 70 into the endoscope 2 so that the endoscope observation apparatus 1C Thus, it is possible to obtain a more detailed position and orientation of the endoscope 2.
It should be noted that the present invention is not limited to the embodiments described above, and various modifications can be made without departing from the spirit of the invention.
[0102]
[Appendix]
(Supplementary Item 1) An endoscope observation apparatus that has an endoscope that reaches the vicinity of a lesion and observes the vicinity of the lesion, and obtains an observation image of the vicinity of the lesion obtained by the endoscope.
Index placement means for placing an index in the vicinity of the lesion using the endoscope;
Tomographic image data acquisition means for obtaining tomographic image data of an area including the vicinity of the lesion and the endoscope in a state where the index is arranged by the index arrangement means;
Based on the tomographic image data obtained by the tomographic image data acquisition means, relative position specifying means for specifying the relative position between the lesioned part and the endoscope;
An endoscope observation apparatus comprising:
[0103]
(Additional Item 2) An endoscope observation apparatus that has an endoscope that reaches the vicinity of a lesion and observes the vicinity of the lesion, and obtains an observation image of the vicinity of the lesion obtained by the endoscope.
Index placement means for placing an index in the vicinity of the lesion using the endoscope;
A tomographic image data acquisition unit that acquires tomographic image data of a region including the vicinity of the lesion, the endoscope, and the index in a state where the index is disposed by the index placement unit;
Based on the tomographic image data obtained by the tomographic image data acquisition means, relative position specifying means for specifying the relative position between the lesioned part and the endoscope;
An endoscope observation apparatus comprising:
[0104]
(Additional Item 3) The relative position specifying unit specifies a relative position between the lesion site and the endoscope based on a center point of the lesion part obtained from the tomographic image data and a vector of the endoscope. The endoscope observation apparatus according to Additional Item 1, wherein the endoscope observation apparatus is characterized in that
[0105]
(Additional Item 4) The relative position specifying means includes the lesion at a center point of the lesion part obtained from the tomographic image data, a center point of a distal end part of the insertion part of the endoscope, and a center point of the index The endoscope observation apparatus according to Additional Item 2, wherein a relative position between a part and the endoscope is specified.
[0106]
(Additional Item 5) In an endoscope observation apparatus that has an endoscope that reaches the vicinity of a lesion and observes the vicinity of the lesion, and obtains an observation image of the vicinity of the lesion obtained by the endoscope.
First three-dimensional data acquisition means for acquiring first three-dimensional data obtained by laminating tomographic image data in the vicinity of the lesion;
Second 3D data acquisition means for acquiring ultrasonic tomographic image data in the vicinity of the lesion and acquiring second 3D data;
First correlation means for obtaining a correlation between the first three-dimensional data obtained by the first three-dimensional data acquisition means and the second three-dimensional data obtained by the second three-dimensional data acquisition means; ,
Second correlation means for obtaining a correlation between the second three-dimensional data obtained by the second three-dimensional data acquisition means and the endoscope;
Association means for associating the position of the endoscope with the first three-dimensional data based on the correlation obtained by the first correlation means and the second correlation means;
An endoscope observation apparatus comprising:
[0107]
【The invention's effect】
As described above, according to the present invention, it is possible to realize an endoscope observation apparatus capable of improving the biopsy rate (biological examination diagnosis rate) in the peripheral part of the body cavity duct.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram showing an endoscope observation apparatus according to a first embodiment of the present invention.
FIG. 2 is a flowchart of a main biopsy performed by the endoscope observation apparatus in FIG.
[Fig. 3] Example of monitor display when a landmark is attached to the mucous membrane near the target of the bronchi
FIG. 4 is a flowchart of biopsy position confirmation in FIG.
FIG. 5 is a monitor display example of a composite image in which a target is combined with an observation image (endoscope image).
6 is a flowchart for calculating the positional relationship of the target in FIG. 3, and FIG. 7 is a schematic diagram showing a biopsy forceps in which a scale is formed.
FIG. 7 is a schematic view showing a biopsy forceps in which a scale is formed.
FIG. 8 is a schematic diagram showing biopsy forceps colored according to length.
FIG. 9 is a biopsy flowchart of FIG.
FIG. 10: Monitor display when two or more landmarks with different shapes are pasted near the target
FIG. 11 is a flowchart of confirmation of a biopsy position according to a modified example.
FIG. 12 is an overall configuration diagram showing an endoscope observation apparatus according to a second embodiment of the present invention.
FIG. 13 is a flowchart of a main biopsy performed by the endoscope observation apparatus in FIG.
FIG. 14 is a flowchart of biopsy position / posture calculation in FIG. 13;
FIG. 15 is a conceptual diagram showing volume matching between a CT volume and an ultrasonic volume.
FIG. 16 is a display example of a CT composite image in which the position and orientation of an endoscope or biopsy forceps are combined
FIG. 17 is a display example showing a MIP image as a CT image.
FIG. 18 is a flowchart of the biopsy in FIG.
FIG. 19 is an overall configuration diagram showing an endoscope observation apparatus according to a modification.
FIG. 20 is a flowchart of biopsy position / orientation calculation executed by the endoscope observation apparatus in FIG. 19;
FIG. 21 is a flowchart of a biopsy performed by the endoscope observation apparatus in FIG.
[Explanation of symbols]
1. Endoscope observation device
2. Endoscope
3 ... CCU
4. Endoscope device
5 ... CT equipment
6 ... Main body of observation device
7 ... Monitor
8 ... Biopsy forceps (index placement means)
10 ... Landmark
11 ... Endoscopic image input unit
12 ... Endoscope model detector
13. Endoscope information recording unit
14: Image correction unit
15 ... Endoscope-side object identification unit
16: Endoscope side position calculation unit
17 ... CT image input unit (tomographic image data acquisition means)
18 ... CT side object identification part
19 ... CT side position calculation unit (relative position specifying means)
20: Image composition unit
21 ... switching part
22 ... VBS image recording unit
23 ... Forceps identification part
24 ... Forceps insertion length determination unit
25 ... Image reference part
26. Photodetector
27 ... Biopsy determination unit
31 ... Target
41 ... Optical fiber

Claims (3)

病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、
前記内視鏡を用いて前記病変近傍に指標を配置する指標配置手段と、
前記指標配置手段により前記指標を配置した状態で、前記病変近傍と前記内視鏡と前記指標とを含む領域の断層画像データを取得する断層画像データ取得手段と、
前記断層画像データ取得手段で得た断層画像データから得た、前記病変の重心位置情報および前記指標の重心位置情報と、前記内視鏡の視線方向情報とに基づき、前記病変近傍に達した前記内視鏡の先端部の視点からみた場合の病変位置を特定する相対位置特定手段と、
を具備したことを特徴とする内視鏡観測装置。
In an endoscope observation apparatus that has an endoscope that reaches the vicinity of the lesion and observes the vicinity of the lesion, and obtains an observation image of the vicinity of the lesion obtained by the endoscope,
Index placement means for placing an index in the vicinity of the lesion using the endoscope;
A tomographic image data acquisition unit that acquires tomographic image data of a region including the vicinity of the lesion, the endoscope, and the index in a state where the index is disposed by the index placement unit;
Based on the centroid position information of the lesion and the centroid position information of the index obtained from the tomographic image data obtained by the tomographic image data acquisition means, and the gaze direction information of the endoscope, the vicinity of the lesion is reached. A relative position specifying means for specifying a lesion position when viewed from the viewpoint of the distal end of the endoscope;
An endoscope observation apparatus comprising:
病変近傍まで達してこの病変近傍を観察する内視鏡を有し、この内視鏡で得た病変近傍の観察画像を得る内視鏡観測装置において、
前記内視鏡を用いて前記病変近傍に指標を配置する指標配置手段と、
前記指標配置手段により前記指標を配置した状態で、前記病変近傍と前記内視鏡と前記指標とを含む領域の断層画像データを取得する断層画像データ取得手段と、
前記断層画像データ取得手段で得た断層画像データに基づき、前記病変近傍に達した前記内視鏡の先端部からみた場合の病変位置を特定する相対位置特定手段と、
を具備し
前記相対位置特定手段は、前記断層画像データから得た前記病変の重心と、前記内視鏡の先端部の重心と、前記指標の重心とに基づき、前記病変位置を特定する
ことを特徴とする内視鏡観測装置。
In an endoscope observation apparatus that has an endoscope that reaches the vicinity of the lesion and observes the vicinity of the lesion, and obtains an observation image of the vicinity of the lesion obtained by the endoscope,
Index placement means for placing an index in the vicinity of the lesion using the endoscope;
A tomographic image data acquisition unit that acquires tomographic image data of a region including the vicinity of the lesion, the endoscope, and the index in a state where the index is disposed by the index placement unit;
Based on the tomographic image data obtained by the tomographic image data acquisition means, a relative position specifying means for specifying a lesion position when viewed from the distal end portion of the endoscope that has reached the vicinity of the lesion;
Equipped with,
The relative position specifying means specifies the lesion position based on the center of gravity of the lesion obtained from the tomographic image data, the center of gravity of the tip of the endoscope, and the center of gravity of the index. Endoscope observation device.
前記観察画像と、前記病変位置とを合成して合成画像を生成する合成手段をさらに有することを特徴とする請求項1または2に記載の内視鏡観測装置。 The endoscope observation apparatus according to claim 1, further comprising a combining unit that generates a combined image by combining the observation image and the lesion position .
JP2002267193A 2002-09-12 2002-09-12 Endoscope observation device Expired - Fee Related JP4334839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002267193A JP4334839B2 (en) 2002-09-12 2002-09-12 Endoscope observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002267193A JP4334839B2 (en) 2002-09-12 2002-09-12 Endoscope observation device

Publications (3)

Publication Number Publication Date
JP2004097696A JP2004097696A (en) 2004-04-02
JP2004097696A5 JP2004097696A5 (en) 2005-09-29
JP4334839B2 true JP4334839B2 (en) 2009-09-30

Family

ID=32265787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002267193A Expired - Fee Related JP4334839B2 (en) 2002-09-12 2002-09-12 Endoscope observation device

Country Status (1)

Country Link
JP (1) JP4334839B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230906A (en) * 2005-02-28 2006-09-07 Toshiba Corp Medical diagnostic system and apparatus, and endoscope
JP5105981B2 (en) * 2007-07-18 2012-12-26 株式会社東芝 MEDICAL IMAGE PROCESSING DISPLAY DEVICE AND PROCESSING PROGRAM THEREOF
JP5188879B2 (en) * 2008-05-23 2013-04-24 オリンパスメディカルシステムズ株式会社 Medical equipment
JP5372407B2 (en) * 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 Medical equipment
JP5372406B2 (en) * 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 Medical equipment
JP5358368B2 (en) * 2009-09-18 2013-12-04 富士フイルム株式会社 Endoscope system
WO2011062035A1 (en) * 2009-11-17 2011-05-26 オリンパスメディカルシステムズ株式会社 Biopsy support system
JP5535725B2 (en) * 2010-03-31 2014-07-02 富士フイルム株式会社 Endoscope observation support system, endoscope observation support device, operation method thereof, and program
WO2012108085A1 (en) * 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 Medical device
JP5854399B2 (en) * 2011-11-21 2016-02-09 オリンパス株式会社 Medical system
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
CN109069009B (en) * 2016-03-10 2022-09-23 博迪维仁医疗有限公司 Method and system for using multi-view pose estimation
JP2018134197A (en) * 2017-02-21 2018-08-30 株式会社日立製作所 Medical procedure navigation system and method
JP6844842B2 (en) * 2017-03-08 2021-03-17 学校法人 芝浦工業大学 Medical forceps and medical forceps system
CN109419482B (en) * 2017-08-21 2021-05-25 上银科技股份有限公司 Medical instrument with control module and endoscope control system applying same
WO2022202400A1 (en) * 2021-03-22 2022-09-29 富士フイルム株式会社 Image processing device, image processing method, and program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08262487A (en) * 1995-03-20 1996-10-11 Fujitsu Ltd Liquid crystal display device and its production
JP3707830B2 (en) * 1995-07-04 2005-10-19 株式会社東芝 Image display device for surgical support
JPH0984746A (en) * 1995-07-19 1997-03-31 Olympus Optical Co Ltd Magnetic resonance observation system
JPH09122098A (en) * 1995-10-31 1997-05-13 Toshiba Corp Movement information detector for tip part of endoscope probe
JPH09140665A (en) * 1995-11-29 1997-06-03 Toshiba Corp Picture image diagnostic apparatus for medical use
CA2246287C (en) * 1996-02-15 2006-10-24 Biosense, Inc. Medical procedures and apparatus using intrabody probes
JP3683977B2 (en) * 1996-03-22 2005-08-17 株式会社東芝 Medical diagnostic imaging equipment
JP3053389B1 (en) * 1998-12-03 2000-06-19 三菱電機株式会社 Moving object tracking irradiation device
JP2000135215A (en) * 1998-10-30 2000-05-16 Ge Yokogawa Medical Systems Ltd Conduit guiding method and device thereof and radiation tomographic equipment
JP3850217B2 (en) * 2000-12-27 2006-11-29 オリンパス株式会社 Endoscope position detector for bronchi

Also Published As

Publication number Publication date
JP2004097696A (en) 2004-04-02

Similar Documents

Publication Publication Date Title
JP5676058B1 (en) Endoscope system and method for operating endoscope system
US10765308B2 (en) Method and apparatus for tracking in a medical procedure
US9554729B2 (en) Catheterscope 3D guidance and interface system
JP4334839B2 (en) Endoscope observation device
JP5580637B2 (en) Image processing apparatus, operation method of endoscope apparatus, and program
JP5291955B2 (en) Endoscopy system
JP4733243B2 (en) Biopsy support system
US7951070B2 (en) Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure
JP5771757B2 (en) Endoscope system and method for operating endoscope system
JP5486432B2 (en) Image processing apparatus, operating method thereof, and program
WO2017159335A1 (en) Medical image processing device, medical image processing method, and program
JP2006230906A (en) Medical diagnostic system and apparatus, and endoscope
US20170347989A1 (en) Medical apparatus, medical-image generating method, and recording medium on which medical-image generating program is recorded
JP6270026B2 (en) Endoscopic observation support device
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP2006218239A (en) Technique support system
US20230233196A1 (en) Living tissue sampling method and biopsy support system
JP2023166228A (en) Medical support device, medical support method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090624

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4334839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees