JP2005021353A - Surgery supporting apparatus - Google Patents

Surgery supporting apparatus Download PDF

Info

Publication number
JP2005021353A
JP2005021353A JP2003189783A JP2003189783A JP2005021353A JP 2005021353 A JP2005021353 A JP 2005021353A JP 2003189783 A JP2003189783 A JP 2003189783A JP 2003189783 A JP2003189783 A JP 2003189783A JP 2005021353 A JP2005021353 A JP 2005021353A
Authority
JP
Japan
Prior art keywords
image
treatment instrument
endoscope
virtual
inclination angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003189783A
Other languages
Japanese (ja)
Other versions
JP4365630B2 (en
Inventor
Masaya Fujita
征哉 藤田
Shoichi Gotanda
正一 五反田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003189783A priority Critical patent/JP4365630B2/en
Publication of JP2005021353A publication Critical patent/JP2005021353A/en
Application granted granted Critical
Publication of JP4365630B2 publication Critical patent/JP4365630B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Abstract

<P>PROBLEM TO BE SOLVED: To support a surgery by simply providing a virtual image corresponding to a live endoscopy image on a real time basis and recognizing an approach situation of a treatment tool. <P>SOLUTION: A VE (Virtual Endoscopy) image creation device 3 is provided with a recording part 31 storing CT image DB; a recording part 32 storing treatment tool image DB; a VE image construction part 35 constructing the VE image based on data and the CT image from an insertion amount detecting part 21 and a tilt angle sensor 22; a treatment tool image construction part 36 constructing the treatment tool image based on the data and treatment tool shape image from an insertion amount detecting part 23 and a tilt angle sensor 24; and an image composition part 37 creating a composite image formed by superimposing the treatment tool image on the VE image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像を用いて手術を支援する手術支援装置に関する。
【0002】
【従来の技術】
近年、画像による診断が広く行われるようになっており、例えばX線CT(Computed Tomography)装置等により被検体の断層像を撮像することにより被検体内の3次元的なバーチャル画像データを得て、該バーチャル画像データを用いて患部の診断が行われるようになってきた。
【0003】
CT装置では、X線照射・検出を連続的に回転させつつ被検体を体軸方向に連続送りすることにより、被検体の3次元領域について螺旋状の連続スキャン(ヘリカルスキャン:helical scan)を行い、3次元領域の連続するスライスの断層像から、3次元なバーチャル画像を作成することが行われる。
【0004】
そのような3次元画像の1つに、肺の気管支の3次元像がある。気管支の3次元像は、例えば肺癌等が疑われる異常部の位置を3次元的に把握するのに利用される。そして、異常部を生検によって確認するために、気管支内視鏡を挿入して先端部から生検針や生検鉗子等を出して組織のサンプル(sample)を採取することが行われる。
【0005】
気管支のような多段階の分岐を有する体内の管路では、異常部の所在が分岐の末梢に近いとき、内視鏡の先端を短時間で正しく目的部位に到達させることが難しいために、例えば特開2000−135215号公報等では、被検体の3次元領域の画像データに基づいて前記被検体内の管路の3次元像を作成し、前記3次元像上で前記管路に沿って目的点までの経路を求め、前記経路に沿った前記管路の仮想的な内視像を前記画像データに基づいて作成し、前記仮想的な内視像を表示することで、気管支内視鏡を目的部位にナビゲーションする装置が提案されている。
【0006】
ところで、腹部領域の体内の臓器を被検体とする診断においては、従来より、上記同様に主に腹部領域内の被検体の3次元的なバーチャル画像を作成し、これを表示しながら診断するための画像解析ソフトが実用化されている。
【0007】
この種の画像解析ソフトを用いた画像システムは、医師が術前に予め患者の腹部領域内等の被検体の病変部の変化をそのバーチャル画像を見ながら把握するための診断に用いられており、通常、デスク上で行われているが一般的である。
【0008】
【特許文献1】
特開2000−135215号公報
【0009】
【発明が解決しようとする課題】
従来より、腹部領域の体内の被検体に対する手術を行う場合にも、体内の被検体の異常部の情報を、必要に応じて術者に対して迅速に提供することが望まれている。
【0010】
しかしながら、上述した画像解析ソフトを用いた画像システムは、あくまでも術前のCT画像からバーチャル画像を構築するため、術中の処置具のアプローチ状況は表示されない。
【0011】
本発明は、上記事情に鑑みてなされたものであり、簡単でかつリアルタイムに、ライブの内視鏡画像に対応し、処置具のアプローチ状況が認識可能な仮想画像を提供することで手術を支援することのできる手術支援装置を提供することを目的としている。
【0012】
【課題を解決するための手段】
本発明の手術支援装置は、視野方向を特定可能な内視鏡及び処置具を体腔内に刺入し該内視鏡により撮像された内視鏡画像による観察下で前記処置具により患部の処置が行われる手術を支援する手術支援装置において、前記体腔内の複数のCT画像データを記憶するCT画像記憶手段と、前記処置具の形状画像データを記憶する処置具形状画像記憶手段と、前記内視鏡の前記体腔内への挿入位置を入力する挿入位置入力手段と、前記内視鏡の挿入量を検出する挿入量検出手段と、前記内視鏡の挿入傾斜角を検出する挿入傾斜角検出手段と、前記挿入位置、前記挿入量及び前記挿入傾斜角に基づき、前記複数のCT画像データより前記内視鏡画像とリアルタイムに同期した仮想内視鏡像を構築する仮想内視鏡画像構築手段と、前記処置具の前記体腔内への挿入位置を入力する処置具挿入位置入力手段と、前記処置具の挿入量を検出する処置具挿入量検出手段と、前記処置具の挿入傾斜角を検出する処置具挿入傾斜角検出手段と、前記処置具挿入位置、前記処置具挿入量及び前記処置具挿入傾斜角に基づき、前記複数の処置具形状画像より前記内視鏡画像とリアルタイムに同期した仮想処置具像を構築する仮想処置具画像構築手段と、前記仮想内視鏡像と前記仮想処置具像を合成し合成画像を生成する画像合成手段とを備えて構成される。
【0013】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態について述べる。
【0014】
図1ないし図14は本発明の第1の実施の形態に係わり、図1は手術支援装置の硬性を示す構成図、図2は図1の硬性鏡の使用状態を示す図、図3は図2の硬性鏡の構成を示す図、図4は図2の硬性鏡側のトラカールの要部の構成を示す図、図5は図2の処置具の構成を示す図、図6は図2の処置具側のトラカールの要部の構成を示す図、図7は図1の手術支援装置の処理の流れを示す第1のフローチャート、図8は図1の手術支援装置の処理の流れを示す第2のフローチャート、図9は図7及び図8の処理で構築・生成された合成画像を表示する合成画像表示画面を示す図、図10は図1の内視鏡画像表示モニタに表示される内視鏡画像の第1の例を示す図、図11は図10の内視鏡画像に対応して表示される合成画像表示画面を示す図、図12は図1の内視鏡画像表示モニタに表示される内視鏡画像の第2の例を示す図、図13は図12の内視鏡画像に対応して表示される合成画像表示画面を示す図、図14は図1のVE画像表示モニタに表示される合成画像表示画面の変形例を示す図である。
【0015】
図1に示すように、本実施の形態の手術支援装置1は、硬性鏡2、VE画像生成装置3、システムコントローラ4、CCU5、光源装置6、気腹器7、電気メス8,超音波処置装置9、VTR10等を手術室に配置して構成される。なお、電気メス8及び気腹器7には処置具8aが接続されている。
【0016】
硬性鏡2の撮像部11で撮像された撮像信号はCCU5に伝送され画像処理された後に画像を録画するVTR10及びシステムコントローラ4に出力される。
【0017】
システムコントローラ4は、CCU5、光源装置6、気腹器7、電気メス8、超音波処置装置9、VTR10の各装置と設定情報を送受する通信I/F部12と、各種プログラムを格納しているメモリ13と、CCU5からの画像信号を内視鏡画像表示モニタ14に表示させる表示I/F部15と、これら各部を制御するCPU16とから構成される。なお、CPU16には通信I/F部12を介してリモコン17が接続され、このリモコン17により各種データの入力が可能となっている。
【0018】
硬性鏡2には、後述するように、硬性鏡2の挿入量を検出する(内視鏡)挿入量検出部21と、硬性鏡2の挿入傾斜角を検出する(内視鏡)傾斜角センサ22とが設けられている。
【0019】
処置具8aは、体内に挿入するプローブ18を有し、該プローブ18には、後述するように、プローブ18の挿入量を検出する(処置具)挿入量検出部23と、プローブ18の挿入傾斜角を検出する(処置具)傾斜角センサ24とが設けられている。
【0020】
VE画像生成装置3は、予めCT装置(図示せず)により得られたCT画像に基づき硬性鏡2が撮像した内視鏡画像にリアルタイムで且つ視線方向が一致した仮想的な画像であるバーチャルエンドスコピー画像(VE画像)を生成すると共に、処置具の仮想画像を生成し、VE画像に処置具仮想画像を重畳させた合成画像を生成する装置である。
【0021】
具体的には、VE画像生成装置3は、複数のCT画像より構築されたCT画像DB(データベース)を格納している記録部31と、各種処置具の形状画像より構築された処置具画像DB(データベース)を格納している記録部32と、各種プログラムを格納しているメモリ33と、(内視鏡)挿入量検出部21、(内視鏡)傾斜角センサ22、(処置具)挿入量検出部23、(処置具)傾斜角センサ24及びシステムコントローラ4の通信I/F部12とデータの送受を行う通信I/F部34と、通信I/F部34により得られた(内視鏡)挿入量検出部21、(内視鏡)傾斜角センサ22からのデータ及びCT画像DBのCT画像に基づきVE画像を構築するVE画像構築部35と、通信I/F部34により得られた(処置具)挿入量検出部23、(処置具)傾斜角センサ24からのデータ及び処置具画像DBの処置具形状画像に基づき処置具画像を構築する処置具画像構築部36と、VE画像構築部34が構築したVE画像に処置具画像構築部36が構築した処置具画像を重畳した合成画像を生成する画像合成部37と、画像合成部37が生成した合成画像をVE画像表示モニタ38に表示させる表示I/F部39と、これら各部を制御するCPU40とから構成され、CPU40には各種データを入力するためのキーボード41及びマウス42が接続されている。
【0022】
硬性鏡2は、図2に示すように、トラカール43a,43bを介して処置具8aと共に患者100の体内に挿入される。
【0023】
硬性鏡2は、図3に示すように、挿入基端側にTVカメラ44aを備え、さらに挿入基端側の把持部45aには傾斜角センサ22が設けられている。この傾斜角センサ22はジャイロ等により硬性鏡2の挿入傾斜角を計測しVE画像生成装置3に出力する。
【0024】
また、図4に示すように、硬性鏡2の挿入部46aを患者100の体内へと導くトラカール43aの基端側には挿入量検出部21が設けられており、挿入量検出部21は、挿入部46aの外周面と接触し挿入部46の挿入に従って回転するローラ47aと、ローラ47aの回転量を検出し挿入部46の挿入量としてVE画像生成装置3に出力するロータリーエンコーダ48aとから構成される。
【0025】
同様に、処置具8aは、図5に示すように、プローブ18の挿入基端側の操作部45bに傾斜角センサ23が設けられている。この傾斜角センサ23はジャイロ等により処置具8aのプローブ18の挿入傾斜角を計測しVE画像生成装置3に出力する。
【0026】
また、図6に示すように、処置具8aのプローブ18の挿入部46bを患者100の体内へと導くトラカール43bの基端側には挿入量検出部24が設けられており、挿入量検出部24は、挿入部46bの外周面と接触し挿入部46の挿入に従って回転するローラ47bと、ローラ47bの回転量を検出し挿入部46の挿入量としてVE画像生成装置3に出力するロータリーエンコーダ48bとから構成される。
【0027】
このように構成された本実施の形態の作用について説明する。図7及び図8に示すように、ステップS1においてキーボード41を用いて硬性鏡3の患者39の体内への挿入位置である内視鏡挿入点の座標を入力する。この座標系はCT画像の座標系と一致している。
【0028】
ステップS2において、キーボード41を用いて患部が存在する位置である内視鏡注目点の座標を入力する。そして、ステップS3において内視鏡挿入点の座標データ及び内視鏡注目点の座標に基づきVE画像の視線方向を決定する。
【0029】
そして、硬性鏡2の挿入が開始されると、ステップS4において挿入量検出部21により硬性鏡2の挿入量を測定し、ステップS5において挿入量に基づきVE画像の表示倍率を決定する(距離に応じて臓器に近い場合は倍率を高く、遠い場合には倍率を低くする)。
【0030】
このように視線方向及び表示倍率が決定されると、ステップS6においてVE画像構築部35により視線方向及び表示倍率に基づきVE画像が生成される。このときのVE画像はライブの内視鏡画像と同様な臓器光学像の仮想画像となっている。
【0031】
次に、ステップS7においてキーボード41を用いて処置具8aの患者39の体内への挿入位置である処置具挿入点の座標を入力する。
【0032】
ステップS8において、キーボード41を用いて患部を処置する位置である処置具注目点の座標を入力する。そして、ステップS9において処置具挿入点の座標データ及び処置具注目点の座標に基づき処置具の挿入方向を決定する。
【0033】
そして、処置具8aの挿入が開始されると、ステップS10において挿入量検出部23により処置具8aの挿入量を測定し、ステップS11において挿入量に基づき処置具8aの挿入深さを決定し、ステップS12において処置具画像を生成し、ステップS13においてVE画像に処置具画像を重畳した合成画像を生成してVE画像表示モニタ38に表示させる。
【0034】
この合成画像を参照して術者がライブの内視鏡画像が合成画像と一致するように、硬性鏡2及び処置具8aの挿入状態を調整した後に、ステップS14においてキーボード41を用いてトラッキング(ライブの内視鏡画像への追従)の開始が指示されると、VE画像はライブの内視鏡画像と同様な臓器光学像の仮想画像から例えば臓器部分を消した血管配置仮想画像となる。
【0035】
そして、ステップS15において傾斜角センサ22により硬性鏡2の挿入傾斜角を計測し、ステップS16において挿入傾斜角に基づき硬性鏡2が撮像する内視鏡画像の視線方向を決定する。さらに、ステップS17において挿入量検出部21により硬性鏡2の挿入量を測定し、ステップS18において挿入量に基づきVE画像の表示倍率を決定する。
【0036】
このように視線方向及び表示倍率が決定されると、ステップS19においてVE画像構築部35により視線方向及び表示倍率に基づきVE画像が生成される。このときのVE画像は臓器部分を消した血管配置仮想画像となっている。
【0037】
次に、ステップS20において傾斜角センサ24により処置具8aの挿入傾斜角を計測し、ステップS21において挿入傾斜角に基づき処置具8aの挿入方向を決定する。さらに、ステップS22において挿入量検出部23により処置具8aの挿入量を測定し、ステップS23において挿入量に基づき処置具8aの挿入深さを決定し、ステップS24において処置具画像を生成し、ステップS25においてVE画像(血管配置仮想画像)に処置具画像を重畳した合成画像を生成してVE画像表示モニタ38に表示させる。
【0038】
次に、VE画像表示モニタ38に表示される合成画像表示画面について説明する。VE表示画面101は、図9に示すように、画像合成部37により生成された合成画像を表示する合成画像表示エリア102、VE画像に関連した複数の2次元CT画像を表示する2次元画像表示エリア103と、硬性鏡2の挿入点、処置具8aのの挿入点を表示する挿入点表示欄104等より構成される。
【0039】
例えば図10に示すようなライブの内視鏡画像14aが内視鏡画像表示モニタ14に表示される際は、VE表示画面101においては、このライブの内視鏡画像14aの視線方向と大きさ(倍率)一致したリアルタイムの、図11に示すような処置具形状画像109が重畳された例えば臓器部分を消した血管配置仮想画像102a(=合成画像)が合成画像表示エリア102に表示される。
【0040】
また、図10の状態から硬性鏡2を傾け、図12に示すようなライブの内視鏡画像14bが内視鏡画像表示モニタ14に表示されると、これに追従(トラッキング)してライブの内視鏡画像14bの視線方向と大きさ(倍率)一致したリアルタイムの、図13に示すような処置具形状画像109が重畳された例えば臓器部分を消した血管配置仮想画像102b(=合成画像)が合成画像表示エリア102に表示される。
【0041】
このように本実施の形態では、硬性鏡2及び処置具8aの挿入傾斜角、挿入量を計測し、これらの挿入傾斜角、挿入量の各データに基づき、ライブの内視鏡画像の視線方向と大きさ(倍率)一致したリアルタイムのVE画像に処置具形状画像109が重畳した合成画像を生成・表示するので、手技の際に必要な情報(例えば血管配置情報)をビジュアルで確認できると共に、処置具の患部へのアプローチを確認・サポートできるので、手技を安全且つ適切に支援することができる。
【0042】
なお、本実施の形態においては、キーボード41を用いることにより、図14に示すように、合成画像に患部の位置を示すマーカー151を重畳させることができる。
【0043】
図15ないし図19は本発明の第2の実施の形態に係わり、図15は手術支援装置の硬性を示す構成図、図16は図15の手術支援装置の作用を説明するフローチャート、図17は図16の処理を説明する第1の図、図18は図16の処理を説明する第2の図、図19は図16の処理を説明する第3の図である。
【0044】
第2の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。
【0045】
図15に示すように、本実施の形態では、VE画像生成装置3は、CPU40の制御により合成画像に対して気腹器7の気腹情報(腹腔圧データ)を展開させ、該気腹情報に基づき合成画像を修正・補正する気腹情報フィードバック部201を備えて構成される。その他の構成は第1の実施の形態と同じである。
【0046】
本実施の形態では、図16に示すように、第1の実施の形態で説明したステップS18の後に、ステップS101においてCPU40が気腹器7の気腹情報(腹腔圧データ)を入手し、ステップS102において気腹情報フィードバック部201がVE画像構築部35及び画像合成部37を制御し、気腹情報をフィードバックさせた合成画像を生成してからステップS20に進む。その他の作用は第1の実施の形態と同じである。
【0047】
この処理のより、図17ないし図19に示すように、腹腔圧に応じて体腔内が膨らんだ状態のVE画像による合成画像を表示することが可能となる。図17及び図18は腹腔圧が順次高まった際の合成画像表示画面を、また図19は腹腔圧が設定圧になった際の合成画像表示画面をそれぞれ示している。
【0048】
このように本実施の形態では、第1の実施の形態の効果に加え、気腹器による腹腔圧情報をフィードバックした合成画像とすることが出来るので、よりリアルな合成画像により手技を支援することが可能となる。
【0049】
図20ないし図22は本発明の第3の実施の形態に係わり、図20は手術支援装置の硬性を示す構成図、図21は図20の内視鏡画像表示モニタに表示される合成画像表示画面を示す図、図22は図20の手術支援装置の作用を説明するフローチャートである。
【0050】
第3の実施の形態は、第2の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。
【0051】
図20に示すように、本実施の形態では、VE画像生成装置3は、CPU40の制御により硬性鏡2の挿入量及び挿入傾斜角、処置具8aの挿入量及び挿入傾斜角、気腹器7の気腹情報を時系列に記録するログ記録部301と、CPU40の制御によりログ記録部301とが記録した硬性鏡2の挿入量及び挿入傾斜角、処置具8aの挿入量及び挿入傾斜角、気腹器7の気腹情報を時系列で読み出すログ再生部302を有しており、CPU40は硬性鏡2の挿入量及び挿入傾斜角、処置具8aの挿入量及び挿入傾斜角、気腹器7の気腹情報に基づきVE画像構築部35、処置具画像構築部36、画像合成部37及び気腹情報フィードバック部201を制御する。その他の構成は第2の実施の形態と同じである。
【0052】
ログ記録部301へのデータの記録開始及び記録停止は、図21に示すように、合成画像表示画面に設けられたスタート/ストップボタン311をマウスを用いてクリックすることで行われる。また、ログ再生部302からのデータの再生は、再生ボタン312をマウスを用いてクリックすることで行われる。
【0053】
本実施の形態では、図22に示すように、ステップS151においてスタート/ストップボタン311をマウスを用いてクリックすると、ステップS152においてログ記録部301への硬性鏡2の挿入量及び挿入傾斜角、処置具8aの挿入量及び挿入傾斜角、気腹器7の気腹情報の各情報の時系列記録が開始され、ステップS153においてスタート/ストップボタン311をマウスを用いて再度クリックすることで記録が停止する。
【0054】
そして、ステップS154において再生ボタン312をマウスを用いてクリックすると、ステップS155においてログ再生部302がログ記録部301に記録されている硬性鏡2の挿入量及び挿入傾斜角、処置具8aの挿入量及び挿入傾斜角、気腹器7の気腹情報の各情報の時系列記録を読み出しCPU40に出力する。
【0055】
そして、ステップS156においてCPU40がVE画像構築部35、処置具画像構築部36、画像合成部37及び気腹情報フィードバック部201を制御し、手技中の合成画像を再生する。
【0056】
このように本実施の形態では、第2の実施の形態の効果に加え、手技が終了した後においても容易に手技中の合成画像が再生できるので、手技の確認等を容易に行うことが可能となる。
【0057】
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
【0058】
【発明の効果】
以上説明したように本発明によれば、簡単でかつリアルタイムに、ライブの内視鏡画像に対応し、処置具のアプローチ状況が認識可能な仮想画像を提供することで手術を支援することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る手術支援装置の硬性を示す構成図
【図2】図1の硬性鏡の使用状態を示す図
【図3】図2の硬性鏡の構成を示す図
【図4】図2の硬性鏡側のトラカールの要部の構成を示す図
【図5】図2の処置具の構成を示す図
【図6】図2の処置具側のトラカールの要部の構成を示す図
【図7】図1の手術支援装置の処理の流れを示す第1のフローチャート
【図8】図1の手術支援装置の処理の流れを示す第2のフローチャート
【図9】図7及び図8の処理で構築・生成された合成画像を表示する合成画像表示画面を示す図
【図10】図1の内視鏡画像表示モニタに表示される内視鏡画像の第1の例を示す図
【図11】図10の内視鏡画像に対応して表示される合成画像表示画面を示す図
【図12】図1の内視鏡画像表示モニタに表示される内視鏡画像の第2の例を示す図
【図13】図12の内視鏡画像に対応して表示される合成画像表示画面を示す図
【図14】図1のVE画像表示モニタに表示される合成画像表示画面の変形例を示す図
【図15】本発明の第2の実施の形態に係る手術支援装置の硬性を示す構成図
【図16】図15の手術支援装置の作用を説明するフローチャート
【図17】図16の処理を説明する第1の図
【図18】図16の処理を説明する第2の図
【図19】図16の処理を説明する第3の図
【図20】本発明の第3の実施の形態に係る手術支援装置の硬性を示す構成図
【図21】図20の内視鏡画像表示モニタに表示される合成画像表示画面を示す図
【図22】図20の手術支援装置の作用を説明するフローチャート
【符号の説明】
1…手術支援装置
2…硬性鏡
3…VE画像生成装置
4…システムコントローラ
5…CCU
6…光源装置
7…気腹器
8…電気メス
9…超音波処置装置
10…VTR
11…撮像部
21…(内視鏡)挿入量検出部
22…(内視鏡)傾斜角センサ
23…(処置具)挿入量検出部
24…(処置具)傾斜角センサ
31…記録部(CT画像DB)
32…記録部(処置具画像DB)
33…メモリ
34…通信I/F部
35…VE画像構築部
36…処置具画像構築部
37…画像合成部
38…VE画像表示モニタ
39…表示I/F部
40…CPU
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a surgery support apparatus that supports surgery using an image.
[0002]
[Prior art]
In recent years, diagnosis based on images has been widely performed. For example, three-dimensional virtual image data in a subject is obtained by capturing a tomographic image of the subject using an X-ray CT (Computed Tomography) apparatus or the like. The diagnosis of an affected area has been performed using the virtual image data.
[0003]
In the CT apparatus, by continuously feeding the subject in the body axis direction while continuously rotating the X-ray irradiation / detection, a helical continuous scan (helical scan) is performed on the three-dimensional region of the subject. A three-dimensional virtual image is created from tomographic images of successive slices in a three-dimensional region.
[0004]
One such 3D image is a 3D image of the lung bronchi. The three-dimensional image of the bronchus is used to three-dimensionally grasp the position of an abnormal part suspected of lung cancer, for example. In order to confirm the abnormal portion by biopsy, a bronchoscope is inserted and a biopsy needle, biopsy forceps, or the like is taken out from the distal end portion and a tissue sample is taken.
[0005]
In a duct in the body having a multi-stage branch such as the bronchi, when the location of the abnormal part is close to the periphery of the branch, it is difficult to correctly reach the target site in a short time, for example, In Japanese Patent Application Laid-Open No. 2000-135215, etc., a three-dimensional image of a pipeline in the subject is created based on image data of a three-dimensional region of the subject, and a target along the pipeline is created on the three-dimensional image. By obtaining a path to a point, creating a virtual endoscopic image of the duct along the path based on the image data, and displaying the virtual endoscopic image, the bronchoscope An apparatus for navigating to a target site has been proposed.
[0006]
By the way, in diagnosis using an internal organ in the abdominal region as a subject, conventionally, in order to make a diagnosis while creating a three-dimensional virtual image of the subject mainly in the abdominal region and displaying the same, as described above. Image analysis software has been put to practical use.
[0007]
An image system using this kind of image analysis software is used for diagnosis by doctors to grasp changes in the lesion of a subject in the patient's abdominal region, etc. in advance while viewing the virtual image before surgery. It is common to be done on a desk, usually.
[0008]
[Patent Document 1]
Japanese Patent Laid-Open No. 2000-135215
[Problems to be solved by the invention]
Conventionally, even when performing an operation on a subject in the body of the abdominal region, it is desired to quickly provide information on an abnormal part of the subject in the body to the surgeon as needed.
[0010]
However, since the image system using the image analysis software described above constructs a virtual image from a preoperative CT image, the approach status of the treatment tool during the operation is not displayed.
[0011]
The present invention has been made in view of the above circumstances, and supports surgery by providing a virtual image that can easily and in real time correspond to a live endoscopic image and recognize the approach status of a treatment instrument. It is an object of the present invention to provide a surgical operation support device that can be used.
[0012]
[Means for Solving the Problems]
The surgical operation support apparatus according to the present invention treats an affected area with the treatment tool under observation by an endoscope image obtained by inserting an endoscope and a treatment tool capable of specifying the visual field direction into a body cavity and picked up by the endoscope. In the surgical operation support apparatus for supporting the surgery performed, a CT image storage means for storing a plurality of CT image data in the body cavity, a treatment instrument shape image storage means for storing the shape image data of the treatment instrument, An insertion position input means for inputting an insertion position of the endoscope into the body cavity, an insertion amount detection means for detecting the insertion amount of the endoscope, and an insertion inclination angle detection for detecting the insertion inclination angle of the endoscope And a virtual endoscopic image construction means for constructing a virtual endoscopic image synchronized with the endoscopic image in real time from the plurality of CT image data based on the insertion position, the insertion amount, and the insertion inclination angle. The treatment instrument A treatment instrument insertion position input means for inputting an insertion position into the cavity, a treatment instrument insertion amount detection means for detecting the insertion amount of the treatment instrument, and a treatment instrument insertion inclination angle detection for detecting the insertion inclination angle of the treatment instrument Based on the means, the treatment instrument insertion position, the treatment instrument insertion amount, and the treatment instrument insertion inclination angle, a virtual treatment tool image that is synchronized with the endoscope image in real time from the plurality of treatment instrument shape images is constructed. A treatment instrument image construction means, and an image composition means for synthesizing the virtual endoscopic image and the virtual treatment instrument image to generate a composite image are configured.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0014]
1 to 14 relate to the first embodiment of the present invention, FIG. 1 is a block diagram showing the rigidity of the surgical operation support device, FIG. 2 is a view showing the use state of the rigid endoscope of FIG. 1, and FIG. 2 is a diagram showing the configuration of the main part of the trocar on the rigid endoscope side in FIG. 2, FIG. 5 is a diagram showing the configuration of the treatment instrument in FIG. 2, and FIG. 6 is a diagram in FIG. FIG. 7 is a diagram illustrating a configuration of a main part of the trocar on the treatment instrument side, FIG. 7 is a first flowchart illustrating a process flow of the surgery support apparatus in FIG. 1, and FIG. 8 is a flowchart illustrating a process flow of the surgery support apparatus in FIG. FIG. 9 is a view showing a composite image display screen for displaying the composite image constructed and generated by the processing of FIGS. 7 and 8, and FIG. 10 is a view showing the internal image displayed on the endoscope image display monitor of FIG. The figure which shows the 1st example of an endoscopic image, FIG. 11 is a figure which shows the composite image display screen displayed corresponding to the endoscopic image of FIG. 12 is a diagram showing a second example of the endoscopic image displayed on the endoscopic image display monitor of FIG. 1, and FIG. 13 is a composite image display screen displayed corresponding to the endoscopic image of FIG. FIG. 14 is a diagram showing a modification of the composite image display screen displayed on the VE image display monitor of FIG.
[0015]
As shown in FIG. 1, the surgery support apparatus 1 according to the present embodiment includes a rigid endoscope 2, a VE image generation apparatus 3, a system controller 4, a CCU 5, a light source device 6, an insufflator 7, an electric knife 8, and an ultrasonic treatment. The apparatus 9, the VTR 10 and the like are arranged in the operating room. Note that a treatment instrument 8 a is connected to the electric knife 8 and the insufflator 7.
[0016]
The imaging signal imaged by the imaging unit 11 of the rigid endoscope 2 is transmitted to the CCU 5 and subjected to image processing, and then output to the VTR 10 and the system controller 4 that record the image.
[0017]
The system controller 4 stores a communication I / F unit 12 that transmits and receives setting information to and from each device of the CCU 5, the light source device 6, the insufflator 7, the electric knife 8, the ultrasonic treatment device 9, and the VTR 10, and stores various programs. A memory 13, a display I / F unit 15 that displays an image signal from the CCU 5 on the endoscope image display monitor 14, and a CPU 16 that controls these units. A remote controller 17 is connected to the CPU 16 via the communication I / F unit 12, and various data can be input by the remote controller 17.
[0018]
As will be described later, the rigid endoscope 2 includes an insertion amount detector 21 that detects the insertion amount of the rigid endoscope 2 (endoscope), and an inclination angle sensor that detects the insertion inclination angle of the rigid endoscope 2 (endoscope). 22 are provided.
[0019]
The treatment instrument 8a has a probe 18 to be inserted into the body. As will be described later, the treatment instrument 8a detects the insertion amount of the probe 18 (treatment instrument), and an insertion inclination of the probe 18. An inclination angle sensor 24 for detecting an angle (treatment tool) is provided.
[0020]
The VE image generation device 3 is a virtual end that is a virtual image in which the gaze direction coincides with an endoscopic image captured by the rigid endoscope 2 based on a CT image obtained in advance by a CT device (not shown). In addition to generating a scopy image (VE image), a virtual image of the treatment instrument is generated, and a composite image is generated by superimposing the treatment instrument virtual image on the VE image.
[0021]
Specifically, the VE image generation device 3 includes a recording unit 31 storing a CT image DB (database) constructed from a plurality of CT images, and a treatment instrument image DB constructed from shape images of various treatment instruments. Recording unit 32 storing (database), memory 33 storing various programs, (endoscope) insertion amount detection unit 21, (endoscope) tilt angle sensor 22, (treatment tool) insertion Obtained by the communication I / F unit 34 and the communication I / F unit 34 that transmit / receive data to / from the quantity detection unit 23, the (treatment instrument) inclination angle sensor 24, and the communication I / F unit 12 of the system controller 4. Endoscope) obtained by the communication I / F unit 34 and the VE image construction unit 35 that constructs a VE image based on the data from the insertion amount detection unit 21 and the (endoscope) tilt angle sensor 22 and the CT image of the CT image DB. (Treatment tool) insertion amount detection 23, (treatment tool) The treatment tool image construction unit 36 that constructs a treatment tool image based on the data from the tilt angle sensor 24 and the treatment tool shape image of the treatment tool image DB, and the VE image constructed by the VE image construction unit 34 An image composition unit 37 that generates a composite image in which the treatment instrument images constructed by the treatment instrument image construction unit 36 are superimposed, and a display I / F unit 39 that displays the composite image generated by the image composition unit 37 on the VE image display monitor 38. And a CPU 40 for controlling these components, and a keyboard 41 and a mouse 42 for inputting various data are connected to the CPU 40.
[0022]
As shown in FIG. 2, the rigid endoscope 2 is inserted into the body of the patient 100 together with the treatment tool 8a via the trocars 43a and 43b.
[0023]
As shown in FIG. 3, the rigid endoscope 2 includes a TV camera 44 a on the insertion base end side, and a tilt angle sensor 22 is provided on the grip portion 45 a on the insertion base end side. The tilt angle sensor 22 measures the insertion tilt angle of the rigid endoscope 2 with a gyro or the like and outputs the measured tilt angle to the VE image generation device 3.
[0024]
Also, as shown in FIG. 4, an insertion amount detection unit 21 is provided on the proximal end side of the trocar 43a that guides the insertion portion 46a of the rigid endoscope 2 into the body of the patient 100. A roller 47a that contacts the outer peripheral surface of the insertion portion 46a and rotates according to the insertion of the insertion portion 46, and a rotary encoder 48a that detects the amount of rotation of the roller 47a and outputs the rotation amount to the VE image generation device 3 as the insertion amount of the insertion portion 46. Is done.
[0025]
Similarly, as shown in FIG. 5, the treatment instrument 8 a is provided with an inclination angle sensor 23 in the operation portion 45 b on the insertion proximal end side of the probe 18. This inclination angle sensor 23 measures the insertion inclination angle of the probe 18 of the treatment instrument 8a by a gyro etc. and outputs it to the VE image generation device 3.
[0026]
As shown in FIG. 6, the insertion amount detection unit 24 is provided on the proximal end side of the trocar 43b that guides the insertion portion 46b of the probe 18 of the treatment instrument 8a into the body of the patient 100. 24 is a roller 47b that contacts the outer peripheral surface of the insertion portion 46b and rotates in accordance with the insertion of the insertion portion 46, and a rotary encoder 48b that detects the amount of rotation of the roller 47b and outputs it to the VE image generation device 3 as the insertion amount of the insertion portion 46. It consists of.
[0027]
The operation of the present embodiment configured as described above will be described. As shown in FIGS. 7 and 8, in step S1, the coordinates of the endoscope insertion point, which is the insertion position of the rigid endoscope 3 into the body of the patient 39, is input using the keyboard 41. This coordinate system coincides with the coordinate system of the CT image.
[0028]
In step S2, the coordinates of the endoscope attention point, which is the position where the affected area exists, are input using the keyboard 41. In step S3, the line-of-sight direction of the VE image is determined based on the coordinate data of the endoscope insertion point and the coordinates of the endoscope attention point.
[0029]
When the insertion of the rigid endoscope 2 is started, the insertion amount of the rigid endoscope 2 is measured by the insertion amount detection unit 21 in step S4, and the display magnification of the VE image is determined based on the insertion amount in step S5 (the distance is determined). Correspondingly, increase the magnification when it is close to the organ, and decrease the magnification when it is far away).
[0030]
When the line-of-sight direction and display magnification are determined in this way, a VE image is generated based on the line-of-sight direction and display magnification by the VE image construction unit 35 in step S6. The VE image at this time is a virtual image of an organ optical image similar to a live endoscopic image.
[0031]
Next, in step S7, the coordinates of the treatment instrument insertion point, which is the insertion position of the treatment instrument 8a into the body of the patient 39, is input using the keyboard 41.
[0032]
In step S8, the coordinates of the treatment tool attention point, which is the position for treating the affected area, are input using the keyboard 41. In step S9, the treatment tool insertion direction is determined based on the coordinate data of the treatment tool insertion point and the coordinates of the treatment tool attention point.
[0033]
When the insertion of the treatment instrument 8a is started, the insertion amount of the treatment instrument 8a is measured by the insertion amount detection unit 23 in step S10, and the insertion depth of the treatment instrument 8a is determined based on the insertion amount in step S11. In step S12, a treatment instrument image is generated, and in step S13, a composite image in which the treatment instrument image is superimposed on the VE image is generated and displayed on the VE image display monitor 38.
[0034]
After the surgeon adjusts the insertion state of the rigid endoscope 2 and the treatment instrument 8a so that the live endoscopic image matches the composite image with reference to the composite image, tracking is performed using the keyboard 41 in step S14 ( When instructed to start (following live endoscopic image), the VE image becomes a blood vessel placement virtual image in which, for example, the organ portion is deleted from the virtual image of the organ optical image similar to the live endoscopic image.
[0035]
In step S15, the inclination angle sensor 22 measures the insertion inclination angle of the rigid endoscope 2, and in step S16, the line-of-sight direction of the endoscopic image captured by the rigid endoscope 2 is determined based on the insertion inclination angle. Further, in step S17, the insertion amount of the rigid endoscope 2 is measured by the insertion amount detector 21, and the display magnification of the VE image is determined based on the insertion amount in step S18.
[0036]
When the line-of-sight direction and display magnification are determined in this way, a VE image is generated based on the line-of-sight direction and display magnification by the VE image construction unit 35 in step S19. The VE image at this time is a blood vessel placement virtual image in which the organ portion is deleted.
[0037]
Next, in step S20, the insertion angle of the treatment instrument 8a is measured by the inclination angle sensor 24, and in step S21, the insertion direction of the treatment instrument 8a is determined based on the insertion inclination angle. Further, the insertion amount of the treatment instrument 8a is measured by the insertion amount detection unit 23 in step S22, the insertion depth of the treatment instrument 8a is determined based on the insertion amount in step S23, and a treatment instrument image is generated in step S24. In S25, a composite image in which the treatment instrument image is superimposed on the VE image (blood vessel placement virtual image) is generated and displayed on the VE image display monitor 38.
[0038]
Next, the composite image display screen displayed on the VE image display monitor 38 will be described. As shown in FIG. 9, the VE display screen 101 is a composite image display area 102 that displays a composite image generated by the image composition unit 37, and a two-dimensional image display that displays a plurality of two-dimensional CT images related to the VE image. The area 103 includes an insertion point display field 104 for displaying an insertion point of the rigid endoscope 2 and an insertion point of the treatment instrument 8a.
[0039]
For example, when a live endoscopic image 14a as shown in FIG. 10 is displayed on the endoscopic image display monitor 14, the viewing direction and size of the live endoscopic image 14a are displayed on the VE display screen 101. A real-time blood vessel placement virtual image 102a (= composite image) in which, for example, the organ portion on which the treatment instrument shape image 109 as shown in FIG. 11 is superimposed is superimposed is displayed in the composite image display area 102.
[0040]
In addition, when the rigid endoscope 2 is tilted from the state of FIG. 10 and a live endoscope image 14b as shown in FIG. 12 is displayed on the endoscope image display monitor 14, it follows (tracks) and performs live tracking. A blood vessel placement virtual image 102b (= composite image) in which a treatment instrument shape image 109 as shown in FIG. 13 is superimposed in real time, for example, with the size (magnification) matched with the line-of-sight direction of the endoscopic image 14b is deleted. Is displayed in the composite image display area 102.
[0041]
As described above, in the present embodiment, the insertion inclination angle and the insertion amount of the rigid endoscope 2 and the treatment instrument 8a are measured, and the line-of-sight direction of the live endoscopic image is based on the data of the insertion inclination angle and the insertion amount. Since a composite image in which the treatment instrument shape image 109 is superimposed on a real-time VE image that matches the size (magnification) with the image is generated and displayed, information necessary for the procedure (for example, blood vessel arrangement information) can be visually confirmed. Since the approach of the treatment tool to the affected area can be confirmed and supported, the procedure can be safely and appropriately supported.
[0042]
In the present embodiment, by using the keyboard 41, as shown in FIG. 14, a marker 151 indicating the position of the affected part can be superimposed on the composite image.
[0043]
15 to 19 relate to the second embodiment of the present invention, FIG. 15 is a block diagram showing the rigidity of the surgery support apparatus, FIG. 16 is a flowchart for explaining the operation of the surgery support apparatus in FIG. 15, and FIG. 16 is a first diagram for explaining the processing of FIG. 16, FIG. 18 is a second diagram for explaining the processing of FIG. 16, and FIG. 19 is a third diagram for explaining the processing of FIG.
[0044]
Since the second embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
[0045]
As shown in FIG. 15, in the present embodiment, the VE image generation device 3 expands the pneumoperitoneum information (abdominal pressure data) of the pneumothorax 7 on the composite image under the control of the CPU 40, and the pneumoperitoneum information And an insufflation information feedback unit 201 for correcting and correcting the composite image based on the above. Other configurations are the same as those of the first embodiment.
[0046]
In this embodiment, as shown in FIG. 16, after step S18 described in the first embodiment, in step S101, the CPU 40 obtains the pneumoperitoneum information (abdominal pressure data) of the pneumo-abdominal device 7, and the step In step S102, the insufflation information feedback unit 201 controls the VE image construction unit 35 and the image composition unit 37 to generate a composite image in which insufflation information is fed back, and then the process proceeds to step S20. Other operations are the same as those in the first embodiment.
[0047]
As a result of this processing, as shown in FIGS. 17 to 19, it is possible to display a composite image using a VE image in a state where the body cavity is inflated in accordance with the abdominal pressure. 17 and 18 show a composite image display screen when the abdominal pressure increases sequentially, and FIG. 19 shows a composite image display screen when the abdominal pressure becomes the set pressure.
[0048]
As described above, in this embodiment, in addition to the effects of the first embodiment, a composite image obtained by feeding back the abdominal pressure information by the abdominal cavity can be used, so that the procedure is supported by a more realistic composite image. Is possible.
[0049]
20 to 22 relate to a third embodiment of the present invention, FIG. 20 is a block diagram showing the rigidity of the surgery support apparatus, and FIG. 21 is a composite image display displayed on the endoscope image display monitor of FIG. The figure which shows a screen and FIG. 22 are flowcharts explaining the effect | action of the surgery assistance apparatus of FIG.
[0050]
Since the third embodiment is almost the same as the second embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
[0051]
As shown in FIG. 20, in this embodiment, the VE image generation device 3 controls the insertion amount and insertion inclination angle of the rigid endoscope 2, the insertion amount and insertion inclination angle of the treatment instrument 8 a, and the insufflator 7 under the control of the CPU 40. Log recording unit 301 that records the pneumoperitoneum information in time series, and the insertion amount and insertion inclination angle of the rigid endoscope 2 recorded by the log recording unit 301 under the control of the CPU 40, the insertion amount and insertion inclination angle of the treatment instrument 8a, A log reproduction unit 302 that reads out the insufflation information of the insufflator 7 in time series, and the CPU 40 inserts the insertion amount and the insertion inclination angle of the rigid endoscope 2, the insertion amount and the insertion inclination angle of the treatment instrument 8a, and the insufflation device. 7, the VE image construction unit 35, the treatment instrument image construction unit 36, the image composition unit 37, and the pneumoperitone information feedback unit 201 are controlled. Other configurations are the same as those of the second embodiment.
[0052]
As shown in FIG. 21, data recording to the log recording unit 301 is started and stopped by clicking a start / stop button 311 provided on the composite image display screen with a mouse. Data reproduction from the log reproduction unit 302 is performed by clicking the reproduction button 312 with the mouse.
[0053]
In this embodiment, as shown in FIG. 22, when the start / stop button 311 is clicked with a mouse in step S151, the insertion amount and the insertion inclination angle of the rigid endoscope 2 into the log recording unit 301 in step S152, the treatment The time series recording of each information of the insertion amount and insertion inclination angle of the instrument 8a and the insufflation information of the insufflator 7 is started, and the recording is stopped by clicking the start / stop button 311 again with the mouse in step S153. To do.
[0054]
When the reproduction button 312 is clicked with the mouse in step S154, the log reproduction unit 302 inserts the rigid endoscope 2 in the log recording unit 301 in step S155, the insertion inclination angle, and the treatment tool 8a insertion amount. And the time-series record of each information of the insertion inclination angle and the insufflation information of the insufflator 7 is read and output to the CPU 40.
[0055]
In step S156, the CPU 40 controls the VE image construction unit 35, the treatment instrument image construction unit 36, the image composition unit 37, and the pneumoperitone information feedback unit 201 to reproduce the composite image during the procedure.
[0056]
As described above, in the present embodiment, in addition to the effects of the second embodiment, the composite image during the procedure can be easily reproduced even after the procedure is completed, so that the procedure can be easily confirmed. It becomes.
[0057]
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.
[0058]
【The invention's effect】
As described above, according to the present invention, surgery can be supported by providing a virtual image that can easily and in real time correspond to a live endoscopic image and recognize the approach status of the treatment instrument. There is an effect.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the stiffness of the surgical operation support apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram showing a usage state of the rigid endoscope of FIG. 1. FIG. FIG. 4 is a diagram showing a configuration of a main part of the trocar on the rigid endoscope side in FIG. 2. FIG. 5 is a diagram showing a configuration of the treatment instrument in FIG. 2. FIG. FIG. 7 is a first flowchart showing a process flow of the surgery support apparatus of FIG. 1. FIG. 8 is a second flowchart showing a process flow of the surgery support apparatus of FIG. FIG. 10 is a view showing a composite image display screen for displaying a composite image constructed and generated by the processing of FIGS. 7 and 8. FIG. 10 is a diagram showing a first endoscope image displayed on the endoscope image display monitor of FIG. FIG. 11 is a diagram showing a composite image display screen displayed corresponding to the endoscopic image of FIG. 10. FIG. 12 is an endoscope of FIG. FIG. 13 is a diagram showing a second example of an endoscopic image displayed on the image display monitor. FIG. 13 is a diagram showing a composite image display screen displayed corresponding to the endoscopic image of FIG. FIG. 15 is a diagram showing a modified example of the composite image display screen displayed on the VE image display monitor of FIG. 15. FIG. 15 is a block diagram showing the rigidity of the surgical operation support apparatus according to the second embodiment of the present invention. FIG. 17 is a first diagram for explaining the processing of FIG. 16. FIG. 18 is a second diagram for explaining the processing of FIG. 16. FIG. 19 is for explaining the processing of FIG. FIG. 20 is a block diagram showing the rigidity of the surgical operation support apparatus according to the third embodiment of the present invention. FIG. 20 shows a composite image display screen displayed on the endoscope image display monitor of FIG. FIG. 22 is a flowchart for explaining the operation of the surgery support apparatus in FIG. Akira]
DESCRIPTION OF SYMBOLS 1 ... Surgery support apparatus 2 ... Rigid endoscope 3 ... VE image generation apparatus 4 ... System controller 5 ... CCU
6 ... light source device 7 ... pneumo-abdominal device 8 ... electric knife 9 ... ultrasonic treatment device 10 ... VTR
DESCRIPTION OF SYMBOLS 11 ... Imaging part 21 ... (Endoscope) Insertion amount detection part 22 ... (Endoscope) Inclination angle sensor 23 ... (Treatment tool) Insertion amount detection part 24 ... (Treatment tool) Inclination angle sensor 31 ... Recording part (CT Image DB)
32. Recording unit (treatment instrument image DB)
33 ... Memory 34 ... Communication I / F unit 35 ... VE image construction unit 36 ... Treatment instrument image construction unit 37 ... Image composition unit 38 ... VE image display monitor 39 ... Display I / F unit 40 ... CPU

Claims (3)

視野方向を特定可能な内視鏡及び処置具を体腔内に刺入し該内視鏡により撮像された内視鏡画像による観察下で前記処置具により患部の処置が行われる手術を支援する手術支援装置において、
前記体腔内の複数のCT画像データを記憶するCT画像記憶手段と、
前記処置具の形状画像データを記憶する処置具形状画像記憶手段と、
前記内視鏡の前記体腔内への挿入位置を入力する挿入位置入力手段と、
前記内視鏡の挿入量を検出する挿入量検出手段と、
前記内視鏡の挿入傾斜角を検出する挿入傾斜角検出手段と、
前記挿入位置、前記挿入量及び前記挿入傾斜角に基づき、前記複数のCT画像データより前記内視鏡画像とリアルタイムに同期した仮想内視鏡像を構築する仮想内視鏡画像構築手段と、
前記処置具の前記体腔内への挿入位置を入力する処置具挿入位置入力手段と、
前記処置具の挿入量を検出する処置具挿入量検出手段と、
前記処置具の挿入傾斜角を検出する処置具挿入傾斜角検出手段と、
前記処置具挿入位置、前記処置具挿入量及び前記処置具挿入傾斜角に基づき、前記複数の処置具形状画像より前記内視鏡画像とリアルタイムに同期した仮想処置具像を構築する仮想処置具画像構築手段と、
前記仮想内視鏡像と前記仮想処置具像を合成し合成画像を生成する画像合成手段と
を備えたことを特徴とする手術支援装置。
An operation that supports an operation in which an affected part is treated by the treatment tool under observation by an endoscope image that is inserted into the body cavity and is imaged by the endoscope and the treatment tool that can specify the visual field direction. In the support device,
CT image storage means for storing a plurality of CT image data in the body cavity;
A treatment instrument shape image storage means for storing shape image data of the treatment instrument;
An insertion position input means for inputting an insertion position of the endoscope into the body cavity;
An insertion amount detecting means for detecting an insertion amount of the endoscope;
An insertion inclination angle detecting means for detecting an insertion inclination angle of the endoscope;
Virtual endoscopic image construction means for constructing a virtual endoscopic image synchronized with the endoscopic image in real time from the plurality of CT image data based on the insertion position, the insertion amount, and the insertion inclination angle;
A treatment instrument insertion position input means for inputting an insertion position of the treatment instrument into the body cavity;
A treatment instrument insertion amount detection means for detecting the insertion amount of the treatment instrument;
A treatment instrument insertion inclination angle detecting means for detecting an insertion inclination angle of the treatment instrument;
Based on the treatment instrument insertion position, the treatment instrument insertion amount, and the treatment instrument insertion inclination angle, a virtual treatment instrument image that constructs a virtual treatment instrument image synchronized with the endoscope image in real time from the plurality of treatment instrument shape images. Construction means,
An operation support apparatus comprising: an image combining unit that combines the virtual endoscopic image and the virtual treatment instrument image to generate a combined image.
前記仮想内視鏡像は、前記内視鏡画像と視線方向及び倍率が一致した画像である
ことを特徴とする請求項1に記載の手術支援装置。
The surgery support apparatus according to claim 1, wherein the virtual endoscopic image is an image in which a line-of-sight direction and a magnification coincide with those of the endoscopic image.
前記仮想内視鏡像は、前記内視鏡画像での血管配置を示す血管配置仮想画像である
ことを特徴とする請求項1または2に記載の手術支援装置。
The surgery support apparatus according to claim 1 or 2, wherein the virtual endoscopic image is a blood vessel arrangement virtual image showing a blood vessel arrangement in the endoscopic image.
JP2003189783A 2003-07-01 2003-07-01 Surgery support device Expired - Fee Related JP4365630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003189783A JP4365630B2 (en) 2003-07-01 2003-07-01 Surgery support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003189783A JP4365630B2 (en) 2003-07-01 2003-07-01 Surgery support device

Publications (2)

Publication Number Publication Date
JP2005021353A true JP2005021353A (en) 2005-01-27
JP4365630B2 JP4365630B2 (en) 2009-11-18

Family

ID=34187888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003189783A Expired - Fee Related JP4365630B2 (en) 2003-07-01 2003-07-01 Surgery support device

Country Status (1)

Country Link
JP (1) JP4365630B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007301378A (en) * 2006-05-11 2007-11-22 Olympus Medical Systems Corp Treatment system, trocar, and control method for treatment system
JP2009279250A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical device
EP2372660A2 (en) 2010-03-31 2011-10-05 Fujifilm Corporation Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
WO2011122037A1 (en) 2010-03-31 2011-10-06 富士フイルム株式会社 Endoscope observation supporting system and method, and device and programme
WO2011122032A1 (en) 2010-03-31 2011-10-06 富士フイルム株式会社 Endoscope observation supporting system and method, and device and programme
WO2013141155A1 (en) * 2012-03-17 2013-09-26 学校法人早稲田大学 Image completion system for in-image cutoff region, image processing device, and program therefor
JP2015139646A (en) * 2014-01-30 2015-08-03 ソニー株式会社 Endoscope system, image processor, image processing method, and program
JP2015530903A (en) * 2012-08-14 2015-10-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド System and method for registration of multiple vision systems
US9179822B2 (en) 2010-03-17 2015-11-10 Fujifilm Corporation Endoscopic observation supporting system, method, device and program
JP2017185254A (en) * 2017-05-23 2017-10-12 ソニー株式会社 Endoscope system, endoscopic image processing device, and image processing method
WO2018220930A1 (en) * 2017-05-30 2018-12-06 オリンパス株式会社 Image processing device
CN110769737A (en) * 2017-06-21 2020-02-07 奥林巴斯株式会社 Insertion assisting device, insertion assisting method, and endoscope device including insertion assisting device
CN113645396A (en) * 2020-04-27 2021-11-12 成都术通科技有限公司 Image superposition method, device, equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10234663A (en) * 1997-02-27 1998-09-08 Toshiba Corp Image processor
JP2002045372A (en) * 2000-08-02 2002-02-12 Olympus Optical Co Ltd Surgical navigation device
JP2002119507A (en) * 2000-10-17 2002-04-23 Toshiba Corp Medical device and medical image collecting and displaying method
JP2002238844A (en) * 2001-02-16 2002-08-27 Olympus Optical Co Ltd Endoscope device
JP2003153876A (en) * 2001-11-22 2003-05-27 Ichiro Komada Medical operation support apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10234663A (en) * 1997-02-27 1998-09-08 Toshiba Corp Image processor
JP2002045372A (en) * 2000-08-02 2002-02-12 Olympus Optical Co Ltd Surgical navigation device
JP2002119507A (en) * 2000-10-17 2002-04-23 Toshiba Corp Medical device and medical image collecting and displaying method
JP2002238844A (en) * 2001-02-16 2002-08-27 Olympus Optical Co Ltd Endoscope device
JP2003153876A (en) * 2001-11-22 2003-05-27 Ichiro Komada Medical operation support apparatus

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007301378A (en) * 2006-05-11 2007-11-22 Olympus Medical Systems Corp Treatment system, trocar, and control method for treatment system
US7841980B2 (en) * 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
JP2009279250A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical device
US9179822B2 (en) 2010-03-17 2015-11-10 Fujifilm Corporation Endoscopic observation supporting system, method, device and program
JP2011212244A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Endoscope observation supporting system and method, and device and program
WO2011122032A1 (en) 2010-03-31 2011-10-06 富士フイルム株式会社 Endoscope observation supporting system and method, and device and programme
US9375133B2 (en) 2010-03-31 2016-06-28 Fujifilm Corporation Endoscopic observation support system
US8611988B2 (en) 2010-03-31 2013-12-17 Fujifilm Corporation Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
WO2011122037A1 (en) 2010-03-31 2011-10-06 富士フイルム株式会社 Endoscope observation supporting system and method, and device and programme
EP2372660A2 (en) 2010-03-31 2011-10-05 Fujifilm Corporation Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US9220468B2 (en) 2010-03-31 2015-12-29 Fujifilm Corporation Endoscope observation assistance system, method, apparatus and program
WO2013141155A1 (en) * 2012-03-17 2013-09-26 学校法人早稲田大学 Image completion system for in-image cutoff region, image processing device, and program therefor
JPWO2013141155A1 (en) * 2012-03-17 2015-08-03 学校法人早稲田大学 Image complementation system for image occlusion area, image processing apparatus and program thereof
JP2015530903A (en) * 2012-08-14 2015-10-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド System and method for registration of multiple vision systems
JP2015139646A (en) * 2014-01-30 2015-08-03 ソニー株式会社 Endoscope system, image processor, image processing method, and program
JP2017185254A (en) * 2017-05-23 2017-10-12 ソニー株式会社 Endoscope system, endoscopic image processing device, and image processing method
WO2018220930A1 (en) * 2017-05-30 2018-12-06 オリンパス株式会社 Image processing device
CN110769737A (en) * 2017-06-21 2020-02-07 奥林巴斯株式会社 Insertion assisting device, insertion assisting method, and endoscope device including insertion assisting device
CN113645396A (en) * 2020-04-27 2021-11-12 成都术通科技有限公司 Image superposition method, device, equipment and storage medium
CN113645396B (en) * 2020-04-27 2023-07-25 成都术通科技有限公司 Image superposition method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP4365630B2 (en) 2009-11-18

Similar Documents

Publication Publication Date Title
JP4698966B2 (en) Procedure support system
JP7443353B2 (en) Correction of computed tomography (CT) images using position and orientation (P&amp;D) tracking-assisted optical visualization
CN110741414B (en) Systems and methods for identifying, marking, and navigating to a target using real-time two-dimensional fluoroscopic data
US9232982B2 (en) System for orientation assistance and display of an instrument in an object under examination particularly for use in human body
US7951070B2 (en) Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure
JP2007152114A (en) Ultrasound system for interventional treatment
JP2019162339A (en) Surgery supporting system and display method
JP2006218129A (en) Surgery supporting system
JP4365630B2 (en) Surgery support device
JP2001061861A (en) System having image photographing means and medical work station
JP2008119472A (en) System and method for measuring distance between implants
JP2008126063A (en) Medical navigation system with tool and/or implant integration into fluoroscopic image projection and method of use
JP2006198032A (en) Surgery support system
US20180286287A1 (en) System and methods for training physicians to perform ablation procedures
EP3733047A1 (en) Surgical system, image processing device, and image processing method
JP2021030073A (en) Systems and methods of fluoroscopic ct imaging for initial registration
JP2002253480A (en) Device for assisting medical treatment
US20050234326A1 (en) Medical procedure support system and method
JP2006223374A (en) Apparatus, system and method for surgery supporting
JP2006198031A (en) Surgery support system
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP2006218239A (en) Technique support system
JP4615842B2 (en) Endoscope system and endoscope image processing apparatus
JP2005021355A (en) Surgery supporting apparatus
JP2005021354A (en) Surgery remotely supporting apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4365630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees