JP2005021354A - Surgery remotely supporting apparatus - Google Patents

Surgery remotely supporting apparatus Download PDF

Info

Publication number
JP2005021354A
JP2005021354A JP2003189784A JP2003189784A JP2005021354A JP 2005021354 A JP2005021354 A JP 2005021354A JP 2003189784 A JP2003189784 A JP 2003189784A JP 2003189784 A JP2003189784 A JP 2003189784A JP 2005021354 A JP2005021354 A JP 2005021354A
Authority
JP
Japan
Prior art keywords
image
support
data
endoscope
surgery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003189784A
Other languages
Japanese (ja)
Inventor
Masaya Fujita
征哉 藤田
Shoichi Gotanda
正一 五反田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003189784A priority Critical patent/JP2005021354A/en
Priority to US10/858,440 priority patent/US20050033117A1/en
Publication of JP2005021354A publication Critical patent/JP2005021354A/en
Priority to US11/716,308 priority patent/US7951070B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To support a surgery by simply providing an appropriate instruction from remote apparatus relative to a live endoscopy image at a low cost on a real time basis. <P>SOLUTION: This surgery remotely supporting apparatus 1 comprises a VE image creating device 19 and a support information creating device 20. The VE image creating device 19 obtains insertion amount data and insertion tilt angle data of a rigid scope 2 from a surgery system 2 via a communication line 100 on a real time basis and creates a virtual endoscopy image (VE image), or a virtual image on a real time basis with the endoscope image picked up by the rigid scope 2 and whose visual line direction is accorded with the endoscope image, on the basis of the insertion amount data, the insertion tilt angle data and the CT image. The support information creating device 20 creates support image to be transmitted to the surgery system 2 by referring to the VE image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像を用いて手術を遠隔支援する遠隔手術支援装置に関する。
【0002】
【従来の技術】
近年、画像による診断が広く行われるようになっており、例えばX線CT(Computed Tomography)装置等により被検体の断層像を撮像することにより被検体内の3次元的なバーチャル画像データを得て、該バーチャル画像データを用いて患部の診断が行われるようになってきた。
【0003】
CT装置では、X線照射・検出を連続的に回転させつつ被検体を体軸方向に連続送りすることにより、被検体の3次元領域について螺旋状の連続スキャン(ヘリカルスキャン:helical scan)を行い、3次元領域の連続するスライスの断層像から、3次元なバーチャル画像を作成することが行われる。
【0004】
そのような3次元画像の1つに、肺の気管支の3次元像がある。気管支の3次元像は、例えば肺癌等が疑われる異常部の位置を3次元的に把握するのに利用される。そして、異常部を生検によって確認するために、気管支内視鏡を挿入して先端部から生検針や生検鉗子等を出して組織のサンプル(sample)を採取することが行われる。
【0005】
気管支のような多段階の分岐を有する体内の管路では、異常部の所在が分岐の末梢に近いとき、内視鏡の先端を短時間で正しく目的部位に到達させることが難しいために、例えば特開2000−135215号公報等では、被検体の3次元領域の画像データに基づいて前記被検体内の管路の3次元像を作成し、前記3次元像上で前記管路に沿って目的点までの経路を求め、前記経路に沿った前記管路の仮想的な内視像を前記画像データに基づいて作成し、前記仮想的な内視像を表示することで、気管支内視鏡を目的部位にナビゲーションする装置が提案されている。
【0006】
ところで、腹部領域の体内の臓器を被検体とする診断においては、従来より、上記同様に主に腹部領域内の被検体の3次元的なバーチャル画像を作成し、これを表示しながら診断するための画像解析ソフトが実用化されている。
【0007】
この種の画像解析ソフトを用いた画像システムは、医師が術前に予め患者の腹部領域内等の被検体の病変部の変化をそのバーチャル画像を見ながら把握するための診断に用いられており、通常、デスク上で行われているが一般的である。
【0008】
【特許文献1】
特開2000−135215号公報
【0009】
【発明が解決しようとする課題】
しかしながら、この画像システムを用いて遠隔施設より指示を提供しようとした場合、内視鏡ライブ画像に合わせて視線方向等のパラメータ入力を画像システムに行わなければならず使い勝手が悪かった。
【0010】
本発明は、上記事情に鑑みてなされたものであり、簡単でかつ安価でリアルタイムに、ライブの内視鏡画像に対して、遠隔施設より適切な指示を提供することで手術を支援することのできる遠隔手術支援装置を提供することを目的としている。
【0011】
【課題を解決するための手段】
本発明の遠隔手術支援装置は、視野方向を特定可能な内視鏡を体内に刺入し該内視鏡により撮像された内視鏡画像による観察下で行われる手術を実施する手術システムに対して支援情報を通信回線を介して遠隔的に提供する遠隔手術支援装置において、前記体腔内の複数のCT画像データを記憶するCT画像記憶手段と、前記手術システムより前記内視鏡の前記体腔内への挿入位置、前記内視鏡の体内挿入量データ及び前記内視鏡の挿入傾斜角データを前記通信回線を介して入力するデータ入力手段と、前記挿入位置データ、前記挿入量データ及び前記挿入傾斜角データに基づき、前記複数のCT画像データより前記内視鏡画像とリアルタイムに同期した仮想内視鏡像を構築する仮想画像構築手段とを備えて構成される。
【0012】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態について述べる。
【0013】
図1ないし図12は本発明の第1の実施の形態に係わり、図1は遠隔手術支援装置及び手術システムの構成を示す構成図、図2は図1の硬性鏡の使用状態を示す図、図3は図2の硬性鏡の構成を示す図、図4は図2のトラカールの要部の構成を示す図、図5は図1の遠隔手術支援装置及び手術システムの処理の流れを示す第1のフローチャート、図6は図1の遠隔手術支援装置及び手術システムの処理の流れを示す第2のフローチャート、図7は図1のVE画像表示モニタに表示されるVE表示画面を示す図、図8は図1の支援情報生成装置が生成する支援画像を示す図、図9は図1の内視鏡画像表示モニタに表示される内視鏡画像の第1の例を示す図、図10は図9の内視鏡画像に対応して表示されるVE表示画面を示す図、図11は図1の内視鏡画像表示モニタに表示される内視鏡画像の第2の例を示す図、図12は図11の内視鏡画像に対応して表示されるVE表示画面を示す図である。
【0014】
図1に示すように、本実施の形態の遠隔手術支援装置1は手術室より離れた支援室に配置され、手術室に配置された手術システム2を通信回線100を介して遠隔的に支援する装置である。
【0015】
手術システム2は、硬性鏡3、システムコントローラ4、CCU5、光源装置6、気腹器7、電気メス8,超音波処置装置9、VTR10、支援情報再生装置18等を手術室に配置して構成され、遠隔手術支援装置1は、VE画像生成装置19及び支援情報生成装置20を手術室外に配置して構成され、手術システム2と遠隔手術支援装置1とが通信回線100を介して接続されている。
【0016】
まず、手術システム2の詳細について説明する。硬性鏡2の撮像部11で撮像された撮像信号はCCU5に伝送され画像処理された後に画像を録画するVTR10及びシステムコントローラ4に出力される。
【0017】
システムコントローラ4は、CCU5、光源装置6、気腹器7、電気メス8,超音波処置装置9、VTR10の各装置と設定情報を送受する通信I/F部12と、各種プログラムを格納しているメモリ13と、CCU5からの画像信号を内視鏡画像表示モニタ14に表示させる表示I/F部15と、これら各部を制御するCPU16とから構成される。
【0018】
なお、システムコントローラ4のCPU16には通信I/F部12を介してリモコン17が接続され、このリモコン17により各種データの入力が可能となっている。
【0019】
硬性鏡3には、硬性鏡3の挿入量を検出する挿入量検出部21、硬性鏡3の挿入傾斜角を検出する傾斜角センサ22が設けられ、挿入量検出部21が検出した挿入量データ及び傾斜角センサ22が検出した挿入傾斜角データがシステムコントローラ4の通信I/F部12を介してCPU16に入力され、CPU16は挿入量データ及び挿入傾斜角データを通信I/F部12を介して情報転送I/F部24に出力し、情報転送I/F部24により通信回線100を介して遠隔手術支援装置1の情報転送I/F部25に伝送される。
【0020】
支援情報再生装置18は、遠隔手術支援装置1の情報転送I/F部25、通信回線100を介して情報転送I/F部24が入力した遠隔手術支援装置1の支援情報生成装置20からの支援画像情報及び支援音声情報からなる支援情報を再生する装置であって、支援画像情報を入力する映像I/F部31と、映像I/F部31が入力した画像情報に基づく内視鏡画像+支持情報からなる支援画像をモニタ32に表示する表示I/F部33と、支援音声情報を入力しスピーカ34により再生させる音声I/F部35とから構成される。
【0021】
硬性鏡3は、図2に示すように、トラカール36,37を介して電気メス6や超音波処置装置9等の処置具38と共に患者39の体内に挿入される。
【0022】
硬性鏡3は、図3に示すように、挿入基端側にTVカメラ40を備え、さらに挿入基端側の把持部41には傾斜角センサ22が設けられている。この傾斜角センサ22はジャイロ等により硬性鏡3の挿入傾斜角を計測しシステムコントローラ4に出力する。
【0023】
また、図4に示すように、硬性鏡3の挿入部42を患者39の体内へと導くトラカール36の基端側には挿入量検出部21が設けられており、挿入量検出部21は、挿入部42の外周面と接触し挿入部42の挿入に従って回転するローラ43と、ローラ43の回転量を検出し挿入部42の挿入量としてシステムコントローラ4に出力するロータリーエンコーダ44とから構成される。
【0024】
次に、遠隔手術支援装置1の詳細について説明する。VE画像生成装置19は、硬性鏡2の挿入量データ及び挿入傾斜角データを手術システム2から通信回線100を介してリアルタイムに入手し、挿入量データ、挿入傾斜角データ及び予めCT装置(図示せず)により得られたCT画像に基づき、硬性鏡2が撮像した内視鏡画像にリアルタイムで且つ視線方向が一致した仮想的な画像であるバーチャルエンドスコピー画像(VE画像)を生成する装置であって、支援情報生成装置20はVE画像を参照して手術システム2に伝送する支援画像を生成する装置である。
【0025】
具体的には、図1に示すように、VE画像生成装置19は、複数のCT画像より構築されたCT画像DB(データベース)を格納している記録部51と、各種プログラムを格納しているメモリ52と、情報転送I/F部25を介して伝送されてきた手術システム2からの挿入量検出部21が検出した挿入量データ及び傾斜角センサ22が検出した挿入傾斜角データを受信する通信I/F部53と、通信I/F部53により得られた挿入量データ、挿入傾斜角データ及びCT画像DBのCT画像に基づきVE画像を構築するVE画像構築部54と、VE画像構築部54が構築したVE画像をVE画像表示モニタ55に表示させる表示I/F部56と、これら各部を制御するCPU57とから構成され、CPU57には各種データを入力するためのキーボード58及びマウス59が接続されている。
【0026】
支援情報生成装置20は、情報転送I/F部24,25及び通信回線100を介して伝送されるCCU5からの内視鏡画像を受信する映像I/F部61と、映像I/F部61が得た内視鏡画像をデジタルの内視鏡画像データに変換する内視鏡画像入力部62と、内視鏡画像データに重畳する矢印画像を構築する矢印画像構築部63と、内視鏡画像入力部62からの内視鏡画像データに矢印画像構築部63からの矢印画像を重畳して合成画像を生成する画像合成部64と、内視鏡画像データ上に重畳させる矢印画像の位置情報を入力する指示情報入力部65からの指示情報を受信する通信I/F部66と、指示音声を入力するマイク67からの音声データを入力する音声I/F部68と、画像合成部64からの合成画像である内視鏡画像+支持情報からなる支援画像をモニタ69に表示させる表示I/F部70と、各種プログラムを格納しているメモリ71と、これら各部を制御するCPU72とを備えて構成され、音声I/F部68は音声データを、また表示I/F部70は支援画像を情報転送I/F部24,25及び通信回線100を介して手術システム2の支援情報再生装置18に出力するようになっている。
【0027】
このように構成された本実施の形態の作用について説明する。図5及び図6に示すように、ステップS1においてシステムコントローラ4のCPU16は手術システム2のシステムコントローラ4に接続されているリモコン17を用いて硬性鏡3の患者39の体内への挿入位置である(内視鏡)挿入点の座標を入力する。この座標系はCT画像の座標系と一致している。
【0028】
そして、ステップS2においてCPU16は傾斜角センサ22により硬性鏡3の挿入傾斜角データを測定・入力し、ステップS3において挿入点の座標データ及び挿入傾斜角データからなる入力情報を遠隔手術支援装置1のVE画像生成装置19に転送する。
【0029】
ステップS4においてVE画像生成装置19のCPU57は遠隔手術支援装置1のVE画像生成装置19が挿入点の座標データ及び挿入傾斜角データからなる入力情報を受信・入力すると、ステップS5においてCPU57は(内視鏡)挿入点の座標データ及び挿入傾斜角データに基づきVE画像の倍率・視線方向を決定し、ステップS6においてVE画像構築部54が倍率・視線方向に基づきVE画像を生成し、表示I/F部56によりVE画像をVE画像表示モニタ55に表示させる。
【0030】
このVE画像は、図7に示すようなVE画像表示モニタ55に表示されるVE表示画面101のVE画像表示エリア102に表示される。VE表示画面101は、VE画像構築部34により生成されたVE画像を表示するVE画像表示エリア102、VE画像に関連した複数の2次元CT画像を表示する2次元画像表示エリア103と、硬性鏡2の挿入点(x0,y0,z0)を表示する挿入点表示欄104と、トラッキングの開始及び停止を指示するスタート/ストップボタン105と、表示倍率を変更する表示倍率変更入力部106等より構成される。
【0031】
そして、このVE画像を参照して、ステップS7において支援情報生成装置20では、CPU72が図8に示すような患部位置を示す矢印画像109を内視鏡画像108上に重畳させた支援画像110を生成すると共に表示I/F部70を介して支援画像110をモニタ69に表示させる。
【0032】
ステップS7においては、支援画像110の生成・表示だけでなく、手術室への支援音声をマイク67により入力する。そして、CPU72が生成された支援画像データ及び入力された支援音声データを通信回線100を介して手術システム2に伝送する。
【0033】
支援画像データ及び入力された支援音声データが伝送された手術システム2では、ステップS8において、支援情報生成装置20により支援画像110をモニタ32に表示すると共に支援音声をスピーカ34により再生させる。
【0034】
このようにして最初の支援画像110が表示され、ステップS9においてトラッキング(VE画像のライブ画像への追従)が開始されると、ステップS10においてシステムコントローラ4のCPU16は傾斜角センサ22により硬性鏡3の挿入傾斜角データを測定し、ステップS11においてCPU16は挿入量検出部21により硬性鏡3の挿入量データを測定する。
【0035】
そして、ステップS12においてCPU16は挿入量データあるいは挿入傾斜角データのいずれかに変化があるかどうか判断し、変化がない場合にはステップS10に戻り、変化があるステップS13においてCPU16は挿入量データ及び挿入傾斜角データからなる入力情報を遠隔手術支援装置1のVE画像生成装置19に転送する。
【0036】
ステップS14においてVE画像生成装置19のCPU57は遠隔手術支援装置1のVE画像生成装置19が挿入量データ及び挿入傾斜角データからなる入力情報を受信・入力すると、ステップS15においてCPU57は挿入量データ及び挿入傾斜角データに基づきVE画像の倍率・視線方向を決定し、ステップS16においてVE画像構築部54が倍率・視線方向に基づきVE画像を生成し、表示I/F部56によりVE画像をVE画像表示モニタ55に表示させる。
【0037】
そして、このVE画像を参照して、ステップS17において支援情報生成装置20では、CPU72が患部位置を示す矢印画像を内視鏡画像データ上に重畳させた支援画像110を生成すると共に表示I/F部70を介して内視鏡画像+支持情報からなる支援画像110をモニタ69に表示させる。
【0038】
このステップS17においては、支援画像110の生成・表示だけでなく、手術室への支援音声をマイク67により入力する。そして、CPU72が生成された支援画像データ及び入力された支援音声データを通信回線100を介して手術システム2に伝送する。
【0039】
支援画像データ及び入力された支援音声データが伝送された手術システム2では、ステップS18において、支援情報生成装置20により支援画像110をモニタ32に表示すると共に支援音声をスピーカ34により再生させる。
【0040】
そして、システムコントローラ4のCPU16は、ステップS19においてリモコン17から支援終了指示があるかどうかを判断し、ない場合にはステップS10に戻り、ある場合には処理を終了する。
【0041】
このステップS10〜S19の処理により、VE画像生成装置19においては例えば図9に示すようなライブの内視鏡画像14aが内視鏡画像表示モニタ14に表示される際は、VE表示画面101においては、このライブの内視鏡画像14aの視線方向と大きさ(倍率)一致したリアルタイムの、図10に示すような例えば臓器部分を消した血管配置仮想画像102aがVE画像表示エリア102に表示される。
【0042】
また、図9の状態から硬性鏡2を傾け、図11に示すようなライブの内視鏡画像14bが内視鏡画像表示モニタ14に表示されると、これに追随(トラッキング)してライブの内視鏡画像14bの視線方向と大きさ(倍率)一致したリアルタイムの、図12に示すような例えば臓器部分を消した血管配置仮想画像102bがVE画像表示エリア102に表示される。
【0043】
このように本実施の形態によれば、通信回線100を用い、手術室以外の離れた場所にある支援室に硬性鏡3の挿入量及び挿入傾斜角を伝送することで、該遠隔支援室にいる指導医師がライブ内視鏡画像にリアルタイムにトラッキング(追従)したVE画像を参照して支援画像や支援音声を手術室の術者に提供するので、術者に対して簡単かつ安価に適切な手技支援を行うことができる。
【0044】
図13は本発明の第2の実施の形態に係る遠隔手術支援装置及び手術システムの構成を示す構成図である。
【0045】
第2の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。
【0046】
図13に示すように、手術システム2には、遠隔手術支援装置1のVE画像生成装置19が生成したVE画像データを入力しVE画像表示モニタ201に表示させるVE画表示装置202を備え、該VE画表示装置202は、情報転送I/F部24,25及び通信回線100を介してVE画像データを入力する映像I/F部203と、入力したVE画像データによりVE画をVE画像表示モニタ201に表示させる表示I/F部204とから構成される。その他の構成は第1の実施の形態と同じである。
【0047】
本実施の形態では、第1の実施の形態で説明したステップS7あるいは17において、援画像データ及び入力された支援音声データを通信回線100を介して手術システム2に伝送するだけでなく、VE画像データも通信回線100を介して手術システム2に伝送され、VE画像が手術室に設けられたVE画像表示モニタ201に表示される。その他の作用は第1の実施の形態と同じである。
【0048】
本実施の形態によれば、第1の実施の形態の効果に加え、手術室の術者もVE画像表示モニタ201に表示されたVE画像を参照することが出来るので、支援医師との支援環境をより強固なものとすることが可能となる。
【0049】
図14は本発明の第3の実施の形態に係る遠隔手術支援装置及び手術システムの構成を示す構成図である。
【0050】
第3の実施の形態は、第2の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。
【0051】
本実施の形では、VE画像表示モニタ201に表示するVE画像を遠隔手術支援装置1に設けられたVE画像生成装置19と同等の構成のVE画像生成装置301を手術システムに設けて構成される。
【0052】
VE画像生成装置301は、VE画像生成装置19と同様に、複数のCT画像より構築されたCT画像DB(データベース)を格納している記録部351と、各種プログラムを格納しているメモリ352と、挿入量検出部21が検出した挿入量データ及び傾斜角センサ22が検出した挿入傾斜角データをシステムコントローラ4より受信する通信I/F部353と、通信I/F部353により得られた挿入量データ、挿入傾斜角データ及びCT画像DBのCT画像に基づきVE画像を構築するVE画像構築部354と、VE画像構築部354が構築したVE画像をVE画像表示モニタ201に表示させる表示I/F部356と、これら各部を制御するCPU357とから構成され、CP3U57には各種データを入力するためのキーボード358及びマウス359が接続されている。その他の構成及び作用は第2の実施の形態と同じである。
【0053】
本実施の形態によれば、第1の実施の形態の効果に加え、VE画像表示モニタ201に表示するVE画像をVE画像生成装置301が生成するので、通信回線100を介して遠隔手術支援装置1のVE画像生成装置19よりVE画像を伝送する必要が無いので、通信回線100の通信トラフィックが軽減でき、通信環境を大幅に改善することが可能となる。
【0054】
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
【0055】
【発明の効果】
以上説明したように本発明によれば、簡単でかつ安価でリアルタイムに、ライブの内視鏡画像に対して、遠隔施設より適切な指示を提供することで手術を支援することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る遠隔手術支援装置及び手術システムの構成を示す構成図
【図2】図1の硬性鏡の使用状態を示す図
【図3】図2の硬性鏡の構成を示す図
【図4】図2のトラカールの要部の構成を示す図
【図5】図1の遠隔手術支援装置及び手術システムの処理の流れを示す第1のフローチャート
【図6】図1の遠隔手術支援装置及び手術システムの処理の流れを示す第2のフローチャート
【図7】図1のVE画像表示モニタに表示されるVE表示画面を示す図
【図8】図1の支援情報生成装置が生成する支援画像を示す図
【図9】図1の内視鏡画像表示モニタに表示される内視鏡画像の第1の例を示す図
【図10】図9の内視鏡画像に対応して表示されるVE表示画面を示す図
【図11】図1の内視鏡画像表示モニタに表示される内視鏡画像の第2の例を示す図
【図12】図11の内視鏡画像に対応して表示されるVE表示画面を示す図
【図13】本発明の第2の実施の形態に係る遠隔手術支援装置及び手術システムの構成を示す構成図
【図14】本発明の第3の実施の形態に係る遠隔手術支援装置及び手術システムの構成を示す構成図
【符号の説明】
1…遠隔手術支援装置
2…手術システム
3…硬性鏡
4…システムコントローラ
5…CCU
6…光源装置
7…気腹器
8…電気メス
9…超音波処置装置
10…VTR
11…撮像部
18…支援情報再生装置
19…VE画像生成装置
20…支援情報生成装置
21…挿入量検出部
22…傾斜角センサ
51…記録部(CT画像DB)
52…メモリ
53…通信I/F部
54…VE画像構築部
55…VE画像表示モニタ
56…表示I/F部
57…CPU
100…通信回線
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a remote surgery support apparatus that remotely supports surgery using an image.
[0002]
[Prior art]
In recent years, diagnosis based on images has been widely performed. For example, three-dimensional virtual image data in a subject is obtained by capturing a tomographic image of the subject using an X-ray CT (Computed Tomography) apparatus or the like. The diagnosis of an affected area has been performed using the virtual image data.
[0003]
In the CT apparatus, by continuously feeding the subject in the body axis direction while continuously rotating the X-ray irradiation / detection, a helical continuous scan (helical scan) is performed on the three-dimensional region of the subject. A three-dimensional virtual image is created from tomographic images of successive slices in a three-dimensional region.
[0004]
One such 3D image is a 3D image of the lung bronchi. The three-dimensional image of the bronchus is used to three-dimensionally grasp the position of an abnormal part suspected of lung cancer, for example. In order to confirm the abnormal portion by biopsy, a bronchoscope is inserted and a biopsy needle, biopsy forceps, or the like is taken out from the distal end portion and a tissue sample is taken.
[0005]
In a duct in the body having a multi-stage branch such as the bronchi, when the location of the abnormal part is close to the periphery of the branch, it is difficult to correctly reach the target site in a short time, for example, In Japanese Patent Application Laid-Open No. 2000-135215, etc., a three-dimensional image of a pipeline in the subject is created based on image data of a three-dimensional region of the subject, and a target along the pipeline is created on the three-dimensional image. By obtaining a path to a point, creating a virtual endoscopic image of the duct along the path based on the image data, and displaying the virtual endoscopic image, the bronchoscope An apparatus for navigating to a target site has been proposed.
[0006]
By the way, in diagnosis using an internal organ in the abdominal region as a subject, conventionally, in order to make a diagnosis while creating a three-dimensional virtual image of the subject mainly in the abdominal region and displaying the same, as described above. Image analysis software has been put to practical use.
[0007]
An image system using this kind of image analysis software is used for diagnosis by doctors to grasp changes in the lesion of a subject in the patient's abdominal region, etc. in advance while viewing the virtual image before surgery. It is common to be done on a desk, usually.
[0008]
[Patent Document 1]
Japanese Patent Laid-Open No. 2000-135215
[Problems to be solved by the invention]
However, when an instruction is to be provided from a remote facility using this image system, parameters such as the line-of-sight direction must be input to the image system in accordance with the endoscope live image, which is inconvenient.
[0010]
The present invention has been made in view of the above circumstances, and supports surgery by providing appropriate instructions from a remote facility for live endoscopic images in a simple, inexpensive and real-time manner. An object of the present invention is to provide a remote operation support device that can perform the operation.
[0011]
[Means for Solving the Problems]
The remote operation support device according to the present invention is for a surgical system that performs an operation performed under observation by an endoscopic image captured by an endoscope that is inserted into the body and capable of specifying a visual field direction. In a remote operation support apparatus for remotely providing support information via a communication line, a CT image storage means for storing a plurality of CT image data in the body cavity, and the inside of the body cavity of the endoscope from the operation system Data input means for inputting the insertion position into the endoscope, the insertion amount data of the endoscope and the insertion inclination angle data of the endoscope through the communication line, the insertion position data, the insertion amount data, and the insertion Virtual image construction means for constructing a virtual endoscopic image synchronized with the endoscopic image in real time from the plurality of CT image data based on tilt angle data.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0013]
FIGS. 1 to 12 relate to a first embodiment of the present invention, FIG. 1 is a configuration diagram showing configurations of a remote surgery support device and a surgery system, and FIG. 2 is a diagram showing a usage state of the rigid endoscope of FIG. 3 is a diagram showing a configuration of the rigid endoscope of FIG. 2, FIG. 4 is a diagram showing a configuration of a main part of the trocar of FIG. 2, and FIG. 5 is a flowchart showing a processing flow of the remote surgery support apparatus and the surgery system of FIG. FIG. 6 is a second flowchart showing the processing flow of the remote surgery support apparatus and the surgery system in FIG. 1, and FIG. 7 is a diagram showing a VE display screen displayed on the VE image display monitor in FIG. 8 is a diagram showing a support image generated by the support information generating device of FIG. 1, FIG. 9 is a diagram showing a first example of an endoscopic image displayed on the endoscopic image display monitor of FIG. 1, and FIG. FIG. 11 is a diagram showing a VE display screen displayed corresponding to the endoscopic image of FIG. Shows a second example of an endoscopic image displayed on the endoscope image display monitor, FIG. 12 is a diagram showing a VE display screen displayed in response to the endoscopic image of FIG. 11.
[0014]
As shown in FIG. 1, the remote operation support device 1 according to the present embodiment is arranged in a support room far from the operation room, and remotely supports the operation system 2 arranged in the operation room via a communication line 100. Device.
[0015]
The surgical system 2 is configured by arranging a rigid endoscope 3, a system controller 4, a CCU 5, a light source device 6, an insufflator 7, an electric scalpel 8, an ultrasonic treatment device 9, a VTR 10, a support information reproducing device 18 and the like in an operating room. The remote operation support device 1 is configured by arranging the VE image generation device 19 and the support information generation device 20 outside the operation room, and the operation system 2 and the remote operation support device 1 are connected via the communication line 100. Yes.
[0016]
First, details of the surgical system 2 will be described. The imaging signal imaged by the imaging unit 11 of the rigid endoscope 2 is transmitted to the CCU 5 and subjected to image processing, and then output to the VTR 10 and the system controller 4 that record the image.
[0017]
The system controller 4 stores a communication I / F unit 12 for transmitting / receiving setting information to / from each device of the CCU 5, the light source device 6, the insufflator 7, the electric knife 8, the ultrasonic treatment device 9, and the VTR 10, and various programs. A memory 13, a display I / F unit 15 that displays an image signal from the CCU 5 on the endoscope image display monitor 14, and a CPU 16 that controls these units.
[0018]
A remote controller 17 is connected to the CPU 16 of the system controller 4 via the communication I / F unit 12, and various data can be input by the remote controller 17.
[0019]
The rigid endoscope 3 is provided with an insertion amount detection unit 21 for detecting the insertion amount of the rigid endoscope 3 and an inclination angle sensor 22 for detecting the insertion inclination angle of the rigid endoscope 3, and insertion amount data detected by the insertion amount detection unit 21. The insertion angle data detected by the inclination angle sensor 22 is input to the CPU 16 via the communication I / F unit 12 of the system controller 4, and the CPU 16 receives the insertion amount data and the insertion angle data via the communication I / F unit 12. Is output to the information transfer I / F unit 24, and transmitted to the information transfer I / F unit 25 of the remote surgery support apparatus 1 through the communication line 100 by the information transfer I / F unit 24.
[0020]
The support information reproducing device 18 receives information from the support information generating device 20 of the remote operation support device 1 input by the information transfer I / F unit 25 of the remote operation support device 1 and the information transfer I / F unit 24 via the communication line 100. An apparatus for reproducing support information including support image information and support audio information, a video I / F unit 31 for inputting support image information, and an endoscopic image based on image information input by the video I / F unit 31 A display I / F unit 33 that displays a support image composed of + support information on the monitor 32 and a voice I / F unit 35 that inputs the support voice information and reproduces it by the speaker 34.
[0021]
As shown in FIG. 2, the rigid endoscope 3 is inserted into the body of a patient 39 together with a treatment tool 38 such as an electric knife 6 and an ultrasonic treatment device 9 via trocars 36 and 37.
[0022]
As shown in FIG. 3, the rigid endoscope 3 includes a TV camera 40 on the insertion base end side, and a tilt angle sensor 22 is provided on the grip 41 on the insertion base end side. This inclination angle sensor 22 measures the insertion inclination angle of the rigid endoscope 3 by a gyro etc. and outputs it to the system controller 4.
[0023]
Further, as shown in FIG. 4, an insertion amount detection unit 21 is provided on the proximal end side of the trocar 36 that guides the insertion portion 42 of the rigid endoscope 3 into the body of the patient 39. A roller 43 that contacts the outer peripheral surface of the insertion portion 42 and rotates according to the insertion of the insertion portion 42, and a rotary encoder 44 that detects the amount of rotation of the roller 43 and outputs the rotation amount of the insertion portion 42 to the system controller 4. .
[0024]
Next, details of the remote surgery support apparatus 1 will be described. The VE image generation device 19 obtains the insertion amount data and insertion inclination angle data of the rigid endoscope 2 in real time from the surgical system 2 via the communication line 100, and inserts the insertion amount data, the insertion inclination angle data, and the CT apparatus (not shown). The virtual endoscopy image (VE image) which is a virtual image in which the gaze direction coincides with the endoscopic image captured by the rigid endoscope 2 based on the CT image obtained by (1). The support information generation device 20 is a device that generates a support image to be transmitted to the surgery system 2 with reference to the VE image.
[0025]
Specifically, as shown in FIG. 1, the VE image generation device 19 stores a recording unit 51 that stores a CT image DB (database) constructed from a plurality of CT images, and various programs. Communication that receives the insertion amount data detected by the insertion amount detection unit 21 and the insertion inclination angle data detected by the inclination angle sensor 22 from the surgical system 2 transmitted through the memory 52 and the information transfer I / F unit 25 I / F unit 53, VE image construction unit 54 that constructs a VE image based on the insertion amount data, the insertion tilt angle data, and the CT image of the CT image DB obtained by communication I / F unit 53, and VE image construction unit 54 includes a display I / F unit 56 for displaying the VE image constructed by the VE image display monitor 55, and a CPU 57 for controlling these units, in order to input various data to the CPU 57. Keyboard 58 and mouse 59 are connected.
[0026]
The support information generation apparatus 20 includes a video I / F unit 61 that receives an endoscopic image from the CCU 5 transmitted via the information transfer I / F units 24 and 25 and the communication line 100, and a video I / F unit 61. An endoscope image input unit 62 that converts the obtained endoscope image into digital endoscope image data, an arrow image construction unit 63 that constructs an arrow image to be superimposed on the endoscope image data, and an endoscope An image composition unit 64 that superimposes the arrow image from the arrow image construction unit 63 on the endoscope image data from the image input unit 62 to generate a composite image, and positional information of the arrow image to be superimposed on the endoscope image data From the communication I / F unit 66 that receives the instruction information from the instruction information input unit 65 that inputs the voice, the voice I / F unit 68 that inputs the voice data from the microphone 67 that inputs the instruction voice, and the image synthesis unit 64 Endoscopic image that is a composite image of the image + support A display I / F unit 70 that displays a support image made up of information on the monitor 69, a memory 71 that stores various programs, and a CPU 72 that controls these units, and a voice I / F unit 68 are provided. The audio data and the display I / F unit 70 output a support image to the support information reproducing device 18 of the surgical system 2 via the information transfer I / F units 24 and 25 and the communication line 100.
[0027]
The operation of the present embodiment configured as described above will be described. As shown in FIGS. 5 and 6, in step S <b> 1, the CPU 16 of the system controller 4 is an insertion position of the rigid endoscope 3 into the body of the patient 39 using the remote controller 17 connected to the system controller 4 of the surgical system 2. (Endoscope) Enter the coordinates of the insertion point. This coordinate system coincides with the coordinate system of the CT image.
[0028]
In step S2, the CPU 16 measures and inputs the insertion tilt angle data of the rigid endoscope 3 by the tilt angle sensor 22, and in step S3, input information including the coordinate data of the insertion point and the insertion tilt angle data is input to the remote surgery support device 1. The image is transferred to the VE image generation device 19.
[0029]
In step S4, the CPU 57 of the VE image generation device 19 receives and inputs the input information composed of the coordinate data of the insertion point and the insertion inclination angle data when the VE image generation device 19 of the remote surgery support device 1 receives and inputs the input information including the coordinate data of the insertion point and the insertion inclination angle data. Endoscope) The magnification / line-of-sight direction of the VE image is determined based on the coordinate data of the insertion point and the insertion tilt angle data. In step S6, the VE image construction unit 54 generates a VE image based on the magnification / line-of-sight direction, and displays the display I / The VE image is displayed on the VE image display monitor 55 by the F unit 56.
[0030]
This VE image is displayed in the VE image display area 102 of the VE display screen 101 displayed on the VE image display monitor 55 as shown in FIG. The VE display screen 101 includes a VE image display area 102 that displays a VE image generated by the VE image construction unit 34, a two-dimensional image display area 103 that displays a plurality of two-dimensional CT images related to the VE image, and a rigid endoscope. An insertion point display field 104 for displaying two insertion points (x0, y0, z0), a start / stop button 105 for instructing start and stop of tracking, a display magnification change input unit 106 for changing the display magnification, and the like. Is done.
[0031]
Then, with reference to this VE image, in step S7, in the support information generation device 20, the CPU 72 displays a support image 110 in which an arrow image 109 indicating the affected part position as shown in FIG. The support image 110 is generated and displayed on the monitor 69 via the display I / F unit 70.
[0032]
In step S <b> 7, not only the generation / display of the support image 110 but also the support voice to the operating room is input by the microphone 67. Then, the CPU 72 transmits the generated support image data and the input support voice data to the surgery system 2 via the communication line 100.
[0033]
In the surgery system 2 to which the support image data and the input support sound data are transmitted, the support information generation device 20 displays the support image 110 on the monitor 32 and the support sound is reproduced by the speaker 34 in step S8.
[0034]
In this way, when the first support image 110 is displayed and tracking (following of the VE image to the live image) is started in step S9, the CPU 16 of the system controller 4 uses the tilt angle sensor 22 to detect the rigid endoscope 3 in step S10. In step S11, the CPU 16 measures the insertion amount data of the rigid endoscope 3 by the insertion amount detection unit 21.
[0035]
In step S12, the CPU 16 determines whether there is a change in either the insertion amount data or the insertion inclination angle data. If there is no change, the process returns to step S10. In step S13 in which there is a change, the CPU 16 The input information including the insertion inclination angle data is transferred to the VE image generation device 19 of the remote surgery support device 1.
[0036]
In step S14, the CPU 57 of the VE image generation device 19 receives and inputs the input information including the insertion amount data and the insertion inclination angle data when the VE image generation device 19 of the remote surgery support device 1 receives and inputs the insertion amount data and the insertion inclination angle data. The magnification / gaze direction of the VE image is determined based on the insertion tilt angle data. In step S16, the VE image construction unit 54 generates a VE image based on the magnification / gaze direction, and the display I / F unit 56 converts the VE image into the VE image. It is displayed on the display monitor 55.
[0037]
Then, with reference to the VE image, in step S17, in the support information generation device 20, the CPU 72 generates a support image 110 in which an arrow image indicating the position of the affected part is superimposed on the endoscope image data and a display I / F. The support image 110 including the endoscopic image + support information is displayed on the monitor 69 via the unit 70.
[0038]
In step S <b> 17, not only the generation and display of the support image 110, but also support sound for the operating room is input by the microphone 67. Then, the CPU 72 transmits the generated support image data and the input support voice data to the surgery system 2 via the communication line 100.
[0039]
In the surgery system 2 to which the support image data and the input support sound data are transmitted, the support information 110 is displayed on the monitor 32 by the support information generation device 20 and the support sound is reproduced by the speaker 34 in step S18.
[0040]
Then, the CPU 16 of the system controller 4 determines whether or not there is a support end instruction from the remote controller 17 in step S19, and if not, returns to step S10, and if there is, ends the processing.
[0041]
With the processing in steps S10 to S19, when the live endoscopic image 14a as shown in FIG. 9 is displayed on the endoscopic image display monitor 14 in the VE image generating device 19, for example, on the VE display screen 101. FIG. 10 shows a real-time blood vessel placement virtual image 102a in which the organ portion is erased as shown in FIG. 10 and displayed in the VE image display area 102 in the same size (magnification) as the line-of-sight direction of the live endoscopic image 14a. The
[0042]
In addition, when the rigid endoscope 2 is tilted from the state of FIG. 9 and a live endoscope image 14b as shown in FIG. 11 is displayed on the endoscope image display monitor 14, it follows (tracks) and performs live. A real-time blood vessel placement virtual image 102b in which, for example, an organ portion is deleted as shown in FIG. 12, which matches the line-of-sight direction (magnification) of the endoscopic image 14b, is displayed in the VE image display area 102.
[0043]
As described above, according to the present embodiment, the communication line 100 is used to transmit the insertion amount and the insertion inclination angle of the rigid endoscope 3 to the support room at a location apart from the operating room, so that the remote support room can be provided. Since a supervising doctor provides a support image and sound to a surgeon in the operating room by referring to a VE image that is tracked (followed up) in real time with a live endoscopic image, it is appropriate for the surgeon easily and inexpensively. Can provide procedure support.
[0044]
FIG. 13 is a block diagram showing the configuration of the remote surgery support apparatus and the surgery system according to the second embodiment of the present invention.
[0045]
Since the second embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
[0046]
As shown in FIG. 13, the surgery system 2 includes a VE image display device 202 that inputs VE image data generated by the VE image generation device 19 of the remote surgery support device 1 and displays the VE image data on the VE image display monitor 201. The VE image display device 202 includes a video I / F unit 203 that inputs VE image data via the information transfer I / F units 24 and 25 and the communication line 100, and a VE image display monitor based on the input VE image data. And a display I / F unit 204 to be displayed on 201. Other configurations are the same as those of the first embodiment.
[0047]
In this embodiment, in step S7 or 17 described in the first embodiment, not only the support image data and the input support voice data are transmitted to the surgical system 2 via the communication line 100 but also the VE image. Data is also transmitted to the surgical system 2 via the communication line 100, and a VE image is displayed on the VE image display monitor 201 provided in the operating room. Other operations are the same as those in the first embodiment.
[0048]
According to the present embodiment, in addition to the effects of the first embodiment, an operator in the operating room can also refer to the VE image displayed on the VE image display monitor 201. Can be made stronger.
[0049]
FIG. 14 is a configuration diagram showing configurations of a remote surgery support apparatus and a surgery system according to the third embodiment of the present invention.
[0050]
Since the third embodiment is almost the same as the second embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
[0051]
In the present embodiment, a VE image generation device 301 having a configuration equivalent to the VE image generation device 19 provided in the remote surgery support device 1 is provided in the surgical system for the VE image displayed on the VE image display monitor 201. .
[0052]
Similar to the VE image generation device 19, the VE image generation device 301 includes a recording unit 351 that stores a CT image DB (database) constructed from a plurality of CT images, and a memory 352 that stores various programs. The communication I / F unit 353 that receives the insertion amount data detected by the insertion amount detection unit 21 and the insertion inclination angle data detected by the inclination angle sensor 22 from the system controller 4 and the insertion obtained by the communication I / F unit 353 A VE image construction unit 354 that constructs a VE image based on the amount data, the insertion tilt angle data, and the CT image of the CT image DB, and a display I / I that displays the VE image constructed by the VE image construction unit 354 on the VE image display monitor 201. The keyboard 3 is composed of an F unit 356 and a CPU 357 for controlling these units, and inputs various data to the CP 3U 57. 8 and a mouse 359 are connected. Other configurations and operations are the same as those of the second embodiment.
[0053]
According to the present embodiment, in addition to the effects of the first embodiment, the VE image generation device 301 generates a VE image to be displayed on the VE image display monitor 201. Therefore, the remote operation support device via the communication line 100 Since there is no need to transmit a VE image from one VE image generation device 19, the communication traffic of the communication line 100 can be reduced, and the communication environment can be greatly improved.
[0054]
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.
[0055]
【The invention's effect】
As described above, according to the present invention, it is possible to support surgery by providing an appropriate instruction from a remote facility for a live endoscopic image in a simple, inexpensive and real-time manner. is there.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a remote surgery support apparatus and a surgical system according to a first embodiment of the present invention. FIG. 2 is a diagram showing a usage state of the rigid endoscope of FIG. FIG. 4 is a diagram showing a configuration of a main part of the trocar of FIG. 2. FIG. 5 is a first flowchart showing a processing flow of the remote surgery support device and the surgery system of FIG. FIG. 7 is a diagram showing a VE display screen displayed on the VE image display monitor of FIG. 1. FIG. 8 is a diagram showing the support of FIG. FIG. 9 is a diagram showing a support image generated by the information generating device. FIG. 9 is a diagram showing a first example of an endoscopic image displayed on the endoscopic image display monitor of FIG. 1. FIG. FIG. 11 is a diagram showing a VE display screen displayed corresponding to an image. FIG. 12 is a diagram showing a second example of an endoscopic image displayed on the screen. FIG. 12 is a diagram showing a VE display screen displayed corresponding to the endoscopic image of FIG. 11. FIG. FIG. 14 is a block diagram showing the configuration of a remote surgery support device and a surgical system according to the embodiment. FIG. 14 is a block diagram showing the configuration of the remote surgery support device and the surgical system according to the third embodiment of the present invention. ]
DESCRIPTION OF SYMBOLS 1 ... Remote surgery assistance apparatus 2 ... Surgery system 3 ... Rigid endoscope 4 ... System controller 5 ... CCU
6 ... light source device 7 ... pneumo-abdominal device 8 ... electric knife 9 ... ultrasonic treatment device 10 ... VTR
DESCRIPTION OF SYMBOLS 11 ... Imaging part 18 ... Support information reproduction apparatus 19 ... VE image generation apparatus 20 ... Support information generation apparatus 21 ... Insertion amount detection part 22 ... Inclination angle sensor 51 ... Recording part (CT image DB)
52 ... Memory 53 ... Communication I / F unit 54 ... VE image construction unit 55 ... VE image display monitor 56 ... Display I / F unit 57 ... CPU
100: Communication line

Claims (4)

視野方向を特定可能な内視鏡を体内に刺入し該内視鏡により撮像された内視鏡画像による観察下で行われる手術を実施する手術システムに対して支援情報を通信回線を介して遠隔的に提供する遠隔手術支援装置において、
前記体腔内の複数のCT画像データを記憶するCT画像記憶手段と、
前記手術システムより前記内視鏡の前記体腔内への挿入位置、前記内視鏡の体内挿入量データ及び前記内視鏡の挿入傾斜角データを前記通信回線を介して入力するデータ入力手段と、
前記挿入位置データ、前記挿入量データ及び前記挿入傾斜角データに基づき、前記複数のCT画像データより前記内視鏡画像とリアルタイムに同期した仮想内視鏡像を構築する仮想画像構築手段と
を備えたことを特徴とする遠隔手術支援装置。
An endoscope capable of specifying the visual field direction is inserted into the body, and support information is transmitted via a communication line to a surgical system for performing a surgery performed under observation by an endoscopic image captured by the endoscope. In a remote operation support device that provides remotely,
CT image storage means for storing a plurality of CT image data in the body cavity;
Data input means for inputting the insertion position of the endoscope into the body cavity, the insertion amount data of the endoscope and the insertion inclination angle data of the endoscope from the surgical system via the communication line;
Virtual image construction means for constructing a virtual endoscopic image synchronized with the endoscopic image in real time from the plurality of CT image data based on the insertion position data, the insertion amount data, and the insertion inclination angle data. A telesurgical support device.
前記手術システムより前記内視鏡画像を前記通信回線を介して入力する画像入力手段と、
前記仮想画像構築手段により構築された前記仮想内視鏡像に基づき前記支援情報を生成し、前記画像入力手段が入力した前記内視鏡画像に前記支援情報を付加し前記前記手術システムに前記通信回線を介して出力する支援情報出力手段と
を備えたことを特徴とする請求項1に記載の手術支援装置。
Image input means for inputting the endoscopic image from the surgical system via the communication line;
The support information is generated based on the virtual endoscopic image constructed by the virtual image construction means, the support information is added to the endoscopic image input by the image input means, and the communication line is connected to the surgical system. The operation support apparatus according to claim 1, further comprising support information output means for outputting via the operation information.
前記内視鏡画像に付加される前記支援情報は、前記内視鏡画像に重畳される重畳支援画像データである
ことを特徴とする請求項2に記載の手術支援装置。
The surgery support apparatus according to claim 2, wherein the support information added to the endoscopic image is superimposition support image data superimposed on the endoscopic image.
前記内視鏡画像に付加される前記支援情報は、前記仮想内視鏡像に基づく前記画像入力手段が入力した前記内視鏡画像に関連した音声支援情報である
ことを特徴とする請求項2または3に記載の手術支援装置。
The support information added to the endoscopic image is voice support information related to the endoscopic image input by the image input unit based on the virtual endoscopic image. 3. The surgery support apparatus according to 3.
JP2003189784A 2003-06-02 2003-07-01 Surgery remotely supporting apparatus Pending JP2005021354A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003189784A JP2005021354A (en) 2003-07-01 2003-07-01 Surgery remotely supporting apparatus
US10/858,440 US20050033117A1 (en) 2003-06-02 2004-06-01 Object observation system and method of controlling object observation system
US11/716,308 US7951070B2 (en) 2003-06-02 2007-03-09 Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003189784A JP2005021354A (en) 2003-07-01 2003-07-01 Surgery remotely supporting apparatus

Publications (1)

Publication Number Publication Date
JP2005021354A true JP2005021354A (en) 2005-01-27

Family

ID=34187889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003189784A Pending JP2005021354A (en) 2003-06-02 2003-07-01 Surgery remotely supporting apparatus

Country Status (1)

Country Link
JP (1) JP2005021354A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7841980B2 (en) * 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
US20150359419A1 (en) * 2013-02-21 2015-12-17 Olympus Corporation Object insertion system
WO2022168242A1 (en) * 2021-02-04 2022-08-11 リバーフィールド株式会社 Information processing device and assistance system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5217003A (en) * 1991-03-18 1993-06-08 Wilk Peter J Automated surgical system and apparatus
JPH07194616A (en) * 1993-11-26 1995-08-01 Toshiba Medical Eng Co Ltd Operation support system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
JPH10234662A (en) * 1997-02-27 1998-09-08 Toshiba Corp Image processor
JPH11309A (en) * 1997-06-12 1999-01-06 Hitachi Ltd Image processor
JP2000135215A (en) * 1998-10-30 2000-05-16 Ge Yokogawa Medical Systems Ltd Conduit guiding method and device thereof and radiation tomographic equipment
JP2001500772A (en) * 1997-06-23 2001-01-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image guided surgery system
WO2001074235A1 (en) * 2000-04-03 2001-10-11 Neoguide Systems, Inc. Steerable endoscope and improved method of insertion
JP2002306509A (en) * 2001-04-10 2002-10-22 Olympus Optical Co Ltd Remote operation supporting system
JP2003144454A (en) * 2001-11-16 2003-05-20 Yoshio Koga Joint operation support information computing method, joint operation support information computing program, and joint operation support information computing system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5217003A (en) * 1991-03-18 1993-06-08 Wilk Peter J Automated surgical system and apparatus
JPH07194616A (en) * 1993-11-26 1995-08-01 Toshiba Medical Eng Co Ltd Operation support system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
JPH10234662A (en) * 1997-02-27 1998-09-08 Toshiba Corp Image processor
JPH11309A (en) * 1997-06-12 1999-01-06 Hitachi Ltd Image processor
JP2001500772A (en) * 1997-06-23 2001-01-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image guided surgery system
JP2000135215A (en) * 1998-10-30 2000-05-16 Ge Yokogawa Medical Systems Ltd Conduit guiding method and device thereof and radiation tomographic equipment
WO2001074235A1 (en) * 2000-04-03 2001-10-11 Neoguide Systems, Inc. Steerable endoscope and improved method of insertion
JP2002306509A (en) * 2001-04-10 2002-10-22 Olympus Optical Co Ltd Remote operation supporting system
JP2003144454A (en) * 2001-11-16 2003-05-20 Yoshio Koga Joint operation support information computing method, joint operation support information computing program, and joint operation support information computing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7841980B2 (en) * 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
US20150359419A1 (en) * 2013-02-21 2015-12-17 Olympus Corporation Object insertion system
WO2022168242A1 (en) * 2021-02-04 2022-08-11 リバーフィールド株式会社 Information processing device and assistance system
JP7156751B1 (en) * 2021-02-04 2022-10-19 リバーフィールド株式会社 Information processing equipment, support system

Similar Documents

Publication Publication Date Title
JP4698966B2 (en) Procedure support system
US7951070B2 (en) Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure
JP4733243B2 (en) Biopsy support system
US20070078328A1 (en) Operation assisting system
JP2019162339A (en) Surgery supporting system and display method
JP2001061861A (en) System having image photographing means and medical work station
JP2007152114A (en) Ultrasound system for interventional treatment
JP4365630B2 (en) Surgery support device
JP2006198032A (en) Surgery support system
JP4022114B2 (en) Endoscope device
JP2002253480A (en) Device for assisting medical treatment
JP2004097696A (en) Endoscopic observing apparatus
JP2006198031A (en) Surgery support system
US20050234326A1 (en) Medical procedure support system and method
JP2006223374A (en) Apparatus, system and method for surgery supporting
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP2005021354A (en) Surgery remotely supporting apparatus
JP2006218239A (en) Technique support system
JP4615842B2 (en) Endoscope system and endoscope image processing apparatus
JP4546043B2 (en) Virtual image display device
JP4533638B2 (en) Virtual image display system
JP2005021355A (en) Surgery supporting apparatus
JP2005211530A (en) Operative technique supporting system
JP2005013358A (en) Insertion support system
JP2005211529A (en) Operative technique supporting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100316