JP2006198032A - Surgery support system - Google Patents
Surgery support system Download PDFInfo
- Publication number
- JP2006198032A JP2006198032A JP2005010885A JP2005010885A JP2006198032A JP 2006198032 A JP2006198032 A JP 2006198032A JP 2005010885 A JP2005010885 A JP 2005010885A JP 2005010885 A JP2005010885 A JP 2005010885A JP 2006198032 A JP2006198032 A JP 2006198032A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual image
- endoscope
- display
- endoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、内視鏡等を含む内視鏡システムを用いて手術をする際に、被検体に関する3次元画像データ(以下、バーチャル画像データと称す)を得、このバーチャル画像データに基づく画像を表示することにより術者を支援する手術支援システムに関する。 The present invention obtains three-dimensional image data (hereinafter referred to as virtual image data) related to a subject when performing an operation using an endoscope system including an endoscope or the like, and an image based on the virtual image data is obtained. The present invention relates to a surgery support system that supports a surgeon by displaying.
近年、画像による診断が広く行われるようになっており、例えばX線CT(Computed Tomography)装置等により被検体の断層像を撮像することにより被検体内の3次元的なバーチャル画像データを得、このバーチャル画像データを用いて患部の診断が行われるようになってきた。 In recent years, diagnosis based on images has been widely performed. For example, three-dimensional virtual image data in a subject is obtained by capturing a tomographic image of the subject using an X-ray CT (Computed Tomography) apparatus or the like. Diagnosis of an affected area has been performed using this virtual image data.
CT装置では、X線照射・検出を連続的に回転させつつ被検体を体軸方向に連続送りすることにより、被検体の3次元領域について螺旋状の連続スキャン(ヘリカルスキャン:helical scan)を行い、3次元領域の連続するスライスの断層像から、3次元的なバーチャル画像を作成することが行われる。 In the CT apparatus, by continuously feeding the subject in the body axis direction while continuously rotating the X-ray irradiation / detection, a helical continuous scan (helical scan) is performed on the three-dimensional region of the subject. A three-dimensional virtual image is created from tomographic images of successive slices of a three-dimensional region.
このような3次元画像を用いる方法は、例えば外科手術等における低浸襲手術を行う場合にも利用される。
一般に、外科手術等における低浸襲手術では、大きく切開する手術に比べて術野が制限されるので術者は治療部位と手術処置具との位置関係を直接的に把握することが困難である。
このため、例えば特開2001−293006号公報等では、手術処置具及び被検体の3次元位置姿勢情報を計測し、この3次元位置姿勢情報に基づいて予め記憶された被検体の断層像情報から所望の断層像を抽出し、この抽出された断層像上に手術処置具の三次元位置姿勢情報に基づく投影像を付加して表示することで、術者が表示される画像と現在の視点との位置姿勢関係を容易に把握できる手術ナビゲーション装置が提案されている。
Such a method using a three-dimensional image is also used when performing low invasive surgery in, for example, surgery.
Generally, in a low invasive operation such as a surgical operation, the surgical field is limited as compared with a surgical operation with a large incision, so it is difficult for an operator to directly grasp the positional relationship between a treatment site and a surgical treatment instrument. .
For this reason, for example, in Japanese Patent Application Laid-Open No. 2001-293006, three-dimensional position and orientation information of a surgical instrument and a subject is measured, and based on the tomographic image information of the subject stored in advance based on the three-dimensional position and orientation information. By extracting a desired tomographic image and displaying a projection image based on the three-dimensional position and orientation information of the surgical instrument on the extracted tomographic image, the image displayed by the operator, the current viewpoint, Surgical navigation devices that can easily grasp the position / posture relationship have been proposed.
また、腹部領域の体内の臓器を被検体とする診断においては、従来より、主に腹部領域内の被検体の3次元的なバーチャル画像を作成し、これを表示しながら診断するための画像解析ソフトが実用化されている。
この種の画像解析ソフトを用いた画像システムは、医師が術前に予め患者の腹部領域内等の被検体の病変部の変化をそのバーチャル画像を見ながら把握するための診断に用いられており、通常、カンファレンス室等の手術室外で行われているが一般的である。
An image system using this kind of image analysis software is used for diagnosis by doctors to grasp changes in the lesion of a subject in the patient's abdominal region, etc. in advance while viewing the virtual image before surgery. Usually, it is performed outside an operating room such as a conference room.
従来より、内視鏡観察下で脳内の被検体に対する脳外科手術等を行う場合、内視鏡観察画像の観察領域の被検体の生体画像情報(動脈、静脈の配置の画像情報や、関心部位の位置の画像情報等)を、必要に応じて術者に対して迅速に提供することが望まれている。
しかしながら、上述した画像解析ソフトを用いた画像システムは、あくまでも腹部領域の被検体のバーチャル画像を見ながら診断を行うといった腹部領域の術前に使用するものであり、実際の内視鏡システムと併用して実際の脳外科手術等に使用することはできず、術者に対して必要な被検体の生体画像情報を提供することはできない。
Conventionally, when performing brain surgery or the like on a subject in the brain under endoscopic observation, biological image information of the subject in the observation region of the endoscopic observation image (image information on the arrangement of arteries and veins, or a region of interest) It is desired to quickly provide the operator with image information on the position of the user as necessary.
However, the image system using the image analysis software described above is used before the operation of the abdominal region such as making a diagnosis while viewing the virtual image of the subject in the abdominal region, and is used in combination with the actual endoscope system. Thus, it cannot be used for actual brain surgery or the like, and the vital image information of the subject cannot be provided to the surgeon.
内視鏡観察下で脳内の被検体に対する脳外科手術等は、開頭された小さな孔を介して硬性鏡などの手術処置具を挿入して手術を行わなければならないため、前記したように術野が制限されてしまい、脳の狭い血管(静脈や静脈)部分しか観察することができない。 Neurosurgical operations, etc. on a subject in the brain under endoscopic observation must be performed by inserting a surgical instrument such as a rigid endoscope through a small open hole. Is limited, and only narrow blood vessels (veins and veins) of the brain can be observed.
このため、前記従来の特開2001−293006号公報に記載の手術ナビゲーション装置は、断層像上に手術処置具の三次元位置姿勢情報に基づく投影像を付加して表示することで、術者が表示される画像と現在の視点との位置姿勢関係を容易に把握できるが、さらに被検体の詳細な生体画像情報を得ることができないため、結果として、術者は狭い観察視野状態となるために細心の注意を払いながら血管のパイパス手術等を行わなければならず、手術に多くの時間を費やしてしまうといった問題点があった。 For this reason, the surgical navigation device described in the conventional Japanese Patent Application Laid-Open No. 2001-293006 adds and displays a projection image based on the three-dimensional position and orientation information of the surgical treatment tool on the tomographic image, so that the operator can Although the position and orientation relationship between the displayed image and the current viewpoint can be easily grasped, further detailed biological image information of the subject cannot be obtained, and as a result, the operator becomes in a narrow observation visual field state. There has been a problem that blood vessel bypass surgery and the like have to be performed with great care, and a lot of time is spent on the surgery.
本発明は、前記問題点に鑑みてなされたものであり、内視鏡観察下において、内視鏡観察画像にこの内視鏡観察画像ではみえない周辺部のバーチャル画像を重畳表示することにより、外科手術等の手術をより円滑に行えるように支援することができる手術支援システムを提供することを目的とする。 The present invention has been made in view of the above problems, and under endoscopic observation, by superimposing and displaying a virtual image of a peripheral portion that cannot be seen in this endoscopic observation image on the endoscopic observation image, An object of the present invention is to provide a surgical operation support system that can support a surgical operation such as a surgical operation more smoothly.
本発明の手術支援システムは、内視鏡画像と、この内視鏡画像の視点位置に合わせたバーチャル画像とを表示して術者を支援する手術支援システムであって、前記内視鏡画像では見えてない周辺部に関するバーチャル画像データを取得し、このバーチャル画像データに基づくバーチャル画像を前記内視鏡画像に重畳して表示する重畳表示制御手段を有していることを特徴とするものである。 The surgery support system of the present invention is a surgery support system that supports an operator by displaying an endoscopic image and a virtual image that matches the viewpoint position of the endoscopic image. Virtual image data relating to an invisible peripheral portion is acquired, and a superimposing display control unit that superimposes and displays a virtual image based on the virtual image data on the endoscopic image is provided. .
本発明の手術支援システムは、内視鏡観察下において、内視鏡観察画像にこの内視鏡観察画像ではみえない周辺部のバーチャル画像を重畳表示することにより、外科手術等の手術をより円滑に行えるように支援することができるといった利点がある。 The surgical operation support system according to the present invention facilitates a surgical operation or the like by superimposing and displaying a virtual image of a peripheral portion that cannot be seen in the endoscopic observation image on the endoscopic observation image under endoscopic observation. There is an advantage that it can be supported so that it can be performed.
以下、図面を参照して本発明の実施例を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1乃至図10は本発明の手術支援システムの実施例1に係り、図1は実施例1の手術支援システムの全体構成を示す概略構成図、図2は図1の手術支援システムの全体構成を示すブロック図、図3は硬性鏡の位置に応じたバーチャル画像を生成するのに必要な座標変換を示す説明図、図4は硬性鏡の内視鏡画像の一例を示す表示図、図5は本実施例の表示例を示し、内視鏡画像に観察視野内の背景のバーチャル画像が重畳された表示図、図6は脳内の基本となる血管の配置状態を示し、図6(A)は動脈、図6(B)は静脈を示し、図7は図6(A)の動脈上の所定箇所の内視鏡画像を示す表示図、図8は図7の観察視野内の内視鏡画像を拡大すると同時にこの内視鏡画像に観察視野内の背景のバーチャル画像が重畳された表示図、図9はバーチャル画像生成部のCPUによるメイン制御手順を示すフローチャート、図10は図9の手術実行モード実行処理のサブルーチンを示すフローチャートである。 1 to 10 relate to a first embodiment of the surgery support system of the present invention, FIG. 1 is a schematic configuration diagram showing the overall configuration of the surgery support system of the first embodiment, and FIG. 2 is an overall configuration of the surgery support system of FIG. FIG. 3 is an explanatory diagram showing coordinate transformation necessary for generating a virtual image according to the position of the rigid endoscope, FIG. 4 is a display diagram showing an example of an endoscope image of the rigid endoscope, and FIG. Shows a display example of the present embodiment, a display diagram in which a virtual image of a background in an observation field is superimposed on an endoscopic image, FIG. 6 shows a basic blood vessel arrangement state in the brain, and FIG. ) Is an artery, FIG. 6B is a vein, FIG. 7 is a display diagram showing an endoscopic image of a predetermined location on the artery in FIG. 6A, and FIG. 8 is an endoscope in the observation field of FIG. FIG. 9 is a display diagram in which a virtual image of the background in the observation visual field is superimposed on the endoscopic image at the same time that the mirror image is enlarged, Flowchart showing a main control procedure by the CPU of Charu image generating unit, 10 is a flowchart showing a subroutine of the operation execution mode execution process of FIG.
図1に示すように、本実施例の手術支援システム1は、内視鏡システムと組み合わせて構成され、具体的には、観察手段としての硬性鏡2Bを有する内視鏡装置2、CCU(カメラコントロールユニット)4、光源装置5、電気メス装置6、超音波駆動電源8、VTR9、システムコントローラ10、バーチャル画像生成部11、リモコン12A、音声入力マイク12B、内視鏡ライブ画像表示用の参照用モニタ13、情報入力手段であるマウス15、キーボード16、バーチャル画像表示用のモニタ17及び、手術室に配された術者用モニタ32を有している。
As shown in FIG. 1, the
内視鏡装置2は、脳外科手術等を行うための観察手段である硬性鏡2Bと、この硬性鏡2Bを固定する機能を備え、この硬性鏡2Bにより撮像された内視鏡画像を表示する表示部2b及び接眼部2a等を有する固定装置2Aとを有している。
The
硬性鏡2Bは、図3に示すように開頭された孔を介して術部領域内に挿入するための挿入部と、挿入部の基端側に設けられた把持部と、この把持部に設けられた接眼部とから構成され、例えば把持部及び接眼部が前記固定装置2A内に固定されるようになっている。挿入部の内部には、照明光学系及び観察光学系が設けられており、被検体の観察部位を照明し、被検体の観察像を得ることが可能である。
なお、図示はしないが把持部には、ライトガイドコネクタが設けられている。このライトガイドコネクタには、一端を光源装置に接続されたライトガイドケーブルの他端に設けられたコネクタが接続される。これにより、照明光学系を介して光源装置5からの照明光により観察部位を照明する。
As shown in FIG. 3, the
Although not shown, the grip portion is provided with a light guide connector. A connector provided at the other end of the light guide cable having one end connected to the light source device is connected to the light guide connector. Thus, the observation site is illuminated with illumination light from the
また、図示しない接眼部には、前記固定装置2A内に設けられた、CCDを内蔵したカメラヘッド(図示せず)が接続される。このカメラヘッド(図示せず)の後端側にカメラケーブルが延設されている。また、カメラケーブルの他端には、CCU4に電気的に接続するための接続コネクタが設けられている。
Further, a camera head (not shown) with a built-in CCD provided in the
固定装置2Aの内部には、前記カメラケーブルに接続された表示部2bが設けられている。この表示部2bは、硬性鏡2Bにより撮像された被検体の観察像を表示する。固定装置2Aの所定箇所には、術者がこの表示部2bに表示された被検体の観察像を見ながら手術を行うための接眼部2aが設けられている。
また、固定装置2Aの側面側には、観察像のズームイン/アウトなどの操作や表示モードの変更操作/実行操作などの操作を行うためのリモートスイッチ2Cが設けられている。
A display unit 2b connected to the camera cable is provided inside the
Further, on the side surface side of the
なお、本実施例では、硬性鏡2Bが固定装置2Aに固定された一体型の内視鏡装置2について説明したが、これに限定されることはなく、例えば硬性鏡2Bと固定装置2Aとを別体にしても良い。また、硬性鏡2Bのみの構成や、電子顕微鏡を用いた構成としても良い。
In the present embodiment, the integrated
硬性鏡2Bは、前記固定装置2Aによって患者頭部内に保持されながら前記挿入部を開頭された孔を介して頭部領域に挿入して、観察光学系を介して得られた頭部内の観察像をカメラヘッドを介してCCU4に供給する。
The
CCU4は、図2に示すように、硬性鏡2Bからの撮像信号に信号処理を施し、撮像信号に基づく画像データ(例えば内視鏡ライブ画像データ)を、手術室内に配されたシステムコントローラ10及びVTR9に供給する。なお、この場合、システムコントローラ10からの制御により、内視鏡ライブ画像の静止画あるいは動画に基づく画像データがCCU4から選択出力されることになる。また、前記システムコントローラ10の詳細な構成ついては後述する。
As shown in FIG. 2, the
VTR9は、システムコントローラ10の制御により、前記CCU4からの内視鏡ライブ画像データを記録し、あるいは再生可能である。再生時の場合には、再生された内視鏡ライブ画像データをシステムコントローラ10に出力する。
The VTR 9 can record or reproduce the endoscope live image data from the CCU 4 under the control of the
光源装置5は、ライトガイドケーブル内のライトガイドを介して硬性鏡2Bに設けられた照明光学系に対して照明光を供給するための光源装置である。
電気メス装置6は、例えば患者の術部(脳内)の異常部を電気熱を用いて切断したりする手術処置具と、その処置具に対して高周波電流を出力する高周波出力装置である。超音波駆動電源8は、超音波プローブや鉗子等で前記異常部を切断あるいは採取したりする手術処置具と、その処置具に対して高周波電流を出力する高周波出力装置である。
これらの光源装置5,電気メス装置6及び超音波駆動電源8は、前記システムコントローラ10と電気的に接続されており、このシステムコントローラ10によってその駆動が制御されるようになっている。
The
The
The
また、手術室内には、上述した各種機器の他にシステムコントローラ10及び術者用モニタ32が配されている。
本実施例では、例えば患者30の頭部領域内に硬性鏡2の挿入部を挿入して被検体を撮像する術者31が、図1に示すような位置で処置を行うものとすると、この術者31は前記内視鏡装置2内の表示部2bを見ながら手術を行うことになるが、他の術者用として同じ内視鏡画像等を表示可能な前記術者用モニタ32が設置されるようになっている。
術者用モニタ32は、内視鏡画像用モニタ13aとこれに並設されるバーチャル画像用モニタ17aとを有している。
In addition to the various devices described above, a
In this embodiment, for example, when an
The surgeon monitor 32 has an endoscopic image monitor 13a and a
システムコントローラ10は、内視鏡システム全体の各種動作(例えば表示制御や調光制御等)を制御するもので、図2に示すように、通信インターフェイス(以下、通信I/Fと称す)18、メモリ19、制御部としてのCPU20及び表示インターフェイス(以下、表示I/Fと称す)21とを有している。
The
通信I/F18は、CCU4、光源装置5、電気メス装置6、超音波駆動電源8、VTR9及び後述するバーチャル画像生成部11に電気的に接続されており、これらの駆動制御信号の送受信、または内視鏡画像データの送受信をCPU20によって制御される。 キャプチャ回路18Aは、CCU4からの内視鏡画像データが供給され、CPU20の制御により、表示部2bや前記参照用モニタ13及び内視鏡画像用モニタ13a等に表示する静止画あるいは動画の内視鏡画像データを取り込み、画像ファイルとして通信I/F18を介してバーチャル画像生成部11に出力する。
The communication I /
なお、通信I/F18には、遠隔操作手段としての術者用のリモコン12A、リモートスイッチ2C及び音声入力マイク12Bが電気的に接続されており、リモコン12Aやリモートスイッチ2Cの操作指示信号あるいは音声入力マイク12Bの音声指示信号を取り込み、前記CPU20に供給するようになっている。
The communication I /
このリモコン12A及びリモートスイッチ2Cは、図示はしないが例えば内視鏡ライブ画像用の参照用モニタ13やバーチャル画像表示用のモニタ17、あるいは術者用モニタ32や表示部2bに表示される表示画像に対応したホワイトバランスボタン、VTR9に内視鏡ライブ画像を録画実行するための録画ボタン、その録画実行の際のフリーズボタン及びレリーズボタン、内視鏡ライブ画像あるいはバーチャル画像表示を実行するための表示ボタン、バーチャル画像を表示する際に2次元表示(2D表示)を実行するための操作ボタン(各種2D表示モードに応じたアキシャルボタン、コロナルボタン、サジタルボタン等)、バーチャル画像を表示する際に3次元表示(3D表示)を実行するための操作ボタンで、各種3D表示モードを実行した際のバーチャル画像の視野方向を示す挿入点ボタン(硬性鏡2Bの術部領域に対する挿入情報で、例えば硬性鏡2Bを挿入する術部領域のX方向、Y方向、Z方向の数値を表示するためのボタン)、注目点ボタン(注目する術部領域のX方向、Y方向、Z方向の数値を表示するためのボタン)、3D表示する際の表示倍率変更を指示するためのボタン(表示倍率を縮小する縮小ボタン、表示倍率を拡大する拡大ボタン等)、表示色を変更するための表示色ボタン、トラッキングを実行するためのトラッキングボタン、各ボタンの押下により決定した操作設定モードに対して設定入力情報の切換や決定等を行う操作ボタンや数値等を入力するためのテンキー等を有している。
Although not shown, the
なお、硬性鏡2Bの術部領域に対する挿入情報は、図2に示すマウス15やキーボード16を有して構成される情報入力部3Bを用いて入力しても良い。
In addition, you may input the insertion information with respect to the operation part area | region of the
したがって、これらの各ボタンを備えたリモートスイッチ2C(またはリモコン12A)を用いることによって、術者は所望する情報が迅速に得られるように操作することが可能である。
Therefore, by using the
メモリ19は、例えば内視鏡静止画像の画像データや機器設定情報等のデータを記憶するもので、これらのデータの記憶、及び読み出しは前記CPU20によって制御がなされるようになっている。
The
表示I/F21は、前記CCU4、VTR9及び参照用モニタ13に電気的に接続されており、CCU4からの内視鏡ライブ画像データあるいはVTR9の再生された内視鏡画像データを送受信し、例えば受信した内視鏡ライブ画像データを参照用モニタ13及び後述する内視鏡画像用モニタ13aに出力する。これにより、参照用モニタ13及び内視鏡画像用モニタ13aは供給された内視鏡ライブ画像データに基づく内視鏡ライブ画像を表示する。
The display I /
また、前記参照用モニタ13及び内視鏡画像用モニタ13aは、内視鏡ライブ画像の表示の他に、CPU20の表示制御により、内視鏡システムの各種機器設定状態やパラメータ等の設定情報を表示することも可能である。
The reference monitor 13 and the endoscope image monitor 13a receive setting information such as various apparatus setting states and parameters of the endoscope system by display control of the
CPU20は、システムコントローラ10内の各種動作、すなわち、通信I/F18、表示I/F21による各種信号の送受信制御、メモリ19の画像データの書き込みや読み出し制御、参照用モニタ13及び内視鏡画像用モニタ13aの表示制御、さらにはリモートスイッチ2C(またはリモコン12A)の操作信号に基づく各種動作制御等を行う。
The
一方、前記システムコントローラ10には、バーチャル画像生成部11が電気的に接続されている。
バーチャル画像生成部11は、図2に示すように、CT画像DB部23、メモリ24、CPU25、通信I/F26、表示I/F27を有している。
On the other hand, a virtual image generation unit 11 is electrically connected to the
As illustrated in FIG. 2, the virtual image generation unit 11 includes a CT
CT画像DB部23は、患者のX線断層像を撮像する図示しない公知のCT装置で生成された3次元画像データを、例えばMO(Magneto−Optical disk)装置やDVD(Digital Versatile Disc)装置等、可搬型の記憶媒体を介して取り込むCT画像データ取り込み部(図示せず)を備え、取り込んだ3次元画像データ(CT画像データ)を格納するものである。この3次元画像データの読み出しや書き込みは、CPU25によって制御される。
The CT
メモリ24は、例えば前記3次元画像データやCPU25によりこの3次元画像データに基づき生成されたバーチャル画像データ等のデータを記憶するもので、これらのデータの記憶、及び読み出しは前記CPU25によって制御がなされるようになっている。
The
通信I/F26は、前記システムコントローラ10の通信I/F18、例えば硬性鏡2Bに設けられたセンサ3A(図2参照)に接続されており、バーチャル画像生成部11と前記システムコントローラ10とが連動して各種動作するのに必要な制御信号の送受信や、前記センサ3Aからの検出信号の受信やリモートスイッチ2Cからの操作信号の受信を行うもので、CPU25によって制御され、CPU25内に取り込まれるようになっている。
The communication I /
表示I/F27は、前記CPU25の制御により生成されたバーチャル画像をバーチャル画像用のモニタ17、17a及び内視鏡装置2内の表示部2bに出力する。これにより、バーチャル画像用モニタ17、17a及び表示部2bは供給されたバーチャル画像を表示する。
The display I /
前記CPU25には、マウス15及びキーボード16が電気的に接続されている。これらマウス15及びキーボード16は、前記したようにこのバーチャル画像表示装置によるバーチャル画像表示動作を実行するのに必要な各種設定情報等を入力したり設定したりするための情報入力部である。
A
CPU25は、前記バーチャル画像生成部11内の各種動作、すなわち、通信I/F26、表示I/F27による各種信号の送受信制御、メモリ24の画像データの書き込みや読み出し制御、モニタ17、17a及び表示部2bの表示制御、さらにはリモートスイッチ2C、マウス15やキーボード16の操作信号に基づく各種動作制御等を行う。
The
また、CPU25には、CT画像DB部23から読み込んだ3次元画像データ(CT画像データ)を用いて、前記硬性鏡2Bの挿入位置情報またはセンサ3Aからの検出結果に基づき、バーチャル画像をそれぞれ生成する合成回路25Aを備えている。CPU25は、この合成回路25Aを用いて生成された、硬性鏡2Bの挿入位置に応じたバーチャル画像、すなわち、内視鏡ライブ画像に対応したバーチャル画像をモニタ17、17a及び表示部2bに表示させる表示制御を行う。
Further, the
なお、本実施例では、前記バーチャル画像生成部11を、例えば遠隔地に配されたバーチャル画像生成部に通信手段を介して接続するように構成すれば遠隔手術支援システムとして構築することも可能である。 In this embodiment, if the virtual image generation unit 11 is configured to be connected to a virtual image generation unit disposed in a remote place, for example, via a communication means, it can be constructed as a remote operation support system. is there.
また、本実施例では、硬性鏡2Bの術部領域に対する挿入情報は、硬性鏡2Bが固定装置2Aによって固定されているので、予め挿入方向及び挿入位置等の情報を入力しておけば硬性鏡2Bの挿入移動量についてはCPU25よる演算処理によって求めることができる。この場合、必要な数値入力は、前記リモートスイッチ2Cやリモコン12A、あるいは情報入力部であるマウス15やキーボード16を用いて行えば良い。
In this embodiment, the insertion information for the surgical site of the
また、硬性鏡2Bの術部領域に対する挿入情報は、前記硬性鏡2Bに図2に示すようにセンサ3Aを設けて、硬性鏡2Bの術部領域に対する挿入情報を取得しても良い。
また、本実施例では、図3に示す方法によって、硬性鏡2Bの術部領域に対する挿入情報を取得しても良い。この方法は、例えば特開2001−293006号公報に記載されているように、硬性鏡2Bに赤外線LEDを三角形状に配置したセンシングプレート2Dを設けるとともに、患者30の頭部に同様のセンシングプレート2Eをテープにて貼り付け、このセンシングプレート2D、2Eが計測範囲内に位置するように図示しないセンサアセンブリを配置する。そして、このセンサアセンブリは、これら赤外線LEDが発光している状態を映像で捉え、この捉えた映像を基に次元位置情報を計測し、計測結果を通信I/F26を介してCPU25に供給する。
Further, the insertion information for the surgical region of the
In this embodiment, the insertion information for the surgical site of the
そして、CPU25は、図3に示すように、予め計測結果に基づき算出した座標変換行列eHc33、座標変換行列pHe34、座標変換行列mHp35を用いて、予めメモリ24に記憶された硬性鏡2Bの後端36の位置をオブジェクト座標系m上の座標値へ変換する。また、同時に、カメラ座標系cの原点に一致する硬性鏡2Bの先端37の位置も、座標変換行列pHe34、座標変換行列mHp35を用いて、オブジェクト座標系m上の座標値へ変換する。また、CPU25は、オブジェクト座標系m上の座標値へ変換された硬性鏡2Bの先端37の位置を用いてモニタ17、17a、(表示部2b)上で表示する三方向の断層像を抽出し、被検体の断層像データ30Aとしてメモリ24またはCT画像DB部23に記憶しておく。
Then, as shown in FIG. 3, the
次に、実施例1の手術支援システム1の制御例を図1、図2及び図4〜図10を参照しながら説明する。
最初に、手術支援システム1のバーチャル画像表示機能における基本動作を説明する。
Next, a control example of the
First, the basic operation in the virtual image display function of the
図1に示すバーチャル画像生成部11を有する内視鏡システムを用いて、患者の頭部領域内の被検体の手術を行うものとする。このとき、内視鏡システムの電源が投入されているものとすると、バーチャル画像生成部11のCPU25は、オペレータがマウス15またはキーボード16を用いてバーチャル画像表示の指示を受け付けると、図示しない記録部に記録されているバーチャル画像表示用プログラムを起動する。すると、CPU25は、バーチャル画像を表示するのに必要な画面をモニタ17に表示させる。
It is assumed that the subject in the head region of the patient is operated using the endoscope system having the virtual image generation unit 11 shown in FIG. At this time, assuming that the power of the endoscope system is turned on, the
そして、オペレータは、このモニタ17上に表示された画面を見ながら、例えば患者の術部領域のどの位置に硬性鏡2Bを挿入するかの情報(術部領域のZ方向の数値(挿入点)、必要であれば術部領域のX方向、Y方向も含む)を、マウス15あるいはキーボード16を用いて入力し、その後、同様に、硬性鏡2Bを術部領域に挿入した際の硬性鏡2Bの軸方向(注目点)の数値を入力する。
Then, while viewing the screen displayed on the monitor 17, the operator, for example, information on which position in the surgical region of the patient the
バーチャル画像生成部11の合成回路25Aは、入力された情報に基づき、硬性鏡2Bの挿入点及び注目点に対応するバーチャル画像を生成する。CPU25は、生成されたバーチャル画像データをバーチャル画像用モニタ17、17a及び内視鏡装置2の表示部2bに表示する。
The synthesis circuit 25A of the virtual image generation unit 11 generates a virtual image corresponding to the insertion point and the attention point of the
このとき、手術を行っている術者側の術者用モニタ32内の内視鏡画像用モニタ13a及び内視鏡装置2内の表示部2bには、システムコントローラ10のCPU20及びバーチャル画像生成部11のCPU25の表示制御により、内視鏡ライブ画像が表示され、この表示を見ながら術者31は手術を行うことになる。
At this time, the
手術を行っている場合、本実施例では、バーチャル画像生成部11のCPU25は、内視鏡ライブ画像と一致するように、硬性鏡2Bのセンサ3Aからの検出結果や情報入力部3Bからの入力情報の演算結果に基づきバーチャル画像をCPU25内の合成回路25Aによって生成し、生成した画像をバーチャル画像用モニタ17、17a及び表示部2bに表示させる。
In the case of performing surgery, in the present embodiment, the
例えば、いま、手術中に、術者31によって硬性鏡2Bの挿入部が術部領域の挿入方向(Z方向)に移動が生じたものとする。この場合、参照用モニタ13や内視鏡画像用モニタ13aに硬性鏡2Bの移動に応じた内視鏡ライブ画像が表示されているとすると、本実施例では、この硬性鏡2Bの移動がセンサ3Aや演算処理によって常に検出され、CPU25はこの検出結果に基づくバーチャル画像をCPU25内の合成回路25Aによって生成し、生成した画像をバーチャル画像用モニタ17、17a及び表示部2bに表示させる。
For example, it is assumed that during the operation, the
これにより、硬性鏡2Bの挿入部が挿入方向に移動したときの内視鏡ライブ画像に対応するバーチャル画像を、対応するバーチャル画像用モニタ17a及び表示部2bに表示させることができ、術者31は内視鏡観察下において、内視鏡観察画像の観察領域の被検体の生体画像情報を得ることが可能となる。
Thereby, the virtual image corresponding to the endoscope live image when the insertion portion of the
なお、本実施例では、内視鏡装置2は、脳外科手術を行う場合に硬性鏡2Bを固定装置2Aによって予め挿入方向を固定しているので、手術中に傾きが生じないものとして説明したが、硬性鏡2Bの傾きが生じた場合でも、この傾きに応じた内視鏡ライブ画像に対応するバーチャル画像を表示することも可能である。
In the present embodiment, the
図4に、本実施例の手術支援システム1により表示された、脳外科手術を行う際の内視鏡ライブ画像の一例が示されている。
図4に示すように、内視鏡装置2内の表示部2b(またはバーチャル画像用モニタ17a)には、脳外科手術を行うため、固定装置2Aにより患者の頭部領域(脳)内に固定された硬性鏡2Bにより撮像された術部の内視鏡ライブ画像51が表示される。
FIG. 4 shows an example of an endoscopic live image displayed by the
As shown in FIG. 4, the display unit 2b (or the
この場合、表示部2bは、この内視鏡ライブ画像51を観察視野50内に表示することになる。また、表示部2bは、観察視野50外の領域については例えば黒色等でなにも表示されない無表示部52を表示している。
In this case, the display unit 2 b displays the endoscope
術者31は、接眼部2aを介して内視鏡装置2内の表示部2bに表示された観察視野50内の内視鏡ライブ画像51を観察しながら術部(脳内)内の手術を行う。
The
ところが、図4に示すように、観察視野50が狭いために、術者31は内視鏡ライブ画像51内の周囲の血管53等の状態に注意をしながら血管53のパイパス手術等を行わなければならない。このような場合には、単に内視鏡ライブ画像51のみの表示では、周囲の血管53の状態を十分に把握出来にくい場合がしばしばある。
例えば、図4に示すように、壊死状態に近い血管部分53aを周囲の正常な血管53に接続しようとしても、周囲の血管53が接続して良い血管53か否かの判断を簡単に行えないで、その判断に時間を要してしまう場合がある。
However, as shown in FIG. 4, since the observation
For example, as shown in FIG. 4, even if an attempt is made to connect a
しかしながら、本実施例の手術支援システム1は、予め容易した同じ部位の周囲の血管53の状態が解るようなバーチャル画像52A(内視鏡ライブ画像51では見えない周辺部のバーチャル画像)を補助画像として生成し、内視鏡ライブ画像51に重畳して表示する。
なお、補助画像(バーチャル画像52A)を生成するのに必要な画像データは、手術を行う患者30から検査等によって予め取得し、図2のCT画像DB部23等に記憶されるようになっている。
However, the
Note that image data necessary to generate the auxiliary image (
図5に、図4に示す内視鏡ライブ画像に観察視野内の背景のバーチャル画像が重畳された表示部の表示例が示されている。図5に示すように、重畳表示制御手段としてのCPU25は、観察視野50内に図4に示すものと同様の内視鏡ライブ画像51Aを表示すると同時に、観察視野50外の領域には内視鏡ライブ画像51A内の背景の予め決められたバーチャル画像52Aを重畳して表示する。
FIG. 5 shows a display example of the display unit in which the virtual image of the background in the observation visual field is superimposed on the endoscope live image shown in FIG. As shown in FIG. 5, the
この場合、CPU25は、前記バーチャル画像52Aの表示については、補助画像であることがわかるように内視鏡ライブ画像51Aとは識別し易い色で表示する。また、CPU25は、表示するバーチャル画像52Aとしては、内視鏡ライブ画像51Aの血管53の周囲の血管53Aの状態が解るように表示する。
In this case, the
なお、観察視野50内の内視鏡ライブ画像51Aは、必要であれば図5に示すように主要部分のバーチャル画像(例えばバイパス画像53b等)を重畳表示しても良いし、表示色の輝度レベルを周辺部よりも下げて表示するようにしても良い。また、これらの設定は、術者等によって自在に選択することができるようになっている。
Note that the endoscopic
このようにすることにより、術者31は表示部2bに表示されたバーチャル画像52Aを参照することによって、観察視野50の周囲の血管53Aの状態を把握し易くなり、手術を円滑に進めることが可能となる。
By doing so, the
なお、本実施例では、図6(A)及び図6(B)に示すように、動脈aや静脈bの世代1、2、3、…を分岐の状態に応じて色分けするなどして表示させても良い。すなわち、手術を行う患者30から検査等によって図6(A)及び図6(B)に示すような動脈aや静脈bの分岐状態を予め取得していれば、バーチャル画像52Aとして分岐の状態に応じて色分けすることにより、周囲の血管の状態や世代等を考慮して手術を円滑に進めることができるように支援が可能となる。
In this embodiment, as shown in FIGS. 6A and 6B, the
次に、このようなバーチャル画像表示モードを実行可能とする制御例を図9及び図10を参照しながら説明する。なお、上述した図5に示すようなバーチャル画像52Aを表示するバーチャル画像表示モードを手術実行モードと称すことにする。
Next, a control example that enables execution of such a virtual image display mode will be described with reference to FIGS. Note that the virtual image display mode for displaying the
いま、手術開始時等に術者31等によって内視鏡システムの電源を投入したとすると、バーチャル画像生成部11のCPU25は、図示しない記録部に記録されている図9に示すプログラムを起動し、ステップS1の処理を実行する。
Assuming that the endoscope system is turned on by the
ステップS1の処理では、CPU25は、表示モードの設定を行う。例えば、内視鏡ライブ画像のみの表示モードや、バーチャル画像を表示する表示モード、あるいは術者に支援を行うのに必要なバーチャル画像を重畳する手術実行モード等の表示モードの設定を行う。
In the process of step S1, the
そして、CPU25は、続くステップS2の判断処理により、その設定された表示モードが内視鏡画像の視点情報に基づく表示モード、つまり内視鏡ライブ画像を表示する表示モードであるか否かを判定し、そうである場合は次のステップS3に移行し、そうでない場合にはステップS6の処理に移行する。
Then, the
ステップS3の処理では、CPU25は、内視鏡ライブ画像のみの表示モードだと判断して、硬性鏡2Bにより撮像された内視鏡ライブ画像を図4に示すように表示部2bや参照用モニタ13及び内視鏡画像用モニタ13aに表示させる。その後、CPU25は、続くステップS4の判断処理に移行する。
In the process of step S3, the
一方、ステップS6の処理では、CPU25は、図5にて説明したように予め容易した同じ部位の周囲の血管53の状態が解るようなバーチャル画像52Aを補助画像として合成回路25Aによって生成し、内視鏡ライブ画像51に重畳して表示する手術実行モードを実行する。なお、詳しい処理については図10のサブルーチンを参照しながら後述する。 そして、CPU25は、次のステップS4の判断処理に移行する。
On the other hand, in the process of step S6, the
ステップS4の判断処理では、CPU25は、表示モードが変更になったか否かを判断し、その後の操作によって変更になったと判断した場合にはステップS2に処理を戻し、変更になってないと判断した場合にはステップS5の処理により、内視鏡ライブ画像表示モードまたは前記手術実行モードに基づく表示制御を行う。
In the determination process of step S4, the
次に、前記ステップS6が実行された場合の制御処理について図10を参照しながら説明する。
図9に示すステップS6の処理が実行されると、CPU25は、ステップS1の処理にて設定された表示モードが図5にて説明した手術実行モードであると判断して、図10に示すサブルーチンのプログラムを実行する。
Next, control processing when step S6 is executed will be described with reference to FIG.
When the process of step S6 shown in FIG. 9 is executed, the
すなわち、CPU25は、ステップS10の処理にて内視鏡ライブ画像の視点情報、すなわち、硬性鏡2Bの挿入情報をマウス15やキーボード16などの情報入力部3B等から取得し、次のステップS11に移行する。
That is, the
そして、CPU25は、ステップS11の処理により、情報入力部3Bからの入力情報(挿入情報)や硬性鏡2Bのセンサ3Aからの検出結果に基づき、内視鏡ライブ画像と一致するバーチャル画像をCPU25内の合成回路25Aによって生成し取得する。
Then, the
その後、CPU25は、ステップS12の処理により、図5に示すように観察視野50外の内視鏡ライブ画像51Aの背景(周辺部)の予め決められたバーチャル画像52Aを生成するのに必要な画像データを図2のCT画像DB部23等から取得し、そして、合成回路25Aによってこの画像データに基づき内視鏡ライブ画像51Aの背景のバーチャル画像52Aを生成し取得する。
Thereafter, the
この場合、CPU25は、リモートスイッチ2C(またはリモコン12A)等によってズームアップ(拡大処理)操作が合った場合には、この操作信号に基づく倍率で拡大処理を行う。もちろん、拡大処理だけではなく、縮小処理を行うことも可能である。
In this case, when a zoom-up (enlargement process) operation is performed by the
例えば、患者30の術部が図6(A)に示す動脈aであり、硬性鏡2Bによって撮像された観察視野50内の術部が図6(A)に示す動脈aの世代3,4近傍であるとすると、表示部2bは、図7に示すような観察視野50内の内視鏡ライブ画像60と、観察視野50外の無表示部52を表示する。
この場合、術者31が、内視鏡ライブ画像60内の分岐部60A近傍に関心部位があり、ズームアップ操作を行ったとすると、CPU25は、合成回路25Aによって該当する画像データを拡大処理を行うことにより、例えば図8に示すような所定の倍率で拡大された観察視野50内の内視鏡ライブ画像60B及び観察視野50外のバーチャル画像52Bを表示部2bに表示させることができる。
For example, the surgical site of the
In this case, if the
そして、CPU25は、続くステップS13の処理により、前記ステップS12にて生成されたバーチャル画像52Aを、内視鏡ライブ画像51(図4参照)が表示されている観察視野50外の無表示部52に重畳するように合成回路25Aによって合成して表示する。
Then, the
このことにより、表示部2b(またはバーチャル画像用モニタ17a)には、図5に示すような内視鏡ライブ画像51Aの他に、観察視野50外にはこの内視鏡ライブ画像51Aの周囲(周辺部)の血管53A等のバーチャル画像52Aが色別に重畳表示されることになる。
As a result, in addition to the endoscope
したがって、術者31は表示部2bに表示されたバーチャル画像52Aを参照することによって、観察視野50の周囲の血管53Aの状態を把握し易くなり、手術を円滑に進めることが可能となる。
また、前記内視鏡装置2内に、術野とは別に設けられた視野内表示部に本発明の表示部2bの表示内容を表示してもよい。
Therefore, by referring to the
Further, the display content of the display unit 2b of the present invention may be displayed on a display unit in the visual field provided separately from the surgical field in the
なお、本実施例では、脳外科手術を行うのに適した手術支援システム1について説明したが、これに限定されることはなく、腹部の体腔内の手術を行う場合にも適用可能である。この場合、硬性鏡2Bの傾きについても検出することが必要であるとともに、臓器が手術内容によっては動く可能性があるのでこの動きに応じた補正処理(例えば硬性鏡2Bの位置補正等)を行う必要がある。
In addition, although the present Example demonstrated the
本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。 The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.
1…手術支援システム、
2…内視鏡装置、
2A…固定装置、
2B…硬性鏡、
2C…リモートスイッチ、
2a…接眼部、
2b…表示部、
3A…センサ、
3B…情報入力部、
5…光源装置、
6…電気メス装置、
8…超音波駆動電源、
9…VTR、
10…システムコントローラ、
11…バーチャル画像生成部、
12A…リモコン、
12B…音声入力マイク、
13…参照用モニタ、
13a…内視鏡画像用モニタ、
15…マウス、
16…キーボード、
17、17a…バーチャル画像用モニタ、
19…メモリ、
23…CT画像DB部、
24…メモリ、
25…CPU、
25A…合成回路、
30…患者、
31…術者、
50…観察視野、
51、51A、60…内視鏡ライブ画像、
52…無表示部、
52A、52B…バーチャル画像、
53…血管、
53b…バイパス画像、
60A…分岐部。
代理人 弁理士 伊藤 進
1 ... Surgery support system,
2 ... Endoscope device,
2A ... fixing device,
2B ... rigid endoscope,
2C ... Remote switch,
2a ... eyepiece,
2b ... display part,
3A ... sensor,
3B ... Information input part,
5 ... Light source device,
6 ... Electric knife device,
8 ... Ultrasonic drive power supply,
9 ... VTR,
10 ... System controller,
11 ... Virtual image generation unit,
12A ... remote control,
12B ... voice input microphone,
13 ... Reference monitor,
13a ... Endoscopic image monitor,
15 ... mouse,
16 ... Keyboard,
17, 17a ... Virtual image monitor,
19 ... Memory,
23. CT image DB section,
24 ... Memory,
25 ... CPU,
25A ... Synthesis circuit,
30 ... Patient,
31 ... Surgeon,
50 ... Observation field,
51, 51A, 60 ... endoscope live image,
52 ... non-display part,
52A, 52B ... Virtual images,
53. Blood vessels,
53b ... Bypass image,
60A ... Branching part.
Attorney Susumu Ito
Claims (3)
前記内視鏡画像では見えてない周辺部に関するバーチャル画像データを取得し、このバーチャル画像データに基づくバーチャル画像を前記内視鏡画像に重畳して表示する重畳表示制御手段を有していることを特徴とする手術支援システム。 A surgery support system that supports an operator by displaying an endoscopic image and a virtual image that matches the viewpoint position of the endoscopic image,
It has a superimposed display control means for acquiring virtual image data relating to a peripheral portion that is not visible in the endoscopic image and displaying a virtual image based on the virtual image data superimposed on the endoscopic image. A featured surgery support system.
3. The superimposing display control unit displays a virtual image superimposed on the endoscopic image at a luminance level that can be identified with respect to the endoscopic image. Surgery support system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005010885A JP2006198032A (en) | 2005-01-18 | 2005-01-18 | Surgery support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005010885A JP2006198032A (en) | 2005-01-18 | 2005-01-18 | Surgery support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006198032A true JP2006198032A (en) | 2006-08-03 |
Family
ID=36956546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005010885A Pending JP2006198032A (en) | 2005-01-18 | 2005-01-18 | Surgery support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006198032A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008264520A (en) * | 2007-03-20 | 2008-11-06 | National Univ Corp Shizuoka Univ | Apparatus, method, and program for displaying surgery support information |
JP2009178230A (en) * | 2008-01-29 | 2009-08-13 | Terumo Corp | Surgical system |
WO2009116535A1 (en) * | 2008-03-18 | 2009-09-24 | 国立大学法人浜松医科大学 | Surgery assistance system |
JP2011104079A (en) * | 2009-11-17 | 2011-06-02 | Univ Of Tokyo | Medical image processing system |
WO2011114731A1 (en) * | 2010-03-17 | 2011-09-22 | 富士フイルム株式会社 | System, method, device, and program for supporting endoscopic observation |
WO2011118287A1 (en) * | 2010-03-24 | 2011-09-29 | オリンパス株式会社 | Endoscope device |
WO2011122032A1 (en) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | Endoscope observation supporting system and method, and device and programme |
WO2012029265A1 (en) | 2010-08-31 | 2012-03-08 | 富士フイルム株式会社 | Medical treatment information display device and method, and program |
WO2012165370A1 (en) * | 2011-06-01 | 2012-12-06 | オリンパス株式会社 | Image-processing apparatus |
WO2013141155A1 (en) * | 2012-03-17 | 2013-09-26 | 学校法人早稲田大学 | Image completion system for in-image cutoff region, image processing device, and program therefor |
US8744149B2 (en) | 2009-09-30 | 2014-06-03 | Fujifilm Corporation | Medical image processing apparatus and method and computer-readable recording medium for image data from multiple viewpoints |
JP2015501183A (en) * | 2011-10-26 | 2015-01-15 | コーニンクレッカ フィリップス エヌ ヴェ | Endoscopic registration of blood vessel tree images |
JP2015505502A (en) * | 2012-02-06 | 2015-02-23 | コーニンクレッカ フィリップス エヌ ヴェ | Detection of invisible branches in blood vessel tree images |
JP2016013233A (en) * | 2014-07-01 | 2016-01-28 | 富士通株式会社 | Output control method, image processing system, output control program, and information processing apparatus |
JP2016034412A (en) * | 2014-08-04 | 2016-03-17 | パナソニックヘルスケアホールディングス株式会社 | Surgical operation support device, surgical operation support program, and surgical operation support method |
JP2017508499A (en) * | 2014-01-24 | 2017-03-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Continuous image integration for robotic surgery |
WO2020012563A1 (en) * | 2018-07-10 | 2020-01-16 | オリンパス株式会社 | Endoscope device, processing device and processing method |
US10772684B2 (en) | 2014-02-11 | 2020-09-15 | Koninklijke Philips N.V. | Spatial visualization of internal mammary artery during minimally invasive bypass surgery |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002263053A (en) * | 2001-03-06 | 2002-09-17 | Olympus Optical Co Ltd | Medical image display device and method |
-
2005
- 2005-01-18 JP JP2005010885A patent/JP2006198032A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002263053A (en) * | 2001-03-06 | 2002-09-17 | Olympus Optical Co Ltd | Medical image display device and method |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008264520A (en) * | 2007-03-20 | 2008-11-06 | National Univ Corp Shizuoka Univ | Apparatus, method, and program for displaying surgery support information |
JP2009178230A (en) * | 2008-01-29 | 2009-08-13 | Terumo Corp | Surgical system |
WO2009116535A1 (en) * | 2008-03-18 | 2009-09-24 | 国立大学法人浜松医科大学 | Surgery assistance system |
US8744149B2 (en) | 2009-09-30 | 2014-06-03 | Fujifilm Corporation | Medical image processing apparatus and method and computer-readable recording medium for image data from multiple viewpoints |
JP2011104079A (en) * | 2009-11-17 | 2011-06-02 | Univ Of Tokyo | Medical image processing system |
WO2011114731A1 (en) * | 2010-03-17 | 2011-09-22 | 富士フイルム株式会社 | System, method, device, and program for supporting endoscopic observation |
US9179822B2 (en) | 2010-03-17 | 2015-11-10 | Fujifilm Corporation | Endoscopic observation supporting system, method, device and program |
JP2011193885A (en) * | 2010-03-17 | 2011-10-06 | Fujifilm Corp | System, method, apparatus and program for supporting endoscope observation |
CN102811655A (en) * | 2010-03-17 | 2012-12-05 | 富士胶片株式会社 | System, method, device, and program for supporting endoscopic observation |
WO2011118287A1 (en) * | 2010-03-24 | 2011-09-29 | オリンパス株式会社 | Endoscope device |
JP5771598B2 (en) * | 2010-03-24 | 2015-09-02 | オリンパス株式会社 | Endoscope device |
CN102802498A (en) * | 2010-03-24 | 2012-11-28 | 奥林巴斯株式会社 | Endoscope device |
JP2011212244A (en) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | Endoscope observation supporting system and method, and device and program |
WO2011122032A1 (en) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | Endoscope observation supporting system and method, and device and programme |
US9375133B2 (en) | 2010-03-31 | 2016-06-28 | Fujifilm Corporation | Endoscopic observation support system |
US9158382B2 (en) | 2010-08-31 | 2015-10-13 | Fujifilm Corporation | Medical information display apparatus, method, and program |
WO2012029265A1 (en) | 2010-08-31 | 2012-03-08 | 富士フイルム株式会社 | Medical treatment information display device and method, and program |
JP2012249757A (en) * | 2011-06-01 | 2012-12-20 | Olympus Corp | Image processing device |
CN103561627A (en) * | 2011-06-01 | 2014-02-05 | 奥林巴斯株式会社 | Image-processing apparatus |
WO2012165370A1 (en) * | 2011-06-01 | 2012-12-06 | オリンパス株式会社 | Image-processing apparatus |
JP2015501183A (en) * | 2011-10-26 | 2015-01-15 | コーニンクレッカ フィリップス エヌ ヴェ | Endoscopic registration of blood vessel tree images |
US10453174B2 (en) | 2011-10-26 | 2019-10-22 | Koninklijke Philips N.V. | Endoscopic registration of vessel tree images |
JP2015505502A (en) * | 2012-02-06 | 2015-02-23 | コーニンクレッカ フィリップス エヌ ヴェ | Detection of invisible branches in blood vessel tree images |
JPWO2013141155A1 (en) * | 2012-03-17 | 2015-08-03 | 学校法人早稲田大学 | Image complementation system for image occlusion area, image processing apparatus and program thereof |
WO2013141155A1 (en) * | 2012-03-17 | 2013-09-26 | 学校法人早稲田大学 | Image completion system for in-image cutoff region, image processing device, and program therefor |
JP2017508499A (en) * | 2014-01-24 | 2017-03-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Continuous image integration for robotic surgery |
US10772684B2 (en) | 2014-02-11 | 2020-09-15 | Koninklijke Philips N.V. | Spatial visualization of internal mammary artery during minimally invasive bypass surgery |
JP2016013233A (en) * | 2014-07-01 | 2016-01-28 | 富士通株式会社 | Output control method, image processing system, output control program, and information processing apparatus |
JP2016034412A (en) * | 2014-08-04 | 2016-03-17 | パナソニックヘルスケアホールディングス株式会社 | Surgical operation support device, surgical operation support program, and surgical operation support method |
WO2020012563A1 (en) * | 2018-07-10 | 2020-01-16 | オリンパス株式会社 | Endoscope device, processing device and processing method |
JPWO2020012563A1 (en) * | 2018-07-10 | 2021-06-24 | オリンパス株式会社 | Endoscope device, processing device and processing method |
JP7065190B2 (en) | 2018-07-10 | 2022-05-11 | オリンパス株式会社 | Endoscope device and control method for endoscope device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006198032A (en) | Surgery support system | |
JP4698966B2 (en) | Procedure support system | |
US7951070B2 (en) | Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure | |
JP5486432B2 (en) | Image processing apparatus, operating method thereof, and program | |
JP2006218129A (en) | Surgery supporting system | |
JPWO2018163644A1 (en) | Information processing apparatus, support system, and information processing method | |
WO2019155931A1 (en) | Surgical system, image processing device, and image processing method | |
JP2018108173A (en) | Medical image processing apparatus, medical image processing method, and program | |
JP2004097696A (en) | Endoscopic observing apparatus | |
JP2002253480A (en) | Device for assisting medical treatment | |
JP2006198031A (en) | Surgery support system | |
JP2008054763A (en) | Medical image diagnostic apparatus | |
JP2006223374A (en) | Apparatus, system and method for surgery supporting | |
US20050234326A1 (en) | Medical procedure support system and method | |
WO2022163514A1 (en) | Medical image processing device, method, and program | |
JP2006218239A (en) | Technique support system | |
JP4615842B2 (en) | Endoscope system and endoscope image processing apparatus | |
JP2019166246A (en) | Endoscope system | |
JP2004180857A (en) | Endoscope remote diagnostic system | |
JP4533638B2 (en) | Virtual image display system | |
JP2005211530A (en) | Operative technique supporting system | |
JP4590189B2 (en) | Virtual image display device | |
JP2005211529A (en) | Operative technique supporting system | |
JP4546043B2 (en) | Virtual image display device | |
JP2004357789A (en) | Subject observation system and control method for subject observation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100622 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100820 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110516 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110519 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20110715 |