JP2007029232A - System for supporting endoscopic operation - Google Patents

System for supporting endoscopic operation Download PDF

Info

Publication number
JP2007029232A
JP2007029232A JP2005213873A JP2005213873A JP2007029232A JP 2007029232 A JP2007029232 A JP 2007029232A JP 2005213873 A JP2005213873 A JP 2005213873A JP 2005213873 A JP2005213873 A JP 2005213873A JP 2007029232 A JP2007029232 A JP 2007029232A
Authority
JP
Japan
Prior art keywords
image
endoscopic
manipulator
operation support
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005213873A
Other languages
Japanese (ja)
Inventor
Hiroki Taniguchi
拡樹 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2005213873A priority Critical patent/JP2007029232A/en
Publication of JP2007029232A publication Critical patent/JP2007029232A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve safety of an endoscopic operation by providing to an operator information regarding various levels of risks. <P>SOLUTION: This system for supporting an endoscopic operation displays a movable range of a manipulator in which an operator can operate a surgical instrument. The system comprises a position detection section 31 for calculating the positional relationship between a driving region of the manipulator and the object organ with which a part of the manipulator may come in contact, a processing section 321 for setting a warning level among various warning levels on the basis of an approaching or abutting condition corresponding to the calculated positional relationship, and a display section 322 for informing visually the set warning level to the operator. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、医用画像診断装置によって撮影された医用診断画像中の対象臓器と、その対象臓器と内視鏡及びマニピュレータの駆動領域を対応づけて表示し、内視鏡手術操作を安全に支援する技術に関するものである。   The present invention displays a target organ in a medical diagnostic image photographed by a medical image diagnostic apparatus, and displays the target organ, a driving region of an endoscope and a manipulator in association with each other, and safely supports an endoscopic surgical operation. It is about technology.

外科手術は、従来の開腹によるもの、又は、従来の内視鏡手術によるものから、例えば、微細なマニュピレータを用いて鍛錬された医師が手術を行う内視鏡手術に移行しつつある。この内視鏡手術は従来の執刀による開腹などを行わないで済むから低侵襲手術として期待されている。また、マスタスレーブ方式を採用することにより医師が患者の居る場所に出向かなくても手術ができる遠隔医療としても期待されている。   Surgery is shifting from conventional laparotomy or conventional endoscopic surgery to endoscopic surgery in which a doctor trained using, for example, a fine manipulator performs surgery. This endoscopic operation is expected as a minimally invasive operation because it does not require a conventional laparotomy. In addition, by adopting the master-slave system, it is also expected as telemedicine that allows surgery even if a doctor does not go to the place where the patient is.

内視鏡手術では、医用画像診断装置(ここではMRI装置)を用いて患者の体内の状態を確認しながら行っている(例えば、特許文献1)。
特開2001-104333号公報
Endoscopic surgery is performed while confirming the state of the patient's body using a medical image diagnostic apparatus (here, MRI apparatus) (for example, Patent Document 1).
JP 2001-104333 A

特許文献1では、医用診断画像中での手術器具の可動範囲の明示とその可動範囲外となったときの警告表示とについて言及されているが、単にマニピュレータの可動範囲を表示することに過ぎず、術者へ様々なレベルの危険度に対応する警告の情報を提供することや最終的にはマニピュレータを停止して安全を確保することについて言及されていない。   Patent Document 1 mentions the clarification of the movable range of the surgical instrument in the medical diagnostic image and the warning display when it is out of the movable range, but merely displays the movable range of the manipulator. There is no mention of providing the surgeon with warning information corresponding to various levels of risk or ultimately shutting down the manipulator to ensure safety.

そこで、本発明の目的は、術者へ様々なレベルの危険度に対応する情報を提供することで内視鏡手術の安全性を向上することにある。   Therefore, an object of the present invention is to improve the safety of endoscopic surgery by providing the surgeon with information corresponding to various levels of risk.

上記目的を達成するため、本発明の内視鏡手術操作支援システムは、手術器具を操作可能なマニピュレータの可動範囲を表示する内視鏡手術操作支援システムにおいて、前記マニピュレータの駆動領域と前記マニピュレータの一部が接触する可能性のある対象臓器との位置関係を算出する位置算出手段と、前記算出された位置関係に応じた接近又は接触条件を数段階の警告レベルとして設定する警告レベル設定手段と、前記設定した警告レベルを術者へ報知する報知手段と、を備える。   In order to achieve the above object, an endoscopic surgical operation support system according to the present invention is an endoscopic surgical operation support system that displays a movable range of a manipulator capable of operating a surgical instrument, wherein the manipulator drive region and the manipulator Position calculating means for calculating a positional relationship with a target organ that may partially touch, and warning level setting means for setting an approach or contact condition according to the calculated positional relation as several levels of warning levels; And an informing means for informing the operator of the set warning level.

本発明によれば、内視鏡手術の安全性を向上することができる。   According to the present invention, the safety of endoscopic surgery can be improved.

以下、本発明の実施の形態を添付図面に基づいて説明する。なお、本発明の実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiments of the present invention, and the repetitive description thereof will be omitted.

内視鏡外科手術システムは、図1において、医用画像診断装置1と、硬性内視鏡又は軟性内視鏡(以下、「内視鏡装置」と略記する)2と、医用画像診断装置1及び内視鏡装置2と信号伝達可能に接続される画像重畳装置3と、外科医側に設置されるマスタ装置4と、患者側に設置されるスレーブ装置5とを備える。   In FIG. 1, an endoscopic surgical system includes a medical image diagnostic apparatus 1, a rigid endoscope or a flexible endoscope (hereinafter abbreviated as `` endoscopic apparatus '') 2, a medical image diagnostic apparatus 1 and The image superimposing apparatus 3 connected to the endoscope apparatus 2 so as to be able to transmit signals, the master apparatus 4 installed on the surgeon side, and the slave apparatus 5 installed on the patient side.

医用画像診断装置1は、例えばMRI装置やX線CT装置で、患者の外部から断層像などの患者内部の診断画像を取得する。内視鏡装置2は、患者に手術器具でもって空けた小さな穴などにプローブを挿入し、そのプローブが挿入された位置での患者内部の画像を取得する。画像重畳装置3は内視鏡装置2からの内視鏡像と医用画像診断装置1からの医用診断画像を用いて手術対象の臓器抽出や重畳処理を行う。マスタ装置4は外科医が直接操作する。スレーブ装置5は術者の操作を反映して内視鏡及びマニピュレータを動作させる。   The medical image diagnostic apparatus 1 is an MRI apparatus or an X-ray CT apparatus, for example, and acquires a diagnostic image inside the patient such as a tomogram from the outside of the patient. The endoscope apparatus 2 inserts a probe into a small hole or the like opened by a surgical instrument in a patient, and acquires an image of the inside of the patient at a position where the probe is inserted. The image superimposing apparatus 3 performs organ extraction and superimposition processing on the operation target using the endoscopic image from the endoscopic apparatus 2 and the medical diagnostic image from the medical image diagnostic apparatus 1. The master device 4 is directly operated by the surgeon. The slave device 5 operates the endoscope and the manipulator reflecting the operator's operation.

まず、内視鏡外科手術システムの機能について図2を用いて説明する。
この内視鏡外科手術システムは、術中ガイドイメージング技術の一つとして医用診断画像を内視鏡像に画像重畳することによって、術者の視覚情報をさらに強化して情報の質と量の増大(強化現実:オーグメンテッドリアリティ)を図る必要がある。
First, the function of the endoscopic surgery system will be described with reference to FIG.
This endoscopic surgery system enhances the operator's visual information and enhances the quality and quantity of information by strengthening the operator's visual information by superimposing medical diagnostic images on the endoscopic image as one of the intraoperative guide imaging techniques. Reality: augmented reality).

このため、画像重畳装置3は、位置検出装置31で、医用画像診断装置1(実施形態1ではMRI装置)の術中画像位置情報や、内視鏡装置2の内視鏡位置マニピュレータの位置情報を取得する。ここで、位置検出装置31は、光学式・磁気式の位置検出装置、または医用診断画像上に表示される位置検出用マーカーから位置検出する。画像処理部32は術中画像と内視鏡像を同時に取得し、取得された両画像間のスケール変換を行って位置合わせ(レジストレーション)を処理部321で行う。前記両画像が等方性であれば、そのまま重畳し、表示部322で重畳表示する。画像重畳装置3はまたシステム全体を制御するシステムコントローラの機能も有している。   For this reason, the image superimposing device 3 is the position detecting device 31, and the intraoperative image position information of the medical image diagnostic device 1 (MRI device in the first embodiment) and the position information of the endoscope position manipulator of the endoscope device 2 are displayed. get. Here, the position detection device 31 detects a position from an optical / magnetic position detection device or a position detection marker displayed on a medical diagnostic image. The image processing unit 32 acquires an intraoperative image and an endoscopic image at the same time, performs scale conversion between the acquired images, and performs registration (registration) in the processing unit 321. If the two images are isotropic, they are superimposed as they are, and are superimposed on the display unit 322. The image superimposing apparatus 3 also has a system controller function for controlling the entire system.

本明細書で定義する「重畳」とは、すべての画素の位置が正確に一致していることを言い、要求に合わせて重ねて表示したり参照したりできる構造のことである。
一方、前記両画像が異方性であれば、一方の画像に歪み補正処理を施し、両画像を等方性画像に変換するか、または歪みの等しい異方性画像に変換する。歪み補正方法として、ヒルベルト変換を用いた歪み補正方法や共線性の条件を用いた歪み補正方法を用いてもよいし、予め歪み量が解析された医用診断画像の場合、事前に算出した歪み量から歪み補正を行ってもよい。
The term “superimposition” as defined in this specification means that the positions of all the pixels are exactly the same, and is a structure that can be displayed and referred to in superimposition as required.
On the other hand, if the two images are anisotropic, one image is subjected to distortion correction processing, and both images are converted to isotropic images or converted to anisotropic images having the same distortion. As a distortion correction method, a distortion correction method using Hilbert transform or a distortion correction method using collinearity conditions may be used. In the case of a medical diagnostic image in which the distortion amount is analyzed in advance, the distortion amount calculated in advance Alternatively, distortion correction may be performed.

画像重畳装置3が行う前処理には、医用診断画像から、内視鏡が挿入される臓器や手術対象臓器、手術による損傷を回避したい血管や神経線維等を予めリージョングローイング法等で領域抽出する。領域抽出されたデータはマスタスレーブ装置に転送され、後述のマニピュレータ駆動領域設定時に用いられる。   In the preprocessing performed by the image superimposing device 3, a region is extracted in advance from the medical diagnostic image by using a region growing method or the like for an organ into which an endoscope is inserted, an organ to be operated, a blood vessel or a nerve fiber that is desired to avoid damage due to surgery. . The area extracted data is transferred to the master / slave device and used when setting a manipulator driving area described later.

マスタスレーブ装置は、一般的にユニラテラル制御方式とバイラテラル制御方式という2つの制御方式に分類することができる。   Master-slave devices can be generally classified into two control methods: a unilateral control method and a bilateral control method.

ユニラテラル制御方式はマスタ装置からスレーブ装置に指令を送るが、それ以降の対象物に対する動作はマスタ装置が関与せず、スレーブ装置のみがその作用を受ける。つまり、スレーブ装置の機械的作業情報がマスタ装置にフィードバックされない。   In the unilateral control method, a command is sent from the master device to the slave device, but the subsequent operation on the object is not related to the master device, and only the slave device is affected. That is, the mechanical work information of the slave device is not fed back to the master device.

バイラテラル制御方式はマスタ装置から指令を受けたスレーブ装置と対象物に対する動作はマスタ装置とスレーブ装置両方に作用する。従って、スレーブ装置と対象物との接触等による触覚/力覚情報がマスタ装置を扱う術者に提示される。ただし、術者の視覚情報によるフィードバックはどちらの制御方法でも行われ、その情報から再び指令を出すことができる。   In the bilateral control system, the slave device that receives a command from the master device and the operation on the object act on both the master device and the slave device. Therefore, tactile / force information by contact between the slave device and the object is presented to the operator who handles the master device. However, feedback by the operator's visual information is performed by either control method, and a command can be issued again from that information.

本実施形態は触覚/力覚の代わりに重畳画像から算出された領域によってマニピュレータと対象物に対する動作や駆動領域の制限を行うものであり、ユニラテラル制御方式でもバイラテラル制御方式でも適用できる。   In this embodiment, the manipulator and the object are limited to the motion and driving area by the area calculated from the superimposed image instead of the tactile / force sensation, and can be applied to both the unilateral control system and the bilateral control system.

次に、ユニラテラル制御方式のマスタスレーブ装置の構成について図3を用いて説明する。
マスタスレーブ装置は、マスタ装置4(モータ41、位置検出部42)と、モータ41のモータ制御部6(位置制御部61、力制御部62)と、スレーブ装置5(アクチュエータ51)と、画像重畳装置3(スレーブ装置5の位置検出部31、画像重畳処理部321、画像重畳表示部322)と、アクチュエータ制御部7(位置制御部71、力制御部72)とを有する。
Next, the configuration of a unilateral control master / slave device will be described with reference to FIG.
The master-slave device includes the master device 4 (motor 41, position detection unit 42), the motor control unit 6 (position control unit 61, force control unit 62) of the motor 41, the slave device 5 (actuator 51), and image superposition. The apparatus 3 (the position detection unit 31, the image superimposition processing unit 321 and the image superimposition display unit 322 of the slave device 5) and the actuator control unit 7 (position control unit 71, force control unit 72) are included.

マスタ装置4は、術者によって操作される操作部(図示省略)と、その操作部にスレーブ装置5からの反力と同等の駆動力を付与するモータ41と、術者がその駆動力に対して操作部を操作した位置を検出する位置検出部42とを具備し、検出された位置情報L1がモータ制御部6、アクチュエータ制御部7に伝達される。   The master device 4 includes an operation unit (not shown) operated by the surgeon, a motor 41 for applying a driving force equivalent to the reaction force from the slave device 5 to the operation unit, and the surgeon against the driving force. A position detection unit 42 that detects a position where the operation unit is operated, and the detected position information L1 is transmitted to the motor control unit 6 and the actuator control unit 7.

スレーブ装置5は、マスタ装置4からの指令により動作するスレーブ装置5の内視鏡およびマニピュレータを制御するアクチュエータ51からなる。スレーブ装置5の内視鏡およびマニピュレータの位置情報L2は、画像重畳処理部の位置検出部31を用いて、モータ制御部、アクチュエータ制御部に入力される。   The slave device 5 includes an endoscope 51 and an actuator 51 that controls the manipulator of the slave device 5 that operates according to a command from the master device 4. The position information L2 of the endoscope and manipulator of the slave device 5 is input to the motor control unit and the actuator control unit using the position detection unit 31 of the image superimposition processing unit.

また、位置情報L1、L2は位置検出部42,52により検出され、画像処理部321に入力される。モータ制御部6の切替部63およびアクチュエータ制御部7の切替部73は、画像重畳処理部3から入力される制御信号C1、C2により選択的に位置制御部または力制御部を切り替える。装置起動時の初期状態では、切替部63及び73は位置制御部側に選択される。   The position information L1 and L2 are detected by the position detection units 42 and 52 and input to the image processing unit 321. The switching unit 63 of the motor control unit 6 and the switching unit 73 of the actuator control unit 7 selectively switch the position control unit or the force control unit according to the control signals C1 and C2 input from the image superimposition processing unit 3. In the initial state when the apparatus is activated, the switching units 63 and 73 are selected on the position control unit side.

画像処理部321は位置検出部42、52により検出された位置情報L1、L2と、内視鏡及びマニュピレータの駆動領域との接触判定によって内視鏡及びマニュピレータの駆動を制御するためにモータ制御部6やアクチュエータ制御部7に指令を与える。マニュピレータが駆動領域に存在するとき、マスタ側装置4ではL1、L2の変移量が等しくなるように、モータ制御部6の位置制御部61からモータ41へ情報を伝達する。   The image processing unit 321 is a motor control unit for controlling the driving of the endoscope and manipulator by determining contact between the position information L1 and L2 detected by the position detecting units 42 and 52 and the driving region of the endoscope and manipulator. Commands are given to 6 and actuator controller 7. When the manipulator is present in the drive region, the master side device 4 transmits information from the position control unit 61 of the motor control unit 6 to the motor 41 so that the shift amounts of L1 and L2 are equal.

スレーブ側装置5はL1、L2変移量が等しくなるように、アクチュエータ制御部7の位置制御部71からアクチュエータ51へ情報を伝達する。マニュピレータが駆動制限領域(マニピュレータが対象臓器と接触する可能性のある領域)に到達しそうな場合、その到達する位置のレベルにおいて、マスタ側装置4では制御信号C1をモータ制御部6の切替部63に伝達し、力制御部62から操作部の移動前の情報をモータ41へ伝達し、スレーブ側装置5では制御信号C2をアクチュエータ制御部7の切替部73に伝達し、力制御部72から操作部の移動前の情報をモータ51へ情報を伝達する。これにより、マスタスレーブ装置を操作部の移動指令前の情報で保持させることになる。   The slave side device 5 transmits information from the position control unit 71 of the actuator control unit 7 to the actuator 51 so that the L1 and L2 shift amounts are equal. When the manipulator is likely to reach the drive restriction region (region where the manipulator may come into contact with the target organ), the master side device 4 sends the control signal C1 to the switching unit 63 of the motor control unit 6 at the level of the reaching position. To the motor 41, and the slave side device 5 transmits the control signal C2 to the switching unit 73 of the actuator control unit 7 and operates from the force control unit 72. The information before moving the part is transmitted to the motor 51. As a result, the master-slave device is held with the information before the operation unit movement command.

さらに、マスタスレーブ装置はその安全性を増すために、マスタ側の操作部の操作量が対象臓器との安全距離を保たれない状態となったら、スレーブ側を強制停止する機構を設ける。この強制停止機構は伝達されるマニピュレータと対象臓器との位置関係(距離)の実測値が、使用状態において常時センサで測定され、そのセンサ出力と安全距離が位置制御部71により比較判定され、前記実測値が安全距離に対して所定量、例えば110%となったら、マニピュレータを強制停止する。強制停止機構そのものは、マニピュレータを駆動させるギアを信号によって断続できる公知のものを用いる。この信号は前記実測値が所定量以下となるか所定量を超えるかの1ビットで足りる。この制御例は、前記実測値が所定量以下となったならば、マニピュレータを駆動させるギアを外し、所定量を超えたら前記ギアの接続を復旧する。
これによって、画像重畳処理部3で設定された領域に基づいて、マニピュレータを制御(駆動と停止)することができる。
Further, in order to increase the safety of the master-slave device, a mechanism is provided for forcibly stopping the slave side when the operation amount of the operation unit on the master side cannot maintain a safe distance from the target organ. In this forced stop mechanism, the actual value of the positional relationship (distance) between the transmitted manipulator and the target organ is always measured by a sensor in use, and the sensor output and the safety distance are compared and determined by the position control unit 71. When the measured value reaches a predetermined amount, for example 110%, with respect to the safety distance, the manipulator is forcibly stopped. As the forced stop mechanism itself, a publicly known one that can be interrupted by a signal to drive the manipulator is used. This signal needs only one bit indicating whether the actual measurement value is less than or equal to the predetermined amount. In this control example, when the measured value is equal to or smaller than a predetermined amount, the gear for driving the manipulator is removed, and when the predetermined value is exceeded, the connection of the gear is restored.
Accordingly, the manipulator can be controlled (driven and stopped) based on the region set by the image superimposing processing unit 3.

次に、画像重畳処理部3で設定される内視鏡手術支援システムの駆動領域設定方法および表示方法の実施の一形態を図4、図5、図6及び図7に示す。   Next, FIG. 4, FIG. 5, FIG. 6 and FIG. 7 show one embodiment of the driving region setting method and display method of the endoscopic surgery support system set by the image superimposing processing unit 3.

図4(a)は、実際の内視鏡像上8と仮想内視鏡像92の重畳画像上に、さらに鉗子やマニピュレータ等の手術器具の仮想画像91を重畳表示する例を示している。この表示例では、内視鏡像の歪みに合わせて重畳する画像を歪ませ、重畳表示している。仮想内視鏡像92はX線CT装置やMRI装置で被検体の体軸方向の複数の断層像を得て、その得られた断層像から得るものである(例えば、特許文献2参照)。
特許第3632862号公報 これにより、術者が内視鏡での手術に習熟していれば、使い慣れた画像を用いて内視鏡手術の安全性を向上することができる。
FIG. 4 (a) shows an example in which a virtual image 91 of a surgical instrument such as a forceps or a manipulator is superimposed and displayed on the superimposed image of the actual endoscopic image 8 and the virtual endoscopic image 92. In this display example, an image to be superimposed is distorted and superimposed in accordance with the distortion of the endoscopic image. The virtual endoscopic image 92 is obtained by obtaining a plurality of tomographic images in the body axis direction of a subject with an X-ray CT apparatus or an MRI apparatus and obtaining the obtained tomographic images (for example, see Patent Document 2).
Thus, if the surgeon is familiar with endoscopic surgery, the safety of endoscopic surgery can be improved using familiar images.

また、重畳表示は仮想内視鏡像92の表示の可否を切換えることにより実際の内視鏡像8のみを表示することも可能である。これにより、術者は内視鏡のみで足りる場合でも内視鏡手術の安全性を向上することができる。   Further, in the superimposed display, only the actual endoscopic image 8 can be displayed by switching whether to display the virtual endoscopic image 92 or not. Thereby, even when an operator only needs an endoscope, the safety of endoscopic surgery can be improved.

図4(b)は、マニピュレータのすべての関節の駆動領域931を表示する例である。この例ではマニピュレータの回転範囲を示す球が重畳して表示されている。これによって、術者はマニピュレータの各関節の可動範囲を内視鏡像と対応づけて直ちに知ることができるから、マニピュレータの各関節の動きに考慮して内視鏡手術の安全性を向上することができる。   FIG. 4B shows an example in which the drive areas 931 of all joints of the manipulator are displayed. In this example, a sphere indicating the rotation range of the manipulator is displayed superimposed. As a result, the surgeon can immediately know the movable range of each joint of the manipulator by associating it with the endoscopic image, so that the safety of endoscopic surgery can be improved in consideration of the movement of each joint of the manipulator. it can.

図4(c)は、駆動領域931と対象臓器8との位置関係(距離)と重篤度による重みを付加した接触条件が重篤度による重みと駆動領域931と対象臓器8との距離の積により、駆動域と対象臓器との接触による駆動制限領域表示932を設定する。これによって、術者は症状が重篤な箇所対応づけて直ちに知ることができ、その治療を優先させることで手術を効率的に支援することができ、その効率化と相俟って内視鏡手術の安全性を向上することができる。   Fig. 4 (c) shows the positional relationship (distance) between the drive region 931 and the target organ 8 and the contact condition to which the weight based on the severity is added. Based on the product, the drive restriction area display 932 by the contact between the drive area and the target organ is set. As a result, the surgeon can immediately know where the symptom is severely associated, and can prioritize the treatment to efficiently support the operation. The safety of the operation can be improved.

図4(d)は、バイリテラル制御方式のマスタスレーブ装置を採用すれば、駆動制限領域表示と同時に触覚や反力をマスタ装置に伝えることが可能である。その際には、モータ制御部6の力制御部からモータに対して負荷を与える信号を反力として伝達すればよい。駆動制限領域932においては、接触条件によってマニピュレータの駆動領域や駆動制限領域に接近および接触したことの警告レベルを2次元94および3次元画像933でカラー表示などを行う。カラー表示に代えて又は同時に警告音や振動として発してもよい。また、警告音と振動は同時に発してもよい。2次元画像94は棒グラフや円グラフとして警告の強さを示してもよい。
これにより、手術器具と対象臓器の位置関係(距離)に応じて接触レベルにおいて注意を喚起することができるため、その注意喚起により内視鏡手術の安全性を向上することができる。
In FIG. 4 (d), when a bi-literal master slave device is employed, it is possible to transmit a tactile sensation and reaction force to the master device simultaneously with the display of the drive restriction area. In that case, a signal for applying a load to the motor from the force control unit of the motor control unit 6 may be transmitted as a reaction force. In the drive restriction area 932, a warning level for approaching and touching the manipulator drive area and the drive restriction area is displayed in color in the 2D 94 and 3D images 933 according to the contact conditions. Instead of color display or simultaneously, it may be emitted as a warning sound or vibration. Further, the warning sound and the vibration may be emitted simultaneously. The two-dimensional image 94 may indicate the strength of warning as a bar graph or a pie graph.
Thereby, since attention can be alerted at the contact level according to the positional relationship (distance) between the surgical instrument and the target organ, the safety of endoscopic surgery can be improved by the alerting.

図5(a)は、接触条件によってマニピュレータ8の駆動領域や駆動制限領域に接近および接触したことの警告レベルを内視鏡像上にカラー表示98を行う。カラー表示98は図示される接触の可能性に応じて色分けされている。
これにより、手術器具と対象臓器の位置関係(距離)に応じた接触レベルが内視鏡像に直接対応づけられて表示されるため、その対応表示により内視鏡手術の安全性を向上することができる。
FIG. 5 (a) performs color display 98 on the endoscopic image of a warning level indicating that the manipulator 8 has approached or contacted the drive region or the drive restriction region depending on the contact condition. The color display 98 is color-coded according to the possibility of contact shown in the figure.
As a result, since the contact level corresponding to the positional relationship (distance) between the surgical instrument and the target organ is displayed in direct correspondence with the endoscopic image, the corresponding display can improve the safety of endoscopic surgery. it can.

図5(b)は、接触条件によってマニピュレータ8の駆動領域や駆動制限領域に接近および接触したことの警告レベルを内視鏡像上に展開した臓器情報99の表示を行う。臓器情報99はMRI装置等で取得した医用画像から3次元画像を作成し、その作成された3次元画像を内視鏡像の座標系に合わせて歪ませ、その歪ませた3次元画像を内視鏡像に重畳表示する。
これにより、手術器具と対象臓器の位置関係(距離)が直感的に表示されるため、その直感的表示により内視鏡手術の安全性を向上することができる。
FIG. 5 (b) displays organ information 99 in which an alarm level indicating that the manipulator 8 is approaching or contacting the driving area or the driving restriction area depending on the contact condition is developed on the endoscopic image. For organ information 99, a 3D image is created from a medical image acquired by an MRI device, etc., and the created 3D image is distorted according to the coordinate system of the endoscopic image, and the distorted 3D image is endoscopically viewed. Superimposed on the mirror image.
Thereby, since the positional relationship (distance) between the surgical instrument and the target organ is intuitively displayed, the safety of endoscopic surgery can be improved by the intuitive display.

図5(c)は、マニピュレータ8を仮想的に移動させた場合、その仮想移動されたマニピュレータ8が接触条件によってその駆動領域や駆動制限領域に接近および接触したことに対応するものである。即ち、駆動制限領域932においては、接触条件によってマニピュレータの駆動領域や駆動制限領域に接近および接触したことの警告レベルを2次元94でカラー表示などを行う。
これにより、仮想移動した状態の手術器具と対象臓器の位置関係(距離)が表示されるため、その仮想移動表示により注意を喚起することができ、内視鏡手術の安全性を向上することができる。
FIG. 5 (c) corresponds to the fact that when the manipulator 8 is virtually moved, the virtually moved manipulator 8 approaches and contacts the drive area or the drive restriction area depending on the contact condition. That is, in the drive restriction area 932, a warning level for approaching and touching the manipulator drive area or the drive restriction area depending on the contact condition is displayed in two dimensions 94 in color.
As a result, since the positional relationship (distance) between the surgical instrument and the target organ in a virtually moved state is displayed, attention can be drawn by the virtual moved display, which can improve the safety of endoscopic surgery. it can.

図5(d)は、マニピュレータ8を仮想的に移動させた場合、その仮想移動されたマニピュレータ8が対象臓器等に接近しない安全距離を保った移動を示したものである。即ち、マニピュレータ8が移動前後において安全距離を保つ移動を示す矢印91を表示する。
これにより、仮想移動した状態の手術器具と対象臓器の位置関係(距離)のうちの安全範囲が表示されるため、その安全範囲の表示により術者が安心して操作することができ、内視鏡手術の安全性を向上することができる。
FIG. 5 (d) shows the movement of the manipulator 8 that is virtually moved so as to maintain a safe distance that does not approach the target organ or the like when the manipulator 8 is virtually moved. That is, the arrow 91 indicating the movement in which the manipulator 8 maintains the safe distance before and after the movement is displayed.
As a result, since the safe range of the positional relationship (distance) between the surgical instrument and the target organ in the virtually moved state is displayed, the operator can operate with peace of mind by displaying the safe range. The safety of the operation can be improved.

駆動制限領域は、図4(b)(c)(d)のように3次元画像で示す例や図6(a)(b)(c)のようにアキシャル画像上95、サジタル画像上96、コロナル画像上97に重畳表示することができる。合わせて仮想的にマニピュレータをその駆動制限領域の断面や切断面934に投影して表示する。
これにより、手術器具と多面的な方向の画像とから立体的に把握できるため、その立体的な把握により内視鏡手術の安全性を向上することができる。
The drive restriction area is an example shown in a three-dimensional image as shown in FIGS. 4 (b) (c) (d), and on the axial image 95, as shown in FIGS. 6 (a) (b) (c), on the sagittal image 96, It can be displayed superimposed on the coronal image 97. At the same time, the manipulator is virtually projected and displayed on the cross section of the drive restriction region and the cut surface 934.
Thereby, since it can grasp | ascertain three-dimensionally from the surgical instrument and the image of a multifaceted direction, the safety | security of endoscopic surgery can be improved by the three-dimensional grasp.

重篤度による重みは図7のようにモニタ110で確認しながら、抽出した臓器毎(object毎104)に自由曲線、直線、矩形等103で設定し、臓器内の重篤度により変更するやり方もある。重篤度の重み付けは形状を問わず、図8のようにグラフィカルユーザーインターフェース100により、自由にユーザがマウス105を使って設定する。従って、図8(a)のように、臓器内の複雑に絡み合った対象物毎に非線形の重み係数111を与え、危険の度合いを設定する。また、図8(b)のように手術上で接触を回避すべき部位(例えば血管や神経)に大きな重みを設定したり、手術対象部位に小さな重みを設定したりすることで重みを矩形112で与え、マニピュレータと対象臓器との不用意な衝突の回避や対象臓器への正確に位置決めを行うことができ、その位置決めにより内視鏡手術の安全性を向上することができる。   While checking the weight by severity on the monitor 110 as shown in Fig. 7, set a free curve, straight line, rectangle etc. 103 for each extracted organ (104 for each object) and change it according to the severity in the organ There is also. Severity weighting is set by the user freely using the mouse 105 by the graphical user interface 100 as shown in FIG. Therefore, as shown in FIG. 8 (a), a nonlinear weight coefficient 111 is given to each complexly intertwined target in the organ to set the degree of danger. Further, as shown in FIG. 8 (b), a weight is set to a rectangle 112 by setting a large weight on a part (for example, a blood vessel or a nerve) where contact should be avoided in the operation or setting a small weight on the part to be operated. Thus, it is possible to avoid inadvertent collision between the manipulator and the target organ and accurately position the target organ, and the safety of the endoscopic surgery can be improved by the positioning.

図9はバイラテラル制御方式のマスタスレーブ装置の構成を示す。図3に追加されたところはF1という信号で、モータ制御部6、アクチュエータ制御部7に伝達され、力制御部62、72でそれぞれ変換され、モータ41やアクチュエータ51を駆動制御する。   FIG. 9 shows a configuration of a master-slave device of a bilateral control system. The signal added to FIG. 3 is a signal F1, which is transmitted to the motor control unit 6 and the actuator control unit 7, and converted by the force control units 62 and 72, respectively, to drive and control the motor 41 and the actuator 51.

本実施形態は、術者の目や耳に内視鏡手術支援に必要な情報を得ることができ、バックアップでマニピュレータの駆動と停止の制御を行う。例えば、実内視鏡に仮想情報を重畳することにより以下の応用例が考えられる。   In the present embodiment, information necessary for assisting endoscopic surgery can be obtained from the operator's eyes and ears, and the manipulator is driven and stopped in a backup manner. For example, the following application examples can be considered by superimposing virtual information on a real endoscope.

(a)仮想内視鏡像に画像処理で得られたシミュレーション情報を付加することができる。
情報を付加した仮想内視鏡像を表示・非表示または合成表示することで、例えば、実内視鏡像だけでは判断のつき難い病変の広がりや浸潤の程度を理解することができる。また、実内視鏡像で確認できる臓器であっても、手術中に水や泡などで見にくくなる場合があるが、重畳された仮想内視鏡像で一時的に情報を補うことができる。仮想内視鏡像は変換前の実空間の位置情報を持っているため、実内視鏡像上で正確な三次元位置を算出することができる。これら利点から、より安全で精確な内視鏡外科手術が期待できる。
(b)内視鏡だけでは視認不可能な臓器の正確な位置関係を直感的に把握できることになり、視認性の高い内視鏡外科手術が期待できる。
(c) 術具と仮想内視鏡像が正確に重畳されていることから、術中に仮想のマニピュレータだけを動かし、実内視鏡と同じ環境で(a)(b)および図4で示した駆動制限領域といった情報を術者に視覚的に知らせることにより近未来の術前状況をシミュレーションで き、安全な内視鏡外科手術が可能になる。
(d) なおかつ、図9の画像重畳処理部にマスタ装置の位置検出部からの位置情報L1を入力し、画像重畳処理部からシミュレーションで得られた位置情報L1'、L2'を出力するように変更することによって、シミュレーション情報を実際のマニピュレータに反映することができる。尚、シミュレーションが行われていない場合は、L1'、L2'には位置検出部から入力された情報をそのまま出力すればよい。
(a) Simulation information obtained by image processing can be added to a virtual endoscopic image.
By displaying, hiding, or combining and displaying a virtual endoscopic image to which information has been added, for example, it is possible to understand the extent of lesion spread and the degree of infiltration that are difficult to determine with the actual endoscopic image alone. In addition, even an organ that can be confirmed with a real endoscopic image may be difficult to see with water or bubbles during surgery, but information can be temporarily supplemented with a superimposed virtual endoscopic image. Since the virtual endoscopic image has position information in the real space before conversion, an accurate three-dimensional position can be calculated on the real endoscopic image. From these advantages, safer and more accurate endoscopic surgery can be expected.
(b) It is possible to intuitively grasp an accurate positional relationship of an organ that cannot be visually recognized only by an endoscope, and an endoscopic surgical operation with high visibility can be expected.
(c) Since the surgical instrument and virtual endoscopic image are accurately superimposed, only the virtual manipulator is moved during the operation, and the drive shown in (a), (b) and Fig. 4 is performed in the same environment as the real endoscope. By visually informing the surgeon of information such as restricted areas, the near-future preoperative situation can be simulated, and safe endoscopic surgery can be performed.
(d) In addition, the position information L1 from the position detection unit of the master device is input to the image superimposition processing unit in FIG. 9, and the position information L1 ′ and L2 ′ obtained by simulation are output from the image superimposition processing unit. By changing, the simulation information can be reflected in the actual manipulator. If simulation is not performed, information input from the position detection unit may be output as it is to L1 ′ and L2 ′.

その際のマニピュレータにおけるマスタスレーブ装置の動作例について図10、11を用いて説明する。
まず、画像重畳装置3は画像重畳装置3画像重畳装置3画像重畳処理およびマスタスレーブ装置の制御処理を終了するか否かを判定する(S1)。
画像重畳装置3は、制御処理を終了しない場合、手術シミュレーションを行うためにスレーブ装置をロックするか否かを判定する(S2)。
その際には実内視鏡像と仮想内視鏡像および仮想のマニピュレータの画像が正確に重畳されていることが前提となる。ロック機構は実内視鏡像と仮想内視鏡像を切り離す機構で、ロック機構が無効(オフ)の時には、L1、L2を取得し、マスタ装置の操作に追随してスレーブ装置が動作するよう制御を行う(S3)。
An example of the operation of the master / slave device in the manipulator at that time will be described with reference to FIGS.
First, the image superimposing apparatus 3 determines whether or not to end the image superimposing apparatus 3 image superimposing apparatus 3 image superimposing process and the master slave apparatus control process (S1).
If the control process is not finished, the image superimposing device 3 determines whether or not to lock the slave device in order to perform the surgery simulation (S2).
In this case, it is assumed that the real endoscopic image, the virtual endoscopic image, and the virtual manipulator image are accurately superimposed. The lock mechanism is a mechanism that separates the real endoscopic image and the virtual endoscopic image.When the lock mechanism is invalid (off), L1 and L2 are acquired, and control is performed so that the slave device operates following the operation of the master device. Perform (S3).

ロック機構の有効(オン)/無効(オフ)のスイッチは術者の入力によって行われる。この入力の装置はマウス、フットスイッチなど入力信号を送る機構であればどのような形態でも構わない。ロック機構が有効の時には、マスタ装置の動きをシミュレーション後に再現するために、L1、L2を保存する(S4)。
マスタ装置4の操作部は仮想なマニピュレータや仮想内視鏡像のみを動作する。スレーブ装置は停止状態となっている。L1はマスタ装置の位置情報を随時保持し続け、L2はロック機構が有効になったときのスレーブの位置のみを保持する。次に、画像重畳装置3はロック機構の状態遷移を判定する。ロック機構が無効から有効へ遷移する場合または有効から無効へ遷移する場合、初期状態でロック機構が有効でない場合やロック機構が解除された場合はS6に移行する(S5)。
手術シミュレーションを行わない場合、マスタ装置4の位置検出部42で位置情報L1を、画像重畳装置3の位置検出部31で位置情報L2を検出し、処理部321を介してモータ制御部6およびアクチュエータ制御部7にL1'、L2'として送信する。マスタ側装置ではL1'、L2'の変移量が等しくなるように、モータ制御部6の位置制御部61からモータ41へ情報を伝達する。スレーブ側ではL1'、L2'の変移量が等しくなるように、アクチュエータ制御部7の位置制御部71からアクチュエータ51へ情報を伝達する(S7)。L1'が画像重畳処理で設定された駆動制限領域に入っていない場合、L1'、L2'をモータ制御部6、アクチュエータ制御7に入力し、モータが作動し、マスタ装置を負荷なく動かすことが可能である(S6)。
The lock mechanism is enabled (ON) / disabled (OFF) by an operator's input. The input device may take any form as long as it is a mechanism for sending an input signal, such as a mouse or a foot switch. When the lock mechanism is valid, L1 and L2 are stored in order to reproduce the movement of the master device after the simulation (S4).
The operation unit of the master device 4 operates only a virtual manipulator and a virtual endoscopic image. The slave device is in a stopped state. L1 keeps the position information of the master device at any time, and L2 keeps only the position of the slave when the lock mechanism is activated. Next, the image superimposing device 3 determines the state transition of the lock mechanism. When the lock mechanism transitions from invalid to valid or from valid to invalid, when the lock mechanism is not valid in the initial state or when the lock mechanism is released, the process proceeds to S6 (S5).
When the operation simulation is not performed, the position information L1 is detected by the position detection unit 42 of the master device 4, the position information L2 is detected by the position detection unit 31 of the image superimposing device 3, and the motor control unit 6 and the actuator are detected via the processing unit 321. Transmit to the control unit 7 as L1 ′ and L2 ′. In the master side device, information is transmitted from the position control unit 61 of the motor control unit 6 to the motor 41 so that the shift amounts of L1 ′ and L2 ′ are equal. On the slave side, information is transmitted from the position control unit 71 of the actuator control unit 7 to the actuator 51 so that the shift amounts of L1 ′ and L2 ′ are equal (S7). When L1 'is not in the drive restriction area set by the image superimposition process, L1' and L2 'are input to the motor control unit 6 and actuator control 7, and the motor operates and the master device can be moved without load. It is possible (S6).

画像重畳装置3は、その際、L1とL2の大小によりスレーブ側を駆動する(S7)。
画像重畳装置3は、L1が駆動警戒領域であるか否かを判定し、駆動警戒領域であればS11へ移行し駆動警戒領域でなければS9へ移行する(S8)。
画像重畳装置3は、モータ制御部6にモータ41の作動をさせる(S9)
At that time, the image superimposing device 3 drives the slave side by the size of L1 and L2 (S7).
The image superimposing device 3 determines whether or not L1 is a driving warning area, and if it is a driving warning area, the process proceeds to S11, and if not, the process shifts to S9 (S8).
The image superimposing device 3 causes the motor control unit 6 to operate the motor 41 (S9)

画像重畳装置3は、円滑にマスタ装置の動きをスレーブ装置5に伝達し、スレーブ装置5に接続されるアクチュエータ51を作動させる(S10)。これらの一連のステップは手術が終了するまで随時に行う。
次に、L1が駆動制限領域である場合、画像重畳処理部からの力制御信号F1に従って、力制御部62、72によりモータ41に負荷が供給されることになる。
画像重畳装置3は、モータ制御部6にモータ41に供給される負荷に応じて作動をさせる(S11)。
画像重畳装置3は、アクチュエータ51にも負荷をかける(S12)。
モータ41とアクチュエータ51にかかる負荷は徐々に増大していき、最終的には、マスタスレーブ装置ともに停止する。
The image superimposing device 3 smoothly transmits the movement of the master device to the slave device 5, and operates the actuator 51 connected to the slave device 5 (S10). These series of steps are performed as needed until the surgery is completed.
Next, when L1 is the drive restriction region, a load is supplied to the motor 41 by the force control units 62 and 72 according to the force control signal F1 from the image superimposition processing unit.
The image superimposing device 3 causes the motor control unit 6 to operate according to the load supplied to the motor 41 (S11).
The image superimposing device 3 also applies a load to the actuator 51 (S12).
The load applied to the motor 41 and the actuator 51 gradually increases, and finally the master slave device stops.

次に、ロック機構が無効から有効に遷移し、手術シミュレーションが可能な場合は、スレーブ装置は停止し、マスタ装置のみ動かすことができる(S13)。
画像重畳装置3は、ロック機構が無効のときと同様に、L1が駆動制限領域外に存在する場合はモータを作動するか、L1が駆動制限領域内に存在する場合は負荷をかけるかを判定する(S14)。
画像重畳装置3は、L1が駆動制限領域外に存在するのでモータ41を作動する(S15)。
Next, when the lock mechanism transits from invalid to valid and a surgical simulation is possible, the slave device stops and only the master device can be moved (S13).
Similar to when the lock mechanism is disabled, the image superimposing device 3 determines whether to operate the motor when L1 is outside the drive restriction area or to apply a load when L1 is inside the drive restriction area. (S14).
The image superimposing apparatus 3 operates the motor 41 because L1 exists outside the drive restriction region (S15).

画像重畳装置3は、L1が駆動制限領域外に存在するのでモータ41に負荷を与える(S16)。
画像重畳装置3は、ロック機構が有効から無効へ遷移する場合、マニピュレータの動作シミュレーションの結果を再現するか否かを判定し、その判定結果がシミュレーションを再現しない場合にS1へ移行し、シミュレーションを再現する場合はS18へ移行する(S17)。
画像重畳装置3は、再現途中でロック機構が無効になる場合を想定し、ロック機構の有効/無効を判定する。その判定の結果、無効(オフ)であればS1へ移行し、有効(オン)であればS19に移行する(S18)。
The image superimposing apparatus 3 applies a load to the motor 41 because L1 exists outside the drive restriction region (S16).
The image superimposing device 3 determines whether or not to reproduce the result of the manipulator operation simulation when the lock mechanism transitions from valid to invalid.If the determination result does not reproduce the simulation, the image superimposing device 3 proceeds to S1 and executes the simulation. When reproducing, the process proceeds to S18 (S17).
The image superimposing apparatus 3 determines the validity / invalidity of the lock mechanism assuming that the lock mechanism becomes invalid during reproduction. If the result of the determination is invalid (off), the process proceeds to S1, and if valid (on), the process proceeds to S19 (S18).

画像重畳装置3は、シミュレーション再現中に保存されたL1、L2を読出す(S19)。
画像重畳装置3は、L1とL2の変移量に誤差がなくなるまで、S6〜S12の処理を繰り返す(S20)。
画像重畳装置3は、L1とL2が等しくなったときは次のL1としてL1のデータ更新する(S21)。
このような操作は、内視鏡及びマニピュレータを患者の体表から患部に至るまで同様の処理を繰り返す。
The image superimposing device 3 reads out L1 and L2 stored during simulation reproduction (S19).
The image superimposing apparatus 3 repeats the processes of S6 to S12 until there is no error in the shift amounts of L1 and L2 (S20).
When L1 and L2 become equal, the image superimposing device 3 updates the data of L1 as the next L1 (S21).
In such an operation, the same processing is repeated until the endoscope and manipulator are moved from the patient's body surface to the affected part.

このようにして鉗子や内視鏡手術マニピュレータの仮想画像の動きが実際の鉗子や内視鏡手術マニピュレータに反映される。尚、警告レベルに応じて、実際の鉗子や内視鏡手術マニピュレータを停止させる安全機構は、シミュレーション中、シミュレーションの結果を実際に実現している途中でも働く。
また、手術する臓器へアプローチしたい場合に駆動制限領域を大きくすることによって、その安全機構を解除することも可能とする。
In this way, the movement of the virtual image of the forceps or the endoscopic surgical manipulator is reflected on the actual forceps or the endoscopic surgical manipulator. Note that the safety mechanism that stops the actual forceps and the endoscopic surgical manipulator according to the warning level works during the simulation and during the actual realization of the simulation result.
Further, when it is desired to approach the organ to be operated, the safety mechanism can be released by enlarging the drive restriction region.

また、本実施形態は、図2の位置検出装置31として光学式・磁気式の位置検出装置の変わりに、図11のように鉗子やマニピュレータにマーカー120を取り付け、医用画像診断装置1でそのマーカーを読み取ることにより、鉗子や内視鏡手術マニピュレータの動きを検出することができる。当然、図2のシステム構成で図11の位置検出方法を用いることも可能である。   Further, in this embodiment, instead of the optical / magnetic position detection device as the position detection device 31 in FIG. 2, a marker 120 is attached to a forceps or a manipulator as shown in FIG. Can be detected to detect the movement of forceps or an endoscopic surgical manipulator. Naturally, the position detection method of FIG. 11 can also be used in the system configuration of FIG.

マーカーはX線CT装置やMRI装置で高輝度または低輝度に撮影される物質を低輝度または高輝度で撮影されるカプセルに内包したものを使用してもよい。
また、マーカーは、MRI装置に限定すれば、Active Tracking Systemのために使用されるコイルを内蔵していてもよい。
The marker may be a substance in which a substance photographed with high or low brightness by an X-ray CT apparatus or MRI apparatus is included in a capsule photographed with low or high brightness.
Further, if the marker is limited to the MRI apparatus, the marker may include a coil used for the Active Tracking System.

また、3個以上のマーカーからなる座標群を「ツール」と定義すると、鉗子や内視鏡手術マニピュレータ毎に取り付けるツール毎のマーカーの配置を換えることによって、異なるツールとして(つまり、鉗子やマニピュレータの部品毎のツールとして)認識させてもよい。
上記ツールは一度医用画像診断装置で認識してしまえば、連続的に画像を撮影できる撮像方法で図11のようにツールの断面画像130または断面画像を含むボリューム画像を撮影し、その画像情報からツールを抽出することができる。
そして、ツールの複数のマーカーの座標から基準点(例えば、重心)を算出し、基準点から鉗子や内視鏡手術マニピュレータの相対的位置より、鉗子や内視鏡手術マニピュレータの位置や方向を算出することができる。鉗子や内視鏡手術マニピュレータの位置が、術前または術中に撮影された医用診断画像のボリュームデータ上のどの位置にあるかがわかることから、図5の応用例に使用することができる。
In addition, if a coordinate group consisting of three or more markers is defined as a “tool”, it can be used as a different tool by changing the placement of the markers for each tool attached to each forceps or endoscopic surgical manipulator (that is, the forceps or manipulator It may be recognized as a tool for each part).
Once the above tool is recognized by the medical image diagnostic apparatus, a cross-sectional image 130 of the tool or a volume image including the cross-sectional image is taken as shown in FIG. Tools can be extracted.
Then, the reference point (for example, the center of gravity) is calculated from the coordinates of the plurality of markers of the tool, and the position and direction of the forceps and the endoscopic surgical manipulator are calculated from the relative position of the forceps and the endoscopic surgical manipulator from the reference point. can do. Since the position of the forceps or the endoscopic surgical manipulator can be found on the volume data of the medical diagnostic image taken before or during the operation, it can be used in the application example of FIG.

また、画像重畳装置3は、マスタ装置に視覚的フィードバックおよび力覚フィードバックを行わせるのであれば、医用画像診断装置と内視鏡装置からなる簡易的なシステムで本実施形態を実現できる。
これは、術者への視覚的フィードバックと力覚フィードバックが医用画像診断装置から得られる画像情報のみから生成されるためである。この方法はスレーブ装置へ力覚情報がフィードバックされないため、術中医用診断画像で内視鏡を誘導する内視鏡手術であるが、システムを簡易化でき、通常の手術手技を変えない点でメリットがある。
Further, if the image superimposing device 3 causes the master device to perform visual feedback and force feedback, this embodiment can be realized by a simple system including a medical image diagnostic device and an endoscope device.
This is because visual feedback and force feedback to the operator are generated only from image information obtained from the medical image diagnostic apparatus. This method is endoscopic surgery that guides the endoscope with intraoperative medical diagnostic images because force information is not fed back to the slave device, but there are advantages in that the system can be simplified and normal surgical techniques are not changed. is there.

本実施形態によれば、術者のマスタの不用意な操作でも対象臓器とマニピュレータとの危険な接触を回避し、安全な内視鏡外科手術を施行することができる。   According to this embodiment, even if the surgeon's master is careless, dangerous contact between the target organ and the manipulator can be avoided, and safe endoscopic surgery can be performed.

本発明の内視鏡手術操作支援システムは、医用画像診断装置によって撮影された医用診断画像中の対象臓器と、その対象臓器と内視鏡及びマニピュレータの駆動領域を対応づけて表示するので、内視鏡手術操作を安全に支援できる。   The endoscopic surgical operation support system of the present invention displays a target organ in a medical diagnostic image photographed by a medical image diagnostic apparatus in association with the target organ and the driving area of the endoscope and manipulator. Safe support for endoscopic surgical operation.

本実施形態の内視鏡手術操作支援システムの装置構成図。The apparatus block diagram of the endoscopic surgery operation assistance system of this embodiment. 図1の機能ブロック図。The functional block diagram of FIG. 図2のマスタスレーブ装置の機能ブロック図。FIG. 3 is a functional block diagram of the master slave device of FIG. 図1の内視鏡手術操作支援システムの手術器具と画像の重畳表示例を示す図。FIG. 2 is a diagram showing an example of a superimposed display of surgical instruments and images of the endoscopic surgical operation support system of FIG. 図4と異なる形態の重畳表示例を示す図。FIG. 5 is a diagram showing an example of superimposed display in a form different from FIG. 図4、図5と異なる形態の重畳表示例を示す図。FIG. 6 is a diagram showing an example of superimposed display in a form different from those in FIGS. 患部の重篤度等の表示範囲を変更設定するユーザインターフェースの例を示す図。The figure which shows the example of the user interface which changes and sets the display range, such as the seriousness of an affected part. 図7の変更設定の例を示す図。The figure which shows the example of the change setting of FIG. 図2と異なるマスタスレーブ装置の機能ブロック図。FIG. 3 is a functional block diagram of a master / slave device different from FIG. 図1の内視鏡手術操作支援システムの動作例を説明するフローチャート。2 is a flowchart for explaining an operation example of the endoscopic surgical operation support system in FIG. 画像にマーカーをさらに重畳表示した例を示す図。The figure which shows the example which further superimposed and displayed the marker on the image.

符号の説明Explanation of symbols

31 位置検出部、321 処理部、322 表示部   31 Position detection unit, 321 processing unit, 322 display unit

Claims (11)

手術器具を操作可能なマニピュレータの可動範囲と患者の画像情報とを対応づけて表示するマニピュレータ操作支援システムにおいて、
前記マニピュレータの駆動領域と前記マニピュレータの一部が接触する可能性のある対象臓器との位置関係を算出する位置算出手段と、
前記算出された位置関係に応じた接近又は接触条件を数段階の警告レベルとして設定する警告レベル設定手段と、
前記設定した警告レベルを術者へ報知する報知手段と、
を備えたことを特徴とする内視鏡手術操作支援システム。
In a manipulator operation support system that displays a movable range of a manipulator capable of operating a surgical instrument and image information of a patient in association with each other,
Position calculating means for calculating a positional relationship between a driving region of the manipulator and a target organ with which a part of the manipulator may contact;
Warning level setting means for setting the approach or contact condition according to the calculated positional relationship as a warning level of several stages;
Informing means for informing the operator of the set warning level;
An endoscopic surgical operation support system comprising:
前記警告レベル設定手段によって設定された警告レベルに応じて前記マニピュレータを停止させる機構部をさらに備えたことを特徴とする請求項1に記載の内視鏡手術操作支援システム。   The endoscopic surgical operation support system according to claim 1, further comprising a mechanism that stops the manipulator in accordance with a warning level set by the warning level setting means. 前記報知手段は、前記警告レベルを示す表示によって術者に報知することを特徴とする請求項1、2の何れか1項に記載の内視鏡手術操作支援システム。   The endoscopic surgical operation support system according to any one of claims 1 and 2, wherein the notifying means notifies the operator by a display indicating the warning level. 前記報知手段は、前記警告レベルを示す音又は音声の少なくとも一方によって術者に報知することを特徴とする請求項1〜3の何れか1項に記載の内視鏡手術操作支援システム。   The endoscopic surgery operation support system according to any one of claims 1 to 3, wherein the notifying means notifies the surgeon by at least one of a sound and a sound indicating the warning level. 前記報知手段は、前記警告レベルを示す振動によって術者に報知することを特徴とする請求項1〜4の何れか1項に記載の内視鏡手術操作支援システム。   The endoscopic surgical operation support system according to any one of claims 1 to 4, wherein the notifying unit notifies the operator by vibration indicating the warning level. 前記報知手段における表示は、前記患者の画像情報と前記手術器具を画像上に重ねて表示することを特徴とする請求項3に記載の内視鏡手術操作支援システム。   The endoscopic surgical operation support system according to claim 3, wherein the display in the notification unit displays the image information of the patient and the surgical instrument on the image. 前記報知手段における表示は、前記患者の画像情報を内視鏡像と仮想内視鏡像重ねて表示し、その重畳画像に前記手術器具をさらに重ねて表示することを特徴とする請求項3に記載の内視鏡手術操作支援システム。   The display in the said alerting | reporting means displays the said patient's image information on an endoscopic image and a virtual endoscopic image, and displays the said surgical instrument on the superimposed image further. Endoscopic operation support system. 前記報知手段における表示は、前記患者の画像情報と前記手術器具を重ねて表示し、さらに前記手術器具の関節の駆動領域を重ねて表示することを特徴とする請求項3に記載の内視鏡手術操作支援システム。   The endoscope according to claim 3, wherein the display in the notification unit displays the image information of the patient and the surgical instrument in an overlapping manner, and further displays a joint drive region of the surgical instrument in an overlapping manner. Surgery operation support system. 前記報知手段における表示は、前記患者の画像情報と前記手術器具を重ねて表示し、さらに患部を重篤度に基づいて表示形態を異ならせて表示することを特徴とする請求項3に記載の内視鏡手術操作支援システム。   The display in the notification means displays the image information of the patient and the surgical instrument in an overlapping manner, and further displays the affected part in different display forms based on the severity. Endoscopic operation support system. 前記報知手段における表示は、前記患者の画像情報と前記手術器具を重ねて表示し、さらに前記対象臓器との接触の度合いを示す指標を表示することを特徴とする請求項3に記載の内視鏡手術操作支援システム。   4. The internal view according to claim 3, wherein the display in the notification means displays the image information of the patient and the surgical instrument in an overlapping manner, and further displays an index indicating the degree of contact with the target organ. Mirror surgery operation support system. 前記報知手段における表示は、前記患者の画像情報と前記手術器具のシュミレーションを画像上に重ねて表示することを特徴とする請求項3、6〜10の何れかに記載の内視鏡手術操作支援システム。   The endoscopic surgical operation support according to any one of claims 3 and 6, wherein the display in the notification means displays the image information of the patient and the simulation of the surgical instrument on the image. system.
JP2005213873A 2005-07-25 2005-07-25 System for supporting endoscopic operation Pending JP2007029232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005213873A JP2007029232A (en) 2005-07-25 2005-07-25 System for supporting endoscopic operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005213873A JP2007029232A (en) 2005-07-25 2005-07-25 System for supporting endoscopic operation

Publications (1)

Publication Number Publication Date
JP2007029232A true JP2007029232A (en) 2007-02-08

Family

ID=37789202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005213873A Pending JP2007029232A (en) 2005-07-25 2005-07-25 System for supporting endoscopic operation

Country Status (1)

Country Link
JP (1) JP2007029232A (en)

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009034734A1 (en) * 2007-09-12 2009-03-19 Olympus Medical Systems Corp. Medical device system
JP2009090400A (en) * 2007-10-05 2009-04-30 National Institute Of Advanced Industrial & Technology Robot, robot control device, robot control program, and simulator for creating robot control program
WO2009084345A1 (en) * 2007-12-28 2009-07-09 Olympus Medical Systems Corp. Medical instrument system
JP2010240067A (en) * 2009-04-02 2010-10-28 Aloka Co Ltd Medical navigation system
WO2011114731A1 (en) * 2010-03-17 2011-09-22 富士フイルム株式会社 System, method, device, and program for supporting endoscopic observation
WO2011122037A1 (en) * 2010-03-31 2011-10-06 富士フイルム株式会社 Endoscope observation supporting system and method, and device and programme
JP2011206180A (en) * 2010-03-29 2011-10-20 Olympus Corp Operation input unit and manipulator system
JP2012504017A (en) * 2008-09-30 2012-02-16 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Medical robot system providing a computer generated auxiliary view of camera equipment to control tip placement and orientation
WO2013002405A1 (en) * 2011-06-29 2013-01-03 Olympus Corporation Medical manipulator system
JP2013121507A (en) * 2011-12-09 2013-06-20 Samsung Electronics Co Ltd Medical robot system and method for controlling the same
JP2013192623A (en) * 2012-03-16 2013-09-30 Univ Of Occupational & Environmental Health Japan Endoscope operation system
JP2014004656A (en) * 2012-06-25 2014-01-16 Univ Of Tsukuba Manipulation system
JP2014131551A (en) * 2013-01-07 2014-07-17 Akira Takebayashi Navigation device for endoscope
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
CN104470456A (en) * 2012-07-10 2015-03-25 现代重工业株式会社 Surgical robot system and surgical robot control method
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
JP2015521084A (en) * 2012-06-01 2015-07-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Collision avoidance between manipulator arm and patient using zero space
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
JP2015146981A (en) * 2014-02-07 2015-08-20 オリンパス株式会社 Operation system and operation method for operation system
JP2015150340A (en) * 2014-02-18 2015-08-24 オリンパス株式会社 Manipulator device control method
WO2015129834A1 (en) * 2014-02-27 2015-09-03 オリンパス株式会社 Surgery system and method of avoiding interference with medical instrument
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
JP2015528713A (en) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド Surgical robot platform
JP2015208834A (en) * 2014-04-30 2015-11-24 ファナック株式会社 Safety monitoring device for robot gripping and transporting workpiece
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
JP5932174B1 (en) * 2014-09-05 2016-06-08 オリンパス株式会社 Endoscope system
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
CN106236266A (en) * 2015-06-12 2016-12-21 阿瓦特拉医药有限公司 Operating apparatus and method for robot assisted
JP2017514547A (en) * 2014-03-17 2017-06-08 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Automatic extrusion to avoid range of motion restrictions
JP2017515524A (en) * 2014-03-17 2017-06-15 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Structure adjustment system and method for teleoperated medical system
WO2017109912A1 (en) * 2015-12-24 2017-06-29 オリンパス株式会社 Medical manipulator system and image display method for same
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP2017528175A (en) * 2014-07-02 2017-09-28 コヴィディエン リミテッド パートナーシップ System and method for providing distance and orientation feedback during 3D navigation
WO2017169098A1 (en) * 2016-03-31 2017-10-05 ソニー株式会社 Control device and control method
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP2018011981A (en) * 2017-09-21 2018-01-25 キヤノン株式会社 Medical image processing apparatus
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
WO2018159328A1 (en) * 2017-02-28 2018-09-07 ソニー株式会社 Medical arm system, control device, and control method
JPWO2017130567A1 (en) * 2016-01-25 2018-11-22 ソニー株式会社 MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM
WO2018216382A1 (en) * 2017-05-26 2018-11-29 ソニー株式会社 Medical system, control device for medical support arm, and control method for medical support arm
WO2018225316A1 (en) * 2017-06-05 2018-12-13 オリンパス株式会社 Medical control device
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP2019084615A (en) * 2017-11-06 2019-06-06 トヨタ自動車株式会社 Master handling device
WO2019150866A1 (en) * 2018-01-30 2019-08-08 ソニー株式会社 Information processing device, information processing method, and program
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US10582840B2 (en) 2015-05-14 2020-03-10 Olympus Corporation Endoscope apparatus
JP2020146373A (en) * 2019-03-15 2020-09-17 リバーフィールド株式会社 Force sense display device and display method for medical robot system
KR102177805B1 (en) * 2019-05-29 2020-11-11 재단법인대구경북과학기술원 Surgical navigation system
US10959787B2 (en) 2016-01-14 2021-03-30 Olympus Corporation Medical manipulator system
JP2021090781A (en) * 2014-05-05 2021-06-17 バイカリアス サージカル インク. Virtual reality surgical operation device
CN113081268A (en) * 2021-03-31 2021-07-09 上海电气集团股份有限公司 AR and IoT based surgical guidance system
JP2021534919A (en) * 2018-09-05 2021-12-16 ニューヴェイジヴ,インコーポレイテッド Systems and methods for spinal surgery
JP2022010852A (en) * 2020-06-29 2022-01-17 キヤノンメディカルシステムズ株式会社 Surgery support system and surgery support method
JP2023079038A (en) * 2021-11-26 2023-06-07 株式会社Jmees Surgery support system. surgery support method and surgery support program
US11924535B2 (en) 2019-06-20 2024-03-05 Cila GmbH International Controlling integral energy of a laser pulse in a laser mapping imaging system

Cited By (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US10433919B2 (en) 1999-04-07 2019-10-08 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US9232984B2 (en) 1999-04-07 2016-01-12 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10773388B2 (en) 2006-06-29 2020-09-15 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10737394B2 (en) 2006-06-29 2020-08-11 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US11638999B2 (en) 2006-06-29 2023-05-02 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10137575B2 (en) 2006-06-29 2018-11-27 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9801690B2 (en) 2006-06-29 2017-10-31 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US11751955B2 (en) 2007-06-13 2023-09-12 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US9901408B2 (en) 2007-06-13 2018-02-27 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9629520B2 (en) 2007-06-13 2017-04-25 Intuitive Surgical Operations, Inc. Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US11399908B2 (en) 2007-06-13 2022-08-02 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US11432888B2 (en) 2007-06-13 2022-09-06 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
JP2009066144A (en) * 2007-09-12 2009-04-02 Olympus Medical Systems Corp Medical device system
WO2009034734A1 (en) * 2007-09-12 2009-03-19 Olympus Medical Systems Corp. Medical device system
US8454592B2 (en) 2007-09-12 2013-06-04 Olympus Medical Systems Corp. Medical device system for determining contact between first medical device and second medical device
JP2009090400A (en) * 2007-10-05 2009-04-30 National Institute Of Advanced Industrial & Technology Robot, robot control device, robot control program, and simulator for creating robot control program
WO2009084345A1 (en) * 2007-12-28 2009-07-09 Olympus Medical Systems Corp. Medical instrument system
JPWO2009084345A1 (en) * 2007-12-28 2011-05-19 オリンパスメディカルシステムズ株式会社 Medical equipment system
US8556803B2 (en) 2007-12-28 2013-10-15 Olympus Medical Systems Corp. Medical apparatus system
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US11382702B2 (en) 2008-06-27 2022-07-12 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US11638622B2 (en) 2008-06-27 2023-05-02 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP2012504017A (en) * 2008-09-30 2012-02-16 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Medical robot system providing a computer generated auxiliary view of camera equipment to control tip placement and orientation
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10984567B2 (en) 2009-03-31 2021-04-20 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US11941734B2 (en) 2009-03-31 2024-03-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP2010240067A (en) * 2009-04-02 2010-10-28 Aloka Co Ltd Medical navigation system
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10959798B2 (en) 2009-08-15 2021-03-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US11596490B2 (en) 2009-08-15 2023-03-07 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10828774B2 (en) 2010-02-12 2020-11-10 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
JP2011193885A (en) * 2010-03-17 2011-10-06 Fujifilm Corp System, method, apparatus and program for supporting endoscope observation
US9179822B2 (en) 2010-03-17 2015-11-10 Fujifilm Corporation Endoscopic observation supporting system, method, device and program
CN102811655A (en) * 2010-03-17 2012-12-05 富士胶片株式会社 System, method, device, and program for supporting endoscopic observation
WO2011114731A1 (en) * 2010-03-17 2011-09-22 富士フイルム株式会社 System, method, device, and program for supporting endoscopic observation
JP2011206180A (en) * 2010-03-29 2011-10-20 Olympus Corp Operation input unit and manipulator system
US8681095B2 (en) 2010-03-29 2014-03-25 Olympus Corporation Operation input unit and manipulator system
WO2011122037A1 (en) * 2010-03-31 2011-10-06 富士フイルム株式会社 Endoscope observation supporting system and method, and device and programme
US9220468B2 (en) 2010-03-31 2015-12-29 Fujifilm Corporation Endoscope observation assistance system, method, apparatus and program
JP2011212245A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Endoscope observation supporting system and method, and device and program
EP2726009A4 (en) * 2011-06-29 2015-02-11 Olympus Corp Medical manipulator system
EP2726009A1 (en) * 2011-06-29 2014-05-07 Olympus Corporation Medical manipulator system
JP2013009813A (en) * 2011-06-29 2013-01-17 Olympus Corp Medical manipulator system
WO2013002405A1 (en) * 2011-06-29 2013-01-03 Olympus Corporation Medical manipulator system
CN103619280A (en) * 2011-06-29 2014-03-05 奥林巴斯株式会社 Medical manipulator system
KR101828453B1 (en) 2011-12-09 2018-02-13 삼성전자주식회사 Medical robotic system and control method for thereof
JP2013121507A (en) * 2011-12-09 2013-06-20 Samsung Electronics Co Ltd Medical robot system and method for controlling the same
JP2013192623A (en) * 2012-03-16 2013-09-30 Univ Of Occupational & Environmental Health Japan Endoscope operation system
JP2015521084A (en) * 2012-06-01 2015-07-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Collision avoidance between manipulator arm and patient using zero space
US10194997B2 (en) 2012-06-01 2019-02-05 Intuitive Surgical Operations, Inc. Manipulator arm-to-patient collision avoidance using a null-space
JP2015528713A (en) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド Surgical robot platform
JP2014004656A (en) * 2012-06-25 2014-01-16 Univ Of Tsukuba Manipulation system
JP2015527910A (en) * 2012-07-10 2015-09-24 ヒュンダイ ヘビー インダストリーズ カンパニー リミテッドHyundai Heavy Industries Co., Ltd. Surgical robot system and surgical robot control method
CN104470456A (en) * 2012-07-10 2015-03-25 现代重工业株式会社 Surgical robot system and surgical robot control method
KR101806195B1 (en) * 2012-07-10 2018-01-11 큐렉소 주식회사 Surgical Robot System and Method for Controlling Surgical Robot
US9649164B2 (en) 2012-07-10 2017-05-16 Hyundai Heavy Industries Co., Ltd. Surgical robot system and surgical robot control method
JP2014131551A (en) * 2013-01-07 2014-07-17 Akira Takebayashi Navigation device for endoscope
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11806102B2 (en) 2013-02-15 2023-11-07 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11389255B2 (en) 2013-02-15 2022-07-19 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP2015146981A (en) * 2014-02-07 2015-08-20 オリンパス株式会社 Operation system and operation method for operation system
US9981386B2 (en) 2014-02-18 2018-05-29 Olympus Corporation Method for controlling a manipulator device
JP2015150340A (en) * 2014-02-18 2015-08-24 オリンパス株式会社 Manipulator device control method
CN106028999A (en) * 2014-02-27 2016-10-12 奥林巴斯株式会社 Surgery system and method of avoiding interference with medical instrument
WO2015129834A1 (en) * 2014-02-27 2015-09-03 オリンパス株式会社 Surgery system and method of avoiding interference with medical instrument
JP2015159955A (en) * 2014-02-27 2015-09-07 オリンパス株式会社 Surgery system and method of avoiding interference between medical instrument and organ
EP3111878A4 (en) * 2014-02-27 2017-11-01 Olympus Corporation Surgery system and method of avoiding interference with medical instrument
JP2017515524A (en) * 2014-03-17 2017-06-15 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Structure adjustment system and method for teleoperated medical system
JP2017514547A (en) * 2014-03-17 2017-06-08 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Automatic extrusion to avoid range of motion restrictions
JP2015208834A (en) * 2014-04-30 2015-11-24 ファナック株式会社 Safety monitoring device for robot gripping and transporting workpiece
US9682478B2 (en) 2014-04-30 2017-06-20 Fanuc Corporation Safety monitoring device for robot gripping and carrying workpiece
US11744660B2 (en) 2014-05-05 2023-09-05 Vicarious Surgical Inc. Virtual reality surgical device
JP2021090781A (en) * 2014-05-05 2021-06-17 バイカリアス サージカル インク. Virtual reality surgical operation device
JP7260190B2 (en) 2014-05-05 2023-04-18 バイカリアス サージカル インク. virtual reality surgical device
JP2017528175A (en) * 2014-07-02 2017-09-28 コヴィディエン リミテッド パートナーシップ System and method for providing distance and orientation feedback during 3D navigation
US11382573B2 (en) 2014-07-02 2022-07-12 Covidien Lp System and method of providing distance and orientation feedback while navigating in 3D
US10085616B2 (en) 2014-09-05 2018-10-02 Olympus Corporation Endoscope system configured to prevent mis-insertion of treatment tool in channel and method of operating the same
JP5932174B1 (en) * 2014-09-05 2016-06-08 オリンパス株式会社 Endoscope system
US10582840B2 (en) 2015-05-14 2020-03-10 Olympus Corporation Endoscope apparatus
JP2017000772A (en) * 2015-06-12 2017-01-05 アヴァテラメディカル ゲーエムベーハー Device and method for robot-supported surgical operation
CN106236266A (en) * 2015-06-12 2016-12-21 阿瓦特拉医药有限公司 Operating apparatus and method for robot assisted
WO2017109912A1 (en) * 2015-12-24 2017-06-29 オリンパス株式会社 Medical manipulator system and image display method for same
US11534241B2 (en) 2015-12-24 2022-12-27 Olympus Corporation Medical manipulator system and image display method therefor
US10959787B2 (en) 2016-01-14 2021-03-30 Olympus Corporation Medical manipulator system
JP2021118883A (en) * 2016-01-25 2021-08-12 ソニーグループ株式会社 Medical arm apparatus, medical arm apparatus operating method, and information processing apparatus
US11058509B2 (en) 2016-01-25 2021-07-13 Sony Corporation Medical safety control apparatus, medical safety control method, and medical support system
JPWO2017130567A1 (en) * 2016-01-25 2018-11-22 ソニー株式会社 MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM
WO2017169098A1 (en) * 2016-03-31 2017-10-05 ソニー株式会社 Control device and control method
US11696814B2 (en) 2017-02-28 2023-07-11 Sony Corporation Medical arm system, control device, and control method
WO2018159328A1 (en) * 2017-02-28 2018-09-07 ソニー株式会社 Medical arm system, control device, and control method
CN110325093A (en) * 2017-02-28 2019-10-11 索尼公司 Medical arm system, control device and control method
WO2018216382A1 (en) * 2017-05-26 2018-11-29 ソニー株式会社 Medical system, control device for medical support arm, and control method for medical support arm
US11633240B2 (en) 2017-05-26 2023-04-25 Sony Corporation Medical system, control device of medical support arm, and control method of medical support arm
WO2018225316A1 (en) * 2017-06-05 2018-12-13 オリンパス株式会社 Medical control device
JP2018011981A (en) * 2017-09-21 2018-01-25 キヤノン株式会社 Medical image processing apparatus
JP2019084615A (en) * 2017-11-06 2019-06-06 トヨタ自動車株式会社 Master handling device
WO2019150866A1 (en) * 2018-01-30 2019-08-08 ソニー株式会社 Information processing device, information processing method, and program
JP2021534919A (en) * 2018-09-05 2021-12-16 ニューヴェイジヴ,インコーポレイテッド Systems and methods for spinal surgery
JP2020146373A (en) * 2019-03-15 2020-09-17 リバーフィールド株式会社 Force sense display device and display method for medical robot system
KR102177805B1 (en) * 2019-05-29 2020-11-11 재단법인대구경북과학기술원 Surgical navigation system
US11924535B2 (en) 2019-06-20 2024-03-05 Cila GmbH International Controlling integral energy of a laser pulse in a laser mapping imaging system
US11949974B2 (en) 2019-06-20 2024-04-02 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
JP2022010852A (en) * 2020-06-29 2022-01-17 キヤノンメディカルシステムズ株式会社 Surgery support system and surgery support method
CN113081268A (en) * 2021-03-31 2021-07-09 上海电气集团股份有限公司 AR and IoT based surgical guidance system
JP2023079038A (en) * 2021-11-26 2023-06-07 株式会社Jmees Surgery support system. surgery support method and surgery support program

Similar Documents

Publication Publication Date Title
JP2007029232A (en) System for supporting endoscopic operation
US11007023B2 (en) System and method of registration between devices with movable arms
JP6180692B1 (en) Medical manipulator system
US20220015832A1 (en) Minimally invasive telesurgical systems with interative user interfaces for 3d operative images
JP4833061B2 (en) Guidance system and method for surgical procedures with improved feedback
EP2923669B1 (en) Systems and devices for catheter driving instinctiveness
KR102404559B1 (en) Medical devices, systems, and methods using eye gaze tracking
JP7414770B2 (en) Medical arm device, operating method of medical arm device, and information processing device
US8398541B2 (en) Interactive user interfaces for robotic minimally invasive surgical systems
KR20170127560A (en) System and method for rendering screen-based identification information of a device in a remotely operated medical system
WO2017169098A1 (en) Control device and control method
CN117717411A (en) Reconfigurable display in computer-assisted teleoperated surgery
KR20170127561A (en) System and method for on-screen identification of instruments in a remotely operated medical system
JP5288447B2 (en) Surgery support system, approach state detection device and program thereof
US11266294B2 (en) Image processing device, endoscopic surgery system, and image processing method
JP2018500055A (en) System and method for integrated operating table icons
JPH10146341A (en) Operating device
US20220117662A1 (en) Systems and methods for facilitating insertion of a surgical instrument into a surgical space
JP5410021B2 (en) Medical diagnostic imaging equipment
JP2008167793A (en) Method and apparatus for supporting surgery
CN115998439A (en) Collision detection method for surgical robot, readable storage medium, and surgical robot
JP7044140B2 (en) Surgical support system, image processing method and information processing equipment
JP2013165916A (en) Surgery supporting system