JP2007029232A - System for supporting endoscopic operation - Google Patents
System for supporting endoscopic operation Download PDFInfo
- Publication number
- JP2007029232A JP2007029232A JP2005213873A JP2005213873A JP2007029232A JP 2007029232 A JP2007029232 A JP 2007029232A JP 2005213873 A JP2005213873 A JP 2005213873A JP 2005213873 A JP2005213873 A JP 2005213873A JP 2007029232 A JP2007029232 A JP 2007029232A
- Authority
- JP
- Japan
- Prior art keywords
- image
- endoscopic
- manipulator
- operation support
- support system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、医用画像診断装置によって撮影された医用診断画像中の対象臓器と、その対象臓器と内視鏡及びマニピュレータの駆動領域を対応づけて表示し、内視鏡手術操作を安全に支援する技術に関するものである。 The present invention displays a target organ in a medical diagnostic image photographed by a medical image diagnostic apparatus, and displays the target organ, a driving region of an endoscope and a manipulator in association with each other, and safely supports an endoscopic surgical operation. It is about technology.
外科手術は、従来の開腹によるもの、又は、従来の内視鏡手術によるものから、例えば、微細なマニュピレータを用いて鍛錬された医師が手術を行う内視鏡手術に移行しつつある。この内視鏡手術は従来の執刀による開腹などを行わないで済むから低侵襲手術として期待されている。また、マスタスレーブ方式を採用することにより医師が患者の居る場所に出向かなくても手術ができる遠隔医療としても期待されている。 Surgery is shifting from conventional laparotomy or conventional endoscopic surgery to endoscopic surgery in which a doctor trained using, for example, a fine manipulator performs surgery. This endoscopic operation is expected as a minimally invasive operation because it does not require a conventional laparotomy. In addition, by adopting the master-slave system, it is also expected as telemedicine that allows surgery even if a doctor does not go to the place where the patient is.
内視鏡手術では、医用画像診断装置(ここではMRI装置)を用いて患者の体内の状態を確認しながら行っている(例えば、特許文献1)。
特許文献1では、医用診断画像中での手術器具の可動範囲の明示とその可動範囲外となったときの警告表示とについて言及されているが、単にマニピュレータの可動範囲を表示することに過ぎず、術者へ様々なレベルの危険度に対応する警告の情報を提供することや最終的にはマニピュレータを停止して安全を確保することについて言及されていない。
そこで、本発明の目的は、術者へ様々なレベルの危険度に対応する情報を提供することで内視鏡手術の安全性を向上することにある。 Therefore, an object of the present invention is to improve the safety of endoscopic surgery by providing the surgeon with information corresponding to various levels of risk.
上記目的を達成するため、本発明の内視鏡手術操作支援システムは、手術器具を操作可能なマニピュレータの可動範囲を表示する内視鏡手術操作支援システムにおいて、前記マニピュレータの駆動領域と前記マニピュレータの一部が接触する可能性のある対象臓器との位置関係を算出する位置算出手段と、前記算出された位置関係に応じた接近又は接触条件を数段階の警告レベルとして設定する警告レベル設定手段と、前記設定した警告レベルを術者へ報知する報知手段と、を備える。 In order to achieve the above object, an endoscopic surgical operation support system according to the present invention is an endoscopic surgical operation support system that displays a movable range of a manipulator capable of operating a surgical instrument, wherein the manipulator drive region and the manipulator Position calculating means for calculating a positional relationship with a target organ that may partially touch, and warning level setting means for setting an approach or contact condition according to the calculated positional relation as several levels of warning levels; And an informing means for informing the operator of the set warning level.
本発明によれば、内視鏡手術の安全性を向上することができる。 According to the present invention, the safety of endoscopic surgery can be improved.
以下、本発明の実施の形態を添付図面に基づいて説明する。なお、本発明の実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiments of the present invention, and the repetitive description thereof will be omitted.
内視鏡外科手術システムは、図1において、医用画像診断装置1と、硬性内視鏡又は軟性内視鏡(以下、「内視鏡装置」と略記する)2と、医用画像診断装置1及び内視鏡装置2と信号伝達可能に接続される画像重畳装置3と、外科医側に設置されるマスタ装置4と、患者側に設置されるスレーブ装置5とを備える。
In FIG. 1, an endoscopic surgical system includes a medical image
医用画像診断装置1は、例えばMRI装置やX線CT装置で、患者の外部から断層像などの患者内部の診断画像を取得する。内視鏡装置2は、患者に手術器具でもって空けた小さな穴などにプローブを挿入し、そのプローブが挿入された位置での患者内部の画像を取得する。画像重畳装置3は内視鏡装置2からの内視鏡像と医用画像診断装置1からの医用診断画像を用いて手術対象の臓器抽出や重畳処理を行う。マスタ装置4は外科医が直接操作する。スレーブ装置5は術者の操作を反映して内視鏡及びマニピュレータを動作させる。
The medical image
まず、内視鏡外科手術システムの機能について図2を用いて説明する。
この内視鏡外科手術システムは、術中ガイドイメージング技術の一つとして医用診断画像を内視鏡像に画像重畳することによって、術者の視覚情報をさらに強化して情報の質と量の増大(強化現実:オーグメンテッドリアリティ)を図る必要がある。
First, the function of the endoscopic surgery system will be described with reference to FIG.
This endoscopic surgery system enhances the operator's visual information and enhances the quality and quantity of information by strengthening the operator's visual information by superimposing medical diagnostic images on the endoscopic image as one of the intraoperative guide imaging techniques. Reality: augmented reality).
このため、画像重畳装置3は、位置検出装置31で、医用画像診断装置1(実施形態1ではMRI装置)の術中画像位置情報や、内視鏡装置2の内視鏡位置マニピュレータの位置情報を取得する。ここで、位置検出装置31は、光学式・磁気式の位置検出装置、または医用診断画像上に表示される位置検出用マーカーから位置検出する。画像処理部32は術中画像と内視鏡像を同時に取得し、取得された両画像間のスケール変換を行って位置合わせ(レジストレーション)を処理部321で行う。前記両画像が等方性であれば、そのまま重畳し、表示部322で重畳表示する。画像重畳装置3はまたシステム全体を制御するシステムコントローラの機能も有している。
For this reason, the image
本明細書で定義する「重畳」とは、すべての画素の位置が正確に一致していることを言い、要求に合わせて重ねて表示したり参照したりできる構造のことである。
一方、前記両画像が異方性であれば、一方の画像に歪み補正処理を施し、両画像を等方性画像に変換するか、または歪みの等しい異方性画像に変換する。歪み補正方法として、ヒルベルト変換を用いた歪み補正方法や共線性の条件を用いた歪み補正方法を用いてもよいし、予め歪み量が解析された医用診断画像の場合、事前に算出した歪み量から歪み補正を行ってもよい。
The term “superimposition” as defined in this specification means that the positions of all the pixels are exactly the same, and is a structure that can be displayed and referred to in superimposition as required.
On the other hand, if the two images are anisotropic, one image is subjected to distortion correction processing, and both images are converted to isotropic images or converted to anisotropic images having the same distortion. As a distortion correction method, a distortion correction method using Hilbert transform or a distortion correction method using collinearity conditions may be used. In the case of a medical diagnostic image in which the distortion amount is analyzed in advance, the distortion amount calculated in advance Alternatively, distortion correction may be performed.
画像重畳装置3が行う前処理には、医用診断画像から、内視鏡が挿入される臓器や手術対象臓器、手術による損傷を回避したい血管や神経線維等を予めリージョングローイング法等で領域抽出する。領域抽出されたデータはマスタスレーブ装置に転送され、後述のマニピュレータ駆動領域設定時に用いられる。
In the preprocessing performed by the image
マスタスレーブ装置は、一般的にユニラテラル制御方式とバイラテラル制御方式という2つの制御方式に分類することができる。 Master-slave devices can be generally classified into two control methods: a unilateral control method and a bilateral control method.
ユニラテラル制御方式はマスタ装置からスレーブ装置に指令を送るが、それ以降の対象物に対する動作はマスタ装置が関与せず、スレーブ装置のみがその作用を受ける。つまり、スレーブ装置の機械的作業情報がマスタ装置にフィードバックされない。 In the unilateral control method, a command is sent from the master device to the slave device, but the subsequent operation on the object is not related to the master device, and only the slave device is affected. That is, the mechanical work information of the slave device is not fed back to the master device.
バイラテラル制御方式はマスタ装置から指令を受けたスレーブ装置と対象物に対する動作はマスタ装置とスレーブ装置両方に作用する。従って、スレーブ装置と対象物との接触等による触覚/力覚情報がマスタ装置を扱う術者に提示される。ただし、術者の視覚情報によるフィードバックはどちらの制御方法でも行われ、その情報から再び指令を出すことができる。 In the bilateral control system, the slave device that receives a command from the master device and the operation on the object act on both the master device and the slave device. Therefore, tactile / force information by contact between the slave device and the object is presented to the operator who handles the master device. However, feedback by the operator's visual information is performed by either control method, and a command can be issued again from that information.
本実施形態は触覚/力覚の代わりに重畳画像から算出された領域によってマニピュレータと対象物に対する動作や駆動領域の制限を行うものであり、ユニラテラル制御方式でもバイラテラル制御方式でも適用できる。 In this embodiment, the manipulator and the object are limited to the motion and driving area by the area calculated from the superimposed image instead of the tactile / force sensation, and can be applied to both the unilateral control system and the bilateral control system.
次に、ユニラテラル制御方式のマスタスレーブ装置の構成について図3を用いて説明する。
マスタスレーブ装置は、マスタ装置4(モータ41、位置検出部42)と、モータ41のモータ制御部6(位置制御部61、力制御部62)と、スレーブ装置5(アクチュエータ51)と、画像重畳装置3(スレーブ装置5の位置検出部31、画像重畳処理部321、画像重畳表示部322)と、アクチュエータ制御部7(位置制御部71、力制御部72)とを有する。
Next, the configuration of a unilateral control master / slave device will be described with reference to FIG.
The master-slave device includes the master device 4 (
マスタ装置4は、術者によって操作される操作部(図示省略)と、その操作部にスレーブ装置5からの反力と同等の駆動力を付与するモータ41と、術者がその駆動力に対して操作部を操作した位置を検出する位置検出部42とを具備し、検出された位置情報L1がモータ制御部6、アクチュエータ制御部7に伝達される。
The
スレーブ装置5は、マスタ装置4からの指令により動作するスレーブ装置5の内視鏡およびマニピュレータを制御するアクチュエータ51からなる。スレーブ装置5の内視鏡およびマニピュレータの位置情報L2は、画像重畳処理部の位置検出部31を用いて、モータ制御部、アクチュエータ制御部に入力される。
The
また、位置情報L1、L2は位置検出部42,52により検出され、画像処理部321に入力される。モータ制御部6の切替部63およびアクチュエータ制御部7の切替部73は、画像重畳処理部3から入力される制御信号C1、C2により選択的に位置制御部または力制御部を切り替える。装置起動時の初期状態では、切替部63及び73は位置制御部側に選択される。
The position information L1 and L2 are detected by the
画像処理部321は位置検出部42、52により検出された位置情報L1、L2と、内視鏡及びマニュピレータの駆動領域との接触判定によって内視鏡及びマニュピレータの駆動を制御するためにモータ制御部6やアクチュエータ制御部7に指令を与える。マニュピレータが駆動領域に存在するとき、マスタ側装置4ではL1、L2の変移量が等しくなるように、モータ制御部6の位置制御部61からモータ41へ情報を伝達する。
The
スレーブ側装置5はL1、L2変移量が等しくなるように、アクチュエータ制御部7の位置制御部71からアクチュエータ51へ情報を伝達する。マニュピレータが駆動制限領域(マニピュレータが対象臓器と接触する可能性のある領域)に到達しそうな場合、その到達する位置のレベルにおいて、マスタ側装置4では制御信号C1をモータ制御部6の切替部63に伝達し、力制御部62から操作部の移動前の情報をモータ41へ伝達し、スレーブ側装置5では制御信号C2をアクチュエータ制御部7の切替部73に伝達し、力制御部72から操作部の移動前の情報をモータ51へ情報を伝達する。これにより、マスタスレーブ装置を操作部の移動指令前の情報で保持させることになる。
The
さらに、マスタスレーブ装置はその安全性を増すために、マスタ側の操作部の操作量が対象臓器との安全距離を保たれない状態となったら、スレーブ側を強制停止する機構を設ける。この強制停止機構は伝達されるマニピュレータと対象臓器との位置関係(距離)の実測値が、使用状態において常時センサで測定され、そのセンサ出力と安全距離が位置制御部71により比較判定され、前記実測値が安全距離に対して所定量、例えば110%となったら、マニピュレータを強制停止する。強制停止機構そのものは、マニピュレータを駆動させるギアを信号によって断続できる公知のものを用いる。この信号は前記実測値が所定量以下となるか所定量を超えるかの1ビットで足りる。この制御例は、前記実測値が所定量以下となったならば、マニピュレータを駆動させるギアを外し、所定量を超えたら前記ギアの接続を復旧する。
これによって、画像重畳処理部3で設定された領域に基づいて、マニピュレータを制御(駆動と停止)することができる。
Further, in order to increase the safety of the master-slave device, a mechanism is provided for forcibly stopping the slave side when the operation amount of the operation unit on the master side cannot maintain a safe distance from the target organ. In this forced stop mechanism, the actual value of the positional relationship (distance) between the transmitted manipulator and the target organ is always measured by a sensor in use, and the sensor output and the safety distance are compared and determined by the
Accordingly, the manipulator can be controlled (driven and stopped) based on the region set by the image superimposing
次に、画像重畳処理部3で設定される内視鏡手術支援システムの駆動領域設定方法および表示方法の実施の一形態を図4、図5、図6及び図7に示す。
Next, FIG. 4, FIG. 5, FIG. 6 and FIG. 7 show one embodiment of the driving region setting method and display method of the endoscopic surgery support system set by the image superimposing
図4(a)は、実際の内視鏡像上8と仮想内視鏡像92の重畳画像上に、さらに鉗子やマニピュレータ等の手術器具の仮想画像91を重畳表示する例を示している。この表示例では、内視鏡像の歪みに合わせて重畳する画像を歪ませ、重畳表示している。仮想内視鏡像92はX線CT装置やMRI装置で被検体の体軸方向の複数の断層像を得て、その得られた断層像から得るものである(例えば、特許文献2参照)。
また、重畳表示は仮想内視鏡像92の表示の可否を切換えることにより実際の内視鏡像8のみを表示することも可能である。これにより、術者は内視鏡のみで足りる場合でも内視鏡手術の安全性を向上することができる。
Further, in the superimposed display, only the actual
図4(b)は、マニピュレータのすべての関節の駆動領域931を表示する例である。この例ではマニピュレータの回転範囲を示す球が重畳して表示されている。これによって、術者はマニピュレータの各関節の可動範囲を内視鏡像と対応づけて直ちに知ることができるから、マニピュレータの各関節の動きに考慮して内視鏡手術の安全性を向上することができる。
FIG. 4B shows an example in which the
図4(c)は、駆動領域931と対象臓器8との位置関係(距離)と重篤度による重みを付加した接触条件が重篤度による重みと駆動領域931と対象臓器8との距離の積により、駆動域と対象臓器との接触による駆動制限領域表示932を設定する。これによって、術者は症状が重篤な箇所対応づけて直ちに知ることができ、その治療を優先させることで手術を効率的に支援することができ、その効率化と相俟って内視鏡手術の安全性を向上することができる。
Fig. 4 (c) shows the positional relationship (distance) between the
図4(d)は、バイリテラル制御方式のマスタスレーブ装置を採用すれば、駆動制限領域表示と同時に触覚や反力をマスタ装置に伝えることが可能である。その際には、モータ制御部6の力制御部からモータに対して負荷を与える信号を反力として伝達すればよい。駆動制限領域932においては、接触条件によってマニピュレータの駆動領域や駆動制限領域に接近および接触したことの警告レベルを2次元94および3次元画像933でカラー表示などを行う。カラー表示に代えて又は同時に警告音や振動として発してもよい。また、警告音と振動は同時に発してもよい。2次元画像94は棒グラフや円グラフとして警告の強さを示してもよい。
これにより、手術器具と対象臓器の位置関係(距離)に応じて接触レベルにおいて注意を喚起することができるため、その注意喚起により内視鏡手術の安全性を向上することができる。
In FIG. 4 (d), when a bi-literal master slave device is employed, it is possible to transmit a tactile sensation and reaction force to the master device simultaneously with the display of the drive restriction area. In that case, a signal for applying a load to the motor from the force control unit of the
Thereby, since attention can be alerted at the contact level according to the positional relationship (distance) between the surgical instrument and the target organ, the safety of endoscopic surgery can be improved by the alerting.
図5(a)は、接触条件によってマニピュレータ8の駆動領域や駆動制限領域に接近および接触したことの警告レベルを内視鏡像上にカラー表示98を行う。カラー表示98は図示される接触の可能性に応じて色分けされている。
これにより、手術器具と対象臓器の位置関係(距離)に応じた接触レベルが内視鏡像に直接対応づけられて表示されるため、その対応表示により内視鏡手術の安全性を向上することができる。
FIG. 5 (a) performs
As a result, since the contact level corresponding to the positional relationship (distance) between the surgical instrument and the target organ is displayed in direct correspondence with the endoscopic image, the corresponding display can improve the safety of endoscopic surgery. it can.
図5(b)は、接触条件によってマニピュレータ8の駆動領域や駆動制限領域に接近および接触したことの警告レベルを内視鏡像上に展開した臓器情報99の表示を行う。臓器情報99はMRI装置等で取得した医用画像から3次元画像を作成し、その作成された3次元画像を内視鏡像の座標系に合わせて歪ませ、その歪ませた3次元画像を内視鏡像に重畳表示する。
これにより、手術器具と対象臓器の位置関係(距離)が直感的に表示されるため、その直感的表示により内視鏡手術の安全性を向上することができる。
FIG. 5 (b) displays
Thereby, since the positional relationship (distance) between the surgical instrument and the target organ is intuitively displayed, the safety of endoscopic surgery can be improved by the intuitive display.
図5(c)は、マニピュレータ8を仮想的に移動させた場合、その仮想移動されたマニピュレータ8が接触条件によってその駆動領域や駆動制限領域に接近および接触したことに対応するものである。即ち、駆動制限領域932においては、接触条件によってマニピュレータの駆動領域や駆動制限領域に接近および接触したことの警告レベルを2次元94でカラー表示などを行う。
これにより、仮想移動した状態の手術器具と対象臓器の位置関係(距離)が表示されるため、その仮想移動表示により注意を喚起することができ、内視鏡手術の安全性を向上することができる。
FIG. 5 (c) corresponds to the fact that when the
As a result, since the positional relationship (distance) between the surgical instrument and the target organ in a virtually moved state is displayed, attention can be drawn by the virtual moved display, which can improve the safety of endoscopic surgery. it can.
図5(d)は、マニピュレータ8を仮想的に移動させた場合、その仮想移動されたマニピュレータ8が対象臓器等に接近しない安全距離を保った移動を示したものである。即ち、マニピュレータ8が移動前後において安全距離を保つ移動を示す矢印91を表示する。
これにより、仮想移動した状態の手術器具と対象臓器の位置関係(距離)のうちの安全範囲が表示されるため、その安全範囲の表示により術者が安心して操作することができ、内視鏡手術の安全性を向上することができる。
FIG. 5 (d) shows the movement of the
As a result, since the safe range of the positional relationship (distance) between the surgical instrument and the target organ in the virtually moved state is displayed, the operator can operate with peace of mind by displaying the safe range. The safety of the operation can be improved.
駆動制限領域は、図4(b)(c)(d)のように3次元画像で示す例や図6(a)(b)(c)のようにアキシャル画像上95、サジタル画像上96、コロナル画像上97に重畳表示することができる。合わせて仮想的にマニピュレータをその駆動制限領域の断面や切断面934に投影して表示する。
これにより、手術器具と多面的な方向の画像とから立体的に把握できるため、その立体的な把握により内視鏡手術の安全性を向上することができる。
The drive restriction area is an example shown in a three-dimensional image as shown in FIGS. 4 (b) (c) (d), and on the
Thereby, since it can grasp | ascertain three-dimensionally from the surgical instrument and the image of a multifaceted direction, the safety | security of endoscopic surgery can be improved by the three-dimensional grasp.
重篤度による重みは図7のようにモニタ110で確認しながら、抽出した臓器毎(object毎104)に自由曲線、直線、矩形等103で設定し、臓器内の重篤度により変更するやり方もある。重篤度の重み付けは形状を問わず、図8のようにグラフィカルユーザーインターフェース100により、自由にユーザがマウス105を使って設定する。従って、図8(a)のように、臓器内の複雑に絡み合った対象物毎に非線形の重み係数111を与え、危険の度合いを設定する。また、図8(b)のように手術上で接触を回避すべき部位(例えば血管や神経)に大きな重みを設定したり、手術対象部位に小さな重みを設定したりすることで重みを矩形112で与え、マニピュレータと対象臓器との不用意な衝突の回避や対象臓器への正確に位置決めを行うことができ、その位置決めにより内視鏡手術の安全性を向上することができる。
While checking the weight by severity on the
図9はバイラテラル制御方式のマスタスレーブ装置の構成を示す。図3に追加されたところはF1という信号で、モータ制御部6、アクチュエータ制御部7に伝達され、力制御部62、72でそれぞれ変換され、モータ41やアクチュエータ51を駆動制御する。
FIG. 9 shows a configuration of a master-slave device of a bilateral control system. The signal added to FIG. 3 is a signal F1, which is transmitted to the
本実施形態は、術者の目や耳に内視鏡手術支援に必要な情報を得ることができ、バックアップでマニピュレータの駆動と停止の制御を行う。例えば、実内視鏡に仮想情報を重畳することにより以下の応用例が考えられる。 In the present embodiment, information necessary for assisting endoscopic surgery can be obtained from the operator's eyes and ears, and the manipulator is driven and stopped in a backup manner. For example, the following application examples can be considered by superimposing virtual information on a real endoscope.
(a)仮想内視鏡像に画像処理で得られたシミュレーション情報を付加することができる。
情報を付加した仮想内視鏡像を表示・非表示または合成表示することで、例えば、実内視鏡像だけでは判断のつき難い病変の広がりや浸潤の程度を理解することができる。また、実内視鏡像で確認できる臓器であっても、手術中に水や泡などで見にくくなる場合があるが、重畳された仮想内視鏡像で一時的に情報を補うことができる。仮想内視鏡像は変換前の実空間の位置情報を持っているため、実内視鏡像上で正確な三次元位置を算出することができる。これら利点から、より安全で精確な内視鏡外科手術が期待できる。
(b)内視鏡だけでは視認不可能な臓器の正確な位置関係を直感的に把握できることになり、視認性の高い内視鏡外科手術が期待できる。
(c) 術具と仮想内視鏡像が正確に重畳されていることから、術中に仮想のマニピュレータだけを動かし、実内視鏡と同じ環境で(a)(b)および図4で示した駆動制限領域といった情報を術者に視覚的に知らせることにより近未来の術前状況をシミュレーションで き、安全な内視鏡外科手術が可能になる。
(d) なおかつ、図9の画像重畳処理部にマスタ装置の位置検出部からの位置情報L1を入力し、画像重畳処理部からシミュレーションで得られた位置情報L1'、L2'を出力するように変更することによって、シミュレーション情報を実際のマニピュレータに反映することができる。尚、シミュレーションが行われていない場合は、L1'、L2'には位置検出部から入力された情報をそのまま出力すればよい。
(a) Simulation information obtained by image processing can be added to a virtual endoscopic image.
By displaying, hiding, or combining and displaying a virtual endoscopic image to which information has been added, for example, it is possible to understand the extent of lesion spread and the degree of infiltration that are difficult to determine with the actual endoscopic image alone. In addition, even an organ that can be confirmed with a real endoscopic image may be difficult to see with water or bubbles during surgery, but information can be temporarily supplemented with a superimposed virtual endoscopic image. Since the virtual endoscopic image has position information in the real space before conversion, an accurate three-dimensional position can be calculated on the real endoscopic image. From these advantages, safer and more accurate endoscopic surgery can be expected.
(b) It is possible to intuitively grasp an accurate positional relationship of an organ that cannot be visually recognized only by an endoscope, and an endoscopic surgical operation with high visibility can be expected.
(c) Since the surgical instrument and virtual endoscopic image are accurately superimposed, only the virtual manipulator is moved during the operation, and the drive shown in (a), (b) and Fig. 4 is performed in the same environment as the real endoscope. By visually informing the surgeon of information such as restricted areas, the near-future preoperative situation can be simulated, and safe endoscopic surgery can be performed.
(d) In addition, the position information L1 from the position detection unit of the master device is input to the image superimposition processing unit in FIG. 9, and the position information L1 ′ and L2 ′ obtained by simulation are output from the image superimposition processing unit. By changing, the simulation information can be reflected in the actual manipulator. If simulation is not performed, information input from the position detection unit may be output as it is to L1 ′ and L2 ′.
その際のマニピュレータにおけるマスタスレーブ装置の動作例について図10、11を用いて説明する。
まず、画像重畳装置3は画像重畳装置3画像重畳装置3画像重畳処理およびマスタスレーブ装置の制御処理を終了するか否かを判定する(S1)。
画像重畳装置3は、制御処理を終了しない場合、手術シミュレーションを行うためにスレーブ装置をロックするか否かを判定する(S2)。
その際には実内視鏡像と仮想内視鏡像および仮想のマニピュレータの画像が正確に重畳されていることが前提となる。ロック機構は実内視鏡像と仮想内視鏡像を切り離す機構で、ロック機構が無効(オフ)の時には、L1、L2を取得し、マスタ装置の操作に追随してスレーブ装置が動作するよう制御を行う(S3)。
An example of the operation of the master / slave device in the manipulator at that time will be described with reference to FIGS.
First, the
If the control process is not finished, the
In this case, it is assumed that the real endoscopic image, the virtual endoscopic image, and the virtual manipulator image are accurately superimposed. The lock mechanism is a mechanism that separates the real endoscopic image and the virtual endoscopic image.When the lock mechanism is invalid (off), L1 and L2 are acquired, and control is performed so that the slave device operates following the operation of the master device. Perform (S3).
ロック機構の有効(オン)/無効(オフ)のスイッチは術者の入力によって行われる。この入力の装置はマウス、フットスイッチなど入力信号を送る機構であればどのような形態でも構わない。ロック機構が有効の時には、マスタ装置の動きをシミュレーション後に再現するために、L1、L2を保存する(S4)。
マスタ装置4の操作部は仮想なマニピュレータや仮想内視鏡像のみを動作する。スレーブ装置は停止状態となっている。L1はマスタ装置の位置情報を随時保持し続け、L2はロック機構が有効になったときのスレーブの位置のみを保持する。次に、画像重畳装置3はロック機構の状態遷移を判定する。ロック機構が無効から有効へ遷移する場合または有効から無効へ遷移する場合、初期状態でロック機構が有効でない場合やロック機構が解除された場合はS6に移行する(S5)。
手術シミュレーションを行わない場合、マスタ装置4の位置検出部42で位置情報L1を、画像重畳装置3の位置検出部31で位置情報L2を検出し、処理部321を介してモータ制御部6およびアクチュエータ制御部7にL1'、L2'として送信する。マスタ側装置ではL1'、L2'の変移量が等しくなるように、モータ制御部6の位置制御部61からモータ41へ情報を伝達する。スレーブ側ではL1'、L2'の変移量が等しくなるように、アクチュエータ制御部7の位置制御部71からアクチュエータ51へ情報を伝達する(S7)。L1'が画像重畳処理で設定された駆動制限領域に入っていない場合、L1'、L2'をモータ制御部6、アクチュエータ制御7に入力し、モータが作動し、マスタ装置を負荷なく動かすことが可能である(S6)。
The lock mechanism is enabled (ON) / disabled (OFF) by an operator's input. The input device may take any form as long as it is a mechanism for sending an input signal, such as a mouse or a foot switch. When the lock mechanism is valid, L1 and L2 are stored in order to reproduce the movement of the master device after the simulation (S4).
The operation unit of the
When the operation simulation is not performed, the position information L1 is detected by the
画像重畳装置3は、その際、L1とL2の大小によりスレーブ側を駆動する(S7)。
画像重畳装置3は、L1が駆動警戒領域であるか否かを判定し、駆動警戒領域であればS11へ移行し駆動警戒領域でなければS9へ移行する(S8)。
画像重畳装置3は、モータ制御部6にモータ41の作動をさせる(S9)
At that time, the
The
The
画像重畳装置3は、円滑にマスタ装置の動きをスレーブ装置5に伝達し、スレーブ装置5に接続されるアクチュエータ51を作動させる(S10)。これらの一連のステップは手術が終了するまで随時に行う。
次に、L1が駆動制限領域である場合、画像重畳処理部からの力制御信号F1に従って、力制御部62、72によりモータ41に負荷が供給されることになる。
画像重畳装置3は、モータ制御部6にモータ41に供給される負荷に応じて作動をさせる(S11)。
画像重畳装置3は、アクチュエータ51にも負荷をかける(S12)。
モータ41とアクチュエータ51にかかる負荷は徐々に増大していき、最終的には、マスタスレーブ装置ともに停止する。
The
Next, when L1 is the drive restriction region, a load is supplied to the
The
The
The load applied to the
次に、ロック機構が無効から有効に遷移し、手術シミュレーションが可能な場合は、スレーブ装置は停止し、マスタ装置のみ動かすことができる(S13)。
画像重畳装置3は、ロック機構が無効のときと同様に、L1が駆動制限領域外に存在する場合はモータを作動するか、L1が駆動制限領域内に存在する場合は負荷をかけるかを判定する(S14)。
画像重畳装置3は、L1が駆動制限領域外に存在するのでモータ41を作動する(S15)。
Next, when the lock mechanism transits from invalid to valid and a surgical simulation is possible, the slave device stops and only the master device can be moved (S13).
Similar to when the lock mechanism is disabled, the
The
画像重畳装置3は、L1が駆動制限領域外に存在するのでモータ41に負荷を与える(S16)。
画像重畳装置3は、ロック機構が有効から無効へ遷移する場合、マニピュレータの動作シミュレーションの結果を再現するか否かを判定し、その判定結果がシミュレーションを再現しない場合にS1へ移行し、シミュレーションを再現する場合はS18へ移行する(S17)。
画像重畳装置3は、再現途中でロック機構が無効になる場合を想定し、ロック機構の有効/無効を判定する。その判定の結果、無効(オフ)であればS1へ移行し、有効(オン)であればS19に移行する(S18)。
The
The
The
画像重畳装置3は、シミュレーション再現中に保存されたL1、L2を読出す(S19)。
画像重畳装置3は、L1とL2の変移量に誤差がなくなるまで、S6〜S12の処理を繰り返す(S20)。
画像重畳装置3は、L1とL2が等しくなったときは次のL1としてL1のデータ更新する(S21)。
このような操作は、内視鏡及びマニピュレータを患者の体表から患部に至るまで同様の処理を繰り返す。
The
The
When L1 and L2 become equal, the
In such an operation, the same processing is repeated until the endoscope and manipulator are moved from the patient's body surface to the affected part.
このようにして鉗子や内視鏡手術マニピュレータの仮想画像の動きが実際の鉗子や内視鏡手術マニピュレータに反映される。尚、警告レベルに応じて、実際の鉗子や内視鏡手術マニピュレータを停止させる安全機構は、シミュレーション中、シミュレーションの結果を実際に実現している途中でも働く。
また、手術する臓器へアプローチしたい場合に駆動制限領域を大きくすることによって、その安全機構を解除することも可能とする。
In this way, the movement of the virtual image of the forceps or the endoscopic surgical manipulator is reflected on the actual forceps or the endoscopic surgical manipulator. Note that the safety mechanism that stops the actual forceps and the endoscopic surgical manipulator according to the warning level works during the simulation and during the actual realization of the simulation result.
Further, when it is desired to approach the organ to be operated, the safety mechanism can be released by enlarging the drive restriction region.
また、本実施形態は、図2の位置検出装置31として光学式・磁気式の位置検出装置の変わりに、図11のように鉗子やマニピュレータにマーカー120を取り付け、医用画像診断装置1でそのマーカーを読み取ることにより、鉗子や内視鏡手術マニピュレータの動きを検出することができる。当然、図2のシステム構成で図11の位置検出方法を用いることも可能である。
Further, in this embodiment, instead of the optical / magnetic position detection device as the
マーカーはX線CT装置やMRI装置で高輝度または低輝度に撮影される物質を低輝度または高輝度で撮影されるカプセルに内包したものを使用してもよい。
また、マーカーは、MRI装置に限定すれば、Active Tracking Systemのために使用されるコイルを内蔵していてもよい。
The marker may be a substance in which a substance photographed with high or low brightness by an X-ray CT apparatus or MRI apparatus is included in a capsule photographed with low or high brightness.
Further, if the marker is limited to the MRI apparatus, the marker may include a coil used for the Active Tracking System.
また、3個以上のマーカーからなる座標群を「ツール」と定義すると、鉗子や内視鏡手術マニピュレータ毎に取り付けるツール毎のマーカーの配置を換えることによって、異なるツールとして(つまり、鉗子やマニピュレータの部品毎のツールとして)認識させてもよい。
上記ツールは一度医用画像診断装置で認識してしまえば、連続的に画像を撮影できる撮像方法で図11のようにツールの断面画像130または断面画像を含むボリューム画像を撮影し、その画像情報からツールを抽出することができる。
そして、ツールの複数のマーカーの座標から基準点(例えば、重心)を算出し、基準点から鉗子や内視鏡手術マニピュレータの相対的位置より、鉗子や内視鏡手術マニピュレータの位置や方向を算出することができる。鉗子や内視鏡手術マニピュレータの位置が、術前または術中に撮影された医用診断画像のボリュームデータ上のどの位置にあるかがわかることから、図5の応用例に使用することができる。
In addition, if a coordinate group consisting of three or more markers is defined as a “tool”, it can be used as a different tool by changing the placement of the markers for each tool attached to each forceps or endoscopic surgical manipulator (that is, the forceps or manipulator It may be recognized as a tool for each part).
Once the above tool is recognized by the medical image diagnostic apparatus, a
Then, the reference point (for example, the center of gravity) is calculated from the coordinates of the plurality of markers of the tool, and the position and direction of the forceps and the endoscopic surgical manipulator are calculated from the relative position of the forceps and the endoscopic surgical manipulator from the reference point. can do. Since the position of the forceps or the endoscopic surgical manipulator can be found on the volume data of the medical diagnostic image taken before or during the operation, it can be used in the application example of FIG.
また、画像重畳装置3は、マスタ装置に視覚的フィードバックおよび力覚フィードバックを行わせるのであれば、医用画像診断装置と内視鏡装置からなる簡易的なシステムで本実施形態を実現できる。
これは、術者への視覚的フィードバックと力覚フィードバックが医用画像診断装置から得られる画像情報のみから生成されるためである。この方法はスレーブ装置へ力覚情報がフィードバックされないため、術中医用診断画像で内視鏡を誘導する内視鏡手術であるが、システムを簡易化でき、通常の手術手技を変えない点でメリットがある。
Further, if the
This is because visual feedback and force feedback to the operator are generated only from image information obtained from the medical image diagnostic apparatus. This method is endoscopic surgery that guides the endoscope with intraoperative medical diagnostic images because force information is not fed back to the slave device, but there are advantages in that the system can be simplified and normal surgical techniques are not changed. is there.
本実施形態によれば、術者のマスタの不用意な操作でも対象臓器とマニピュレータとの危険な接触を回避し、安全な内視鏡外科手術を施行することができる。 According to this embodiment, even if the surgeon's master is careless, dangerous contact between the target organ and the manipulator can be avoided, and safe endoscopic surgery can be performed.
本発明の内視鏡手術操作支援システムは、医用画像診断装置によって撮影された医用診断画像中の対象臓器と、その対象臓器と内視鏡及びマニピュレータの駆動領域を対応づけて表示するので、内視鏡手術操作を安全に支援できる。 The endoscopic surgical operation support system of the present invention displays a target organ in a medical diagnostic image photographed by a medical image diagnostic apparatus in association with the target organ and the driving area of the endoscope and manipulator. Safe support for endoscopic surgical operation.
31 位置検出部、321 処理部、322 表示部 31 Position detection unit, 321 processing unit, 322 display unit
Claims (11)
前記マニピュレータの駆動領域と前記マニピュレータの一部が接触する可能性のある対象臓器との位置関係を算出する位置算出手段と、
前記算出された位置関係に応じた接近又は接触条件を数段階の警告レベルとして設定する警告レベル設定手段と、
前記設定した警告レベルを術者へ報知する報知手段と、
を備えたことを特徴とする内視鏡手術操作支援システム。 In a manipulator operation support system that displays a movable range of a manipulator capable of operating a surgical instrument and image information of a patient in association with each other,
Position calculating means for calculating a positional relationship between a driving region of the manipulator and a target organ with which a part of the manipulator may contact;
Warning level setting means for setting the approach or contact condition according to the calculated positional relationship as a warning level of several stages;
Informing means for informing the operator of the set warning level;
An endoscopic surgical operation support system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005213873A JP2007029232A (en) | 2005-07-25 | 2005-07-25 | System for supporting endoscopic operation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005213873A JP2007029232A (en) | 2005-07-25 | 2005-07-25 | System for supporting endoscopic operation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007029232A true JP2007029232A (en) | 2007-02-08 |
Family
ID=37789202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005213873A Pending JP2007029232A (en) | 2005-07-25 | 2005-07-25 | System for supporting endoscopic operation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007029232A (en) |
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009034734A1 (en) * | 2007-09-12 | 2009-03-19 | Olympus Medical Systems Corp. | Medical device system |
JP2009090400A (en) * | 2007-10-05 | 2009-04-30 | National Institute Of Advanced Industrial & Technology | Robot, robot control device, robot control program, and simulator for creating robot control program |
WO2009084345A1 (en) * | 2007-12-28 | 2009-07-09 | Olympus Medical Systems Corp. | Medical instrument system |
JP2010240067A (en) * | 2009-04-02 | 2010-10-28 | Aloka Co Ltd | Medical navigation system |
WO2011114731A1 (en) * | 2010-03-17 | 2011-09-22 | 富士フイルム株式会社 | System, method, device, and program for supporting endoscopic observation |
WO2011122037A1 (en) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | Endoscope observation supporting system and method, and device and programme |
JP2011206180A (en) * | 2010-03-29 | 2011-10-20 | Olympus Corp | Operation input unit and manipulator system |
JP2012504017A (en) * | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Medical robot system providing a computer generated auxiliary view of camera equipment to control tip placement and orientation |
WO2013002405A1 (en) * | 2011-06-29 | 2013-01-03 | Olympus Corporation | Medical manipulator system |
JP2013121507A (en) * | 2011-12-09 | 2013-06-20 | Samsung Electronics Co Ltd | Medical robot system and method for controlling the same |
JP2013192623A (en) * | 2012-03-16 | 2013-09-30 | Univ Of Occupational & Environmental Health Japan | Endoscope operation system |
JP2014004656A (en) * | 2012-06-25 | 2014-01-16 | Univ Of Tsukuba | Manipulation system |
JP2014131551A (en) * | 2013-01-07 | 2014-07-17 | Akira Takebayashi | Navigation device for endoscope |
US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
CN104470456A (en) * | 2012-07-10 | 2015-03-25 | 现代重工业株式会社 | Surgical robot system and surgical robot control method |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
JP2015521084A (en) * | 2012-06-01 | 2015-07-27 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Collision avoidance between manipulator arm and patient using zero space |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9101397B2 (en) | 1999-04-07 | 2015-08-11 | Intuitive Surgical Operations, Inc. | Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system |
JP2015146981A (en) * | 2014-02-07 | 2015-08-20 | オリンパス株式会社 | Operation system and operation method for operation system |
JP2015150340A (en) * | 2014-02-18 | 2015-08-24 | オリンパス株式会社 | Manipulator device control method |
WO2015129834A1 (en) * | 2014-02-27 | 2015-09-03 | オリンパス株式会社 | Surgery system and method of avoiding interference with medical instrument |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
JP2015528713A (en) * | 2012-06-21 | 2015-10-01 | グローバス メディカル インコーポレイティッド | Surgical robot platform |
JP2015208834A (en) * | 2014-04-30 | 2015-11-24 | ファナック株式会社 | Safety monitoring device for robot gripping and transporting workpiece |
US9333042B2 (en) | 2007-06-13 | 2016-05-10 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US9345387B2 (en) | 2006-06-13 | 2016-05-24 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
JP5932174B1 (en) * | 2014-09-05 | 2016-06-08 | オリンパス株式会社 | Endoscope system |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
CN106236266A (en) * | 2015-06-12 | 2016-12-21 | 阿瓦特拉医药有限公司 | Operating apparatus and method for robot assisted |
JP2017514547A (en) * | 2014-03-17 | 2017-06-08 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Automatic extrusion to avoid range of motion restrictions |
JP2017515524A (en) * | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Structure adjustment system and method for teleoperated medical system |
WO2017109912A1 (en) * | 2015-12-24 | 2017-06-29 | オリンパス株式会社 | Medical manipulator system and image display method for same |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
JP2017528175A (en) * | 2014-07-02 | 2017-09-28 | コヴィディエン リミテッド パートナーシップ | System and method for providing distance and orientation feedback during 3D navigation |
WO2017169098A1 (en) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | Control device and control method |
US9788909B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc | Synthetic representation of a surgical instrument |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
JP2018011981A (en) * | 2017-09-21 | 2018-01-25 | キヤノン株式会社 | Medical image processing apparatus |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
WO2018159328A1 (en) * | 2017-02-28 | 2018-09-07 | ソニー株式会社 | Medical arm system, control device, and control method |
JPWO2017130567A1 (en) * | 2016-01-25 | 2018-11-22 | ソニー株式会社 | MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM |
WO2018216382A1 (en) * | 2017-05-26 | 2018-11-29 | ソニー株式会社 | Medical system, control device for medical support arm, and control method for medical support arm |
WO2018225316A1 (en) * | 2017-06-05 | 2018-12-13 | オリンパス株式会社 | Medical control device |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
JP2019084615A (en) * | 2017-11-06 | 2019-06-06 | トヨタ自動車株式会社 | Master handling device |
WO2019150866A1 (en) * | 2018-01-30 | 2019-08-08 | ソニー株式会社 | Information processing device, information processing method, and program |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US10582840B2 (en) | 2015-05-14 | 2020-03-10 | Olympus Corporation | Endoscope apparatus |
JP2020146373A (en) * | 2019-03-15 | 2020-09-17 | リバーフィールド株式会社 | Force sense display device and display method for medical robot system |
KR102177805B1 (en) * | 2019-05-29 | 2020-11-11 | 재단법인대구경북과학기술원 | Surgical navigation system |
US10959787B2 (en) | 2016-01-14 | 2021-03-30 | Olympus Corporation | Medical manipulator system |
JP2021090781A (en) * | 2014-05-05 | 2021-06-17 | バイカリアス サージカル インク. | Virtual reality surgical operation device |
CN113081268A (en) * | 2021-03-31 | 2021-07-09 | 上海电气集团股份有限公司 | AR and IoT based surgical guidance system |
JP2021534919A (en) * | 2018-09-05 | 2021-12-16 | ニューヴェイジヴ,インコーポレイテッド | Systems and methods for spinal surgery |
JP2022010852A (en) * | 2020-06-29 | 2022-01-17 | キヤノンメディカルシステムズ株式会社 | Surgery support system and surgery support method |
JP2023079038A (en) * | 2021-11-26 | 2023-06-07 | 株式会社Jmees | Surgery support system. surgery support method and surgery support program |
US11924535B2 (en) | 2019-06-20 | 2024-03-05 | Cila GmbH International | Controlling integral energy of a laser pulse in a laser mapping imaging system |
-
2005
- 2005-07-25 JP JP2005213873A patent/JP2007029232A/en active Pending
Cited By (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9101397B2 (en) | 1999-04-07 | 2015-08-11 | Intuitive Surgical Operations, Inc. | Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system |
US10433919B2 (en) | 1999-04-07 | 2019-10-08 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US10271909B2 (en) | 1999-04-07 | 2019-04-30 | Intuitive Surgical Operations, Inc. | Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device |
US9232984B2 (en) | 1999-04-07 | 2016-01-12 | Intuitive Surgical Operations, Inc. | Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system |
US9345387B2 (en) | 2006-06-13 | 2016-05-24 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
US10773388B2 (en) | 2006-06-29 | 2020-09-15 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10737394B2 (en) | 2006-06-29 | 2020-08-11 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US11865729B2 (en) | 2006-06-29 | 2024-01-09 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US9788909B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc | Synthetic representation of a surgical instrument |
US11638999B2 (en) | 2006-06-29 | 2023-05-02 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US10137575B2 (en) | 2006-06-29 | 2018-11-27 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US9801690B2 (en) | 2006-06-29 | 2017-10-31 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical instrument |
US10730187B2 (en) | 2006-06-29 | 2020-08-04 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10695136B2 (en) | 2007-06-13 | 2020-06-30 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
US10188472B2 (en) | 2007-06-13 | 2019-01-29 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US11751955B2 (en) | 2007-06-13 | 2023-09-12 | Intuitive Surgical Operations, Inc. | Method and system for retracting an instrument into an entry guide |
US9901408B2 (en) | 2007-06-13 | 2018-02-27 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
US9629520B2 (en) | 2007-06-13 | 2017-04-25 | Intuitive Surgical Operations, Inc. | Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US11399908B2 (en) | 2007-06-13 | 2022-08-02 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US10271912B2 (en) | 2007-06-13 | 2019-04-30 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9333042B2 (en) | 2007-06-13 | 2016-05-10 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US11432888B2 (en) | 2007-06-13 | 2022-09-06 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
JP2009066144A (en) * | 2007-09-12 | 2009-04-02 | Olympus Medical Systems Corp | Medical device system |
WO2009034734A1 (en) * | 2007-09-12 | 2009-03-19 | Olympus Medical Systems Corp. | Medical device system |
US8454592B2 (en) | 2007-09-12 | 2013-06-04 | Olympus Medical Systems Corp. | Medical device system for determining contact between first medical device and second medical device |
JP2009090400A (en) * | 2007-10-05 | 2009-04-30 | National Institute Of Advanced Industrial & Technology | Robot, robot control device, robot control program, and simulator for creating robot control program |
WO2009084345A1 (en) * | 2007-12-28 | 2009-07-09 | Olympus Medical Systems Corp. | Medical instrument system |
JPWO2009084345A1 (en) * | 2007-12-28 | 2011-05-19 | オリンパスメディカルシステムズ株式会社 | Medical equipment system |
US8556803B2 (en) | 2007-12-28 | 2013-10-15 | Olympus Medical Systems Corp. | Medical apparatus system |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US9717563B2 (en) | 2008-06-27 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US10368952B2 (en) | 2008-06-27 | 2019-08-06 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US11382702B2 (en) | 2008-06-27 | 2022-07-12 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9516996B2 (en) | 2008-06-27 | 2016-12-13 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip |
US11638622B2 (en) | 2008-06-27 | 2023-05-02 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
JP2012504017A (en) * | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Medical robot system providing a computer generated auxiliary view of camera equipment to control tip placement and orientation |
US10282881B2 (en) | 2009-03-31 | 2019-05-07 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US10984567B2 (en) | 2009-03-31 | 2021-04-20 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US11941734B2 (en) | 2009-03-31 | 2024-03-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
JP2010240067A (en) * | 2009-04-02 | 2010-10-28 | Aloka Co Ltd | Medical navigation system |
US10772689B2 (en) | 2009-08-15 | 2020-09-15 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US10271915B2 (en) | 2009-08-15 | 2019-04-30 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US10959798B2 (en) | 2009-08-15 | 2021-03-30 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US9956044B2 (en) | 2009-08-15 | 2018-05-01 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US11596490B2 (en) | 2009-08-15 | 2023-03-07 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US10537994B2 (en) | 2010-02-12 | 2020-01-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US10828774B2 (en) | 2010-02-12 | 2020-11-10 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9622826B2 (en) | 2010-02-12 | 2017-04-18 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
JP2011193885A (en) * | 2010-03-17 | 2011-10-06 | Fujifilm Corp | System, method, apparatus and program for supporting endoscope observation |
US9179822B2 (en) | 2010-03-17 | 2015-11-10 | Fujifilm Corporation | Endoscopic observation supporting system, method, device and program |
CN102811655A (en) * | 2010-03-17 | 2012-12-05 | 富士胶片株式会社 | System, method, device, and program for supporting endoscopic observation |
WO2011114731A1 (en) * | 2010-03-17 | 2011-09-22 | 富士フイルム株式会社 | System, method, device, and program for supporting endoscopic observation |
JP2011206180A (en) * | 2010-03-29 | 2011-10-20 | Olympus Corp | Operation input unit and manipulator system |
US8681095B2 (en) | 2010-03-29 | 2014-03-25 | Olympus Corporation | Operation input unit and manipulator system |
WO2011122037A1 (en) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | Endoscope observation supporting system and method, and device and programme |
US9220468B2 (en) | 2010-03-31 | 2015-12-29 | Fujifilm Corporation | Endoscope observation assistance system, method, apparatus and program |
JP2011212245A (en) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | Endoscope observation supporting system and method, and device and program |
EP2726009A4 (en) * | 2011-06-29 | 2015-02-11 | Olympus Corp | Medical manipulator system |
EP2726009A1 (en) * | 2011-06-29 | 2014-05-07 | Olympus Corporation | Medical manipulator system |
JP2013009813A (en) * | 2011-06-29 | 2013-01-17 | Olympus Corp | Medical manipulator system |
WO2013002405A1 (en) * | 2011-06-29 | 2013-01-03 | Olympus Corporation | Medical manipulator system |
CN103619280A (en) * | 2011-06-29 | 2014-03-05 | 奥林巴斯株式会社 | Medical manipulator system |
KR101828453B1 (en) | 2011-12-09 | 2018-02-13 | 삼성전자주식회사 | Medical robotic system and control method for thereof |
JP2013121507A (en) * | 2011-12-09 | 2013-06-20 | Samsung Electronics Co Ltd | Medical robot system and method for controlling the same |
JP2013192623A (en) * | 2012-03-16 | 2013-09-30 | Univ Of Occupational & Environmental Health Japan | Endoscope operation system |
JP2015521084A (en) * | 2012-06-01 | 2015-07-27 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Collision avoidance between manipulator arm and patient using zero space |
US10194997B2 (en) | 2012-06-01 | 2019-02-05 | Intuitive Surgical Operations, Inc. | Manipulator arm-to-patient collision avoidance using a null-space |
JP2015528713A (en) * | 2012-06-21 | 2015-10-01 | グローバス メディカル インコーポレイティッド | Surgical robot platform |
JP2014004656A (en) * | 2012-06-25 | 2014-01-16 | Univ Of Tsukuba | Manipulation system |
JP2015527910A (en) * | 2012-07-10 | 2015-09-24 | ヒュンダイ ヘビー インダストリーズ カンパニー リミテッドHyundai Heavy Industries Co., Ltd. | Surgical robot system and surgical robot control method |
CN104470456A (en) * | 2012-07-10 | 2015-03-25 | 现代重工业株式会社 | Surgical robot system and surgical robot control method |
KR101806195B1 (en) * | 2012-07-10 | 2018-01-11 | 큐렉소 주식회사 | Surgical Robot System and Method for Controlling Surgical Robot |
US9649164B2 (en) | 2012-07-10 | 2017-05-16 | Hyundai Heavy Industries Co., Ltd. | Surgical robot system and surgical robot control method |
JP2014131551A (en) * | 2013-01-07 | 2014-07-17 | Akira Takebayashi | Navigation device for endoscope |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US11806102B2 (en) | 2013-02-15 | 2023-11-07 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US11389255B2 (en) | 2013-02-15 | 2022-07-19 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
JP2015146981A (en) * | 2014-02-07 | 2015-08-20 | オリンパス株式会社 | Operation system and operation method for operation system |
US9981386B2 (en) | 2014-02-18 | 2018-05-29 | Olympus Corporation | Method for controlling a manipulator device |
JP2015150340A (en) * | 2014-02-18 | 2015-08-24 | オリンパス株式会社 | Manipulator device control method |
CN106028999A (en) * | 2014-02-27 | 2016-10-12 | 奥林巴斯株式会社 | Surgery system and method of avoiding interference with medical instrument |
WO2015129834A1 (en) * | 2014-02-27 | 2015-09-03 | オリンパス株式会社 | Surgery system and method of avoiding interference with medical instrument |
JP2015159955A (en) * | 2014-02-27 | 2015-09-07 | オリンパス株式会社 | Surgery system and method of avoiding interference between medical instrument and organ |
EP3111878A4 (en) * | 2014-02-27 | 2017-11-01 | Olympus Corporation | Surgery system and method of avoiding interference with medical instrument |
JP2017515524A (en) * | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Structure adjustment system and method for teleoperated medical system |
JP2017514547A (en) * | 2014-03-17 | 2017-06-08 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Automatic extrusion to avoid range of motion restrictions |
JP2015208834A (en) * | 2014-04-30 | 2015-11-24 | ファナック株式会社 | Safety monitoring device for robot gripping and transporting workpiece |
US9682478B2 (en) | 2014-04-30 | 2017-06-20 | Fanuc Corporation | Safety monitoring device for robot gripping and carrying workpiece |
US11744660B2 (en) | 2014-05-05 | 2023-09-05 | Vicarious Surgical Inc. | Virtual reality surgical device |
JP2021090781A (en) * | 2014-05-05 | 2021-06-17 | バイカリアス サージカル インク. | Virtual reality surgical operation device |
JP7260190B2 (en) | 2014-05-05 | 2023-04-18 | バイカリアス サージカル インク. | virtual reality surgical device |
JP2017528175A (en) * | 2014-07-02 | 2017-09-28 | コヴィディエン リミテッド パートナーシップ | System and method for providing distance and orientation feedback during 3D navigation |
US11382573B2 (en) | 2014-07-02 | 2022-07-12 | Covidien Lp | System and method of providing distance and orientation feedback while navigating in 3D |
US10085616B2 (en) | 2014-09-05 | 2018-10-02 | Olympus Corporation | Endoscope system configured to prevent mis-insertion of treatment tool in channel and method of operating the same |
JP5932174B1 (en) * | 2014-09-05 | 2016-06-08 | オリンパス株式会社 | Endoscope system |
US10582840B2 (en) | 2015-05-14 | 2020-03-10 | Olympus Corporation | Endoscope apparatus |
JP2017000772A (en) * | 2015-06-12 | 2017-01-05 | アヴァテラメディカル ゲーエムベーハー | Device and method for robot-supported surgical operation |
CN106236266A (en) * | 2015-06-12 | 2016-12-21 | 阿瓦特拉医药有限公司 | Operating apparatus and method for robot assisted |
WO2017109912A1 (en) * | 2015-12-24 | 2017-06-29 | オリンパス株式会社 | Medical manipulator system and image display method for same |
US11534241B2 (en) | 2015-12-24 | 2022-12-27 | Olympus Corporation | Medical manipulator system and image display method therefor |
US10959787B2 (en) | 2016-01-14 | 2021-03-30 | Olympus Corporation | Medical manipulator system |
JP2021118883A (en) * | 2016-01-25 | 2021-08-12 | ソニーグループ株式会社 | Medical arm apparatus, medical arm apparatus operating method, and information processing apparatus |
US11058509B2 (en) | 2016-01-25 | 2021-07-13 | Sony Corporation | Medical safety control apparatus, medical safety control method, and medical support system |
JPWO2017130567A1 (en) * | 2016-01-25 | 2018-11-22 | ソニー株式会社 | MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM |
WO2017169098A1 (en) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | Control device and control method |
US11696814B2 (en) | 2017-02-28 | 2023-07-11 | Sony Corporation | Medical arm system, control device, and control method |
WO2018159328A1 (en) * | 2017-02-28 | 2018-09-07 | ソニー株式会社 | Medical arm system, control device, and control method |
CN110325093A (en) * | 2017-02-28 | 2019-10-11 | 索尼公司 | Medical arm system, control device and control method |
WO2018216382A1 (en) * | 2017-05-26 | 2018-11-29 | ソニー株式会社 | Medical system, control device for medical support arm, and control method for medical support arm |
US11633240B2 (en) | 2017-05-26 | 2023-04-25 | Sony Corporation | Medical system, control device of medical support arm, and control method of medical support arm |
WO2018225316A1 (en) * | 2017-06-05 | 2018-12-13 | オリンパス株式会社 | Medical control device |
JP2018011981A (en) * | 2017-09-21 | 2018-01-25 | キヤノン株式会社 | Medical image processing apparatus |
JP2019084615A (en) * | 2017-11-06 | 2019-06-06 | トヨタ自動車株式会社 | Master handling device |
WO2019150866A1 (en) * | 2018-01-30 | 2019-08-08 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2021534919A (en) * | 2018-09-05 | 2021-12-16 | ニューヴェイジヴ,インコーポレイテッド | Systems and methods for spinal surgery |
JP2020146373A (en) * | 2019-03-15 | 2020-09-17 | リバーフィールド株式会社 | Force sense display device and display method for medical robot system |
KR102177805B1 (en) * | 2019-05-29 | 2020-11-11 | 재단법인대구경북과학기술원 | Surgical navigation system |
US11924535B2 (en) | 2019-06-20 | 2024-03-05 | Cila GmbH International | Controlling integral energy of a laser pulse in a laser mapping imaging system |
US11949974B2 (en) | 2019-06-20 | 2024-04-02 | Cilag Gmbh International | Controlling integral energy of a laser pulse in a fluorescence imaging system |
JP2022010852A (en) * | 2020-06-29 | 2022-01-17 | キヤノンメディカルシステムズ株式会社 | Surgery support system and surgery support method |
CN113081268A (en) * | 2021-03-31 | 2021-07-09 | 上海电气集团股份有限公司 | AR and IoT based surgical guidance system |
JP2023079038A (en) * | 2021-11-26 | 2023-06-07 | 株式会社Jmees | Surgery support system. surgery support method and surgery support program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007029232A (en) | System for supporting endoscopic operation | |
US11007023B2 (en) | System and method of registration between devices with movable arms | |
JP6180692B1 (en) | Medical manipulator system | |
US20220015832A1 (en) | Minimally invasive telesurgical systems with interative user interfaces for 3d operative images | |
JP4833061B2 (en) | Guidance system and method for surgical procedures with improved feedback | |
EP2923669B1 (en) | Systems and devices for catheter driving instinctiveness | |
KR102404559B1 (en) | Medical devices, systems, and methods using eye gaze tracking | |
JP7414770B2 (en) | Medical arm device, operating method of medical arm device, and information processing device | |
US8398541B2 (en) | Interactive user interfaces for robotic minimally invasive surgical systems | |
KR20170127560A (en) | System and method for rendering screen-based identification information of a device in a remotely operated medical system | |
WO2017169098A1 (en) | Control device and control method | |
CN117717411A (en) | Reconfigurable display in computer-assisted teleoperated surgery | |
KR20170127561A (en) | System and method for on-screen identification of instruments in a remotely operated medical system | |
JP5288447B2 (en) | Surgery support system, approach state detection device and program thereof | |
US11266294B2 (en) | Image processing device, endoscopic surgery system, and image processing method | |
JP2018500055A (en) | System and method for integrated operating table icons | |
JPH10146341A (en) | Operating device | |
US20220117662A1 (en) | Systems and methods for facilitating insertion of a surgical instrument into a surgical space | |
JP5410021B2 (en) | Medical diagnostic imaging equipment | |
JP2008167793A (en) | Method and apparatus for supporting surgery | |
CN115998439A (en) | Collision detection method for surgical robot, readable storage medium, and surgical robot | |
JP7044140B2 (en) | Surgical support system, image processing method and information processing equipment | |
JP2013165916A (en) | Surgery supporting system |