JP2022519307A - ロボット手術システム用のハンドアイ協働システム - Google Patents
ロボット手術システム用のハンドアイ協働システム Download PDFInfo
- Publication number
- JP2022519307A JP2022519307A JP2021545841A JP2021545841A JP2022519307A JP 2022519307 A JP2022519307 A JP 2022519307A JP 2021545841 A JP2021545841 A JP 2021545841A JP 2021545841 A JP2021545841 A JP 2021545841A JP 2022519307 A JP2022519307 A JP 2022519307A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- tool
- movement
- camera
- world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/067—Measuring instruments not otherwise provided for for measuring angles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
Abstract
ツールがユーザコンソールの入力ハンドルの入力に従うように処理ユニットを備えた手術ロボットのツールを制御する方法は、ユーザコンソールのマスターフレームでの入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きを、手術室で定められたワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きを、ツールを支持するアームによって定められるツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、ツールを制御するモーターに制御コマンドを送信すること、を含む。【選択図】図1
Description
ロボット手術システムは、低侵襲医療処置で使用されている。医療処置中、ロボット手術システムは、ユーザインターフェースとインターフェースする外科医によって制御される。ユーザインターフェースは、外科医が、患者に作用する手術機器のエンドエフェクタを操作することを可能にする。ユーザインターフェースは、ロボット手術システムを制御するために外科医によって動かされる入力コントローラまたはハンドル、および外科医が手術部位内のエンドエフェクタを視覚化できるディスプレイを含む。手術部位の視覚化は、手術部位のリアルタイム画像を提示する内視鏡などの1つまたは複数のカメラによってもたらされる。
手術部位の視覚化の改善と手術ロボットの直感的な制御に対する継続的な必要性がある。
本開示は、一般に、ユーザコンソールの入力ハンドルの動きを、手術ロボットのツールの動きに変換し、ツールが意図されたように、またユーザコンソールのディスプレイ上で見られるように動くようにするための方法に関する。
本開示の態様では、ツールがユーザコンソールの入力ハンドルの入力に従うように、処理ユニットを備えた手術ロボットのツールを制御する方法が、ユーザコンソールのマスターフレームでの入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きを、手術室で定められたワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きを、ツールを支持するアームによって定められるツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、ツールを制御するモーターに制御コマンドを送信すること、を含む。
態様では、マスターフレームでの入力ハンドルの動きを、カメラフレームでのツールの動きに変換することは、表示回転行列をマスターフレームでの入力ハンドルの動きに適用して、入力ハンドルの動きを、ユーザコンソールのディスプレイの表示フレームへ変換することを含む。ディスプレイは手術部位のリアルタイム画像の視覚化をもたらし得る。表示回転行列は、マスターフレームの軸を中心に動きを30度回転させることができる。
いくつかの態様では、マスターフレームでの入力ハンドルの動きを、カメラフレームでのツールの動きに変換することは、反転回転行列をマスターフレームでの入力ハンドルの動きに適用して、入力ハンドルの動きを、カメラフレームへ変換することを含む。反転回転行列は、表示フレームの軸を中心に動きを180度回転させることができる。方法は、反転フラグを受信して、反転フラグが、カメラからのリアルタイム画像がディスプレイに表示される前に反転されることを示している場合に、反転回転行列を適用することを含み得る。
特定の態様では、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換することは、ワールドフレームに対するカメラフレームのヨー角とピッチ角を決定して、ワールドフレームに対するカメラフレームのヨー角とピッチ角を含むワールドフレーム回転行列を適用して、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換することを含む。
特定の態様では、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換することは、カメラのオフセットを受信すること、およびカメラのオフセットを含む調整回転行列を、カメラフレームでのツールの動きに適用することにより、カメラのオフセットによってカメラフレームでの動きを調整することを含む。
いくつかの態様では、ワールドフレームでのツールの動きをツールフレームでのツールの動きに変換することは、ワールドフレームに対するツールフレームのヨー角とピッチ角を決定すること、およびワールドフレームに対するツールフレームのヨー角とピッチ角を含むツールフレーム回転行列の転置を適用して、ワールドフレームでのツールの動きをツールフレームの動きに変換することを含む。この方法は、制御コマンドを、ツールを制御するモーターに送信する前に、入力ハンドルの動いている間にカメラが固定されていることを確認することを含み得る。
本開示の別の態様では、ロボット手術システムは、手術ロボットとユーザコンソールと処理ユニットとを含む。手術ロボットは、カメラを支持する第1のアームと、ツールを支持する第2のアームとを含む。カメラはカメラフレームを定め、手術部位のリアルタイム画像をキャプチャするように構成されている。第2のアームはツールフレームを定め、ツールフレーム内で、ツールを操作するように構成される手術ロボットがワールドフレームを定める。ユーザコンソールには、入力ハンドルとディスプレイが含まれている。入力ハンドルは、ユーザコンソールで定められたマスターフレーム内で移動できる。ディスプレイは、カメラによって提示される手術部位のリアルタイム画像を表示するように構成されている。処理ユニットは、マスターフレームでの入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きをカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きをツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、制御コマンドを第2のアームに送信すること、に対して構成される。
態様では、ディスプレイは、マスターフレームの1つの軸に対して回転される表示フレームを定める。ディスプレイは、マスターフレームの1つの軸を中心に30度回転させることができる。処理ユニットは、マスターフレームでの入力ハンドルの動きに表示回転行列を適用して、入力ハンドルの動きを表示フレームに変換するように構成される。
いくつかの態様では、ディスプレイは、リアルタイム画像を表示する前に、カメラによって提示されるリアルタイム画像を180度反転するように構成される。処理ユニットは、ディスプレイで反転されているリアルタイム画像を示す反転フラグを受信し、ツールの動きに反転回転行列を適用して、ツールの動きをカメラフレームに変換するように構成される。
特定の態様では、処理ユニットは、ワールドフレームに対するカメラフレームのヨー角とピッチ角を受信して、ワールドフレームに対するカメラフレームのヨー角とピッチ角を含むワールドフレーム回転行列を適用して、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換するよう構成される。処理ユニットは、カメラのオフセット角度を受信し、カメラのオフセット角度を含む調整回転行列を適用して、カメラフレームでのツールの動きを調整するように構成することができる。
特定の態様では、処理ユニットは、ワールドフレームに対するツールフレームのヨー角およびピッチ角を受信し、ワールドフレームに対するツールフレームのヨー角およびピッチ角を含むツールフレーム回転行列の転置を適用して、ワールドフレームでのツールの動きをツールフレームでのツールの移動へ変換するように構成される。処理ユニットは、制御コマンドを送信する前に、入力ハンドルの動いている間にカメラが固定されていることを確認するように構成することができる。
本開示の別の態様では、コンピュータ可読媒体は、プロセッサによって実行されると、プロセッサに、ユーザコンソールでのマスターフレームで入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きを手術室で定められたワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きを、ツールを支持するアームにより定められるツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、ツールを制御するモーターに制御コマンドを送信すること、を生じさせる一連の命令を格納する。
さらに、矛盾しない程度に、本明細書に記載される態様のいずれかを、本明細書に記載される他の態様のいずれかまたは全てと併せて使用することができる。
本開示の様々な態様を、本明細書に組み込まれ、その一部を構成する図面を参照して以下で説明する。
ここで本開示の実施形態が図面を参照して詳細に記載され、図面の中で同様の参照番号は、いくつかの図の各々において同一のまたは対応する要素を示す。本明細書で使用される際、「臨床医」という用語は、医師、看護師、または任意の他の医療提供者を指し、医療支援従事者を含み得る。
図1を参照すると、本開示によるロボット手術システム1は、概して、手術ロボット10、処理ユニット30、およびユーザコンソール40として示されている。手術ロボット10は、一般に、リンク機構またはアーム12および1つまたは複数のロボットベース18を含む。リンク機構12は、組織に作用するように構成されたエンドエフェクタまたはツール20を可動に支持する。リンク機構12は、各々が組織に作用するように構成されたエンドエフェクタまたはツール20を支持する端部14を有するアームの形態であり得る。さらに、リンク機構12の端部14は、手術部位「S」を撮像するための撮像装置16を含むことができる。ユーザコンソール40は、処理ユニット30を介してロボットベース18と通信する。
ユーザコンソール40は、3次元画像を表示するように構成されたディスプレイ装置44を含む。ディスプレイ装置44は、手術部位「S」の3次元画像を表示し、これは、リンク機構12の端部14に配置された撮像装置16によってキャプチャされたデータを含み、かつ/または手術現場の周りに配置された撮像装置(例えば、手術部位「S」内に配置された撮像装置、患者「P」に隣接して配置された撮像装置、撮像アーム52の遠位端に配置された撮像装置56)によってキャプチャされたデータを含み得る。撮像装置(例えば、撮像装置16、56)は、手術部位「S」の視覚画像、赤外線画像、超音波画像、X線画像、熱画像、および/または任意の他の既知のリアルタイム画像をキャプチャしてもよい。撮像装置は、キャプチャした撮像データを処理ユニット30に送信し、処理ユニット30は、撮像データからリアルタイムで手術部位「S」の3次元画像を作成し、その3次元画像を表示するためにディスプレイ装置44に送信する。
ユーザコンソール40はまた、臨床医が手術ロボット10を操作する(例えば、リンク機構12、リンク機構12の端部14、および/またはツール20を動かす)ことを可能にする制御アーム43上に支持された入力ハンドル42も含む。入力ハンドル42の各々は、処理ユニット30と通信し、そこに制御信号を送信し、そこからフィードバック信号を受信する。追加的または代替的に、入力ハンドル42の各々は、外科医がリンク機構12の端部14に支持されたツール20を操作する(例えば、挟持する、把持する、発射する、開く、閉じる、回転させる、突き出す、スライスするなど)ことを可能にする入力装置(明示的には図示せず)を含み得る。
入力ハンドル42の各々は、手術部位「S」内でリンク機構12の端部14、例えば、ツール20を動かすために、所定の作業空間を通して可動である。ディスプレイ装置44の3次元画像は、入力ハンドル42の動きにより、ディスプレイ装置44で見られるようにリンク機構12の端部14を動かせるように向けられている。入力ハンドル42の動きが、3次元画像内のリンク機構12の端部14の動きに合わせてスケーリングされている間、3次元画像は静止したままである。3次元画像の向きを維持するために、入力ハンドル42の運動学的マッピングは、リンク機構12の端部14の向きに対するカメラの向きに基づいている。ディスプレイ装置44の3次元画像の向きは、撮像装置16、56によってキャプチャされた視界に対して反映または回転され得る。加えて、ディスプレイ装置44の3次元画像のサイズは、臨床医が手術部位「S」内の構造をよりよく見ることができるように、手術部位の実際の構造よりも大きくまたは小さくスケーリングされ得る。入力ハンドル42が動かされると、ツール20は、以下に詳述するように手術部位「S」内で動かされる。ツール20の動きは、ツール20を支持するリンク機構12の端部14の動きも含むことができる。
ロボット手術システム1の構成および操作の詳細な説明については、米国特許第8,828,023号を参照することができ、その内容全体が参照により本明細書に組み込まれる。
図1~3Bを参照すると、ロボット手術システム1はワールドフレームFwを有し、ユーザコンソール40はマスターフレームFmを有し、ディスプレイ44は表示フレームFdを有し、各ツールまたはエンドエフェクタ20はツールフレームFtを有し、カメラ56は、カメラフレームFcを有する。ワールドフレームFwは、Xw-Yw-Zw軸によって定められる、外科的処置の間に固定された固定フレームである。特に図3Aおよび3Bを参照すると、ワールドフレームFwは、手術室の床または地面に配置されたフレームであり、ツールフレームFtおよびカメラフレームFcのそれぞれによって参照することができる。示されるように、ワールドフレームFwは、カメラアーム52とツール20を支持するベース18との間にあり、Xw軸は床に平行な水平方向に定められ、Yw軸は床に平行な水平方向に定められ、Zm軸は、床から天井までの高さ方向に定められる。
特に図2を参照すると、マスターフレームFmは、ユーザコンソール40のワークスペースWのフレームであり、Xm-Ym-Zm軸によって定められる。マスターフレームFmの軸は、入力ハンドル42およびディスプレイ44に関連し、Xm軸はディスプレイ44に向かって、またディスプレイ44から離れ、Ym軸は、ディスプレイ44に対して水平または横方向で、例えば、ディスプレイ44に対して左/右で、Zm軸は床に対して垂直である。
図3Aに戻って参照すると、カメラフレームFcは、手術部位Sに対するカメラ56のビューを定めるためのカメラ56のフレームであり、Xc-Yc-Zc軸によって定められる。カメラフレームFcは、手術部位Sに対して1つより多いカメラから取得された画像から形成される合成画像に対して定められ得る。Yc軸およびZc軸は互いに垂直であり、それぞれがカメラ56のレンズによって定められる平面に平行である。Xc軸は、カメラ56のレンズによって定められる平面に直交し、カメラ56の対象物距離がXc軸に沿って定められるように、実質的に手術部位Sに向けられる。
図3Bを参照すると、ツールフレームFtは、ツール20を支持するベース18に対する手術部位S内のツール20の動きを定めるための、ツール20を支持するベース18のフレームであり、Xt-Yt-Zt軸によって定められる。Xt軸とYt軸は互いに垂直であり、床に実質的に平行である。Zt軸は、Xt軸およびYt軸の各々に垂直であり、天井に向かって、例えば、床から離れ、実質的に垂直である。
図1のロボット手術システムおよび図2~3Bのフレームを参照すると、医療処置中、処理ユニット30は、それぞれのツールフレームFtで入力ハンドル42の動きに従うときに、マスターフレームFm内のユーザコンソール40の入力ハンドル42の動きを、入力ハンドル42に割り当てられたツール20にマッピングする。例えば、入力ハンドル42が所望の方向に、例えば、マスターフレームFmで上に動かされると、ツール20は、ツールフレームFtにおいて、表示フレームFdの所望の方向、例えばディスプレイ44に示されるように、上に対応する方向に動かされる。マスターフレームFmでの入力ハンドル42の動きがツールフレームFtでのツール20の所望の動きをもたらすことを確実にするために、処理ユニット30は、マスターフレームFmからツールフレームFtへの動きを、カメラフレームFcおよびワールドフレームFwに対するツールフレームFtの位置を使用することによって変換する。処理を単純化するために、処理ユニット30は、それぞれのフレームでの動きに対するワールドフレームFwの中央処理ユニット30からの命令またはコマンドを変換するコントローラ、例えば、コントローラ32、34を含む各ベース18を備えた分散処理ユニットであり得る。
本明細書で詳述するように、それぞれの座標フレームr内のベクトルvは、vr=[vx vy vz]として表される。また、座標フレームFaと座標フレームFbを関連付ける回転行列はa
bRと表され、a
bRvb=vaとなる。このことから、a
bRb
CR=a
cR、またa
bR=(b
aR)Tと理解される。
以下に詳述するように、処理ユニット30は、マスターフレームFm内の動きを決定し、その動きを表示フレームFdに変換する。次に、動きは、ワールドフレームFwに関連するカメラフレームFcに変換され得る。カメラフレームFcとワールドフレームFwとの関係により、処理ユニット30は、動きをワールドフレームFwに変換することができる。次に、ツールフレームFtとワールドフレームFwとの間の関係により、処理ユニット30は、ワールドフレームFwからツールフレームFtへの動きを変換することができる。
マスターフレームFmでの入力ハンドル42のそれぞれの1つの動きを、ツールフレームFtでの割り当てられたツール20の所望の動きに対してマッピングするために、時間k-1から時間kまでのマスターフレームFmでの入力ハンドル42の動きは、Δpm=[vx vy vz]のように表すことができる。
示されるように、ディスプレイ44は、表示フレームFdがマスターフレームFmに対してオフセットまたは回転されるように、ユーザコンソール40とインターフェースする臨床医にとって快適な視界を提供するように角度が付けられている。具体的には、表示フレームFdは、約30°、つまりπ/6の表示角度θdにてXd軸の周りに回転される。しかし、いくつかの実施形態において、表示フレームFdが、実質的にマスターフレームFmに、または異なる表示角度θdで整列されるように、ディスプレイ44が、臨床医に対して快適な視野をもたらすように配置され得る。
表示フレームFdがマスターフレームFmからオフセットされている場合は、表示フレームFdにマスターフレームFmでの動きを変換する必要がある。マスターフレームFmの動きを表示フレームFdに変換するために、回転行列は、
とし、表示フレームFdのΔpmは、
Δpd=(m dR)TΔpm=d mRΔpm、(これより
が得られる)として、回転行列の転置を使用して変換できる。
Δpd=(m dR)TΔpm=d mRΔpm、(これより
いくつかの実施形態では、ディスプレイ44は、Zd軸を中心に反転または回転された手術部位Sの画像を表示して、表示された画像の向きに基づいてツール20のより快適な操作を可能にすることができる。実施形態では、ディスプレイ44は、単一の制御装置の操作、例えば、ボタンを押すことまたはスイッチを切り替えることによって、表示された画像を180°反転させることを可能にする。表示フレームFdからカメラフレームFcへ動きを変換するために、表示画像の向きの反転回転行列Rfが、カメラフレームFcの動きがΔpc=RfΔpdのように表されるように、表示フレームFdの動きに適用される。表示された画像のこの180°の反転は、画像が反転されたときに反転フラグが「真」または「1」であり、画像が反転されていないときに反転フラグが「偽」または「0」であるようなフラグによって表すことができる。反転フラグが偽の場合、反転回転行列Rfは
とし、ディスプレイ44の正のZdつまり上への動きは、負のYc動きにおけるツール20の動きに変換され、ディスプレイ44での正のYd、または左の動きは、正のZcにおけるツール20の動きに変換され、正のXdまたはディスプレイ44内への動きは、正のXcにおけるツール20の動きに変換される。あるいは、反転フラグが真の場合、反転回転行列Rfは
とし、ディスプレイ44の正のZdつまり上への動きは、正のYcの動きにおけるツール20の動きに変換され、ディスプレイ44での正のYd、つまり左の動きは、負のZcにおけるツール20の動きに変換され、正のXdまたはディスプレイ44内への動きは、正のXcにおけるツール20の動きに変換される。Xdに沿った動きは、反転フラグの状態の影響を受けないことに留意されたい。
手術ロボット10がツール20を動かすために、カメラフレームΔpcでのツールの動きは、ツールフレームΔptでのツールの動きに変換される。カメラフレームΔpcでツールの動きを変換するのは、ツールフレームΔptでのツールの動きに変換されることであり、カメラフレームΔpcでのツールの動きは、最初にワールドフレームΔpwでのツールの動きに変換される。ワールドフレームΔpwでのツールの動きは、次に、ツールフレームΔptでのツールの動きに変換される。
ワールドフレームFwのツールまたはカメラ、例えば、ツール20またはカメラ56の動きを、別のオブジェクトのフレーム、例えば、カメラフレームFcまたはツールフレームFtとの間で変換するために、ワールドフレームFwと他のフレームとの間の関係を使用できる。例えば、カメラフレームFtとワールドフレームFwとの間の関係を使用して、カメラフレームFcからの動きをワールドフレームFwにおける動きに変換することができる。カメラフレームFtとワールドフレームFwとの間の関係は、レーザー19a、19bを利用してカメラフレームFtとワールドフレームFwとの間の関係を決定するセットアップアームシステム15を使用して決定することができる。具体的には、セットアップアームシステム15は、各ロボットベース18にてレーザー19a、19bを含み、それぞれのロボットベースと地面との間のヨー角θヨーおよびピッチ角θピッチを決定する。これは、ワールドフレームFwの平面である。適切なセットアップアームシステム、およびロボットベースのフレームと別のフレーム基準との関係を決定する方法についての詳細な説明は、「SYSTEM AND METHOD FOR ALIGNING A SURGICAL ROBOTIC ARM」と題された、2019年4月15日に出願された米国仮特許出願第62/833,876号(現在は2019年6月12日に出願された国際特許出願シリアル番号PCT/US2019/036657)でなされており、その全内容は参照により本明細書に組み込まれる。
ワールドフレームFwにカメラフレームFcを変換するために、ヨーとピッチの回転を、ワールドフレームFw内のカメラフレームFcを位置特定するためにワールドフレームFwに適用する。回転の順序は、ピッチ角θピッチのZw軸を中心としたヨー角θヨーで回転されるYw軸である中間的なYi軸(明示的には図示せず)を中心とした先行回転に関する回転に先行する、ヨー角θヨーのZw軸周りの回転について、決定される。これにより、ワールドフレームFwにカメラフレームFcを変換するための次の回転行列が得られる。
実施形態では、カメラ56は0°の内視鏡であり、カメラフレームを平行移動するための回転行列が、上に示されるままであるようにする。しかしながら、いくつかの実施形態では、カメラ56は、オフセット内視鏡であり得、その結果、オフセット内視鏡の追加の調整回転行列Raは、ワールドフレームFwをカメラフレームFcに変換するために必要とされる。調整回転行列
式中θaはカメラ56のオフセットの調整角度である。例えば、30°のオフセット内視鏡をカメラ56に用いた場合、θaの調整角度はπ/6であり、調整回転行列が
である。これにより、調整回転行列Raを含むワールドフレームFwにカメラフレームFcを変換するための回転行列を、以下のように表し得るようになる。
または、30°オフセット内視鏡がカメラ56に使用される場合、次のように表される。
カメラフレームFcとワールドフレームFwとの間の関係を、カメラフレームでの動きΔpcに適用することによって、次のようなワールドフレームでの動きが得られる。
Δpw=w cR RaΔpc
Δpw=w cR RaΔpc
ワールドフレームでのその動きΔpwが決定された今、ワールドフレームFwとツールフレームFtとの関係は、ワールドフレームの動きΔpwをツールフレームでの動きΔptに変換するために使用され、回転行列w
tRが決定できる。ワールドフレームFwからツールフレームFtの回転を決定することが必要であるとき、w
tR回転行列の転置は次のように使用される。
式中θヨーおよびθピッチは、ワールドフレームFwに対してツールフレームFtから取得される。
これにより、ツールフレームΔptでの動きへの、ワールドフレームΔpwでの移動の変換がもたらされ、Δpt=(w
tR)TΔpwのように表現される。上記の変換とこの変換を組み合わせて、マスターフレームFmからツールフレームFtへの全体的な変換可能が、ハンドアイ変換Tハンドアイとして表され得る;
Tハンドアイ=(w tR)T・Ra・w cR・Rf・d mR
上で詳述したように、反転回転行列Rfは、表示フレームFdをカメラフレームFcに変換するために、真または偽のいずれかであるという反転フラグに依存している。したがって、入力ハンドル42の動きを、割り当てられたツール20の動きに変換するために、変換は以下を提供する。
Δpt=TハンドアイΔpm
Tハンドアイ=(w tR)T・Ra・w cR・Rf・d mR
上で詳述したように、反転回転行列Rfは、表示フレームFdをカメラフレームFcに変換するために、真または偽のいずれかであるという反転フラグに依存している。したがって、入力ハンドル42の動きを、割り当てられたツール20の動きに変換するために、変換は以下を提供する。
Δpt=TハンドアイΔpm
上記の変換は、入力ハンドル42が動いている間にカメラ56が静止していることに依存している。したがって、変換を適用する場合、カメラ56が移動、回転、および/またはズームしているときに、ツール20の移動を一時停止するために、カメラフラグを含めることができる。
図4を参照すると、ロボット手術システムを使用して入力ハンドルの動きをツールの動きに変換するために、上記の変換を使用する方法100が、図1~3Bのロボット手術システム1を参照して本開示に従って説明されている。ロボット手術システム1は、手術ロボット10と同じ物理的位置にあるユーザコンソール40を備えた単一の場所に収容され得るか、またはロボット手術システム1は、手術ロボット10から、遠隔位置、例えば、別の建物、都市、または国にあるユーザコンソール40を備えた遠隔手術システムであり得る。
最初に、ユーザコンソール40の入力ハンドル42の動きは、処理ユニット30によってマスターフレームFmにおいて決定される(ステップ110)。制御アーム43は、入力ハンドル42の動きを決定するためのエンコーダおよび/またはモーターを含み得る。適切なエンコーダおよびモーターの詳細な説明については、2017年5月25日に出願された国際特許出願番号PCT/US2017/034433および2017年6月2日に出願されたPCT/US2017/035580を参照することができる。これらの出願それぞれの全内容は、参照により本明細書に組み込まれている。
入力ハンドル42の動きを、割り当てられたツール20の動きに変換する前に、処理ユニット30は、カメラ56、例えば、カメラフレームFcが、入力ハンドル42の動いている間に静止または固定されていることを確認する(ステップ120)。処理ユニット30は、カメラ56が固定されている場合は「真」または「1」であり、カメラが静止していない場合は「偽」または「0」である、カメラフラグの形式の入力を含み得る。カメラフラグが静止していないとき、処理ユニット30は、入力ハンドル42の動きを変換せず、入力ハンドル42の動きを検出するための準備完了状態に戻る(ステップ122)。
カメラ56が静止しているとき、処理ユニット30は、回転行列d
mRを使用して、入力ハンドル42の動きを、マスターフレームFmからディスプレイ44の表示フレームFdに変換する(ステップ124)。上で詳述したように、回転行列d
mRは、マスターフレームFmからの表示フレームFdのオフセットを担う。動きが表示フレームFdに変換された後、処理ユニット30は、動きをカメラフレームFcに変換する(ステップ130)。カメラフレームFcへ動きを変換するために、処理ユニット30は、ディスプレイ44に提示されるビューを、カメラ56から反転させているか、カメラ56に対して反転させていないかどうかを決定する、反転フラグを確認する。ディスプレイ44のビューが反転されると、処理ユニットは、移動をワールドフレームFwに変換することに進む前に、反転回転Rfを移動に適用する(ステップ132)。画像がカメラ56から反転されない場合、処理ユニット30は、反転回転Rfを適用せずに、動きをワールドフレームFwに変換し始めるか、または反転回転Rfを1に等しいものとして扱うことができる。
動きをワールドフレームFwに変換するために、処理ユニット30は、カメラ56を支持するアーム12のヨー角およびピッチ角を受信する(ステップ140)。アーム12のヨー角およびピッチ角は、アーム12のセットアップレーザー19a、19bによって決定され得、アーム12を処理ユニット30に対して支持するベース18によってもたらされ得る。ベース18内のコントローラ32は、アーム12のヨー角およびピッチ角を決定および計算することができる。アーム12のヨー角およびピッチ角は、セットアップアーム19について決定され得、次いで、カメラ56を支持するアーム12のジョイントの位置を決定することによって、カメラ56に伝達され得る。カメラ56のヨー角およびピッチ角を用いて、処理ユニット30は、回転行列w
cRを使用して、動きをワールドフレームFwに変換する(ステップ142)。処理ユニット30が動きをワールドフレームFwに変換すると、処理ユニット30は、カメラ56のオフセットを確認する(ステップ144)。カメラ56がオフセットゼロのカメラである場合、処理ユニット30は、動きをツールフレームFtに変換するように進むか、または調整回転Raに値「1」を割り当てる。カメラ56のオフセットがゼロ以外の場合、処理ユニット30は、動きをツールフレームFtに変換することに進む前に、動きに調整回転Raを適用する(ステップ146)。
ワールドフレームFwでの動きに伴い、処理ユニット30は、ツール20を支持するベース18からツールフレームFtのヨー角およびピッチ角を受信する。ツールフレームFtのヨー角およびピッチ角は、アーム12のセットアップレーザー19a、19bによって決定され、アーム12を処理ユニット30に対して支持するベース18によって提供される(ステップ150)。ツール20を支持するベース18のヨー角およびピッチ角で、処理ユニット30は、回転行列w
cRの転置を使用して、動きをツールフレームFtに変換する(ステップ152)。
動きがツールフレームFtに変換されると、処理ユニット30は、ベース18および/または機器駆動ユニット内のモーターが、アーム12および/またはツール20を作動させるように、ツール20を支持するベース18に制御コマンドを送信し、ツール20が入力ハンドル42の動きに従うように、ツール20がマスターフレームFm(ステップ160)での入力ハンドル42の動きに応答して所望の方法で動かされるようにする。ベース18内に配置されたコントローラ34は、制御コマンドを受信し、制御コマンドに応答してアーム12および/またはツール20を作動させることができる。
図5を参照すると、コンピューティング装置は、本明細書の様々な実施形態に従って使用され得る。明示的に示されていないが、いくつかの実施形態では、コンピューティング装置300、またはその構成要素の1つまたは複数は、ロボット手術システム1の1つまたは複数の構成要素(例えば、処理ユニット30、ベース18、コントローラ32、34、および/または類似物)をさらに表せる。コンピューティング装置300は、様々な実施形態において、1つ以上のメモリ302、プロセッサ304、ディスプレイ装置306、ネットワークインターフェース308、入力装置310、および/または出力モジュール312を含み得る。メモリ302は、プロセッサ304によって実行可能であり、またコンピューティング装置300の動作を制御するデータおよび/またはソフトウェアを記憶するための非一時的コンピュータ可読記憶媒体を含む。実施形態では、メモリ302は、フラッシュメモリチップなどの1つ以上のソリッドステート記憶装置を含んでもよい。1つ以上のソリッドステート記憶装置の代替または追加として、メモリ302は、大容量記憶コントローラ(図5に図示せず)および通信バス(図5に図示せず)を介してプロセッサ304に接続された1つ以上の大容量記憶デバイスを含み得る。本明細書に含まれるコンピュータ可読媒体の説明は、ソリッドステートストレージに言及しているが、コンピュータ可読記憶媒体は、プロセッサ304によってアクセス可能な任意の利用可能な媒体とすることができることが当業者によって理解されるべきである。すなわち、コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するための任意の方法または技術で実装された非一時的、揮発性および不揮発性、取り外し可能および取り外し不可能な媒体を含む。コンピュータ可読記憶媒体の例は、RAM、ROM、EPROM、EEPROM、フラッシュメモリもしくは他のソリッドステートメモリ技術、CD-ROM、DVD、ブルーレイもしくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくは他の磁気記憶装置、または所望の情報を記憶するために使用することができ、またコンピューティング装置300によってアクセスされることができる任意の他の媒体を含む。
いくつかの実施形態では、メモリ302は、データ314および/またはアプリケーション316を格納する。いくつかの態様では、アプリケーション316は、プロセッサ304によって実行されると、ディスプレイ装置306に、ユーザインターフェース(図5には示されていない)を提示させるユーザインターフェース構成要素318を含む。ネットワークインターフェース308は、いくつかの実施形態では、コンピューティング装置300および/またはその個々の構成要素を、有線ネットワーク、無線ネットワーク、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、ワイヤレスモバイルネットワーク、Bluetooth(登録商標)ネットワーク、インターネット、および/または別のタイプのネットワークといったネットワークに連結するよう構成される。入力装置310は、それによってユーザがコンピューティング装置300と対話することができる任意のデバイスであり得る。入力装置310の例には、マウス、キーボード、タッチスクリーン、音声インターフェース、および/または類似物が含まれるが、これらに限定されない。様々な実施形態で、出力モジュール312は、任意の接続ポートまたはバス、例えば、パラレルポート、シリアルポート、ユニバーサルシリアルバス(USB)、または当業者に知られている任意の他の同様の接続ポートを含むことができる。
本開示のいくつかの実施形態が図面に示されているが、本開示は当該技術分野が許容するのと同程度に広範であるべきであり、かつ本明細書は同様に読み取られるべきであると意図されているので、本開示はこれらの実施形態に限定されることを意図しない。上記実施形態の任意の組み合わせがさらに考えられ、添付の特許請求の範囲に含まれる。したがって、上記の説明は、限定的であるとして解釈されるべきではなく、特定の実施形態の単なる例示として解釈されるべきである。当業者であれば本明細書に添付される特許請求の範囲内での他の変更を想定するであろう。
Claims (20)
- ツールがユーザコンソールの入力ハンドルの入力に従うように、処理ユニットを備えた手術ロボットの前記ツールを制御する方法であって、
前記ユーザコンソールのマスターフレームでの前記入力ハンドルの動きを受信すること、
前記マスターフレームでの前記入力ハンドルの前記動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでの前記ツールの動きに変換すること、
前記カメラフレームでの前記ツールの前記動きを、手術室で定められたワールドフレームでの前記ツールの動きに変換すること、
前記ワールドフレームでの前記ツールの前記動きを、前記ツールを支持するアームによって定められるツールフレームでの前記ツールの動きに変換すること、および
前記ツールが前記入力ハンドルの動きに従うように、前記ツールを制御するモーターに制御コマンドを送信すること、を含む、方法。 - 前記マスターフレームでの前記入力ハンドルの前記動きを、前記カメラフレームでの前記ツールの動きに変換することは、表示回転行列を前記マスターフレームでの前記入力ハンドルの動きに適用して、前記入力ハンドルの動きを、前記ユーザコンソールのディスプレイの表示フレームへ変換することを含み、前記ディスプレイは前記手術部位の前記リアルタイム画像の視覚化をもたらす、請求項1に記載の方法。
- 前記表示回転行列は、前記マスターフレームの軸を中心に前記動きを30度回転させる、請求項2に記載の方法。
- 前記マスターフレームでの前記入力ハンドルの前記動きを前記カメラフレームでの前記ツールの動きに変換することは、反転回転行列を前記マスターフレームでの前記入力ハンドルの動きに適用して、前記入力ハンドルの動きを前記カメラフレームに変換することを含み、前記反転回転行列は、前記表示フレームの軸を中心に180度動きを回転する、請求項1に記載の方法。
- 反転フラグを受信すること、および
前記反転フラグが、前記カメラからの前記リアルタイム画像がディスプレイに表示される前に反転されることを示している場合に、前記反転回転行列を適用することをさらに含む、請求項4に記載の方法。 - 前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの前記動きに変換することは、
前記ワールドフレームに対する前記カメラフレームのヨー角とピッチ角を決定すること、および
前記ワールドフレームに対する前記カメラフレームの前記ヨー角とピッチ角を含むワールドフレーム回転行列を適用して、前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの動きに変換すること、を含む、請求項1に記載の方法。 - 前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの前記動きに変換することは、
前記カメラのオフセットを受信すること、および
前記カメラの前記オフセットを含む調整回転行列を、前記カメラフレームでの前記ツールの前記動きに適用することにより、前記カメラの前記オフセットによって前記カメラフレームでの動きを調整すること、を含む、請求項1に記載の方法。 - 前記ワールドフレームでの前記ツールの前記動きを前記ツールフレームでの前記ツールの動きに変換することは、
前記ワールドフレームに対する前記ツールフレームのヨー角とピッチ角を決定すること、および
前記ワールドフレームに対する前記ツールフレームの前記ヨー角とピッチ角を含むツールフレーム回転行列の転置を適用して、前記ツールフレームの動きに前記ワールドフレームでの前記ツールの前記動きを変換すること、を含む、請求項1に記載の方法。 - 前記制御コマンドを、前記ツールを制御する前記モーターに送信する前に、前記入力ハンドルの前記動きのある間に前記カメラが固定されていることを確認することをさらに含む、請求項1に記載の方法。
- ロボット手術システムであって、
カメラを支持する第1のアームおよびツールを支持する第2のアームを含む手術ロボットであって、前記カメラはカメラフレームを定め、手術部位のリアルタイム画像をキャプチャするように構成され、前記第2のアームはツールフレームを定め、前記ツールフレームで前記ツールを操作するように構成され、前記手術ロボットがワールドフレームを定める、手術ロボット、
入力ハンドルおよびディスプレイを含むユーザコンソールであって、前記入力ハンドルが前記ユーザコンソールによって定められたマスターフレーム内で移動可能であり、前記ディスプレイが前記カメラによって提示される手術部位のリアルタイム画像を表示するように構成されている、ユーザコンソール、および
処理装置であって、
前記マスターフレームでの前記入力ハンドルの動きを受信すること、
前記マスターフレームでの前記入力ハンドルの前記動きを前記カメラフレームでの前記ツールの動きに変換すること、
前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの動きに変換すること、
前記ワールドフレームでの前記ツールの前記動きを前記ツールフレームでの前記ツールの動きに変換すること、および
前記ツールが前記入力ハンドルの動きに従うように、制御コマンドを前記第2のアームに送信すること、に対して構成された処理装置を備える、ロボット手術システム。 - 前記ディスプレイは、前記マスターフレームの1つの軸に対して回転される表示フレームを定める、請求項10に記載のロボット手術システム。
- 前記ディスプレイは、前記マスターフレームの前記1つの軸を中心に30度回転される、請求項11に記載のロボット手術システム。
- 前記処理ユニットは、前記マスターフレームでの前記入力ハンドルの動きに表示回転行列を適用して、前記入力ハンドルの動きを前記表示フレームに変換するように構成される、請求項11に記載のロボット手術システム。
- 前記ディスプレイは、前記リアルタイム画像を表示する前に、前記カメラによって提示される前記リアルタイム画像を180度反転するように構成される、請求項10に記載のロボット手術システム。
- 前記処理ユニットは、前記ディスプレイで反転されている前記リアルタイム画像を示す反転フラグを受信し、前記ツールの動きに反転回転行列を適用して、前記ツールの前記動きを前記カメラフレームに変換するように構成される、請求項14に記載のロボット手術システム。
- 前記ワールドフレームに対する前記カメラフレームのヨー角とピッチ角を受信して、前記ワールドフレームに対する前記カメラフレームの前記ヨー角とピッチ角を含むワールドフレーム回転行列を適用して、前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの動きに変換するよう前記処理ユニットが構成される、請求項10に記載のロボット手術システム。
- 前記処理ユニットは、前記カメラのオフセット角度を受信し、前記カメラの前記オフセット角度を含む調整回転行列を適用して、前記カメラフレームでの前記ツールの前記動きを調整するように構成される、請求項10に記載のロボット手術システム。
- 前記処理ユニットは、前記ワールドフレームに対する前記ツールフレームのヨー角およびピッチ角を受信し、前記ワールドフレームに対する前記ツールフレームの前記ヨー角およびピッチ角を含むツールフレーム回転行列の転置を適用して、前記ワールドフレームでの前記ツールの前記動きを前記ツールフレームでの前記ツールの移動へ変換するように構成される、請求項10に記載のロボット手術システム。
- 前記処理ユニットは、前記制御コマンドを送信する前に、前記入力ハンドルの前記動きのある間に前記カメラが固定されていることを確認するように構成される、請求項10に記載のロボット手術システム。
- プロセッサによって実行されると、前記プロセッサに、
ユーザコンソールのマスターフレームでの入力ハンドルの動きを受信すること、
前記マスターフレームでの前記入力ハンドルの前記動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、
前記カメラフレームでの前記ツールの前記動きを手術室で定められたワールドフレームでの前記ツールの動きに変換すること、
前記ワールドフレームでの前記ツールの前記動きを、前記ツールを支持するアームにより定められるツールフレームでの前記ツールの前記動きに変換すること、および
前記ツールが前記入力ハンドルの動きに従うように、前記ツールを制御するモーターに制御コマンドを送信すること、を生じさせる一連の命令を格納する、コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962801734P | 2019-02-06 | 2019-02-06 | |
US62/801,734 | 2019-02-06 | ||
PCT/US2020/016487 WO2020163263A1 (en) | 2019-02-06 | 2020-02-04 | Hand eye coordination system for robotic surgical system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022519307A true JP2022519307A (ja) | 2022-03-22 |
Family
ID=71946997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021545841A Pending JP2022519307A (ja) | 2019-02-06 | 2020-02-04 | ロボット手術システム用のハンドアイ協働システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220022984A1 (ja) |
EP (1) | EP3920821A4 (ja) |
JP (1) | JP2022519307A (ja) |
CN (1) | CN113271883B (ja) |
WO (1) | WO2020163263A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114502094A (zh) * | 2019-09-26 | 2022-05-13 | 奥瑞斯健康公司 | 用于碰撞检测和避免的系统和方法 |
CN113729967B (zh) * | 2021-09-16 | 2023-09-19 | 上海微创医疗机器人(集团)股份有限公司 | 医生控制台的控制方法、医生控制台、机器人系统和介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1472052A2 (en) * | 2002-01-31 | 2004-11-03 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
WO2012078989A1 (en) * | 2010-12-10 | 2012-06-14 | Wayne State University | Intelligent autonomous camera control for robotics with medical, military, and space applications |
DE102011005917A1 (de) * | 2011-03-22 | 2012-09-27 | Kuka Laboratories Gmbh | Medizinischer Arbeitsplatz |
US20140378995A1 (en) | 2011-05-05 | 2014-12-25 | Intuitive Surgical Operations, Inc. | Method and system for analyzing a task trajectory |
US9259289B2 (en) | 2011-05-13 | 2016-02-16 | Intuitive Surgical Operations, Inc. | Estimation of a position and orientation of a frame used in controlling movement of a tool |
KR102540134B1 (ko) * | 2013-03-15 | 2023-06-07 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 로봇 수술 시스템에서의 수술 중 도구의 교환 |
US10085810B2 (en) * | 2015-10-02 | 2018-10-02 | Ethicon Llc | User input device for robotic surgical system |
KR101627369B1 (ko) * | 2016-01-19 | 2016-06-08 | (주)미래컴퍼니 | 수술용 로봇의 움직임 제어/보상 방법 및 장치 |
EP3463160A4 (en) * | 2016-06-03 | 2020-01-01 | Covidien LP | MULTI-INPUT ROBOTIC SURGICAL SYSTEM CONTROL DIAGRAM |
KR101848027B1 (ko) * | 2016-08-16 | 2018-04-12 | 주식회사 고영테크놀러지 | 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법 |
-
2020
- 2020-02-04 WO PCT/US2020/016487 patent/WO2020163263A1/en unknown
- 2020-02-04 JP JP2021545841A patent/JP2022519307A/ja active Pending
- 2020-02-04 CN CN202080008154.9A patent/CN113271883B/zh active Active
- 2020-02-04 US US17/421,753 patent/US20220022984A1/en active Pending
- 2020-02-04 EP EP20752590.8A patent/EP3920821A4/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220022984A1 (en) | 2022-01-27 |
WO2020163263A1 (en) | 2020-08-13 |
CN113271883B (zh) | 2024-01-02 |
CN113271883A (zh) | 2021-08-17 |
EP3920821A4 (en) | 2023-01-11 |
EP3920821A1 (en) | 2021-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7170784B2 (ja) | 撮像装置及び入力コントロールを再芯出しするためのシステム及び方法 | |
JP5675621B2 (ja) | 医療用ロボットシステムおよび該医療用ロボットシステムの作動方法 | |
US20130085510A1 (en) | Robot-mounted surgical tables | |
JP7367990B2 (ja) | 手術室の遠隔監視 | |
EP4306057A1 (en) | Portable remote ultrasound scanning system and compliance control method for safe ultrasound scanning | |
JP2021534919A (ja) | 脊椎外科的処置のためのシステム及び方法 | |
US11234779B2 (en) | Handheld user interface device for a surgical robot | |
JP2020533061A (ja) | 手術ロボットの境界スケーリング | |
WO2022002155A1 (zh) | 主从运动的控制方法、机器人系统、设备及存储介质 | |
WO2023083077A1 (zh) | 保持rc点不变的方法、机械臂、设备、机器人和介质 | |
JP2022519307A (ja) | ロボット手術システム用のハンドアイ協働システム | |
WO2023083078A1 (zh) | 机械臂、从操作设备和手术机器人 | |
JP2021510327A (ja) | コンピュータビジョンを利用したロボット外科システムのツールの位置および状態の判定 | |
JP2023539864A (ja) | 外科用ロボットによる内視鏡の制御 | |
US11717363B2 (en) | High precision instrument control mode for robotic surgical systems | |
US20220366594A1 (en) | Systems and methods for mitigating collision of a robotic system | |
US20220280238A1 (en) | Robot-assisted setup for a surgical robotic system | |
US11648075B2 (en) | Robotic surgical system control arm including dual encoders | |
CN115429432A (zh) | 可读存储介质、手术机器人系统和调整系统 | |
TWI790181B (zh) | 手術機器人系統 | |
US20210068799A1 (en) | Method and apparatus for manipulating tissue |