JP2022519307A - ロボット手術システム用のハンドアイ協働システム - Google Patents

ロボット手術システム用のハンドアイ協働システム Download PDF

Info

Publication number
JP2022519307A
JP2022519307A JP2021545841A JP2021545841A JP2022519307A JP 2022519307 A JP2022519307 A JP 2022519307A JP 2021545841 A JP2021545841 A JP 2021545841A JP 2021545841 A JP2021545841 A JP 2021545841A JP 2022519307 A JP2022519307 A JP 2022519307A
Authority
JP
Japan
Prior art keywords
frame
tool
movement
camera
world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021545841A
Other languages
English (en)
Inventor
ウィリアム ペイン,
シュテファン イェルク,
ポール ロシャク,
Original Assignee
コヴィディエン リミテッド パートナーシップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コヴィディエン リミテッド パートナーシップ filed Critical コヴィディエン リミテッド パートナーシップ
Publication of JP2022519307A publication Critical patent/JP2022519307A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/067Measuring instruments not otherwise provided for for measuring angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound

Abstract

ツールがユーザコンソールの入力ハンドルの入力に従うように処理ユニットを備えた手術ロボットのツールを制御する方法は、ユーザコンソールのマスターフレームでの入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きを、手術室で定められたワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きを、ツールを支持するアームによって定められるツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、ツールを制御するモーターに制御コマンドを送信すること、を含む。【選択図】図1

Description

ロボット手術システムは、低侵襲医療処置で使用されている。医療処置中、ロボット手術システムは、ユーザインターフェースとインターフェースする外科医によって制御される。ユーザインターフェースは、外科医が、患者に作用する手術機器のエンドエフェクタを操作することを可能にする。ユーザインターフェースは、ロボット手術システムを制御するために外科医によって動かされる入力コントローラまたはハンドル、および外科医が手術部位内のエンドエフェクタを視覚化できるディスプレイを含む。手術部位の視覚化は、手術部位のリアルタイム画像を提示する内視鏡などの1つまたは複数のカメラによってもたらされる。
手術部位の視覚化の改善と手術ロボットの直感的な制御に対する継続的な必要性がある。
本開示は、一般に、ユーザコンソールの入力ハンドルの動きを、手術ロボットのツールの動きに変換し、ツールが意図されたように、またユーザコンソールのディスプレイ上で見られるように動くようにするための方法に関する。
本開示の態様では、ツールがユーザコンソールの入力ハンドルの入力に従うように、処理ユニットを備えた手術ロボットのツールを制御する方法が、ユーザコンソールのマスターフレームでの入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きを、手術室で定められたワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きを、ツールを支持するアームによって定められるツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、ツールを制御するモーターに制御コマンドを送信すること、を含む。
態様では、マスターフレームでの入力ハンドルの動きを、カメラフレームでのツールの動きに変換することは、表示回転行列をマスターフレームでの入力ハンドルの動きに適用して、入力ハンドルの動きを、ユーザコンソールのディスプレイの表示フレームへ変換することを含む。ディスプレイは手術部位のリアルタイム画像の視覚化をもたらし得る。表示回転行列は、マスターフレームの軸を中心に動きを30度回転させることができる。
いくつかの態様では、マスターフレームでの入力ハンドルの動きを、カメラフレームでのツールの動きに変換することは、反転回転行列をマスターフレームでの入力ハンドルの動きに適用して、入力ハンドルの動きを、カメラフレームへ変換することを含む。反転回転行列は、表示フレームの軸を中心に動きを180度回転させることができる。方法は、反転フラグを受信して、反転フラグが、カメラからのリアルタイム画像がディスプレイに表示される前に反転されることを示している場合に、反転回転行列を適用することを含み得る。
特定の態様では、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換することは、ワールドフレームに対するカメラフレームのヨー角とピッチ角を決定して、ワールドフレームに対するカメラフレームのヨー角とピッチ角を含むワールドフレーム回転行列を適用して、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換することを含む。
特定の態様では、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換することは、カメラのオフセットを受信すること、およびカメラのオフセットを含む調整回転行列を、カメラフレームでのツールの動きに適用することにより、カメラのオフセットによってカメラフレームでの動きを調整することを含む。
いくつかの態様では、ワールドフレームでのツールの動きをツールフレームでのツールの動きに変換することは、ワールドフレームに対するツールフレームのヨー角とピッチ角を決定すること、およびワールドフレームに対するツールフレームのヨー角とピッチ角を含むツールフレーム回転行列の転置を適用して、ワールドフレームでのツールの動きをツールフレームの動きに変換することを含む。この方法は、制御コマンドを、ツールを制御するモーターに送信する前に、入力ハンドルの動いている間にカメラが固定されていることを確認することを含み得る。
本開示の別の態様では、ロボット手術システムは、手術ロボットとユーザコンソールと処理ユニットとを含む。手術ロボットは、カメラを支持する第1のアームと、ツールを支持する第2のアームとを含む。カメラはカメラフレームを定め、手術部位のリアルタイム画像をキャプチャするように構成されている。第2のアームはツールフレームを定め、ツールフレーム内で、ツールを操作するように構成される手術ロボットがワールドフレームを定める。ユーザコンソールには、入力ハンドルとディスプレイが含まれている。入力ハンドルは、ユーザコンソールで定められたマスターフレーム内で移動できる。ディスプレイは、カメラによって提示される手術部位のリアルタイム画像を表示するように構成されている。処理ユニットは、マスターフレームでの入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きをカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きをツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、制御コマンドを第2のアームに送信すること、に対して構成される。
態様では、ディスプレイは、マスターフレームの1つの軸に対して回転される表示フレームを定める。ディスプレイは、マスターフレームの1つの軸を中心に30度回転させることができる。処理ユニットは、マスターフレームでの入力ハンドルの動きに表示回転行列を適用して、入力ハンドルの動きを表示フレームに変換するように構成される。
いくつかの態様では、ディスプレイは、リアルタイム画像を表示する前に、カメラによって提示されるリアルタイム画像を180度反転するように構成される。処理ユニットは、ディスプレイで反転されているリアルタイム画像を示す反転フラグを受信し、ツールの動きに反転回転行列を適用して、ツールの動きをカメラフレームに変換するように構成される。
特定の態様では、処理ユニットは、ワールドフレームに対するカメラフレームのヨー角とピッチ角を受信して、ワールドフレームに対するカメラフレームのヨー角とピッチ角を含むワールドフレーム回転行列を適用して、カメラフレームでのツールの動きをワールドフレームでのツールの動きに変換するよう構成される。処理ユニットは、カメラのオフセット角度を受信し、カメラのオフセット角度を含む調整回転行列を適用して、カメラフレームでのツールの動きを調整するように構成することができる。
特定の態様では、処理ユニットは、ワールドフレームに対するツールフレームのヨー角およびピッチ角を受信し、ワールドフレームに対するツールフレームのヨー角およびピッチ角を含むツールフレーム回転行列の転置を適用して、ワールドフレームでのツールの動きをツールフレームでのツールの移動へ変換するように構成される。処理ユニットは、制御コマンドを送信する前に、入力ハンドルの動いている間にカメラが固定されていることを確認するように構成することができる。
本開示の別の態様では、コンピュータ可読媒体は、プロセッサによって実行されると、プロセッサに、ユーザコンソールでのマスターフレームで入力ハンドルの動きを受信すること、マスターフレームでの入力ハンドルの動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、カメラフレームでのツールの動きを手術室で定められたワールドフレームでのツールの動きに変換すること、ワールドフレームでのツールの動きを、ツールを支持するアームにより定められるツールフレームでのツールの動きに変換すること、およびツールが入力ハンドルの動きに従うように、ツールを制御するモーターに制御コマンドを送信すること、を生じさせる一連の命令を格納する。
さらに、矛盾しない程度に、本明細書に記載される態様のいずれかを、本明細書に記載される他の態様のいずれかまたは全てと併せて使用することができる。
本開示の様々な態様を、本明細書に組み込まれ、その一部を構成する図面を参照して以下で説明する。
図1は、本開示による、ロボット手術システムの概略図である。 図2は、図1のロボット手術システムの例示的なユーザコンソールの概略図である。 図3Aは、図1のロボット手術システムのカメラおよびツールを支持する例示的なロボットベースおよびアームの側面図である。 図3Bは、図1のロボット手術システムのカメラおよびツールを支持する例示的なロボットベースおよびアームの側面図である。 図4は、図2のユーザコンソールの入力ハンドルの動きを図3Bのツールの動きに変換する方法のフローチャートである。 図5は、例えば、図1のロボット手術システムの一部として、本システムの様々な実施形態で使用され得るコンピューティング装置の例示的な実施形態の概略的なブロック図である。
ここで本開示の実施形態が図面を参照して詳細に記載され、図面の中で同様の参照番号は、いくつかの図の各々において同一のまたは対応する要素を示す。本明細書で使用される際、「臨床医」という用語は、医師、看護師、または任意の他の医療提供者を指し、医療支援従事者を含み得る。
図1を参照すると、本開示によるロボット手術システム1は、概して、手術ロボット10、処理ユニット30、およびユーザコンソール40として示されている。手術ロボット10は、一般に、リンク機構またはアーム12および1つまたは複数のロボットベース18を含む。リンク機構12は、組織に作用するように構成されたエンドエフェクタまたはツール20を可動に支持する。リンク機構12は、各々が組織に作用するように構成されたエンドエフェクタまたはツール20を支持する端部14を有するアームの形態であり得る。さらに、リンク機構12の端部14は、手術部位「S」を撮像するための撮像装置16を含むことができる。ユーザコンソール40は、処理ユニット30を介してロボットベース18と通信する。
ユーザコンソール40は、3次元画像を表示するように構成されたディスプレイ装置44を含む。ディスプレイ装置44は、手術部位「S」の3次元画像を表示し、これは、リンク機構12の端部14に配置された撮像装置16によってキャプチャされたデータを含み、かつ/または手術現場の周りに配置された撮像装置(例えば、手術部位「S」内に配置された撮像装置、患者「P」に隣接して配置された撮像装置、撮像アーム52の遠位端に配置された撮像装置56)によってキャプチャされたデータを含み得る。撮像装置(例えば、撮像装置16、56)は、手術部位「S」の視覚画像、赤外線画像、超音波画像、X線画像、熱画像、および/または任意の他の既知のリアルタイム画像をキャプチャしてもよい。撮像装置は、キャプチャした撮像データを処理ユニット30に送信し、処理ユニット30は、撮像データからリアルタイムで手術部位「S」の3次元画像を作成し、その3次元画像を表示するためにディスプレイ装置44に送信する。
ユーザコンソール40はまた、臨床医が手術ロボット10を操作する(例えば、リンク機構12、リンク機構12の端部14、および/またはツール20を動かす)ことを可能にする制御アーム43上に支持された入力ハンドル42も含む。入力ハンドル42の各々は、処理ユニット30と通信し、そこに制御信号を送信し、そこからフィードバック信号を受信する。追加的または代替的に、入力ハンドル42の各々は、外科医がリンク機構12の端部14に支持されたツール20を操作する(例えば、挟持する、把持する、発射する、開く、閉じる、回転させる、突き出す、スライスするなど)ことを可能にする入力装置(明示的には図示せず)を含み得る。
入力ハンドル42の各々は、手術部位「S」内でリンク機構12の端部14、例えば、ツール20を動かすために、所定の作業空間を通して可動である。ディスプレイ装置44の3次元画像は、入力ハンドル42の動きにより、ディスプレイ装置44で見られるようにリンク機構12の端部14を動かせるように向けられている。入力ハンドル42の動きが、3次元画像内のリンク機構12の端部14の動きに合わせてスケーリングされている間、3次元画像は静止したままである。3次元画像の向きを維持するために、入力ハンドル42の運動学的マッピングは、リンク機構12の端部14の向きに対するカメラの向きに基づいている。ディスプレイ装置44の3次元画像の向きは、撮像装置16、56によってキャプチャされた視界に対して反映または回転され得る。加えて、ディスプレイ装置44の3次元画像のサイズは、臨床医が手術部位「S」内の構造をよりよく見ることができるように、手術部位の実際の構造よりも大きくまたは小さくスケーリングされ得る。入力ハンドル42が動かされると、ツール20は、以下に詳述するように手術部位「S」内で動かされる。ツール20の動きは、ツール20を支持するリンク機構12の端部14の動きも含むことができる。
ロボット手術システム1の構成および操作の詳細な説明については、米国特許第8,828,023号を参照することができ、その内容全体が参照により本明細書に組み込まれる。
図1~3Bを参照すると、ロボット手術システム1はワールドフレームFを有し、ユーザコンソール40はマスターフレームFを有し、ディスプレイ44は表示フレームFを有し、各ツールまたはエンドエフェクタ20はツールフレームFを有し、カメラ56は、カメラフレームFを有する。ワールドフレームFは、X-Y-Z軸によって定められる、外科的処置の間に固定された固定フレームである。特に図3Aおよび3Bを参照すると、ワールドフレームFは、手術室の床または地面に配置されたフレームであり、ツールフレームFおよびカメラフレームFのそれぞれによって参照することができる。示されるように、ワールドフレームFは、カメラアーム52とツール20を支持するベース18との間にあり、X軸は床に平行な水平方向に定められ、Y軸は床に平行な水平方向に定められ、Z軸は、床から天井までの高さ方向に定められる。
特に図2を参照すると、マスターフレームFは、ユーザコンソール40のワークスペースWのフレームであり、X-Y-Z軸によって定められる。マスターフレームFの軸は、入力ハンドル42およびディスプレイ44に関連し、X軸はディスプレイ44に向かって、またディスプレイ44から離れ、Y軸は、ディスプレイ44に対して水平または横方向で、例えば、ディスプレイ44に対して左/右で、Z軸は床に対して垂直である。
図3Aに戻って参照すると、カメラフレームFは、手術部位Sに対するカメラ56のビューを定めるためのカメラ56のフレームであり、X-Y-Z軸によって定められる。カメラフレームFは、手術部位Sに対して1つより多いカメラから取得された画像から形成される合成画像に対して定められ得る。Y軸およびZ軸は互いに垂直であり、それぞれがカメラ56のレンズによって定められる平面に平行である。X軸は、カメラ56のレンズによって定められる平面に直交し、カメラ56の対象物距離がX軸に沿って定められるように、実質的に手術部位Sに向けられる。
図3Bを参照すると、ツールフレームFは、ツール20を支持するベース18に対する手術部位S内のツール20の動きを定めるための、ツール20を支持するベース18のフレームであり、X-Y-Z軸によって定められる。X軸とY軸は互いに垂直であり、床に実質的に平行である。Z軸は、X軸およびY軸の各々に垂直であり、天井に向かって、例えば、床から離れ、実質的に垂直である。
図1のロボット手術システムおよび図2~3Bのフレームを参照すると、医療処置中、処理ユニット30は、それぞれのツールフレームFで入力ハンドル42の動きに従うときに、マスターフレームF内のユーザコンソール40の入力ハンドル42の動きを、入力ハンドル42に割り当てられたツール20にマッピングする。例えば、入力ハンドル42が所望の方向に、例えば、マスターフレームFで上に動かされると、ツール20は、ツールフレームFにおいて、表示フレームFの所望の方向、例えばディスプレイ44に示されるように、上に対応する方向に動かされる。マスターフレームFでの入力ハンドル42の動きがツールフレームFでのツール20の所望の動きをもたらすことを確実にするために、処理ユニット30は、マスターフレームFからツールフレームFへの動きを、カメラフレームFおよびワールドフレームFに対するツールフレームFの位置を使用することによって変換する。処理を単純化するために、処理ユニット30は、それぞれのフレームでの動きに対するワールドフレームFの中央処理ユニット30からの命令またはコマンドを変換するコントローラ、例えば、コントローラ32、34を含む各ベース18を備えた分散処理ユニットであり得る。
本明細書で詳述するように、それぞれの座標フレームr内のベクトルvは、v=[v]として表される。また、座標フレームFと座標フレームFを関連付ける回転行列は Rと表され、 Rv=vとなる。このことから、 R= R、また R=( R)と理解される。
以下に詳述するように、処理ユニット30は、マスターフレームF内の動きを決定し、その動きを表示フレームFに変換する。次に、動きは、ワールドフレームFに関連するカメラフレームFに変換され得る。カメラフレームFとワールドフレームFとの関係により、処理ユニット30は、動きをワールドフレームFに変換することができる。次に、ツールフレームFとワールドフレームFとの間の関係により、処理ユニット30は、ワールドフレームFからツールフレームFへの動きを変換することができる。
マスターフレームFでの入力ハンドル42のそれぞれの1つの動きを、ツールフレームFでの割り当てられたツール20の所望の動きに対してマッピングするために、時間k-1から時間kまでのマスターフレームFでの入力ハンドル42の動きは、Δp=[v]のように表すことができる。
示されるように、ディスプレイ44は、表示フレームFがマスターフレームFに対してオフセットまたは回転されるように、ユーザコンソール40とインターフェースする臨床医にとって快適な視界を提供するように角度が付けられている。具体的には、表示フレームFは、約30°、つまりπ/6の表示角度θにてX軸の周りに回転される。しかし、いくつかの実施形態において、表示フレームFが、実質的にマスターフレームFに、または異なる表示角度θで整列されるように、ディスプレイ44が、臨床医に対して快適な視野をもたらすように配置され得る。
表示フレームFがマスターフレームFからオフセットされている場合は、表示フレームFにマスターフレームFでの動きを変換する必要がある。マスターフレームFの動きを表示フレームFに変換するために、回転行列は、
Figure 2022519307000002
とし、表示フレームFのΔpは、
Δp=( R)Δp RΔp、(これより
Figure 2022519307000003
が得られる)として、回転行列の転置を使用して変換できる。
いくつかの実施形態では、ディスプレイ44は、Z軸を中心に反転または回転された手術部位Sの画像を表示して、表示された画像の向きに基づいてツール20のより快適な操作を可能にすることができる。実施形態では、ディスプレイ44は、単一の制御装置の操作、例えば、ボタンを押すことまたはスイッチを切り替えることによって、表示された画像を180°反転させることを可能にする。表示フレームFからカメラフレームFへ動きを変換するために、表示画像の向きの反転回転行列Rが、カメラフレームFの動きがΔp=RΔpのように表されるように、表示フレームFの動きに適用される。表示された画像のこの180°の反転は、画像が反転されたときに反転フラグが「真」または「1」であり、画像が反転されていないときに反転フラグが「偽」または「0」であるようなフラグによって表すことができる。反転フラグが偽の場合、反転回転行列R
Figure 2022519307000004
とし、ディスプレイ44の正のZつまり上への動きは、負のY動きにおけるツール20の動きに変換され、ディスプレイ44での正のY、または左の動きは、正のZにおけるツール20の動きに変換され、正のXまたはディスプレイ44内への動きは、正のXにおけるツール20の動きに変換される。あるいは、反転フラグが真の場合、反転回転行列R
Figure 2022519307000005
とし、ディスプレイ44の正のZつまり上への動きは、正のYの動きにおけるツール20の動きに変換され、ディスプレイ44での正のY、つまり左の動きは、負のZにおけるツール20の動きに変換され、正のXまたはディスプレイ44内への動きは、正のXにおけるツール20の動きに変換される。Xに沿った動きは、反転フラグの状態の影響を受けないことに留意されたい。
手術ロボット10がツール20を動かすために、カメラフレームΔpでのツールの動きは、ツールフレームΔpでのツールの動きに変換される。カメラフレームΔpでツールの動きを変換するのは、ツールフレームΔpでのツールの動きに変換されることであり、カメラフレームΔpでのツールの動きは、最初にワールドフレームΔpでのツールの動きに変換される。ワールドフレームΔpでのツールの動きは、次に、ツールフレームΔpでのツールの動きに変換される。
ワールドフレームFのツールまたはカメラ、例えば、ツール20またはカメラ56の動きを、別のオブジェクトのフレーム、例えば、カメラフレームFまたはツールフレームFとの間で変換するために、ワールドフレームFと他のフレームとの間の関係を使用できる。例えば、カメラフレームFとワールドフレームFとの間の関係を使用して、カメラフレームFからの動きをワールドフレームFにおける動きに変換することができる。カメラフレームFとワールドフレームFとの間の関係は、レーザー19a、19bを利用してカメラフレームFとワールドフレームFとの間の関係を決定するセットアップアームシステム15を使用して決定することができる。具体的には、セットアップアームシステム15は、各ロボットベース18にてレーザー19a、19bを含み、それぞれのロボットベースと地面との間のヨー角θヨーおよびピッチ角θピッチを決定する。これは、ワールドフレームFの平面である。適切なセットアップアームシステム、およびロボットベースのフレームと別のフレーム基準との関係を決定する方法についての詳細な説明は、「SYSTEM AND METHOD FOR ALIGNING A SURGICAL ROBOTIC ARM」と題された、2019年4月15日に出願された米国仮特許出願第62/833,876号(現在は2019年6月12日に出願された国際特許出願シリアル番号PCT/US2019/036657)でなされており、その全内容は参照により本明細書に組み込まれる。
ワールドフレームFにカメラフレームFを変換するために、ヨーとピッチの回転を、ワールドフレームF内のカメラフレームFを位置特定するためにワールドフレームFに適用する。回転の順序は、ピッチ角θピッチのZ軸を中心としたヨー角θヨーで回転されるY軸である中間的なYi軸(明示的には図示せず)を中心とした先行回転に関する回転に先行する、ヨー角θヨーのZ軸周りの回転について、決定される。これにより、ワールドフレームFにカメラフレームFを変換するための次の回転行列が得られる。
Figure 2022519307000006
実施形態では、カメラ56は0°の内視鏡であり、カメラフレームを平行移動するための回転行列が、上に示されるままであるようにする。しかしながら、いくつかの実施形態では、カメラ56は、オフセット内視鏡であり得、その結果、オフセット内視鏡の追加の調整回転行列Rは、ワールドフレームFをカメラフレームFに変換するために必要とされる。調整回転行列
Figure 2022519307000007
式中θはカメラ56のオフセットの調整角度である。例えば、30°のオフセット内視鏡をカメラ56に用いた場合、θの調整角度はπ/6であり、調整回転行列が
Figure 2022519307000008
である。これにより、調整回転行列Rを含むワールドフレームFにカメラフレームFを変換するための回転行列を、以下のように表し得るようになる。
Figure 2022519307000009
または、30°オフセット内視鏡がカメラ56に使用される場合、次のように表される。
Figure 2022519307000010
カメラフレームFとワールドフレームFとの間の関係を、カメラフレームでの動きΔpに適用することによって、次のようなワールドフレームでの動きが得られる。
Δp R RΔp
ワールドフレームでのその動きΔpが決定された今、ワールドフレームFとツールフレームFとの関係は、ワールドフレームの動きΔpをツールフレームでの動きΔpに変換するために使用され、回転行列 Rが決定できる。ワールドフレームFからツールフレームFの回転を決定することが必要であるとき、 R回転行列の転置は次のように使用される。
Figure 2022519307000011
式中θヨーおよびθピッチは、ワールドフレームFに対してツールフレームFから取得される。
これにより、ツールフレームΔpでの動きへの、ワールドフレームΔpでの移動の変換がもたらされ、Δp=( R)Δpのように表現される。上記の変換とこの変換を組み合わせて、マスターフレームFからツールフレームFへの全体的な変換可能が、ハンドアイ変換Tハンドアイとして表され得る;
ハンドアイ=( R)・R R・R
上で詳述したように、反転回転行列Rは、表示フレームFをカメラフレームFに変換するために、真または偽のいずれかであるという反転フラグに依存している。したがって、入力ハンドル42の動きを、割り当てられたツール20の動きに変換するために、変換は以下を提供する。
Δp=TハンドアイΔp
上記の変換は、入力ハンドル42が動いている間にカメラ56が静止していることに依存している。したがって、変換を適用する場合、カメラ56が移動、回転、および/またはズームしているときに、ツール20の移動を一時停止するために、カメラフラグを含めることができる。
図4を参照すると、ロボット手術システムを使用して入力ハンドルの動きをツールの動きに変換するために、上記の変換を使用する方法100が、図1~3Bのロボット手術システム1を参照して本開示に従って説明されている。ロボット手術システム1は、手術ロボット10と同じ物理的位置にあるユーザコンソール40を備えた単一の場所に収容され得るか、またはロボット手術システム1は、手術ロボット10から、遠隔位置、例えば、別の建物、都市、または国にあるユーザコンソール40を備えた遠隔手術システムであり得る。
最初に、ユーザコンソール40の入力ハンドル42の動きは、処理ユニット30によってマスターフレームFにおいて決定される(ステップ110)制御アーム43は、入力ハンドル42の動きを決定するためのエンコーダおよび/またはモーターを含み得る。適切なエンコーダおよびモーターの詳細な説明については、2017年5月25日に出願された国際特許出願番号PCT/US2017/034433および2017年6月2日に出願されたPCT/US2017/035580を参照することができる。これらの出願それぞれの全内容は、参照により本明細書に組み込まれている。
入力ハンドル42の動きを、割り当てられたツール20の動きに変換する前に、処理ユニット30は、カメラ56、例えば、カメラフレームFが、入力ハンドル42の動いている間に静止または固定されていることを確認する(ステップ120)。処理ユニット30は、カメラ56が固定されている場合は「真」または「1」であり、カメラが静止していない場合は「偽」または「0」である、カメラフラグの形式の入力を含み得る。カメラフラグが静止していないとき、処理ユニット30は、入力ハンドル42の動きを変換せず、入力ハンドル42の動きを検出するための準備完了状態に戻る(ステップ122)。
カメラ56が静止しているとき、処理ユニット30は、回転行列 Rを使用して、入力ハンドル42の動きを、マスターフレームFからディスプレイ44の表示フレームFに変換する(ステップ124)。上で詳述したように、回転行列 Rは、マスターフレームFからの表示フレームFのオフセットを担う。動きが表示フレームFに変換された後、処理ユニット30は、動きをカメラフレームFに変換する(ステップ130)。カメラフレームFへ動きを変換するために、処理ユニット30は、ディスプレイ44に提示されるビューを、カメラ56から反転させているか、カメラ56に対して反転させていないかどうかを決定する、反転フラグを確認する。ディスプレイ44のビューが反転されると、処理ユニットは、移動をワールドフレームFに変換することに進む前に、反転回転Rを移動に適用する(ステップ132)。画像がカメラ56から反転されない場合、処理ユニット30は、反転回転Rを適用せずに、動きをワールドフレームFに変換し始めるか、または反転回転Rを1に等しいものとして扱うことができる。
動きをワールドフレームFに変換するために、処理ユニット30は、カメラ56を支持するアーム12のヨー角およびピッチ角を受信する(ステップ140)。アーム12のヨー角およびピッチ角は、アーム12のセットアップレーザー19a、19bによって決定され得、アーム12を処理ユニット30に対して支持するベース18によってもたらされ得る。ベース18内のコントローラ32は、アーム12のヨー角およびピッチ角を決定および計算することができる。アーム12のヨー角およびピッチ角は、セットアップアーム19について決定され得、次いで、カメラ56を支持するアーム12のジョイントの位置を決定することによって、カメラ56に伝達され得る。カメラ56のヨー角およびピッチ角を用いて、処理ユニット30は、回転行列 Rを使用して、動きをワールドフレームFに変換する(ステップ142)。処理ユニット30が動きをワールドフレームFに変換すると、処理ユニット30は、カメラ56のオフセットを確認する(ステップ144)。カメラ56がオフセットゼロのカメラである場合、処理ユニット30は、動きをツールフレームFに変換するように進むか、または調整回転Rに値「1」を割り当てる。カメラ56のオフセットがゼロ以外の場合、処理ユニット30は、動きをツールフレームFに変換することに進む前に、動きに調整回転Rを適用する(ステップ146)。
ワールドフレームFでの動きに伴い、処理ユニット30は、ツール20を支持するベース18からツールフレームFのヨー角およびピッチ角を受信する。ツールフレームFのヨー角およびピッチ角は、アーム12のセットアップレーザー19a、19bによって決定され、アーム12を処理ユニット30に対して支持するベース18によって提供される(ステップ150)。ツール20を支持するベース18のヨー角およびピッチ角で、処理ユニット30は、回転行列 Rの転置を使用して、動きをツールフレームFに変換する(ステップ152)。
動きがツールフレームFに変換されると、処理ユニット30は、ベース18および/または機器駆動ユニット内のモーターが、アーム12および/またはツール20を作動させるように、ツール20を支持するベース18に制御コマンドを送信し、ツール20が入力ハンドル42の動きに従うように、ツール20がマスターフレームF(ステップ160)での入力ハンドル42の動きに応答して所望の方法で動かされるようにする。ベース18内に配置されたコントローラ34は、制御コマンドを受信し、制御コマンドに応答してアーム12および/またはツール20を作動させることができる。
図5を参照すると、コンピューティング装置は、本明細書の様々な実施形態に従って使用され得る。明示的に示されていないが、いくつかの実施形態では、コンピューティング装置300、またはその構成要素の1つまたは複数は、ロボット手術システム1の1つまたは複数の構成要素(例えば、処理ユニット30、ベース18、コントローラ32、34、および/または類似物)をさらに表せる。コンピューティング装置300は、様々な実施形態において、1つ以上のメモリ302、プロセッサ304、ディスプレイ装置306、ネットワークインターフェース308、入力装置310、および/または出力モジュール312を含み得る。メモリ302は、プロセッサ304によって実行可能であり、またコンピューティング装置300の動作を制御するデータおよび/またはソフトウェアを記憶するための非一時的コンピュータ可読記憶媒体を含む。実施形態では、メモリ302は、フラッシュメモリチップなどの1つ以上のソリッドステート記憶装置を含んでもよい。1つ以上のソリッドステート記憶装置の代替または追加として、メモリ302は、大容量記憶コントローラ(図5に図示せず)および通信バス(図5に図示せず)を介してプロセッサ304に接続された1つ以上の大容量記憶デバイスを含み得る。本明細書に含まれるコンピュータ可読媒体の説明は、ソリッドステートストレージに言及しているが、コンピュータ可読記憶媒体は、プロセッサ304によってアクセス可能な任意の利用可能な媒体とすることができることが当業者によって理解されるべきである。すなわち、コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するための任意の方法または技術で実装された非一時的、揮発性および不揮発性、取り外し可能および取り外し不可能な媒体を含む。コンピュータ可読記憶媒体の例は、RAM、ROM、EPROM、EEPROM、フラッシュメモリもしくは他のソリッドステートメモリ技術、CD-ROM、DVD、ブルーレイもしくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくは他の磁気記憶装置、または所望の情報を記憶するために使用することができ、またコンピューティング装置300によってアクセスされることができる任意の他の媒体を含む。
いくつかの実施形態では、メモリ302は、データ314および/またはアプリケーション316を格納する。いくつかの態様では、アプリケーション316は、プロセッサ304によって実行されると、ディスプレイ装置306に、ユーザインターフェース(図5には示されていない)を提示させるユーザインターフェース構成要素318を含む。ネットワークインターフェース308は、いくつかの実施形態では、コンピューティング装置300および/またはその個々の構成要素を、有線ネットワーク、無線ネットワーク、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、ワイヤレスモバイルネットワーク、Bluetooth(登録商標)ネットワーク、インターネット、および/または別のタイプのネットワークといったネットワークに連結するよう構成される。入力装置310は、それによってユーザがコンピューティング装置300と対話することができる任意のデバイスであり得る。入力装置310の例には、マウス、キーボード、タッチスクリーン、音声インターフェース、および/または類似物が含まれるが、これらに限定されない。様々な実施形態で、出力モジュール312は、任意の接続ポートまたはバス、例えば、パラレルポート、シリアルポート、ユニバーサルシリアルバス(USB)、または当業者に知られている任意の他の同様の接続ポートを含むことができる。
本開示のいくつかの実施形態が図面に示されているが、本開示は当該技術分野が許容するのと同程度に広範であるべきであり、かつ本明細書は同様に読み取られるべきであると意図されているので、本開示はこれらの実施形態に限定されることを意図しない。上記実施形態の任意の組み合わせがさらに考えられ、添付の特許請求の範囲に含まれる。したがって、上記の説明は、限定的であるとして解釈されるべきではなく、特定の実施形態の単なる例示として解釈されるべきである。当業者であれば本明細書に添付される特許請求の範囲内での他の変更を想定するであろう。

Claims (20)

  1. ツールがユーザコンソールの入力ハンドルの入力に従うように、処理ユニットを備えた手術ロボットの前記ツールを制御する方法であって、
    前記ユーザコンソールのマスターフレームでの前記入力ハンドルの動きを受信すること、
    前記マスターフレームでの前記入力ハンドルの前記動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでの前記ツールの動きに変換すること、
    前記カメラフレームでの前記ツールの前記動きを、手術室で定められたワールドフレームでの前記ツールの動きに変換すること、
    前記ワールドフレームでの前記ツールの前記動きを、前記ツールを支持するアームによって定められるツールフレームでの前記ツールの動きに変換すること、および
    前記ツールが前記入力ハンドルの動きに従うように、前記ツールを制御するモーターに制御コマンドを送信すること、を含む、方法。
  2. 前記マスターフレームでの前記入力ハンドルの前記動きを、前記カメラフレームでの前記ツールの動きに変換することは、表示回転行列を前記マスターフレームでの前記入力ハンドルの動きに適用して、前記入力ハンドルの動きを、前記ユーザコンソールのディスプレイの表示フレームへ変換することを含み、前記ディスプレイは前記手術部位の前記リアルタイム画像の視覚化をもたらす、請求項1に記載の方法。
  3. 前記表示回転行列は、前記マスターフレームの軸を中心に前記動きを30度回転させる、請求項2に記載の方法。
  4. 前記マスターフレームでの前記入力ハンドルの前記動きを前記カメラフレームでの前記ツールの動きに変換することは、反転回転行列を前記マスターフレームでの前記入力ハンドルの動きに適用して、前記入力ハンドルの動きを前記カメラフレームに変換することを含み、前記反転回転行列は、前記表示フレームの軸を中心に180度動きを回転する、請求項1に記載の方法。
  5. 反転フラグを受信すること、および
    前記反転フラグが、前記カメラからの前記リアルタイム画像がディスプレイに表示される前に反転されることを示している場合に、前記反転回転行列を適用することをさらに含む、請求項4に記載の方法。
  6. 前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの前記動きに変換することは、
    前記ワールドフレームに対する前記カメラフレームのヨー角とピッチ角を決定すること、および
    前記ワールドフレームに対する前記カメラフレームの前記ヨー角とピッチ角を含むワールドフレーム回転行列を適用して、前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの動きに変換すること、を含む、請求項1に記載の方法。
  7. 前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの前記動きに変換することは、
    前記カメラのオフセットを受信すること、および
    前記カメラの前記オフセットを含む調整回転行列を、前記カメラフレームでの前記ツールの前記動きに適用することにより、前記カメラの前記オフセットによって前記カメラフレームでの動きを調整すること、を含む、請求項1に記載の方法。
  8. 前記ワールドフレームでの前記ツールの前記動きを前記ツールフレームでの前記ツールの動きに変換することは、
    前記ワールドフレームに対する前記ツールフレームのヨー角とピッチ角を決定すること、および
    前記ワールドフレームに対する前記ツールフレームの前記ヨー角とピッチ角を含むツールフレーム回転行列の転置を適用して、前記ツールフレームの動きに前記ワールドフレームでの前記ツールの前記動きを変換すること、を含む、請求項1に記載の方法。
  9. 前記制御コマンドを、前記ツールを制御する前記モーターに送信する前に、前記入力ハンドルの前記動きのある間に前記カメラが固定されていることを確認することをさらに含む、請求項1に記載の方法。
  10. ロボット手術システムであって、
    カメラを支持する第1のアームおよびツールを支持する第2のアームを含む手術ロボットであって、前記カメラはカメラフレームを定め、手術部位のリアルタイム画像をキャプチャするように構成され、前記第2のアームはツールフレームを定め、前記ツールフレームで前記ツールを操作するように構成され、前記手術ロボットがワールドフレームを定める、手術ロボット、
    入力ハンドルおよびディスプレイを含むユーザコンソールであって、前記入力ハンドルが前記ユーザコンソールによって定められたマスターフレーム内で移動可能であり、前記ディスプレイが前記カメラによって提示される手術部位のリアルタイム画像を表示するように構成されている、ユーザコンソール、および
    処理装置であって、
    前記マスターフレームでの前記入力ハンドルの動きを受信すること、
    前記マスターフレームでの前記入力ハンドルの前記動きを前記カメラフレームでの前記ツールの動きに変換すること、
    前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの動きに変換すること、
    前記ワールドフレームでの前記ツールの前記動きを前記ツールフレームでの前記ツールの動きに変換すること、および
    前記ツールが前記入力ハンドルの動きに従うように、制御コマンドを前記第2のアームに送信すること、に対して構成された処理装置を備える、ロボット手術システム。
  11. 前記ディスプレイは、前記マスターフレームの1つの軸に対して回転される表示フレームを定める、請求項10に記載のロボット手術システム。
  12. 前記ディスプレイは、前記マスターフレームの前記1つの軸を中心に30度回転される、請求項11に記載のロボット手術システム。
  13. 前記処理ユニットは、前記マスターフレームでの前記入力ハンドルの動きに表示回転行列を適用して、前記入力ハンドルの動きを前記表示フレームに変換するように構成される、請求項11に記載のロボット手術システム。
  14. 前記ディスプレイは、前記リアルタイム画像を表示する前に、前記カメラによって提示される前記リアルタイム画像を180度反転するように構成される、請求項10に記載のロボット手術システム。
  15. 前記処理ユニットは、前記ディスプレイで反転されている前記リアルタイム画像を示す反転フラグを受信し、前記ツールの動きに反転回転行列を適用して、前記ツールの前記動きを前記カメラフレームに変換するように構成される、請求項14に記載のロボット手術システム。
  16. 前記ワールドフレームに対する前記カメラフレームのヨー角とピッチ角を受信して、前記ワールドフレームに対する前記カメラフレームの前記ヨー角とピッチ角を含むワールドフレーム回転行列を適用して、前記カメラフレームでの前記ツールの前記動きを前記ワールドフレームでの前記ツールの動きに変換するよう前記処理ユニットが構成される、請求項10に記載のロボット手術システム。
  17. 前記処理ユニットは、前記カメラのオフセット角度を受信し、前記カメラの前記オフセット角度を含む調整回転行列を適用して、前記カメラフレームでの前記ツールの前記動きを調整するように構成される、請求項10に記載のロボット手術システム。
  18. 前記処理ユニットは、前記ワールドフレームに対する前記ツールフレームのヨー角およびピッチ角を受信し、前記ワールドフレームに対する前記ツールフレームの前記ヨー角およびピッチ角を含むツールフレーム回転行列の転置を適用して、前記ワールドフレームでの前記ツールの前記動きを前記ツールフレームでの前記ツールの移動へ変換するように構成される、請求項10に記載のロボット手術システム。
  19. 前記処理ユニットは、前記制御コマンドを送信する前に、前記入力ハンドルの前記動きのある間に前記カメラが固定されていることを確認するように構成される、請求項10に記載のロボット手術システム。
  20. プロセッサによって実行されると、前記プロセッサに、
    ユーザコンソールのマスターフレームでの入力ハンドルの動きを受信すること、
    前記マスターフレームでの前記入力ハンドルの前記動きを、手術部位のリアルタイム画像を提示するカメラのカメラフレームでのツールの動きに変換すること、
    前記カメラフレームでの前記ツールの前記動きを手術室で定められたワールドフレームでの前記ツールの動きに変換すること、
    前記ワールドフレームでの前記ツールの前記動きを、前記ツールを支持するアームにより定められるツールフレームでの前記ツールの前記動きに変換すること、および
    前記ツールが前記入力ハンドルの動きに従うように、前記ツールを制御するモーターに制御コマンドを送信すること、を生じさせる一連の命令を格納する、コンピュータ可読媒体。
JP2021545841A 2019-02-06 2020-02-04 ロボット手術システム用のハンドアイ協働システム Pending JP2022519307A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962801734P 2019-02-06 2019-02-06
US62/801,734 2019-02-06
PCT/US2020/016487 WO2020163263A1 (en) 2019-02-06 2020-02-04 Hand eye coordination system for robotic surgical system

Publications (1)

Publication Number Publication Date
JP2022519307A true JP2022519307A (ja) 2022-03-22

Family

ID=71946997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021545841A Pending JP2022519307A (ja) 2019-02-06 2020-02-04 ロボット手術システム用のハンドアイ協働システム

Country Status (5)

Country Link
US (1) US20220022984A1 (ja)
EP (1) EP3920821A4 (ja)
JP (1) JP2022519307A (ja)
CN (1) CN113271883B (ja)
WO (1) WO2020163263A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114502094A (zh) * 2019-09-26 2022-05-13 奥瑞斯健康公司 用于碰撞检测和避免的系统和方法
CN113729967B (zh) * 2021-09-16 2023-09-19 上海微创医疗机器人(集团)股份有限公司 医生控制台的控制方法、医生控制台、机器人系统和介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1472052A2 (en) * 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
WO2012078989A1 (en) * 2010-12-10 2012-06-14 Wayne State University Intelligent autonomous camera control for robotics with medical, military, and space applications
DE102011005917A1 (de) * 2011-03-22 2012-09-27 Kuka Laboratories Gmbh Medizinischer Arbeitsplatz
US20140378995A1 (en) 2011-05-05 2014-12-25 Intuitive Surgical Operations, Inc. Method and system for analyzing a task trajectory
US9259289B2 (en) 2011-05-13 2016-02-16 Intuitive Surgical Operations, Inc. Estimation of a position and orientation of a frame used in controlling movement of a tool
KR102540134B1 (ko) * 2013-03-15 2023-06-07 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 로봇 수술 시스템에서의 수술 중 도구의 교환
US10085810B2 (en) * 2015-10-02 2018-10-02 Ethicon Llc User input device for robotic surgical system
KR101627369B1 (ko) * 2016-01-19 2016-06-08 (주)미래컴퍼니 수술용 로봇의 움직임 제어/보상 방법 및 장치
EP3463160A4 (en) * 2016-06-03 2020-01-01 Covidien LP MULTI-INPUT ROBOTIC SURGICAL SYSTEM CONTROL DIAGRAM
KR101848027B1 (ko) * 2016-08-16 2018-04-12 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법

Also Published As

Publication number Publication date
US20220022984A1 (en) 2022-01-27
WO2020163263A1 (en) 2020-08-13
CN113271883B (zh) 2024-01-02
CN113271883A (zh) 2021-08-17
EP3920821A4 (en) 2023-01-11
EP3920821A1 (en) 2021-12-15

Similar Documents

Publication Publication Date Title
JP7170784B2 (ja) 撮像装置及び入力コントロールを再芯出しするためのシステム及び方法
JP5675621B2 (ja) 医療用ロボットシステムおよび該医療用ロボットシステムの作動方法
US20130085510A1 (en) Robot-mounted surgical tables
JP7367990B2 (ja) 手術室の遠隔監視
EP4306057A1 (en) Portable remote ultrasound scanning system and compliance control method for safe ultrasound scanning
JP2021534919A (ja) 脊椎外科的処置のためのシステム及び方法
US11234779B2 (en) Handheld user interface device for a surgical robot
JP2020533061A (ja) 手術ロボットの境界スケーリング
WO2022002155A1 (zh) 主从运动的控制方法、机器人系统、设备及存储介质
WO2023083077A1 (zh) 保持rc点不变的方法、机械臂、设备、机器人和介质
JP2022519307A (ja) ロボット手術システム用のハンドアイ協働システム
WO2023083078A1 (zh) 机械臂、从操作设备和手术机器人
JP2021510327A (ja) コンピュータビジョンを利用したロボット外科システムのツールの位置および状態の判定
JP2023539864A (ja) 外科用ロボットによる内視鏡の制御
US11717363B2 (en) High precision instrument control mode for robotic surgical systems
US20220366594A1 (en) Systems and methods for mitigating collision of a robotic system
US20220280238A1 (en) Robot-assisted setup for a surgical robotic system
US11648075B2 (en) Robotic surgical system control arm including dual encoders
CN115429432A (zh) 可读存储介质、手术机器人系统和调整系统
TWI790181B (zh) 手術機器人系統
US20210068799A1 (en) Method and apparatus for manipulating tissue