JP2023539864A - 外科用ロボットによる内視鏡の制御 - Google Patents

外科用ロボットによる内視鏡の制御 Download PDF

Info

Publication number
JP2023539864A
JP2023539864A JP2023513378A JP2023513378A JP2023539864A JP 2023539864 A JP2023539864 A JP 2023539864A JP 2023513378 A JP2023513378 A JP 2023513378A JP 2023513378 A JP2023513378 A JP 2023513378A JP 2023539864 A JP2023539864 A JP 2023539864A
Authority
JP
Japan
Prior art keywords
endoscope
movement
handheld
user
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023513378A
Other languages
English (en)
Inventor
ジョウ・レンビン
ユン・スングク
ユ・ハオラン
クリングベイル・エレン
シュリヴァスタヴァ・アプールヴ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Verb Surgical Inc
Original Assignee
Verb Surgical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Verb Surgical Inc filed Critical Verb Surgical Inc
Publication of JP2023539864A publication Critical patent/JP2023539864A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/77Manipulators with motion or force scaling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00973Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00595Cauterization
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/1206Generators therefor
    • A61B2018/1246Generators therefor characterised by the output polarity
    • A61B2018/1253Generators therefor characterised by the output polarity monopolar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/1206Generators therefor
    • A61B2018/1246Generators therefor characterised by the output polarity
    • A61B2018/126Generators therefor characterised by the output polarity bipolar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

内視鏡は、外科用ロボットシステムによって制御される。6自由度を有するユーザ入力は、より少ない数の自由度を有するロボットアームによる内視鏡の制御にマッピングする。例えば、繋がれていないユーザインターフェースデバイスは、ユーザコマンドから内視鏡の運動、ロボットアームの関節の運動まで、一連の投影を通じて内視鏡の運動を制御する。ユーザコマンドから内視鏡の運動への投影は、ユーザインターフェースデバイスの3つの角運動から単一の角運動を投影し得る。投影は、内視鏡のシャフトに対する内視鏡の視野の遠隔運動中心及び/又は角度配向を説明し得る。

Description

本実施形態は、低侵襲外科手術(minimally invasive surgery、MIS)のためのロボットシステムに関する。MISは、遠隔オペレータからのコマンドに基づいて外科用ツールを操作するための、1つ又は2つ以上のロボットマニピュレータを含むロボットシステムを用いて実施し得る。ロボットマニピュレータは、例えば、その遠位端において、内視鏡を含む、様々な外科用器具及びデバイスを支持し得る。ロボットシステムを使用して、外科医は、MIS中の遠隔操作において内視鏡を用いてロボットマニピュレータを制御する。
ロボットMISにおける内視鏡は、手術部位の視野及び全体的参照を提供する。遠隔操作中、外科医の手及び/又は手首の運動は、マスタ制御デバイスによって捕捉される。内視鏡の運動は、捕捉された運動に従う。ロボットアームは、特にマスタ制御デバイスのより大きな自由度と比較して、制限された動きを有し得る。マスタ制御デバイスの運動と内視鏡の運動との間に曖昧さをもたらす。
前置きとして、以下に記載されている好ましい実施形態は、外科用ロボットシステムによる内視鏡の制御のための、方法、システム、命令、及びコンピュータ可読媒体を含む。6自由度を有するユーザ入力は、より少ない数の自由度を有するロボットアームによる内視鏡の制御にマッピングする。例えば、繋がれていないユーザインターフェースデバイスは、ユーザコマンドから内視鏡の運動、ロボットアームの関節の運動まで、一連の投影を通じて内視鏡の運動を制御する。ユーザコマンドから内視鏡の運動への投影は、ユーザインターフェースデバイスの3つの角運動から単一の角運動を投影し得る。投影は、内視鏡のシャフトに対する内視鏡の視野の遠隔運動中心及び/又は角度配向を説明し得る。
第1の態様では、外科用ロボットシステムによって内視鏡の制御方法が提供される。6自由度を有するハンドヘルドユーザ入力デバイスによる動きが検出される。ハンドヘルドユーザ入力デバイスによる動きは、外科用ロボットシステムのロボットマニピュレータに結合された内視鏡の動きにマッピングされる。内視鏡の動きを容易にするために、操作されたロボットの1つ又は2つ以上の関節の動きが計算される。1つ又は2つ以上の関節は、計算された動きに従って駆動される。
第2の態様では、外科用ロボットシステムによる内視鏡の制御方法が提供される。3つの軸を中心とした入力並進及び入力回転が感知される。3つの軸を中心とした入力回転は、ロボットアームに据え付けられた内視鏡のための単一軸を中心とした回転に投影される。ロボットアームは、感知された入力並進及び単一軸を中心とした保護された回転に基づいて内視鏡を移動させるように制御される。
第3の態様では、外科用ロボットシステムが提供される。内視鏡は、ロボットマニピュレータに結合される。コントローラは、1つ又2つ以上のユーザインターフェースデバイスの変位を内視鏡のスケーリングされた変位に転換するように構成される。転換は、ユーザインターフェースデバイスの第1の自由度(degree of freedom、DoF)の回転を、内視鏡のより少ない第2の数のDoFの回転に低減する。
本発明は、以下の請求項によって定義され、この項におけるいずれも、これらの請求項の制限としてとられるべきではない。1つの種類の請求項(例えば、方法)に対する任意の教示は、別の種類の請求項(例えば、コンピュータ可読記憶媒体又はシステム)に適用可能であり得る。本発明の更なる態様及び利点は、好ましい実施形態と併せて以下に考察され、その後独立して、又は組み合わせて特許請求され得る。
構成要素及び図面は、必ずしも縮尺どおりではなく、代わりに、本発明の原理を例解することに重点が置かれている。更に、図面において、同様の参照番号は、異なる視野を通して対応する部分を指す。
一実施形態による外科用ロボットシステムを有する手術室環境の一実施形態の例解図である。 例示的な外科用ロボットアーム及び外科用ツールを例解している。 外科用ロボットシステムによる内視鏡の制御方法の一実施形態のフローチャート図である。 遠隔操作中のロボットマニピュレータによるユーザインターフェースの6自由度の運動と内視鏡の4自由度の動きとの間の例示的な関係を例解している。 ユーザ入力運動をロボットマニピュレータの関節運動にマッピングするための例示的な投影シーケンスを例解している。 角度付けられた視野を伴う例示的な内視鏡を例解している。 スケーリングされた並進運動を有する例示的な内視鏡を例解している。 本発明の外科用ロボットシステムの一実施形態を示すブロック図である。
内視鏡制御は、ロボットMISで提供される。1つ又は2つ以上のUIDは、6自由度を有し、ロボットアームは、より少ない(例えば、4つの)関節及びMIS中の対応する自由度を有する。1つ又は2つ以上のユーザインターフェースデバイス(User interface device、UID)の運動空間は、ロボットアームのアーム運動空間と互換性がなく、したがって、ユーザデバイス運動は、内視鏡運動空間に投影される。ユーザ運動コマンド(User motion command、UMC)は、UID運動から生成される。UMCは、内視鏡運動コマンド(endoscope motion command、EMC)にマッピングされる。投影は、角運動コマンドを投影するが、投影せずに直線運動コマンドを伝えることによって達成され、投影されたUMCが得られる。EMCは、アーム関節運動コマンド(joint motion command、JMC)にマッピングされる。
更なる実施形態では、内視鏡運動は、MIS中のロボットアームの機械的又は仮想遠隔運動中心(remote center of motion、RCM)によって拘束される。UMCは、RCM運動空間に更に投影され、RCMによって拘束されたEMCをもたらす。EMCは、逆運動学を介してアームJMCにマッピングされる。追加的に、内視鏡端部がRCMに近いときの速いアーム運動を回避するために、動的スケーリング技法が使用される。
図1及び図2は、例示的な外科用ロボットシステムを示す。内視鏡制御のためのアプローチは、この例示的なシステムを参照して以下で考察される。他の外科用ロボットシステム及び外科用ロボット又は非外科用ロボットシステム及びロボットが、本アプローチを使用し得る。
図3~図7は、ロボットアームの自由度に対するUIDの自由度の低減を含む、内視鏡制御を対象とする。図8は、制限された自由度を有する内視鏡又は同様のツールのロボット制御システムを対象とする。
図1は、外科用ロボットシステム100を有する例示的な手術室環境を例解している図であり、ここでは、投影によって自由度の数が低減され、RCM及び/又はスケーリングが考慮されて、ユーザからのコマンドが外科用ロボットマニピュレータ122の運動に変換される。外科用ロボットシステム100は、ユーザコンソール110、制御タワー130、及び外科用プラットフォーム124(例えば、テーブル又はベッドなど)に据え付けられた1つ又は2つ以上の外科用ロボットマニピュレータ(アーム)122を有する外科用ロボット120を含み、エンドエフェクタを備えた外科用ツールが、外科的処置を実行するためにロボットマニピュレータ122の遠位端に取り付けられている。制御タワー130をコンソール110又は外科用ロボット120と組み合わせる等、追加的な、異なる、又はより少ない構成要素が提供され得る。ロボットマニピュレータ122は、テーブルに据え付けられているように示されているが、他の構成では、ロボットマニピュレータ122は、カート、天井、若しくは側壁、又は別の好適な支持表面に据え付けられ得る。
一般に、外科医又は他のオペレータなどのユーザは、ロボットマニピュレータ122及び/又は外科用器具を遠隔操作する(例えば、遠隔操作)ために、ユーザコンソール110に着座し得る。ユーザコンソール110は、図1に示すように、システム100と同じ手術室内に位置し得る。他の環境では、ユーザコンソール110は、隣接若しくは近くの部屋に位置し得るか、又は別の建物、都市、若しくは国の遠隔地から遠隔操作され得る。ユーザコンソール110は、シート112、ペダル114、1つ又は2つ以上のハンドヘルドユーザインターフェースデバイス(UID)116、及び例えば患者内の手術部位の視野及びグラフィックユーザインターフェースを表示するように構成されたオープンディスプレイ118を含み得る。例示的なユーザコンソール110に示されるように、シート112に座って開いたディスプレイ118を見ている外科医は、ペダル114及び/又はハンドヘルドUID116を操作して、アーム122の遠位端に据え付けられたロボットアーム122及び/又は外科用器具を遠隔的にかつ直接制御し得る。ユーザは、外科用マニピュレータ122及び/又はエンドエフェクタの動きのコマンドを入力する。このユーザ制御は、ロボットマニピュレータ122の位置、動き速度、及び動き速度の変化を決定する。速度及び速度の変化は、ロボットマニピュレータ122によって提供されることが予想される動的トルクをもたらす。座席112に座っている外科医は、ディスプレイ118を見てそれと対話して、手術におけるロボットマニピュレータ122及び/又は外科用器具(例えば、内視鏡)の遠隔操作における動きのコマンドを入力し得る。
いくつかの変形例では、ユーザはまた、外科用ロボットシステム100を「オーバーザベッド」(over the bed、OTB)モードで操作し得、ここでは、ユーザは、患者の側にいて、ロボット駆動のツール/それに取り付けられたエンドエフェクタ(例えば、片手で保持されたハンドヘルドUID116)、及び手動の腹腔鏡ツールを同時に操作する。例えば、ユーザの左手は、ハンドヘルドUID116を操作してロボット外科用構成要素を制御し得、ユーザの右手は、手動の腹腔鏡ツールを操作し得る。したがって、これらの変形例では、ユーザは、ロボット支援MIS及び手動腹腔鏡手術の両方を患者に実施し得る。
例示的な処置又は手術の間、患者は、麻酔を達成するために、滅菌状態で準備され、覆われている。手術部位への最初のアクセスは、手術部位へのアクセスを容易にするために、収納構成又は引き込み構成のロボットシステム100を用いて手動で実施し得る。アクセスが完了すると、ロボットシステムの初期位置決め又は準備が実施され得る。処置中、ユーザコンソール110の外科医は、ペダル114及び/又はUID116を利用して、様々なエンドエフェクタ及び/又は撮像システムを操作し、遠隔操作を使用して手術を実施し得る。動きは、外科医、患者、及び/又は状況に特有であり得、したがって変化し得る。滅菌ガウンを着た要員によって手動補助も、処置テーブルで提供され得、組織の引き込み、又は1つ若しくは2つ以上のロボットマニピュレータ122を伴う手動の再位置決め又はツール交換の実施を含むが、これらに限定されない、タスクを実施し得る。引き込み、縫合、他の組織操作等のいくつかの外科的タスクは、代わりに、1つ又は2つ以上のロボットマニピュレータ122(例えば、第3又は第4のアーム)によって実施され得る。また、ユーザコンソール110の外科医を支援するために、非滅菌要員が存在し得る。処置又は手術が完了すると、ロボットシステム100及び/又はユーザコンソール110は、ロボットシステム100の洗浄及び/若しくは滅菌、並びに/又はユーザコンソール110を介するなど電子的若しくはハードコピーのいずれかにかかわらない、医療記録の入力若しくは印刷を含むが、これらに限定されない、1つ若しくは2つ以上の術後処置を容易にするように構成又は設定され得る。
いくつかの態様では、外科用ロボット120とユーザコンソール110との間の通信は、ユーザコンソール110からのユーザ入力コマンドをロボット制御コマンドに転換し、制御コマンドを外科用ロボット120に送信し得る、制御タワー130を介し得る。制御タワー130及び/又はユーザコンソール110は、投影及び/又は逆運動学を実施する。制御タワー130はまた、プラットフォーム120からユーザコンソール110に戻る、ステータス信号及びフィードバックを送信し得る。外科用ロボット120、ユーザコンソール110、及び制御タワー130の間の接続は、有線及び/若しくは無線接続を介したものであり得、独自のものであり、並びに/又は様々なデータ通信プロトコルのいずれかを使用して実施され得る。任意の有線接続が、手術室の床及び/又は壁若しくは天井に任意選択的に内蔵され得る。外科用ロボットシステム100は、手術室内のディスプレイ、並びにインターネット又は他のネットワークを介してアクセス可能である遠隔ディスプレイを含む、1つ又は2つ以上のディスプレイにビデオ出力を提供し得る。ビデオ出力又はフィードはまた、プライバシーを確保するために暗号化され得、ビデオ出力の全て又は部分は、サーバ又は電子医療記録システムに保存され得る。
外科用ロボットシステムで手術を開始する前に、外科チームは術前のセットアップを実施することができる。術前セットアップ中、外科用ロボットシステムの主要な構成要素(例えば、テーブル124及びロボットアーム122、制御タワー130、及びユーザコンソール110)が手術室に位置決めされ、接続され、電力が供給される。テーブル124及びロボットアーム122は、格納及び/又は輸送のために、テーブル124の下のアーム122を有する完全に収納された構成にあり得る。外科チームは、滅菌ドレーピングのためにアーム122をそれらの収納位置から延ばすことができる。ドレーピング後、使用に必要になるまで、アーム122を部分的に引き込むことができる。カニューレ配置及び吹送を含む、いくつかの従来の腹腔鏡ステップが、実施される必要があり得る。例えば、各スリーブは、閉塞具の助けを借りて、小さい切開部に、かつ体壁を介して挿入することができる。スリーブ及び閉塞具は、挿入中の組織層の視覚化のための光学的入口を可能にして、配置中の損傷のリスクを最小限に抑える。内視鏡は典型的に、他のカニューレを配置するためのハンドヘルドカメラの視覚化を提供するために最初に配置される。吹送後、必要に応じて、手動器具がスリーブを通して挿入され、任意の腹腔鏡ステップを手動で実施することができる。
次に、外科チームは、ロボットアーム122を患者の上に位置決めし、各アーム122を対応するスリーブ(例えば、カニューレ)に取り付け得る。外科用ロボットシステム100は、取り付け時に各ツール(内視鏡及び外科用器具)を一意に識別し、ツールの種類及びアーム位置をユーザコンソール110のオープン又は没入型ディスプレイ118及び制御タワー130のタッチスクリーンディスプレイに表示する能力を有する。対応するツール機能を有効にして、マスタUID116及びフットペダル114を使用して起動することができる。患者側のアシスタント、処置を通して必要に応じて、ツールを取り付け、取り外すことができる。ユーザコンソール110に着座した外科医は、1つ又は2以上(例えば、2つ)のマスタUID116及び1つ又は2つ以上のフットペダル114によって制御されるツールを使用して、遠隔操作として手術を実施し始めることができる。システムは、マスタUID116を介して外科医の手、手首、及び指の動きを外科用ツールの正確なリアルタイムの動きに転換する。したがって、直接遠隔操作では、システムは、外科医の全ての外科的手技を常に監視し、システムが外科医の手の動きを正確に反映することができない場合は、器具の運動を一時停止する。内視鏡が手術中に1つのアームから別のアームに移動される場合、システムは、器具整列のためにマスタUID116を調整し、器具制御及び運動を継続することができる。フットペダル114は、外科医がマスタUID116から手を離すことなく、内視鏡制御及び単極焼灼並びに双極焼灼を含む様々な器具機能などの様々なシステムモードを起動するために使用され得る。
図2は、本技術の態様による、ロボットマニピュレータ122、ツール駆動部210、及びロボット外科用ツール(例えば、内視鏡220)が搭載されたコネクタの1つの例示的な設計を例解する概略図である。図2に示されるように、例示的な外科用ロボットマニピュレータ122は、複数のリンク(例えば、リンク202)と、複数のリンクを互いに対して作動させるための複数の作動関節モジュール(例えば、関節204、関節J1~8も参照)とを含み得る。関節モジュールは、ピッチ関節又はロール関節などの様々な種類を含み得、これらは、隣接するリンクの特定の軸の周りの他のリンクに対する動きを実質的に拘束し得る。図2の例示的な設計には、ロボットアーム122の遠位端に取り付けられたツール駆動部210も示されている。ツール駆動部210は、外科用器具(例えば、内視鏡220)又はエンドエフェクタ222を受容及び誘導するために、その端部に結合されたカニューレ214を含み得る。外科用器具(又は「ツール」)は内視鏡220であり、ツールの遠位端にエンドエフェクタ222を含み得る。ロボットマニピュレータ122の複数の関節モジュールは、ロボット手術のためにエンドエフェクタ222を作動又は移動させるツール駆動部210を位置決め及び配向するように作動させることができる。エンドエフェクタ222は、シャフト上の内視鏡のレンズであるなど、ツールシャフト端部にある。
図2の例では、関節J0はテーブル旋回関節であり、外科用テーブル上面の下に存在する。関節J0は、手術の間、公称上定位置に保持される。関節J1~J5は、セットアップ又はデカルトアームを形成し、公称上、手術中に定位置に保持され、したがって、外科的遠隔操作中の運動に寄与しない。関節J6及びJ7は、手術又は遠隔操作中に能動的に移動し得る球状アームを形成する。関節J8は、ツール駆動部の一部として、エンドエフェクタ222などのツール220を並進させる。関節J8は、手術中に能動的に移動して、シャフトの軸に沿ってエンドエフェクタを並進させ得る。関節J6~8は、手術中にツールシャフト端部(すなわち、エンドエフェクタ222)を能動的に位置決めすると同時に、患者の皮膚への応力を回避するために、固定された又は安定した場所(すなわち、RCM)で患者へのエントリポイントを維持する。セットアップ中、関節J0~J8のうちのいずれかが移動し得る。手術中、関節J6~8は、位置、速度、加速度、及び/又はトルクに関するハードウェア又は安全性の制限を受けて移動し得る。内視鏡220としての外科用ツールは、長手方向シャフト又は他の軸を中心に回転され得、この回転は、内視鏡の唯一の自由度であり得る。関節J6~8からの3自由度及び内視鏡220からの1自由度(すなわち、関節J6~8からの3つ及び内視鏡の回転からの1つを有する4自由度)など、任意の数の自由度が提供され得る。
図3は、外科用ロボットシステム100による内視鏡220の制御方法の一実施形態のフローチャート図である。UID116の動きは、外科医の運動を関節の運動に投影することの一部として、より少ない数の角運動にマッピングされる。
図3の方法は、制御タワー130、コンピュータ、ワークステーション、サーバ、又は別のプロセッサなどの制御プロセッサによって実装される。外科用ロボットシステム100の任意のコンピュータが使用され得る。ユーザインターフェースは、動作300で受信されたユーザからの動きのコマンドを提供する。制御プロセッサ(例えば、コントローラ)は、動作310において、UIDの動きをロボットマニピュレータの動きにマッピングする。ロボットアーム122及び/又は内視鏡220は、動作320において、制御プロセッサからの命令又は制御を使用して移動される。他のデバイスが、動作のうちのいずれかを実施し得、及び/又は動作のうちのいずれかにおいて使用され得る。
これらの動作は、図示される順序又は他の順序で実施される。例えば、動作300は、他の動作のいずれかの後に実施される。別の例として、動作320は、進行中の遠隔操作などにおいて、動作のいずれかの前又は後に実施される。
追加的な、異なる、又はより少ない動作が使用され得る。例えば、動作311~315の投影又はスケーリングのいずれかは、単独で、又は動作の全てよりも少ないものと組み合わせて実施される。別の例では、内視鏡220を患者内に最初に位置決めし、手術を計画し、及び/又は内視鏡220を患者から除去するための動作が提供され得る。
動作300において、センサは、1つ又は2つ以上のUID116の入力された動きを検出する。磁気位置感知、光感知、電場感知、又は他の感知が、ユーザによる動き等のUID116の動きを無線で検出するために実施される。UID116上又はその中のジャイロスコープ、加速度計、及び/若しくは他のセンサは、UID116の入力された動きを検出(例えば、UID116の配向及び/又は並進を感知)し得る。
UID116は、ボタン、ノブ、及び/又はジョイスティックを有する又は有しない任意の形状のオブジェクトであるなど、ハンドヘルドである。UID116は、他のデバイスに物理的に接続されていない(すなわち、機械的リンケージ及びケーブルがない)など、繋がれていない。他の実施形態では、通信のためにケーブルが提供される。ユーザがUID116を並進及び/又は回転させると、この運動又は場所及び/又は配向の変化(すなわち、姿勢又は位置の変化)がセンサによって検出され、参照ベースフレーム(すなわち、遠隔に位置決めされたセンサに対するUID116)が提供される。
UID116はハンドヘルドであるため、UID116は各々6自由度を有する。直交空間軸(x、y、z)に沿った3つの並進度、及び3つの空間軸を中心とした3つの回転度は、ロール、ピッチ、及びヨーを提供する。これら3つの軸を中心とした並進及び/又は回転が感知され、姿勢又は位置を提供する。一方又は両方のUIDは、オペレータによって手に保持されている間、及び他のデバイスに物理的に接続されていない間に感知される。
位置又は位置の変化(例えば、直線及び回転運動)が感知される。感知は、0.1秒毎などの任意の周波数でサンプリングする。位置又は位置の変化は、1つ又は両方のUID116についてサンプリングされる。
動作310において、コントローラは、内視鏡220の動きを容易にするためにロボットマニピュレータの1つ又は2つ以上の関節の動きを計算する。コントローラは、ハンドヘルドユーザ入力デバイス(例えば、UID116)による動きを、外科用ロボットシステム100のロボットマニピュレータ122によって保持された内視鏡220の動きにマッピングする。マッピングは、1つ又は2つ以上のUID116の動きを関節運動に関連付けて、内視鏡220を移動させる。
図3は、マッピングするための計算に伴う5つの動作311~315を示す。追加的な、異なる、又はより少ない動作が提供され得る。例えば、動作314は提供されない。別の例として、動作312は、動作311の投影などの動作のうちの別のものと組み合わされ得るか、又はその一部であり得るマッピングの態様である。任意の所与の投影は、ユーザコマンドをアーム運動に、アーム運動をRCMフレームに、次いで、RCMフレームを内視鏡220の運動に転換することを含む、動作313の投影等、複数の動作に細分され得る。感知されたUIDの運動から関節の運動に転換する他のマッピングが使用され得る。
図5は、一連の動作311~315を表す。この表現は、動作300の感知することからロボットアーム122の関節(例えば、J6~8)の動きへマッピングすることのためのフローチャート及び/又はソフトウェアモジュールである。
動作311において、コントローラは、感知することから内視鏡のためのユーザ運動コマンドへと投影する。UID116の運動又は位置は、ユーザコマンドに転換される。UID116を介してユーザによって入力された変更は、感知された運動及び/又は位置から解釈される。
1つのUID116は、内視鏡の運動又は位置を制御するために使用され得る。代替的に、2つのUID116の組み合わせが、内視鏡の運動又は位置を制御するために使用される。例えば、両方のUID116の協調された動きは、6自由度でユーザ入力運動を導出するために相対運動を使用するなど、運動を制御する。2つのハンドヘルドユーザインターフェースオブジェクトの位置及び/又は配向の変化が検出され、2つのハンドヘルドユーザインターフェースオブジェクト間の仮想中心点における動きが、内視鏡を制御するための入力された動きとして使用される。ユーザは、各々の手(左及び右)にUID116を保持し(図1参照)、両方のUID116の運動が感知されて、外科医によって入力されている協調運動が決定される。UID116間の中心点における6自由度に対応する3つの軸を中心としたユーザの並進及び回転が検出される。
遠隔操作に備えて、ユーザは、外科医コンソール110に座る。遠隔操作のためにロボットマニピュレータ122を位置決めした後、1つ又は2つ以上の関節が、患者の皮膚又は切開部エントリポイントにおいてRCMを用いて定位置にロックされる。例えば、関節J0~J5(図2参照)がロックされる。ロックは、ブレーキによって、及び/又は関節用のモータへの通電を回避することによって行われる。これらの関節は、遠隔操作中にロックされたままである。関節J0~J5のいずれかをロック解除し、移動させてRCM変化させ得る。
遠隔操作中、ユーザは、ロボットマニピュレータ122及び/又は内視鏡220を移動させるためのコマンドを入力する。コマンドは、運動のためのものである。異なるコマンドが、異なる動きに対して提供され得る。コマンドは、エンドエフェクタ222の動きのためのものであり得る。これらのコマンドは、特定の関節の動きのためのものでなくてもよい。制御プロセッサは、動きのコマンドをロボットマニピュレータ122及び/又は外科用ツール220の特定の関節の制御に変換する。
制御プロセッサは、患者に対する遠隔操作の前又はその間に、ロボットマニピュレータ122又はロボットマニピュレータ122の内視鏡220を移動させるユーザコマンドを受信する。ユーザ入力は、制御プロセッサによって、無線又は有線インターフェースを介して、UID116などのユーザコンソール110から受信される。他の実施形態では、ユーザコマンドは、メモリからロードするか、又はコンピュータネットワークを介して送信することによって受信される。
一実施形態では、ユーザコマンドは、参照フレーム又は座標系に基づいて生成される。遠隔操作に入るとすぐに、両方のUID116の場所(x,y,z)が参照フレームを作成するために使用される。2つのUID116の間の中心点が決定される。この中心点は、次のように表される:
Figure 2023539864000002
中心点は原点として使用され、ベースフレームの軸はこの中心点を中心として割り当てられる。
この中心点を中心とした参照フレームは、静的又は動的に確立され得る。参照フレームを静的に作成するために、2つのUID位置の間の中心点が原点として使用され、参照フレームの軸(x,y,z)は、UID116のベースフレームと同じである。UID116のセンサのx、y、z軸が使用される。
参照フレームを動的に作成するために、中心点が原点として使用されるが、y軸は、右UIDの場所から左UIDの場所のy軸に、又はその逆に定義される。y軸は、UID116の相対的な場所によって与えられる。x軸は、y軸に垂直であり、ベースフレームに向かって(すなわち、中心点からベースのセンサ又は原点に)向かって向いている。z軸は、x軸及びy軸を有する右手座標系を形成する。この動的作成は、ユーザによる原点及び方向の何らかの制御を可能にし、以下のように表され得る:
Figure 2023539864000003
参照座標系の静的及び動的生成の両方において、複数の場所のサンプル平均が、UIDの場所のランダムノイズを低減するために使用され得る。参照フレームは、最初に遠隔操作に入るときに一度作成され、ユーザが遠隔操作を終了するまで同じままである。
運動を検出するために、センサは、異なるサンプル時刻におけるUIDの位置(直線及び角度姿勢)を検出する。参照フレームに対する又は参照フレーム内の2つの連続するUID中心点位置が、ユーザ運動コマンド(user motion command、UMC)として使用される。参照軸に対する位置の変化(例えば、3つの参照軸を中心とした並進及び/又は回転)が検出される。6自由度を有するこの位置又は運動ベクトルの変化は、次のように表される:
Figure 2023539864000004
3つ以下の空間軸に沿った中心点の並進及び3つの空間軸を中心とした回転が検出され、並進及び回転におけるユーザ運動コマンドベクトルを提供する。例えば、ユーザは、内視鏡を回転させながら内視鏡を移動させるために手首を下方に曲げながら並進のために手を前方に移動させる。3つ全ての軸を中心とした中心点の並進及び/又は回転が検出され得る。
動作312において、コントローラは、3つの軸を中心とした入力回転を、ロボットアームに据え付けられた内視鏡の単一軸を中心とした回転に投影する。UID116の自由度(例えば、3つの直線並進及び3つの回転を含む6自由度)は、ロボットマニピュレータ122の自由度に一致するように低減される。図4の例では、6自由度は、関節J6~8及び内視鏡220の回転によって提供されるアームの4自由度に低減される。他の例では、低減は、6から5又は6から3である。
この実施形態における投影は、3度から1度など、回転の自由度の低減を提供する。他の実施形態では、低減の一部又は全ては、並進自由度におけるものである。
図3及び図5は、ユーザコマンドへの投影の一部としての、又は投影後の、及び/又はユーザコマンドから内視鏡コマンドへの投影前の拒絶を示す。低減は、ユーザコマンド空間において行われる。他の実施形態では、低減は、動作311の検出空間、内視鏡コマンド空間(例えば、動作313の後)、スケーリングされた空間(例えば、動作314の後)、又は関節コマンド空間(例えば、動作315の後)などのマッピングの他の空間又は部分において行われる。
図5の例では、ユーザコマンドのロール、ピッチ、及びヨーは、1つの回転(例えば、ロール)を、他の回転(例えば、ヨー及びピッチ)なしに提供するように投影される。この配向投影は、感知されたヨー及びピッチを落とすか、除去するか、又は使用しない。代替的に、3自由度の回転は、1つの軸を中心とした単一回転に変えられる。回転ベクトルをより少ない(例えば、単数の)回転数に関連付ける任意の関数が使用され得る。配向の投影は、回転R又は回転ベクトル
Figure 2023539864000005
を提供する。図4の例では、回転Rは、シャフトを中心とした又はアーム空間内の内視鏡の回転のためのものである。
直線並進は投影されないか、又は不変のまま投影される。直線並進xyzは、動作313において内視鏡コマンドを生成するために伝えられる。ロール又は回転Rなどの投影された配向は、動作313において内視鏡コマンドを生成するために伝えられる。
一実施形態では、ユーザ運動コマンドの配向は、参照フレーム内のロール空間のみに投影される。ヨー及びピッチは0に設定される。投影は、ロールを使用し、動作311のユーザコマンドの感知及び生成において確立された参照フレーム内のヨー及びピッチを使用しない。動作312の配向投影は、次のように表され得る:
Figure 2023539864000006
式5は、ピッチ及びヨーを落とすことによる単一のオイラー角Rへの変換及び参照フレームへの逆変換を示す。逆は、ヨー及びピッチに対してゼロを有するロールを有する。投影は、参照フレームが維持されるべきであり、参照フレームの軸を中心とした単一の回転が使用される場合、ピッチ及びヨーを単に除去し得る。
内視鏡220は、内視鏡220の長手方向軸又はシャフトに沿って中心に置かれた視野方向を有し得る。他の実施形態では、視野方向は、シャフトからゼロではない角度でオフセットされる。図6は、30度の角度オフセットを有する例を示すが、より小さい又はより大きい角度オフセットが使用され得る。動作312の配向投影において維持されるロール又は回転は、ロボットマニピュレータの遠隔運動中心から、内視鏡220の観察者のゼロではない角度に基づく制御点までの軸を中心としている。回転(ロール)軸は、RCMと、内視鏡視野軸上のユーザ定義点(例えば、画像中心)と、を通過する線によって定義される。この点は、ユーザが内視鏡を回転させるとき、画像中心点が静止したままであるように、制御点として機能する。ユーザは、画面上の視野に対してコマンドを入力しているので、回転はその視野のものである。角運動は、内視鏡220の観察者のゼロではない角度に基づいて、ロボットマニピュレータ122の遠隔運動中心から制御点までの軸を中心としてマッピングされる。
動作313において、コントローラは、ユーザ運動コマンドを内視鏡コマンドに投影する。ユーザ運動コマンドは、内視鏡220を制御するためのものである。投影は、エンドエフェクタ、ee、又は内視鏡220の先端の運動を示す。
ロボットマニピュレータ122は、内視鏡220を移動させ、遠隔運動中心によって拘束されるため、内視鏡コマンド空間への投影は、遠隔運動中心を説明する。内視鏡220のエンドエフェクタは、遠隔運動中心によって拘束される方法で移動される。内視鏡コマンド空間への投影は、内視鏡220のシャフトに沿った位置が静止して維持されるべき内視鏡220の運動のためのものである。
内視鏡コマンド空間への投影は、内視鏡220のためのユーザ運動コマンドをロボットマニピュレータ122の遠隔運動中心フレームに変換又は転換する。1つのアプローチでは、投影は、ロボットマニピュレータ122の参照フレームにおける運動を定義する。運動は、遠隔運動中心に変換される。この変換は、3軸を中心とした回転である3自由度未満の回転(例えば、動作312の配向投影からの単一軸を中心とした回転)をもたらす。遠隔運動中心は静止しているので、ユーザコマンドの内視鏡220の直線並進及び回転は、エンドエフェクタを6自由度で並進及び回転させ得る。遠隔運動中心によって拘束された内視鏡コマンド空間への投影は、3つの軸を中心とした回転を提供する。遠隔運動中心フレーム内の運動は、次いで、遠隔運動中心フレームからアームフレームに逆変換され、遠隔運動中心フレームからの回転を追加する。
ヨー及びピッチ成分が含まれている。一実施形態では、ヨー及びピッチは、ユーザコマンド空間から除去される。ヨー及びピッチは、内視鏡コマンド空間に戻されて追加されるが、動作311のユーザコマンド投影において確立された参照フレームの代わりに、遠隔運動中心に相対的である。
投影は、ハンドヘルドユーザ入力デバイス(例えば、UID116)による動きをロボットマニピュレータ122の遠隔運動中心参照フレームに投影するために提供する。上で考察される動作311~313及び/又は動作313の一連の投影、又は異なる投影、若しくは投影シーケンスを使用して、UID116の検出された動きを遠隔運動中心によって拘束される内視鏡運動に変換し得る。
一実施形態では、ユーザ運動コマンドは、ロボットマニピュレータ122の遠隔運動中心フレームに投影され、内視鏡コマンドを作成する。ユーザ運動コマンドは、以下によって表されるように、内視鏡220のエンドエフェクタの運動に基づいてロボットアーム空間に変換される。
Figure 2023539864000007
三次元空間における場所は、最後の位置及びユーザコマンドからの直線並進の変化から決定される。エンドエフェクタの回転は、遠隔運動中心フレームによって拘束されるようなエンドエフェクタの回転と畳み込まれるか、又はそれによって乗算される、ユーザコマンドからの回転によって提供される。
アーム空間内の並進及び回転は、遠隔運動中心によって拘束される。遠隔運動中心フレームへの投影は、次のように表される:
Figure 2023539864000008
並進は、内視鏡220のエンドエフェクタに対して三次元で与えられる。四次元行列の文脈でこの並進を定義するために、1.0項が追加される。遠隔運動中心によって拘束される三次元を中心とした回転が提供される。
遠隔運動中心フレームによって提供される拘束が式7に示されるように追加されると、結果として生じる並進及び回転は、内視鏡コマンドとして内視鏡220の運動の参照アームフレームに逆変換される。一実施形態では、4×4行列が投影の出力として計算される。この変換は、次のように表され得る:
Figure 2023539864000009
エンドエフェクタの姿勢(直線並進及び回転位置)は、ロボットマニピュレータ220上のエンドエフェクタの回転及び並進を有する行列として表される。
任意選択的な動作314において、コントローラは、内視鏡220の動きのうち直線並進成分をスケーリングする。エンドエフェクタ又は内視鏡220の先端を患者内で移動させるために、ロボットアーム122が移動する。エンドエフェクタの運動又は並進の量に加えて、遠隔運動中心に対するエンドエフェクタの近さは、患者の外側のロボットアーム122の運動の大きさ及び/又は速度を決定する。内視鏡先端が遠隔運動中心に近いとき、アームの反対側の端部の運動(すなわち、ツール駆動部210の運動)は、遠隔操作中に静止したままである遠隔運動中心を中心とした大きなレバーによって増幅される。この大きなレバーは、この反対側の端部に過剰な運動をもたらす。過剰な運動は、ロボットアーム122を振動させ得る。
振動を低減するために、内視鏡220の動きの直線成分がスケーリングされる。動き速度を落とすなどして、直線成分が低減される。代替又は追加の実施形態では、回転成分はスケーリングされる。
スケーリングは、全ての並進のためのものであり得る。並進の全ての成分は同じようにスケーリングされるが、異なる方向に対して異なるスケーリングが使用され得る。1つの使用事例は、内視鏡220が遠隔運動中心に近いとき、ズームイン/アウト運動が影響を受けないように、x及びy運動のみをスケーリングするが、z運動(ズームイン/アウト又は視野軸に沿った動き)はスケーリングされないままにすることである。別の方法は、全ての運動を同じスケーリングでスケーリングすることである。
代替的に、スケーリングは、エンドエフェクタが遠隔運動中心の閾値距離内にあるときの並進のためのものである。直線運動O(x,y,z)は、アーム122及び/又はツール駆動部210の過剰な運動が抑制されるように、内視鏡端部が遠隔運動中心に近いときにスケーリングされる。その結果、振動も抑制される。一実施形態では、スケーリングの量は、ロボットマニピュレータの遠隔運動中心からの内視鏡の距離に基づく。異なる距離は、異なる量のスケーリングを提供する。遠隔運動中心からのエンドエフェクタの一連の2つ又は3つ以上の閾値距離が、エンドエフェクタが遠隔運動中心に接近するにつれて、スケーリングの量を増加させるために提供される。代替的に、距離による連続的なスケーリングが提供される。
この動的スケーリングの一例では、O=Orであり、式中、rは、スケーリング係数である。スケーリング係数rは、distance_to_rcm>distance_to_rcm_threasholdであるとき、r=1.0として計算され、distance_to_rcm<=distance_to_rcm_threasholdであるとき、r=(distance_to_rcm/distance_to_rcm_threshold)として計算される。他の関数を使用して、遠隔運動中心までの距離に基づいて動的に又は連続的にスケーリングし得る。O[x,y,z]ベクトルの成分は、上で示したように一括してスケーリングされるか、又はrによって個々にスケーリングされる。
動作315において、コントローラは、内視鏡コマンドによって提供される内視鏡220の動きを、ロボットマニピュレータ122の1つ又2つ以上の関節の動きに対するスケーリングを伴って又は伴わずにマッピングする。図2の例示的なロボットマニピュレータ122では、4つ以下の関節(例えば、関節J6~8及び内視鏡の回転)のための運動が決定される。ロボットマニピュレータ220の関節は、遠隔操作中に6つ未満の自由度を提供する。
コントローラは、ロボットアームの遠隔運動中心フレームから、ロボットアーム122の関節位置コマンドに投影する。逆運動学を実施するなど、任意の投影が使用され得る。一実施形態では、関節運動は、特異値分解を使用する逆運動学(inverse kinematics、IK)によって生成又は計算される。マスタデバイスとしてのユーザ入力デバイス(例えば、UID116)からの6自由度運動がアームワークスペース内に投影されているので、IKは常に収束するはずである。
一実施形態では、関節位置コマンドは、pinv(J)Twistとして計算され、式中、Jは、時刻tにおける6×4ヤコビ行列であり、Twistは、時間t-1における姿勢と時刻tにおける姿勢との姿勢差を表す6×1ベクトルであり、θは、関節位置コマンドの4×1ベクトルである。
関節位置(姿勢)又は関節位置(姿勢)の変化についての解は拘束され得る。例えば、エンドエフェクタ(例えば、内視鏡220の先端)から遠隔運動中心までの最小距離が強調される。内視鏡端部から遠隔運動中心までの最小距離は、遠隔操作中に内視鏡220がカニューレ214から引き抜かれるのを防止するために使用される。最小距離は、ツール並進関節J8上の関節限界として扱われる。
動作320において、コントローラは、ロボットマニピュレータ122を制御する。ロボットアームが駆動され、アームを移動させる。制御プロセッサは、ロボットマニピュレータ122を選択された位置又は構成に駆動し、例えば、感知された入力並進及び単一を中心とした投影された回転に基づいて制御する。制御プロセッサは、ロボットマニピュレータ122及び/又は外科用ツール220の動きを引き起こす。遠隔操作中の能動的な関節に対する出力動きコマンドは、関節の位置を変化させる。ロボットマニピュレータ122は、選択された構成になるように移動させられる。
関節コマンドが実装され、内視鏡220をユーザによって意図又は命令されたように移動させる。内視鏡220は、1つ又は2つ以上の関節の運動によって移動する。単一軸を中心とした回転に対する保護を含む様々な投影及びスケーリングの後、関節は、遠隔操作中に内視鏡220を移動するように移動される。図2及び図4の例示的なロボットアーム122において、球面ロール関節、球面ピッチ関節、ツール並進関節、及びツール回転関節のうちの1つ又は2つ以上は、所望の動きを提供するように操作され得る。
シャフトの軸からオフセットされた視野方向を有する例(例えば、30度のオフセット軸を有する図6を参照)では、関節運動は、制御点に対して内視鏡を移動させる。制御点は、ユーザが内視鏡220を回転させるとき、画像中心点が静止したままであるように提供される。
図7は、医療用遠隔操作のための外科用ロボットシステムの一実施形態のブロック図を示す。システムは、図3、図5の方法、又は別の方法を実施する。異なる数の自由度に制限された、及び/又は遠隔運動中心フレームに拘束された運動を制御するための6自由度を有する繋がれていないユーザインターフェースデバイスによる感知に基づく投影のうちのいずれか1つ又は2つ以上(例えば、全て)が、実装され得る。
外科用ロボットシステムは、対応する外科用器具コントローラ802、及びメモリ804を有する1つ又は2つ以上のロボットマニピュレータ122を含む。ユーザコンソール110は、外科用ロボットシステムの一部として表されるか、又は含まれる。追加的な、異なる、又はより少ない構成要素が提供され得る。
ロボットマニピュレータ122は各々、1つ又は2つ以上のリンク及び関節を含む。関節は、ピッチ又はロール関節であり得る。外科用ツールを受容して案内するためのツール駆動部210及びカニューレ214が、ロボットマニピュレータ122の各々に提供され得る。内視鏡220は、ロボットマニピュレータ122の1つに提供されている。リンク及び関節の異なる組み合わせは、異なる程度又は種類の動き(例えば、並進及び/又は回転)を有する異なる部分など、ロボットマニピュレータ122の異なる部分を画定又は形成し得る。モータ、センサ、リンク、関節、コントローラ、外科用器具、及び/又は他の構造を有する任意の現在既知である又は今後開発されるロボットマニピュレータ122が使用され得る。
1つ又は2つ以上のロボットマニピュレータ122が提供される。例えば、3つ又は4つのロボットマニピュレータ122が提供される。ロボットマニピュレータ122は、手術テーブルのベースなどのテーブルに据え付けられる。代替的に、カート、床、天井、又は他のマウントが使用され得る。ロボットマニピュレータ122は、コントローラ802又は中間物(例えば、制御タワー130)と通信するためのケーブル又は無線送受信機を含む。
ロボット外科用器具は、1つ又は2つ以上の把持器、開創器、メス、内視鏡、ステープラ、鋏、又は別の外科用デバイスである。1つの外科用器具は、内視鏡220である。異なる又は同じ種類の器具が、ロボットマニピュレータ122のうちの異なるものに据え付けられ得る。例えば、2つのロボットマニピュレータ122は、把持器を有し得、第3のロボットマニピュレータ122はメスを有し得、第4のロボットマニピュレータ122は内視鏡220を有し得る。
ロボット外科用器具は、ロボットマニピュレータ122の遠位端に接続又は結合されるが、他の場所で接続し得る。接続は、把持器又は鋏を閉じるなど、ツールが操作され得るように駆動を提供する。
内視鏡220は、細長いシャフト及びレンズを有する。レンズの視野方向は、シャフトの長手方向軸に沿っている。視野方向は、長手方向軸から離れたゼロではない角度、例えば30度であり得る(図6参照)。
ユーザコンソール110は、外科医がロボットマニピュレータ122を制御するためのプロセッサなどの外科用ロボットシステムと対話するためのグラフィックユーザインターフェースである。ユーザインターフェースは、1つ又は2つ以上のUID116及びディスプレイ118を含む。UID116及び/又はディスプレイ118は、ユーザコンソール110及び/又は制御タワー130に提供されるが、他の場所にあり得る。
UID116はハンドヘルドデバイスである。他のデバイスと物理的に接続されていない状態で、ユーザの片手又は両手で保持するようなサイズ及び形状のオブジェクトが提供される。各手に1つずつ、2つのハンドヘルドオブジェクト(例えば、UID116)が使用され得る。2つのオブジェクトは、互いに及び他の全てのデバイスに物理的に接続されていない。代替的に、両手で同時に保持するための単一のデバイスが提供される。更に他の実施形態では、ケーブル、機械的リンケージ、及び/又は関節を介した物理的接続を有する1つ又は2つ以上のデバイスが提供される。
ボタン、キーボード、ロッカー、ジョイスティック、トラックボール、音声認識回路、マウス、タッチパッド、タッチスクリーン、スライダ、スイッチ、フットペダル114、それらの組み合わせ、又は外科用ロボットに入力するための任意の他の入力デバイス等の他のユーザ入力が提供され得る。ディスプレイ118は、モニタ、液晶ディスプレイ(liquid crystal display、LCD)、プロジェクタ、プラズマディスプレイ、CRT、プリンタ、又は視覚情報を出力するための他の現在既知である又は今後開発されるデバイスである。別の実施形態では、ディスプレイ118は、ヘッドマウントディスプレイである。ユーザ入力は、眼球の動き及び/又は瞬きを検出するための1つ又は2つ以上のセンサであり得る。更に他の実施形態では、ユーザ入力は、音声ベースの入力のためのマイクロフォンである。ディスプレイ118の代わりに、又はそれに加えて、音声情報を出力するためのスピーカが提供され得る。
ベースセンサは、UID116の姿勢を感知する。例えば、磁気位置センサ又は電界センサが提供される。ベースセンサは、ディスプレイ118の近くに据え付けられるなど、ユーザコンソール110上又はその近くに位置決めされる。一実施形態では、任意選択的なカメラ806は、ベースセンサである。デジタルカメラは、ロボットマニピュレータ122を制御するためのUID116の使用中の追跡など、ユーザの運動を光学的に追跡する。カメラ806は、いくつかの実施形態では、ステレオカメラ及び/又は深度カメラであり得る。
コントローラ802は、ロボットマニピュレータ122及び/又は外科用器具220を駆動及び/又はモデル化するコントローラである。コントローラ802は、汎用プロセッサ、中央処理装置、制御プロセッサ、グラフィックプロセッサ、グラフィック処理装置、デジタル信号プロセッサ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、デジタル回路、アナログ回路、人工知能プロセッサ、これらの組み合わせ、又はロボットマニピュレータ122及び/若しくは内視鏡220の動きを制御するための別の現在既知である又は今後開発されるデバイスである。コントローラ802は、直列、並列、又は別々に動作する単一のデバイス又は複数のデバイスである。コントローラ802は、ラップトップ、サーバ、ワークステーション、若しくはデスクトップコンピュータなどのコンピュータのメインプロセッサであり得るか、又はより大きなシステム内のいくつかのタスクを処理するためのプロセッサであり得る。ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせに基づいて、コントローラ802は、命令を実装するか、又は動作を実施するように構成される。
コントローラ802は、1つ又は2つ以上のユーザインターフェースデバイスの変位を内視鏡220のスケーリングされた変位に転換するように構成される。転換は、ユーザインターフェースデバイスの第1の自由度(DoF)の回転を、内視鏡220のより少ない第2のDoFの回転に低減し、例えば、3度の回転からの1度の回転に低減する際にヨー及びピッチを落とす。一実施形態では、転換は、1つ又は2つ以上のUID116からのユーザ運動コマンドから内視鏡運動コマンドへの投影及び内視鏡運動コマンドからロボットマニピュレータ122のアーム関節運動コマンドへの投影を含む。低減は、ユーザ運動コマンドに対して実施される。別の実施形態では、ユーザ運動コマンドから内視鏡運動コマンドへの投影は、より少ない第2の回転度数が遠隔運動中心を中心とした3つの回転度数に転換された遠隔運動中心フレームへの変換を含む。
メモリ804又は別のメモリは、プログラムされたコントローラ802によって実行可能な命令を表すデータを記憶する非一時的コンピュータ可読記憶媒体である。本明細書で考察されるプロセス、方法、及び/又は技法を実装するための命令は、キャッシュ、バッファ、RAM、リムーバブルメディア、ハードドライブ、又は他のコンピュータ可読記憶媒体等のコンピュータ可読記憶媒体又はメモリ上に提供される。コンピュータ可読記憶媒体は、様々な種類の揮発性及び不揮発性記憶媒体を含む。図に例解された、又は本明細書に記載された機能、動作、又はタスクは、コンピュータ可読記憶媒体に記憶された1つ又は2つ以上の命令セットに応答して実行される。機能、動作又はタスクは、特定の種類の命令セット、記憶媒体、プロセッサ又は処理戦略とは無関係であり、ソフトウェア、ハードウェア、集積回路、ファームウェア、マイクロコードなどによってハードウェア、集積回路、ファームウェア、マイクロコードなどによって、単独で、又は組み合わせで実施され得る。同様に、処理戦略は、マルチプロセッシング、マルチタスキング、並列処理などを含み得る。
一実施形態では、命令は、ローカル又はリモートシステムによって読み取るためにリムーバブルメディアデバイス上に記憶される。他の実施形態では、命令は、コンピュータネットワーク又は電話回線を介して転送するために遠隔の場所に記憶される。更に他の実施形態では、命令は、所与のコンピュータ、CPU、GPU、又はシステム内に記憶される。
様々な実施形態を参照して本発明を記載してきたが、本発明の範囲から逸脱することなく多くの変更及び修正を行うことができることを理解されたい。したがって、前述の詳細な説明は、限定ではなく、例解とみなされることが意図され、本発明の精神及び範囲を定義することが意図されるのは、全ての均等物を含む以下の特許請求の範囲であることが理解されることが意図される。
〔実施の態様〕
(1) 外科用ロボットシステムによる内視鏡の制御方法であって、
6自由度を有するハンドヘルドユーザ入力デバイスによる動きを検出することと、
前記ハンドヘルドユーザ入力デバイスによる前記動きを、前記外科用ロボットシステムのロボットマニピュレータに結合された前記内視鏡の動きにマッピングすることと、
前記内視鏡の前記動きを容易にするために、前記ロボットマニピュレータの1つ又は2つ以上の関節の動きを計算することと、
計算された前記動きに従って前記1つ又は2つ以上の関節を駆動することと、を含む、方法。
(2) 前記6自由度が、3つの空間次元に沿った並進及び前記3つの空間次元を中心とした回転に対応し、前記1つ又は2つ以上の関節が、前記ロボットマニピュレータの6未満の自由度を提供する4つ以下の関節を含み、前記ハンドヘルドユーザ入力デバイスの前記動きを前記内視鏡の前記動きにマッピングすることが、ヨー及びピッチなしでロール空間内のみに投影することを含む、実施態様1に記載の方法。
(3) 検出することが、2つのハンドヘルドユーザインターフェースオブジェクトの位置及び/又は配向の変化に基づいて前記動きを検出することを含み、前記動きが、前記2つのハンドヘルドユーザインターフェースオブジェクト間の中心におけるものである、実施態様1に記載の方法。
(4) 検出することが、前記ハンドヘルドユーザ入力デバイスが1つ又2つ以上の繋がれていないオブジェクトを含むベースセンサによって前記動きを検出することを含む、実施態様1に記載の方法。
(5) 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、直線並進を伝えることと、角運動を前記内視鏡のシャフト回転として投影することと、を含む、実施態様1に記載の方法。
(6) 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、前記内視鏡の観察者のゼロではない角度に基づいて、前記ロボットマニピュレータの遠隔運動中心から制御点までの軸を中心とした角運動をマッピングすることを含む、実施態様1に記載の方法。
(7) 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、前記ロボットマニピュレータの遠隔運動中心によって前記内視鏡の前記動きを拘束することを含む、実施態様1に記載の方法。
(8) 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、前記ハンドヘルドユーザ入力デバイスによる前記動きを前記ロボットマニピュレータの遠隔運動中心参照フレームに投影することを含む、実施態様7に記載の方法。
(9) 投影することが、前記ハンドヘルドユーザ入力デバイスの前記動きからヨー及びピッチを除去することと、前記内視鏡のヨー及びピッチを追加して前記遠隔運動中心を維持することと、を含む、実施態様8に記載の方法。
(10) 前記内視鏡の前記動きの直線成分をスケーリングすることを更に含み、前記スケーリングの量が、前記ロボットマニピュレータの遠隔運動中心からの前記内視鏡の距離に基づく、実施態様1に記載の方法。
(11) 前記1つ又は2つ以上の関節の前記動きを計算することが、逆運動学を実施することを含む、実施態様1に記載の方法。
(12) 外科用ロボットシステムによる内視鏡の制御方法であって、
空間内の3つの軸を中心とした入力並進及び入力回転を感知することと、
前記3つの軸を中心とした前記入力回転を、ロボットアームに据え付けられた前記内視鏡の単一軸を中心とした回転に投影することと、
前記ロボットアームを制御して、感知された前記入力並進及び単一軸を中心とした保護された前記回転に基づいて前記内視鏡を移動させることと、を含む、方法。
(13) 感知することが、ユーザの左手にある第1のハンドヘルドの物理的に接続されていないオブジェクトを感知することと、前記ユーザの右手にある第2のハンドヘルドの物理的に接続されていないオブジェクトを感知することと、を含み、前記3つの軸を中心とした前記入力並進及び入力回転が、前記第1のハンドヘルドの物理的に接続されていないオブジェクトと前記第2のハンドヘルドの物理的に接続されていないオブジェクトとの間の中心点での6自由度に対応する、実施態様12に記載の方法。
(14) 投影することが、前記感知から前記内視鏡に対する入力運動コマンドに投影することを含む、実施態様12に記載の方法。
(15) 前記内視鏡に対する前記入力運動コマンドから前記ロボットアームの遠隔運動中心フレームに投影することと、前記ロボットアームの前記遠隔運動中心フレームから前記ロボットアームに対する関節位置コマンドに投影することと、を更に含む、実施態様14に記載の方法。
(16) 前記内視鏡に対する前記入力運動コマンドから前記遠隔運動中心フレームに投影することが、前記内視鏡のアームフレームから前記遠隔運動中心フレームに変換することと、前記遠隔運動中心フレームから前記アームフレームに逆変換して前記遠隔運動中心フレームからの回転を追加することと、を含む、実施態様14に記載の方法。
(17) 外科用ロボットシステムであって、
ロボットマニピュレータと、
前記ロボットマニピュレータに結合された内視鏡と、
1つ又は2つ以上のユーザインターフェースデバイスと、
前記1つ又は2つ以上のユーザインターフェースデバイスの変位を前記内視鏡のスケーリングされた変位に転換するように構成されたコントローラであって、前記転換が、前記ユーザインターフェースデバイスの第1の自由度(DoF)の回転を、前記内視鏡のより少ない第2のDoFの回転に低減させる、コントローラと、を備える、システム。
(18) 前記コントローラが、前記内視鏡の回転を3DoFから1DoFに低減するように構成され、前記転換が、前記1つ又は2つ以上のユーザインターフェースデバイスからの入力運動コマンドから内視鏡運動コマンドへの投影と、前記内視鏡運動コマンドから前記ロボットマニピュレータのアーム関節運動コマンドへの投影と、を含み、前記低減が、前記ユーザ運動コマンドに対して実施される、実施態様17に記載の外科用ロボットシステム。
(19) 前記内視鏡が、細長いシャフトと、前記細長いシャフトに沿った軸からゼロではない角度で離れた視野方向と、を含み、前記ユーザ運動コマンドから前記内視鏡運動コマンドへの前記投影が、前記より少ない第2のDoFの前記回転が前記遠隔運動中心を中心とした3DoFの回転に転換された遠隔運動中心フレームへの変換を含む、実施態様18に記載の外科用ロボットシステム。
(20) 前記1つ又は2つ以上のユーザインターフェースデバイスが、2つのハンドヘルドオブジェクトを含み、前記ハンドヘルドオブジェクトの各々が、他のデバイスに及び相互に物理的に接続されていない、実施態様17に記載の外科用ロボットシステム。

Claims (20)

  1. 外科用ロボットシステムであって、
    ロボットマニピュレータと、
    前記ロボットマニピュレータに結合された内視鏡と、
    1つ又は2つ以上のユーザインターフェースデバイスと、
    前記1つ又は2つ以上のユーザインターフェースデバイスの変位を前記内視鏡のスケーリングされた変位に転換するように構成されたコントローラであって、前記転換が、前記ユーザインターフェースデバイスの第1の自由度(DoF)の回転を、前記内視鏡のより少ない第2のDoFの回転に低減させる、コントローラと、を備える、システム。
  2. 前記コントローラが、前記内視鏡の回転を3DoFから1DoFに低減するように構成され、前記転換が、前記1つ又は2つ以上のユーザインターフェースデバイスからの入力運動コマンドから内視鏡運動コマンドへの投影と、前記内視鏡運動コマンドから前記ロボットマニピュレータのアーム関節運動コマンドへの投影と、を含み、前記低減が、前記ユーザ運動コマンドに対して実施される、請求項1に記載の外科用ロボットシステム。
  3. 前記内視鏡が、細長いシャフトと、前記細長いシャフトに沿った軸からゼロではない角度で離れた視野方向と、を含み、前記ユーザ運動コマンドから前記内視鏡運動コマンドへの前記投影が、前記より少ない第2のDoFの前記回転が前記遠隔運動中心を中心とした3DoFの回転に転換された遠隔運動中心フレームへの変換を含む、請求項2に記載の外科用ロボットシステム。
  4. 前記1つ又は2つ以上のユーザインターフェースデバイスが、2つのハンドヘルドオブジェクトを含み、前記ハンドヘルドオブジェクトの各々が、他のデバイスに及び相互に物理的に接続されていない、請求項1に記載の外科用ロボットシステム。
  5. 外科用ロボットシステムによる内視鏡の制御方法であって、
    6自由度を有するハンドヘルドユーザ入力デバイスによる動きを検出することと、
    前記ハンドヘルドユーザ入力デバイスによる前記動きを、前記外科用ロボットシステムのロボットマニピュレータに結合された前記内視鏡の動きにマッピングすることと、
    前記内視鏡の前記動きを容易にするために、前記ロボットマニピュレータの1つ又は2つ以上の関節の動きを計算することと、
    計算された前記動きに従って前記1つ又は2つ以上の関節を駆動することと、を含む、方法。
  6. 前記6自由度が、3つの空間次元に沿った並進及び前記3つの空間次元を中心とした回転に対応し、前記1つ又は2つ以上の関節が、前記ロボットマニピュレータの6未満の自由度を提供する4つ以下の関節を含み、前記ハンドヘルドユーザ入力デバイスの前記動きを前記内視鏡の前記動きにマッピングすることが、ヨー及びピッチなしでロール空間内のみに投影することを含む、請求項5に記載の方法。
  7. 検出することが、2つのハンドヘルドユーザインターフェースオブジェクトの位置及び/又は配向の変化に基づいて前記動きを検出することを含み、前記動きが、前記2つのハンドヘルドユーザインターフェースオブジェクト間の中心におけるものである、請求項5に記載の方法。
  8. 検出することが、前記ハンドヘルドユーザ入力デバイスが1つ又2つ以上の繋がれていないオブジェクトを含むベースセンサによって前記動きを検出することを含む、請求項5に記載の方法。
  9. 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、直線並進を伝えることと、角運動を前記内視鏡のシャフト回転として投影することと、を含む、請求項5に記載の方法。
  10. 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、前記内視鏡の観察者のゼロではない角度に基づいて、前記ロボットマニピュレータの遠隔運動中心から制御点までの軸を中心とした角運動をマッピングすることを含む、請求項5に記載の方法。
  11. 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、前記ロボットマニピュレータの遠隔運動中心によって前記内視鏡の前記動きを拘束することを含む、請求項5に記載の方法。
  12. 前記ハンドヘルドユーザ入力デバイスによる前記動きを前記内視鏡の前記動きにマッピングすることが、前記ハンドヘルドユーザ入力デバイスによる前記動きを前記ロボットマニピュレータの遠隔運動中心参照フレームに投影することを含む、請求項11に記載の方法。
  13. 投影することが、前記ハンドヘルドユーザ入力デバイスの前記動きからヨー及びピッチを除去することと、前記内視鏡のヨー及びピッチを追加して前記遠隔運動中心を維持することと、を含む、請求項12に記載の方法。
  14. 前記内視鏡の前記動きの直線成分をスケーリングすることを更に含み、前記スケーリングの量が、前記ロボットマニピュレータの遠隔運動中心からの前記内視鏡の距離に基づく、請求項5に記載の方法。
  15. 前記1つ又は2つ以上の関節の前記動きを計算することが、逆運動学を実施することを含む、請求項5に記載の方法。
  16. 外科用ロボットシステムによる内視鏡の制御方法であって、
    空間内の3つの軸を中心とした入力並進及び入力回転を感知することと、
    前記3つの軸を中心とした前記入力回転を、ロボットアームに据え付けられた前記内視鏡の単一軸を中心とした回転に投影することと、
    前記ロボットアームを制御して、感知された前記入力並進及び単一軸を中心とした保護された前記回転に基づいて前記内視鏡を移動させることと、を含む、方法。
  17. 感知することが、ユーザの左手にある第1のハンドヘルドの物理的に接続されていないオブジェクトを感知することと、前記ユーザの右手にある第2のハンドヘルドの物理的に接続されていないオブジェクトを感知することと、を含み、前記3つの軸を中心とした前記入力並進及び入力回転が、前記第1のハンドヘルドの物理的に接続されていないオブジェクトと前記第2のハンドヘルドの物理的に接続されていないオブジェクトとの間の中心点での6自由度に対応する、請求項16に記載の方法。
  18. 投影することが、前記感知から前記内視鏡に対する入力運動コマンドに投影することを含む、請求項16に記載の方法。
  19. 前記内視鏡に対する前記入力運動コマンドから前記ロボットアームの遠隔運動中心フレームに投影することと、前記ロボットアームの前記遠隔運動中心フレームから前記ロボットアームに対する関節位置コマンドに投影することと、を更に含む、請求項18に記載の方法。
  20. 前記内視鏡に対する前記入力運動コマンドから前記遠隔運動中心フレームに投影することが、前記内視鏡のアームフレームから前記遠隔運動中心フレームに変換することと、前記遠隔運動中心フレームから前記アームフレームに逆変換して前記遠隔運動中心フレームからの回転を追加することと、を含む、請求項18に記載の方法。
JP2023513378A 2020-08-27 2020-08-27 外科用ロボットによる内視鏡の制御 Pending JP2023539864A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/004,277 US20220061936A1 (en) 2020-08-27 2020-08-27 Control of an endoscope by a surgical robot
US17/004,277 2020-08-27
PCT/US2020/048138 WO2022046053A1 (en) 2020-08-27 2020-08-27 Control of an endoscope by a surgical robot

Publications (1)

Publication Number Publication Date
JP2023539864A true JP2023539864A (ja) 2023-09-20

Family

ID=80355526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023513378A Pending JP2023539864A (ja) 2020-08-27 2020-08-27 外科用ロボットによる内視鏡の制御

Country Status (6)

Country Link
US (1) US20220061936A1 (ja)
EP (1) EP4203830A4 (ja)
JP (1) JP2023539864A (ja)
KR (1) KR20230058115A (ja)
CN (1) CN116056655A (ja)
WO (1) WO2022046053A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230009907A1 (en) * 2021-07-06 2023-01-12 Verb Surgical Inc. Projection operator for inverse kinematics of a surgical robot for low degree of freedom tools
US20230011725A1 (en) * 2021-07-06 2023-01-12 Verb Surgical Inc. Projection of user interface pose command to reduced degree of freedom space for a surgical robot
GB2621576A (en) * 2022-08-15 2024-02-21 Cmr Surgical Ltd Control system of a surgical robot
WO2024106869A1 (ko) * 2022-11-14 2024-05-23 (주)엘엔로보틱스 조작 핸들을 포함하는 시술 도구 제어 시스템

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010009065B4 (de) * 2010-02-23 2018-05-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Eingabevorrichtung für medizinische minimal-invasive Roboter oder medizinische Simulatoren sowie medizinisches Gerät mit Eingabevorrichtung
US9119655B2 (en) * 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
EP2884936A4 (en) * 2012-08-15 2016-04-27 Intuitive Surgical Operations DEGREES OF FREEDOM GHOSTS FOR HANDLING THE MOVEMENT OF SURGICAL SYSTEMS
CN108025445A (zh) * 2015-07-23 2018-05-11 斯里国际 机器人臂及机器人手术系统
US10052164B2 (en) * 2015-10-02 2018-08-21 Ethicon Llc System and method of converting user input into motion of a surgical instrument via a robotic surgical system
CN109219413A (zh) * 2016-06-03 2019-01-15 柯惠Lp公司 多输入机器人手术系统控制方案
WO2018013965A1 (en) * 2016-07-14 2018-01-18 Intuitive Surgical Operations, Inc. Systems and methods for controlling a surgical instrument
US11284957B2 (en) * 2019-03-15 2022-03-29 Cilag Gmbh International Robotic surgical controls with force feedback

Also Published As

Publication number Publication date
KR20230058115A (ko) 2023-05-02
EP4203830A4 (en) 2024-05-01
US20220061936A1 (en) 2022-03-03
CN116056655A (zh) 2023-05-02
EP4203830A1 (en) 2023-07-05
WO2022046053A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
US10874467B2 (en) Methods and devices for tele-surgical table registration
US9283049B2 (en) Control system configured to compensate for non-ideal actuator-to-joint linkage characteristics in a medical robotic system
Hagn et al. DLR MiroSurge: a versatile system for research in endoscopic telesurgery
JP7257559B2 (ja) コンピュータ支援遠隔操作システムにおける補助器具制御
JP2023539864A (ja) 外科用ロボットによる内視鏡の制御
JP2017513549A (ja) モード移行において振動を減衰させる指令形成
Mirbagheri et al. Design and development of an effective low-cost robotic cameraman for laparoscopic surgery: RoboLens
Bihlmaier et al. Endoscope robots and automated camera guidance
US20230011725A1 (en) Projection of user interface pose command to reduced degree of freedom space for a surgical robot
CN114599302A (zh) 调节外科机器人臂的关节空间速度
US20230263585A1 (en) Method and system for coordinated multiple-tool movement using a drivable assembly
US20230009907A1 (en) Projection operator for inverse kinematics of a surgical robot for low degree of freedom tools
US12004829B2 (en) Inverse kinematics of a surgical robot for teleoperation with hardware constraints
US20210378769A1 (en) Inverse kinematics of a surgical robot for teleoperation with hardware constraints
US11571269B2 (en) Surgeon disengagement detection during termination of teleoperation
US20230270510A1 (en) Secondary instrument control in a computer-assisted teleoperated system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240522