JP2023520191A - 外科手術用ロボットを制御するための仮想コンソール - Google Patents

外科手術用ロボットを制御するための仮想コンソール Download PDF

Info

Publication number
JP2023520191A
JP2023520191A JP2022557858A JP2022557858A JP2023520191A JP 2023520191 A JP2023520191 A JP 2023520191A JP 2022557858 A JP2022557858 A JP 2022557858A JP 2022557858 A JP2022557858 A JP 2022557858A JP 2023520191 A JP2023520191 A JP 2023520191A
Authority
JP
Japan
Prior art keywords
operator
virtual
virtual reality
head
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022557858A
Other languages
English (en)
Other versions
JP7445377B2 (ja
Inventor
デイビッド ロナルド ヘアーズ,ルーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CMR Surgical Ltd
Original Assignee
CMR Surgical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CMR Surgical Ltd filed Critical CMR Surgical Ltd
Publication of JP2023520191A publication Critical patent/JP2023520191A/ja
Application granted granted Critical
Publication of JP7445377B2 publication Critical patent/JP7445377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

基部、および基部から器具の取り付け部まで延在するアームを有するロボットを備える外科手術用ロボットを制御するためのシステムおよび方法であって、アームが、複数のジョイントを備え、それによって、アームの構成が、変更されることができる、システムおよび方法。システムは、ディスプレイ装置であって、ディスプレイ装置のオペレータに仮想画面を提示するように構成されており、仮想情景が、外科手術部位のリアルタイムビデオストリームの表現が表示される仮想画面を含む、ディスプレイ装置と、空間内の1つ以上の自由空間入力の位置を追跡するように構成された入力追跡システムと、1つ以上の自由空間入力の追跡された位置を1つ以上の制御信号に変換して、外科手術用ロボットのアームの位置を制御するように構成された制御ユニットと、を含む。【選択図】図4

Description

外科手術を補助および実施するためにロボットを使用することが知られている。図1は、基部108、アーム102、および器具105からなる、典型的な外科手術用ロボット100を例示している。基部は、ロボットを支持し、それ自体が、例えば、手術室の床、手術室の天井、またはトロリーにしっかりと取り付けられている。アームは、基部と器具との間に延在する。アームは、その長さに沿って、外科手術用器具を患者に対して所望の場所に位置特定するために使用される複数の可撓性ジョイント103によって関節式に連結されている。外科手術用器具は、ロボットアームの遠位端104に取り付けられる。外科手術用器具は、外科手術部位にアクセスするように、ポート107で患者101の身体を貫通する。その遠位端において、器具は、医療手技に関与するためのエンドエフェクタ106を含む。図1の外科手術用ロボット100は、単一のアームを有するが、他の例では、外科手術用ロボットは、各々が異なる器具に結合することができる複数のアームを備えてもよく、または、各々が1つ以上の器具に結合することができる複数の外科手術用ロボットがあってもよい。
外科手術用ロボット100は、典型的には、外科手術用ロボット100と同じ部屋(例えば、手術室)内、またはそこから遠隔に位置し得る、物理的オペレータコンソールを介して、オペレータ(例えば、外科医)によって遠隔制御される。例示の物理的オペレータコンソール200が図2に示されている。オペレータコンソール200は、アーム102および/またはアーム102に取り付けられた器具105の状態を制御するための入力装置202、204を含む。入力装置202、204は、例えば、ハンドグリップまたはハンドコントローラ(例えば、各手に対して1つ)であってよく、その上に1つ以上のボタンがあり、平行四辺形リンケージ上に装着されていてもよい。制御システムは、ハンドコントローラの動きを制御信号に変換して、外科手術用ロボットのアームジョイントおよび/または器具エンドエフェクタを移動させる。いくつかの場合、制御システムは、ハンドコントローラの空間内の位置およびそれらの配向に基づいて、アームジョイントおよび/または器具エンドエフェクタを移動させる制御信号を生成するように構成される。オペレータコンソール200はまた、ディスプレイ206を備える。ディスプレイ206は、入力装置202、204を操作するオペレータに対して可視であるように配置される。ディスプレイは、外科手術部位のビデオストリーム(例えば、内視鏡によって捕捉されたビデオストリーム、および/もしくは別のカメラまたは顕微鏡(開腹手術で使用されるものなど)を捕捉されたビデオストリーム)ならびに/または他の情報を表示して、外科手術を実施する際にオペレータ(例えば、外科医)を支援するために使用される。ディスプレイは、二次元(2D)または三次元(3D)であってもよい。
物理的オペレータコンソールは、外科手術用ロボットから遠隔に位置し得るが、可能な場合、オペレータ(例えば、外科医)が患者および外科手術チームの残りの人員と同じ部屋に(したがって、近い距離に)いることを可能にするように、外科手術用ロボットと同じ部屋(例えば、手術室)に物理的オペレータコンソールを有することが好ましい。一般に、外科手術用ロボット(複数可)は、手術室の中央部分の患者のベッドの周り、典型的には部屋の周辺に向かう、他の場所に位置する物理的オペレータコンソールと共に配置される。外科手術用ロボットを制御するための物理的オペレータコンソールは、外科手術用ロボットの非常に精密な制御を可能にするが、それらは、多くの場合、非常に大きく、かつ嵩張るため、多くの空間を占有する。多くの場合、それらのサイズは、物理的オペレータコンソール、および限定されるものではないが、麻酔カートなどの必要な機器のすべてを収容する、手術室の1つまたは2つの構成のみが存在し得るため、手術室の構成およびセットアップを制限する。また、それらのサイズはまた、病院または外科手術(例えば、異なる手術室の間)内における、または第1の配置における病院または外科手術への移動を困難にし得、そのような物理的オペレータコンソールはまた、典型的には、外科手術用ロボットシステムの実装から、病院または外科手術に障害となり得る非常に高価なものである。
したがって、外科手術用ロボットを正確に制御するための、小さい(例えば、占有面積の観点で)、かつ安価な手段またはシステムに対する望みが存在する。
以下に記載される実施形態は、単に実施例として提供されるものであり、既知の外科手術用ロボットシステムおよび/またはそのための制御システムの不利益の一部またはすべてを解決する実装形態を限定するものではない。
この概要は、以下で詳細な説明でさらに記述される概念の選択を紹介するために提供される。この概要は、特許請求された主題の主要な特徴または必須の特徴を識別することを意図しておらず、特許請求された主題の範囲を制限するために使用することも意図していない。
基部、および基部から器具の取り付け部まで延在するアームを有するロボットを備える外科手術用ロボットを制御するためのシステムおよび方法が本明細書に開示され、アームは、複数のジョイントを備え、それによって、アームの構成が、変更されることができる。システムは、仮想現実ディスプレイ装置であって、仮想現実ディスプレイ装置のオペレータに仮想現実情景を提示するように構成されており、仮想現実情景が、外科手術部位のリアルタイムビデオストリームの表現が表示される仮想画面を含む、ディスプレイ装置と、空間内の1つ以上の自由空間入力の位置および/または配向を追跡するように構成された入力追跡システムと、1つ以上の自由空間入力の追跡された位置および/または配向を1つ以上の制御信号に変換して、外科手術用ロボットのアームの位置を制御するように構成された制御ユニットと、を含む。
第1の態様は、外科手術用ロボットを制御するためのシステムを提供し、外科手術用ロボットが、基部と、基部から器具のための取り付け部に延在するアームと、を備え、アームが、複数のジョイントを備え、それによって、アームの構成が、変更されることができ、システムが、ディスプレイ装置であって、ディスプレイ装置のオペレータに仮想画面を提示するように構成されており、外科手術部位のリアルタイムビデオストリームの表現が、仮想画面上に表示される、ディスプレイ装置と、1つ以上の自由空間入力の位置および/または配向を追跡するように構成された入力追跡システムと、1つ以上の自由空間入力の追跡された位置および/または配向を、外科手術用ロボットのアームの位置を制御する1つ以上の制御信号に変換するように構成された制御ユニットと、を備える。
ディスプレイ装置が、仮想現実ディスプレイ装置であって、仮想現実情景のビューを仮想現実ディスプレイ装置のオペレータに提示するように構成された、仮想現実ディスプレイ装置を含み得、仮想現実情景が、仮想画面を含む。
仮想現実ディスプレイ装置が、仮想現実ヘッドセットを含み得る。
仮想現実ディスプレイ装置は、オペレータがディスプレイ装置を使用しているときに、オペレータの頭部および/またはオペレータの視線の位置を追跡するように構成された1つ以上のセンサを備え得、仮想現実ディスプレイ装置が、1つ以上のセンサから、オペレータの頭部の位置の変化および/またはオペレータの視線の変化を検出することに応答して、オペレータに仮想画面の異なるビューを提示するようにさらに構成され得る。
前記仮想現実ディスプレイ装置は、オペレータの頭部および/またはオペレータの視線が第1の位置にあることを検出することに応答して、仮想画面が可視である仮想現実情景のビューを提示するように構成され得る。
仮想現実ディスプレイ装置は、オペレータの頭部および/またはオペレータの視線が、第1の位置に対して第1の方向に移動していることを検出することに応答して、別の仮想物体が表示される仮想現実情景のビューを提示するように構成され得る。
他の仮想物体が、外科手術用ロボットのリアルタイム表現であり得る。
他の仮想物体が、外科手術用ロボットおよび患者のリアルタイム表現であり得る。
他の仮想物体が、1つ以上の患者術前スキャンの表現であり得る。
仮想現実ディスプレイ装置は、オペレータの頭部および/またはオペレータの視線が、第1の位置に対して第2の方向に移動していることを検出することに応答して、さらなる仮想物体が表示される仮想現実情景のビューを提示するように構成され得る。
ディスプレイ装置が、現実世界内の仮想物体としてオペレータに仮想画面を提示するように構成された拡張現実ディスプレイ装置または複合現実ディスプレイ装置を含み得る。
ディスプレイ装置が、拡張現実ヘッドセットまたは複合現実ヘッドセットを含み得る。
ディスプレイ装置は、オペレータがディスプレイ装置を使用しているときに、オペレータの頭部および/またはオペレータの視線の位置を追跡するように構成された1つ以上のセンサを備え得、ディスプレイ装置が、1つ以上のセンサから、オペレータの頭部の位置の変化および/またはオペレータの視線の変化を検出することに応答して、オペレータに仮想画面の異なるビューを提示するようにさらに構成され得る。
ビデオストリーム内に示される外科手術部位の視野が、オペレータの頭部またはオペレータの視線の動きによって自動的に制御されなくてもよい。
1つ以上の自由空間入力が、ハンドコントローラを含み得る。
制御ユニットは、外科手術用ロボットのアームまたはそれに取り付けられた器具のアームが、その上に及ぼされた力を有していることを検出することに応答して、力フィードバックをオペレータに提供させるようにさらに構成され得る。
制御ユニットが、検出された力の大きさに基づいて、フィードバックのパラメータを調節するようにさらに構成され得る。
外科手術部位のビデオストリームが、内視鏡によって捕捉され得る。
内視鏡が、外科手術用ロボットのアームに取り付けられ得、内視鏡の位置が、外科手術用ロボットによって制御され得る。
ディスプレイ装置が、外科手術部位のビデオストリームを受信し、外科手術部位のビデオストリームから仮想画面を生成するようにさらに構成され得る。
システムが、外科手術用ロボットをさらに備え得る。
外科手術部位のリアルタイムビデオストリームが、画像捕捉装置によって捕捉され得る。制御ユニットが、画像捕捉装置の所望の位置および/または視野を示す1つ以上の自由形式入力のうちの少なくとも1つからオペレータ入力を受信し、受信されたオペレータ入力に応じて、画像捕捉装置の位置および/または視野を制御するようにさらに構成され得る。
第2の態様は、外科手術用ロボットを制御する方法を提供し、外科手術用ロボットが、基部と、基部から器具のための取り付け部に延在するアームと、を備え、アームが、複数のジョイントを備え、それによって、アームの構成が、変更されることができ、方法が、ディスプレイ装置を使用して、外科手術部位のビデオストリームの表現が表示される仮想画面を提示することと、入力追跡システムを使用して、1つ以上の自由空間入力の空間内の位置を追跡することと、1つ以上の入力の追跡された位置を1つ以上の制御信号に変換して、外科手術用ロボットのアームの位置を制御することと、を含む。
方法が、外科手術部位のビデオストリームを受信することと、外科手術部位のビデオストリームから仮想画面を生成することと、をさらに含み得る。
上記の特徴は、当業者に明らかであるように、必要に応じて組み合わされてもよく、本明細書に記載される実施例の態様のうちのいずれかと組み合わされてもよい。
ここで、実施例を、添付の図面を参照しながら詳細に説明する。
例示の外科手術手技を実施する例示の外科手術用ロボットの概略図である。 例示の物理的オペレータコンソールの概略図である。 例示の外科手術用ロボットの概略図である。 外科手術用ロボットを制御するための例示のシステムのブロック図である。 図4のシステムによって生成され得る、第1の例示の仮想現実情景の概略図である。 図4のシステムによって生成され得る、第2の例示の仮想現実情景の概略図である。 図4のシステムで使用され得る、例示のハンドコントローラの概略図である。 外科手術用ロボットを制御するための例示の方法のフロー図である。
添付の図面は、様々な実施例を例示している。当業者は、図面中の示された要素の境界(例えば、箱、箱のグループ、または他の形状)が、境界の一例を表すことを理解するであろう。いくつかの実施例では、1つの要素は、複数の要素として設計され得るか、または複数の要素が、1つの要素として設計され得る場合がある。同様の特徴を示すために、適切な場合、図全体を通して共通の参照番号が使用される。
以下の説明は、当業者が本発明を作製および使用することができるようにするための実施例として提示されている。本発明は、本明細書に記載される実施形態に限定されないが、開示される実施形態に対する様々な修正は、当業者には明らかであろう。実施形態は、例としてのみ説明されている。
本明細書では、仮想コンソールを介して外科手術用ロボットを制御するためのシステムおよび方法が説明される。具体的には、システムは、仮想現実ディスプレイ装置(限定されるものではないが、仮想現実ヘッドセット)であって、仮想現実ディスプレイ装置のオペレータに仮想現実情景を提示するように構成されており、仮想現実情景が、外科手術部位のリアルタイムビデオストリームの表現が表示される仮想画面を含む、ディスプレイ装置と、空間内の1つ以上の自由空間入力の位置および/または配向を追跡するように構成された入力追跡システムと、1つ以上の自由空間入力の追跡された位置および/または配向を1つ以上の制御信号に変換して、外科手術用ロボットのアームの位置を制御するように構成された制御ユニットと、を備える。
外科手術用ロボットを制御するための本明細書に説明されるシステムは、典型的には、外科手術用ロボットを制御するための物理的オペレータコンソールよりも小さく(例えば、占有面積の観点で)、物理的オペレータコンソールよりも多くの手術室構成でそれらが使用されることを可能にする。本明細書に説明されるシステムはまた、オペレータが物理的オペレータコンソールと同じ様式でシステムと対話する(したがって外科手術用ロボットを制御する)ことを可能にするため、外科手術用ロボットを制御するための非常に自然かつ直感的なインターフェースを提供する。また、以下でより詳細に説明されるように、オペレータが外科手術部位に没入する仮想現実情景を提供する代わりに、外科手術部位のビデオストリームの表現が表示される仮想画面を、オペレータに提供することによって、オペレータの頭部の動きをビデオ補足機器(例えば、内視鏡)にマッピングすることに伴う問題を回避する。
ここで、本明細書に説明されるシステムおよび方法によって制御され得る例示の外科手術用ロボット300を例示する図3を参照する。外科手術用ロボット300は、外科手術手技が実施されるときに定位置に固定される基部304から延在するアーム302を備える。いくつかの場合、基部304は、シャーシに装着され得る。シャーシは、例えば、ロボットをベッドの高さに装着するためのベッドサイドカートなどのカートであってもよい。代替的に、シャーシは、天井に装着された装置、またはベッドに装着された装置であってもよい。
アーム302は、ロボットの基部304から外科手術用器具308用の取り付け部306まで延在する。アームは、可撓性である。アームは、その長さに沿って複数の可撓性ジョイント310によって関節式に連結される。ジョイント間にあるのは、剛性アーム部材312である。図3のアームは、7つのジョイントを有する。ジョイントは、1つ以上のロールジョイント(ジョイントのいずれかの側上のアーム部材の長手方向に沿った回転軸を有する)、1つ以上のピッチジョイント(前のアーム部材の長手方向に対して横方向の回転軸を有する)、および1つ以上のヨージョイント(また、前のアーム部材の長手方向に対して横方向であり、かつ同じ場所に位置するピッチジョイントの回転軸に対しても横方向の回転軸を有する)を含む。しかしながら、アームは、別様に接合され得る。例えば、アームは、より少ないかまたはより多いジョイントを有する場合がある。アームは、ジョイント、例えば、テレスコピックジョイントのそれぞれの側面の間の回転以外の動きを許容するジョイントを含み得る。ロボットは、ドライバ314のセットを含み、各ドライバ314は、ジョイント310のうちの1つ以上を駆動する。
取り付け部306は、外科手術用器具308がアームの遠位端に取り外し可能に取り付けられることを可能にする。外科手術用器具308は、直線状の剛直なシャフトおよびシャフトの遠位端にある作業チップを有する。作業チップは、医療手技に関与するためのエンドエフェクタを含む。外科手術用器具は、アームの末端ジョイントの回転軸と直線的に平行に延在するように構成されてもよい。例えば、外科手術用器具は、アームの末端ジョイントの回転軸と一致する軸に沿って延在してもよい。外科手術用器具308は、例えば、切断装置、把持装置、焼灼装置、または画像捕捉装置(例えば、内視鏡)であってもよい。
ロボットアームは、一連のセンサ316、318を備える。これらのセンサは、ジョイントごとに、ジョイントの位置を検知するための位置センサ316、およびジョイントの回転軸の周りに加えられたトルクを検知するためのトルクセンサ318を備える。ジョイントの位置センサおよびトルクセンサのうちの一方または両方を、そのジョイントのモータと一体化させることができる。
ここで、仮想コンソールを介して外科手術用ロボット402(図3の外科手術用ロボット300として実施され得る)の動作を制御するための例示のシステム400を例示する、図4を参照する。
システム400は、仮想現実ディスプレイ装置404、入力追跡システム406、および制御ユニット408を備える。
仮想現実ディスプレイ装置404は、外科手術部位412のビデオストリーム410を受信することと、ビデオストリームのリアルタイム表現が表示される仮想画面を含む仮想現実情景を生成することと、仮想現実ディスプレイ装置のオペレータに仮想現実情景のビューを提示することと、を行うように構成されている。外科手術部位412のビデオストリーム410は、内視鏡414または別の好適な画像捕捉装置によって捕捉され得る。当業者に既知であるように、ロボットによって実施される外科手術手技中、内視鏡414は、典型的には、身体の小さな切開、または、限定されるものではないが、口または鼻孔などの、自然な開口部を通して挿入される。内視鏡は、外科手術部位に光を提供し、反射光を捕捉する、光ファイバのセットを備える、剛直または可撓性の管である。反射光は、外科手術部位のリアルタイム画像(すなわち、ビデオストリーム)を表す。いくつかの場合、内視鏡自体は、反射された光をリアルタイム画像に変換する小さなカメラをその先端に含み得る。しかしながら、他の場合、内視鏡先端によって捕捉された反射光は、反射光をリアルタイム画像に変換するより大きいカメラに提供される。外科手術用ロボットのオペレータ(例えば、外科医)は、外科手術部位のリアルタイム画像を使用して、どの外科手術ステップが実施されるかを決定し、所望の外科手術ステップを実施するために外科手術用ロボットを制御する。外科手術部位412のビデオストリーム410は、画像捕捉装置(例えば、内視鏡414)から、任意の好適な様式で仮想現実ディスプレイ装置404に提供され得る。例えば、外科手術部位のビデオストリームは、直接的または間接的に、限定されるものではないが、イーサネットまたはWi-Fi(登録商標)接続などの、有線または無線通信接続を介して、画像捕捉装置(例えば、内視鏡414)から仮想現実ディスプレイ装置404に提供され得る。
いくつかの場合、外科手術部位412のビデオストリーム410は、外科手術用ロボット402のロボットアームのうちの1つに取り付けられ、かつそれによって制御された画像捕捉装置415(例えば、内視鏡)によって捕捉されてもよい。しかしながら、他の場合では、外科手術部位412のビデオストリーム410は、手動で制御された画像捕捉装置(例えば、内視鏡)によって捕捉され得る。いくつかの場合、外科手術用ロボットが複数のロボットアームを有する場合、外科手術用ロボット402のオペレータは、動作可能な内視鏡がロボットアームのうちの1つに取り付けられ、かつ制御されない限り、外科手術モードで(すなわち、外科手術手技を実施するために)外科手術用ロボット402のロボットアームを操作することができない場合がある。
米国特許出願公開第2017/0181802号に説明されるものなどの、外科手術を実施するための既知の仮想現実ディスプレイ装置とは対照的に、図4の仮想現実ディスプレイ装置404は、患者416の体内に没入されるようにオペレータ(例えば、外科医)に感じさせる仮想現実情景(ビデオストリームに基づく)を生成しない。具体的には、外科手術を実施する際に使用するための既知の仮想現実ディスプレイ装置は、外科手術部位のビデオストリームを受信し、そこから、オペレータが患者の体内にいるかのようにオペレータに感じさせる仮想現実情景を生成する。これらのシステムの多くでは、没入型体験を完成させるために、オペレータの頭部の位置が追跡され、オペレータがその頭部を動かすと、画像捕捉装置(例えば、内視鏡)の視野がオペレータの頭部に従って自動的に調節されて、外科手術部位の異なる仮想ビューをオペレータに提示する。例えば、オペレータがその頭を右に動かす場合、画像捕捉装置(例えば、内視鏡)は、その視野が以前の視野の右にあるように自動的に調節されて、外科手術部位の以前の視野の右にある外科手術部位の仮想ビューをオペレータに提示することができる。そのようなシステムの利点の1つは、入力装置の位置および/または動きと、ロボットアームに取り付けられたエンドエフェクタの位置および/または動きとの間のマッピングが、オペレータがその頭部を動かす際に変化する必要がないことである。これは、そのようなシステムでは、オペレータに対する入力装置の位置/動きが、仮想現実情景におけるエンドエフェクタの動きと常に一致することになるためである(例えば、一度マッピングされると、入力装置を右に動かすことは、内視鏡の視野またはオペレータの頭部の位置に関係なく、エンドエフェクタを右に動かすことになる)。
しかしながら、そのようなシステムの技術的課題の1つは、内視鏡が、典型的には、オペレータの頭部と同じ様式では動くことができないことであり、オペレータの頭部の位置および/または動きを、内視鏡の位置および/または動きにマッピングすることが困難になることである。具体的には、内視鏡が、典型的には、ポートで支点を通過する長いシャフトの端にレンズを含むため、内視鏡の動きは、オペレータの頭部と類似の様式で動くことができないように制限される。例えば、人員は、その頭部を左右におよそ90度回すことができるが、内視鏡は、90度回転することができない。これは、オペレータの頭部の位置および/または動きを内視鏡の位置および/または動きに直接マッピングすることを困難にし、オペレータに真にまたは完全な没入型体験を提供することを困難にする。
したがって、患者の体内にオペレータ(例えば、外科医)を没入させる仮想現実情景を生成するように構成される仮想現実ディスプレイ装置とは対照的に、本明細書に説明されるシステムおよび方法では、仮想現実ディスプレイは、外科手術部位412のビデオストリーム410の表現が表示される仮想画面を含む仮想現実情景を生成するように構成されており、これは、図2の例示の物理的オペレータコンソール200内の物理的ディスプレイ206がオペレータ(例えば、外科医)に外科手術部位のビデオストリームの表現を表示することとほぼ同じ方式である。外科手術部位のビデオストリームの表現が仮想画面上に提示されるため、オペレータの頭部の動きは、仮想画面のオペレータのビューまたは視点を変化させ得るが、画像捕捉装置の(例えば、内視鏡414の)視野または外科手術部位412の視点を自動的に変化させない。したがって、本明細書に説明されるシステムおよび方法では、オペレータの頭部の動きは、画像捕捉装置の(例えば、内視鏡414の)位置または外科手術部位の視野を自動的に変化させない。対照的に、本明細書に説明されるシステムおよび方法では、画像捕捉装置の(例えば、内視鏡414の)位置または視野は、別の様式で(例えば、1つ以上の入力を介して、または手動で)制御される。このようにして、オペレータ(例えば、外科医)は、オペレータが物理的コンソールの物理的ディスプレイと対話するのと同じ方式で、仮想画面と対話し得る。これは、本明細書に説明されるシステム400が、オペレータに非常に直感的な制御体験を提供することを可能にする。
仮想現実ディスプレイ装置404は、外科手術部位412のビデオストリーム410を受信することと、ビデオストリームの表現が表示される仮想画面を含む仮想現実情景を生成することと、オペレータに仮想現実情景のビューを提示することと、を行うように構成されたプロセッサ(図示せず)を備え得る。オペレータに提示された仮想現実情景のビューの解像度、および/またはそのリアルタイム更新の待ち時間は、仮想現実情景が、外科手術用ロボット402を制御して外科手術手技を実施するために使用され得るように構成され得る。仮想現実ディスプレイ装置404はまた、オペレータの(例えば、外科医の)頭部および/または視線の位置および配向を追跡するためのセンサシステムを備え得る。次いで、追跡された位置および配向情報は、オペレータに提示された仮想現実情景のビューまたは視点を更新して、オペレータが仮想現実情景に没入しているかのようにオペレータに感じさせるためにプロセッサによって使用され得る。例示の位置および配向センサとしては、限定されるものではないが、ジャイロスコープ、加速度計、構造化光追跡システム(例えば、赤外線追跡センサ)、ならびに位置および/または配向の追跡に好適な任意の他のセンサが挙げられる。
いくつかの場合、図4に示されるように、仮想現実ディスプレイ装置404は、VRゴーグルとも呼ばれ得る仮想現実(VR)ヘッドセットを含み得る。当業者に知られているように、VRヘッドセットは、着用者に仮想現実を提供するように構成されているヘッドマウントディスプレイ(HMD)である。具体的には、VRヘッドセットは、ユーザの自然環境を、仮想現実環境の一人称視点(FPV)で置換する画像を表示する、着用者の目の前の1つ以上のモニタを有する、頭部に着用される装置である。VRヘッドセットは、典型的には、ユーザの位置、配向、および/または視線を追跡するために、上記に説明されるものなどのセンサを備え、それにより、仮想現実環境のビューまたは視点は、上記に説明されたようにユーザが仮想現実環境内で動いている印象をユーザに与えるために、ユーザが動くと自動的に更新され得る。VRヘッドセットは、限定されるものではないが、Oculus Rift(登録商標)、HTC Vive(登録商標)、PlayStation(登録商標)VR、またはSamsung(登録商標)Gear VRなどの任意の好適な仮想現実ヘッドセットであってもよい。
仮想現実ディスプレイ装置は、外科手術部位のビデオストリームを受信し、それに基づく仮想現実情景または仮想現実環境を生成するように構成されるものとして上記に説明されているが、他の例では、別の装置は、外科手術部位のビデオストリームを受信し、それに基づく仮想現実情景を生成し、生成された情景を仮想現実ディスプレイ装置に提供するように構成され得る。これらの例では、仮想現実ディスプレイ装置は、仮想現実情景の適切なビューをオペレータに単に提示するように構成され得る。
ここで、図4の仮想現実ディスプレイ装置404によって生成され得る例示の仮想現実情景500を例示する図5を参照する。上記に説明されたように、仮想現実情景500は、外科手術部位412のビデオストリーム410の表現504が表示される仮想画面502を含む。外科手術部位412のビデオストリーム410は、患者の解剖学的構造506の画像を含み得る。外科手術部位412のビデオストリーム410はまた、外科手術用ロボット402に取り付けられ、かつそれによって制御される、器具エンドエフェクタ508の画像を含み得る。仮想画面502は、オペレータの頭部が第1の位置に位置付けられるとき、オペレータが仮想画面502のすべてを見ることができる仮想現実情景500の第1のビュー510を提示され得、オペレータがその頭部を第2の位置に動かすとき、オペレータが仮想情景502の一部分のみを見ることができる仮想現実情景500の第2のビュー512を提示され得るように、仮想現実情景内で静止し得る。しかしながら、図5に示されるように、仮想画面に示される外科手術部位の視野は、両方のビュー510、512で同一であり、仮想画面のビューのみが変化する。当業者には、これが、ユーザに提示された仮想現実情景内の仮想画面502上に表示され得る情報の単なる一例であり、仮想画面502が、追加のおよび/または異なる情報を表示するために使用され得ることが明白であろう。例えば、外科手術部位のビデオストリームの表現を表示することに加えて、仮想画面502は、表示することに限定されないが、器具の状態(例えば、任意の電気外科手術用器具のエネルギー状態など)、外科手術用ロボットアーム、および/もしくはハンドコントローラに関する情報、警報、ならびに/または外科手術手技を実施する際にオペレータに補助を提供する情報を表示するためにも使用され得る。
仮想画面を介して外科手術部位412のビデオストリーム410の表現を表示するように仮想現実ディスプレイ装置404を構成することは、外科手術部位のビデオストリームの表現が没入型仮想現実情景としてオペレータ(例えば、外科医)に提示されたときに生じる、オペレータの頭部位置および/または動きを、画像捕捉装置(例えば、内視鏡)位置および/または動きをマッピングする技術的問題を有していない。仮想画面を介して外科手術部位412のビデオストリーム410の表現を表示するように仮想現実ディスプレイ装置404を構成することはまた、(i)他の情報が仮想現実情景に表示されることを可能にする、および/または(ii)オペレータの頭部および/または視線の動きがシステムの他の態様を制御するために使用されることを可能にし得る。本明細書に説明される方法およびシステムでは、ユーザの頭部の動きおよび位置は、画像捕捉装置の位置および動きを自動的に制御しないが(例えば、ユーザの頭部の右への動きは、画像捕捉装置の視野が右に動かされるように、画像捕捉装置を自動的に動くようにしない)、いくつかの場合、オペレータは、画像捕捉装置の位置および/または動きを制御することを支援するために、その頭部を依然として使用し得る。例えば、いくつかの場合、オペレータは、その頭部の動きを介して(例えば、左右にうなずくか、または片側に頭を傾けることによって)、画像捕捉装置の動きのためのコマンドを入力することができる場合がある。
具体的には、外科手術部位412のビデオストリーム410の表現が没入型仮想現実情景としてオペレータに提示される場合、任意の追加情報が外科手術部位のオペレータのビューを妨害し得るため、追加の情報(または顕著な量の追加情報)を表示するために、仮想現実情景内の空間が存在しない場合がある。しかしながら、本明細書に記載のシステムおよび方法では、外科手術部位のビデオストリームの表示が、仮想現実情景の仮想画面を介してオペレータ(例えば、外科医)に提示される場合、他の情報は、仮想画面およびその上に表示される外科手術部位412のビデオストリーム410の表示に影響を与えずに、仮想現実情景に表示することができる。例えば、仮想画面に加えて、仮想現実ディスプレイ装置によって生成される仮想現実情景は、限定されるものではないが、外科手術用ロボットのリアルタイム表現または外科手術用ロボットおよび患者のリアルタイム表現などの、他の仮想物体を含み得る。外科手術用ロボットのリアルタイム表現は、仮想現実ディスプレイ装置404のプロセッサによって、既知のビデオ処理技術を介して、手術室内の1つ以上の追加のカメラによって捕捉された外科手術用ロボットのビデオストリームから生成され得る。代替的に、または追加的に、外科手術用ロボットのリアルタイム表現は、外科手術用ロボットのセンサ(例えば、トルクセンサ)によって捕捉された位置および/または動きデータから生成され得る。同様に、患者のリアルタイム表現は、手術室内の1つ以上の追加のカメラによって捕捉された患者のビデオストリームから、または患者の位置および/もしくは動きを説明する1つ以上の他のセンサから捕捉された位置および/または動きデータから生成され得る。
さらに、画像捕捉装置(例えば、内視鏡)の位置および/または視野を制御するためにオペレータの頭部の動きおよび/または視線が使用されないとき、オペレータの頭部の動きおよび/または視線は、どの仮想物体が可視であるかを制御するなどの、仮想現実情景の他の態様を制御するために使用され得る。例えば、いくつかの場合、仮想現実ディスプレイ装置は、オペレータの頭部および/または視線が第1の位置にあるときに、仮想画面が可視である仮想情景のビューを提示し、オペレータ(例えば、外科医)が第1の位置から特定の方向(例えば、右)に、その頭を動かした、および/または視線を変えたことを仮想現実ディスプレイ装置が検出するとき、異なる仮想物体が表示され得る仮想情景のビューのビューを提示するように構成され得る。いくつかの場合、他の仮想物体は、例えば、外科手術用ロボットのリアルタイム表現であってもよい。他の場合、他の仮想物体は、患者および外科手術用ロボットの表現であってもよい。いくつかの場合、オペレータ(例えば、外科医)は、表現の間で選択することができる場合がある。例えば、オペレータ(例えば、外科医)は、外科手術用ロボットのみの表現と、外科手術用ロボットおよび患者の表現との間で選択することができる場合がある。オペレータ(例えば、外科医)はまた、表現のビューを選択または変更することができる場合がある。例えば、オペレータは、外科手術用ロボットおよび/または患者の垂直上の位置からの表現の平面図と、表現の斜視図との間で選択することができる場合がある。いくつかの場合、オペレータ(例えば、外科医)は、ボタンを押すこと、もしくは入力装置(例えば、ハンドコントローラ)上で入力を別様にアクティブ化することか、その頭部もしくは視線を異なる方向(例えば、上/下)に動かすことか、所定のジェスチャを実施することか、所定の音声コマンドを発話することか、または仮想画面もしくは仮想情景の他の箇所に表示されたメニューシステムを介して表現を選択することによって、表現を選択することができる場合がある。
いくつかの場合、仮想現実ディスプレイ装置404は、オペレータがその頭部またはその視線を第1の位置に対して異なる方向に動かしたことを検出することに応答して、仮想現実情景内の他の仮想物体をオペレータ(例えば、外科医)に表示するように構成され得る。仮想現実情景内にあり得る他の仮想物体の例としては、限定されるものではないが、手術室内の他の物体の表現、術前患者画像(例えば、X線など)の表現、および外科手術計画の表現が挙げられる。当業者には、これらは、単に例であり、仮想現実ディスプレイ装置が、仮想現実情景内に他の仮想物体を含むように構成され得ることが明白であろう。
ここで、仮想現実ディスプレイ404によって生成され得る第2の例示の仮想現実情景600を例示する図6を参照する。仮想現実情景600は、外科手術部位412のビデオストリーム410の表現を含み、また外科手術用ロボット402の仮想表現602および患者416の仮想表現604と、患者のX線の仮想表現606とを含む、図5の仮想画面502を含む。当業者には、これらが、仮想画面502を有する仮想現実情景内にあり得る仮想物体の例であり、他の仮想現実情景が、他のおよび/または追加の仮想物体を含み得ることが明白であろう。この例では、オペレータの頭部が第1の位置にあるとき、仮想現実ディスプレイ装置404は、仮想画面502が可視である仮想現実情景600のビュー608をオペレータに提示するように構成され得る。オペレータがその頭部を第1の位置から第1の方向610に動かすとき、仮想現実ディスプレイ装置404は、外科手術用ロボットおよび/または患者の仮想表現602、604が可視である仮想現実情景600の第2のビュー612をオペレータに提示するように構成され得る。オペレータがその頭部を第1の位置から第2の方向614に動かすとき、仮想現実ディスプレイ装置404は、患者のX線の仮想表現606が可視である仮想現実情景600の第3のビュー616をオペレータに提示するように構成され得る。この例では、仮想現実ディスプレイ装置404は、オペレータの頭部の動きを検出することに応答して、オペレータに提示される仮想現実情景のビューを調節するように構成されると説明されているが、他の例では、仮想現実ディスプレイ装置404は、オペレータの視線の変化を検出することに応答して、またはオペレータの視線もしくはオペレータの頭部位置の変化を検出することに応答して、オペレータに提示される仮想現実情景のビューを調節するように構成され得る。
図4に戻ると、入力追跡システム406は、1つ以上の自由空間入力418、420の位置および/または配向をリアルタイムで追跡し、制御ユニット408が、自由空間入力の追跡された位置および/または配向に従って外科手術用ロボット402を制御し得るように、リアルタイム位置追跡および/もしくは配向情報またはデータ422を制御ユニット408に提供するように構成されている。自由空間入力は、自由空間内のどこにでも位置付けられ得る、フリーハンドヘルドコントローラなどの入力である。言い換えると、自由空間入力は、その自由空間内の位置が制約されない入力である。対照的に、リンケージアセンブリに取り付けられたハンドコントローラなどの入力は、ハンドコントローラが取り付けられるリンケージによって位置が制約されるため、自由空間入力ではない。
いくつかの場合、1つ以上の自由空間入力418、420は、限定されるものではないが、オペレータの手および/または指のうちの1つ以上などの、オペレータの身体部位のうちの1つ以上を含み得る。したがって、これらの場合、入力追跡システム406は、リアルタイムで、オペレータの身体部位のうちの1つ以上の位置および/または配向(例えば、3Dにおける)を追跡するように構成され得る。入力追跡システム406は、限定されるものではないが、光学追跡システムまたは慣性追跡システムなどの、任意の好適な方法および/またはシステムを使用して、オペレータの身体部位のうちの1つ以上の位置および/または配向を追跡することができてもよい。1つ以上の自由空間入力が、オペレータの身体部位のうちの1つ以上を含む場合、オペレータは、任意の好適な手段を使用して外科手術用ロボット402を制御するために、追跡された位置および/または配向情報の使用を有効化および無効化することができてもよい。例えば、オペレータは、追跡された身体部位(例えば、手および/または指)で所定のジェスチャまたはジェスチャのセットを実施することによって、外科手術用ロボットを制御するための追跡された位置および/または配向情報の使用を有効化および無効化することができてもよい。
当業者に公知のように、光学追跡システムは、身体部位(例えば、カメラなどの画像センサから)の画像を捕捉し、捕捉された画像から位置および/または配向を決定するように構成されている。いくつかの場合、身体部位は、より多くのマーカであるものを備えてもよく、身体部位の位置は、画像中のマーカの位置から決定される。マーカは、例えば、画像センサによって、またはその近くで生成される光を反射する再帰反射材料で作製されてもよく、および/またはそれらは、1つ以上の光生成装置(例えば、1つ以上のLEDまたは赤外線(IR)エミッタ)を含み得る。他の場合、身体部位は、いかなるマーカも備えていなくてもよく、光学システムは、画像内の関連する身体部位を識別するように構成される特別なソフトウェアのみを使用して、画像から関連する身体部位の位置を追跡するように構成され得る。対照的に、慣性追跡システムでは、関連する身体部位は、限定されるものではないが、関連する身体部位の運動を説明する運動データを捕捉する、ジャイロスコープ、磁気計、または加速度計などの、1つ以上の運動センサを備える。捕捉された運動データは、運動データから身体部位の位置および配向を決定するコンピューティング装置に提供される。当業者には、これらが位置追跡システムの単なる例であり、任意の好適な位置追跡システムが入力追跡システム406を実装するために使用され得ることが明白であろう。
他の例では、図4に示されるように、1つ以上の自由空間入力418、420は、オペレータによって操作され得る1つ以上の入力装置を備え得る。外科手術用ロボットを制御するために使用され得る入力装置は、限定されるものではないが、ハンドコントローラを含む。いくつかの場合、オペレータの各々の手に対して1つのハンドコントローラが存在し得る。したがって、これらの場合、追跡システムは、1つ以上の入力装置(例えば、ハンドコントローラ)の位置を追跡するように構成され得る。入力追跡システム406は、任意の好適な方法またはシステムを使用して、入力装置の位置を追跡するように構成され得る。例えば、入力追跡システム406は、上記に説明される光学追跡システムまたは慣性追跡システムを使用して、入力装置(例えば、ハンドコントローラ)の位置を追跡するように構成され得る。しかしながら、これらの場合、それは、任意のマーカおよび/または位置センサを備えることになる入力装置になる。
いくつかの場合、自由空間入力装置418、420(例えば、ハンドコントローラ)は、オペレータが制御ユニット408に追加情報を提供することを可能にする、追加の入力を含み得る。例えば、いくつかの場合、入力装置のうちの1つ以上はまた、ロボットアームを制御するための入力装置(例えば、ハンドコントローラ)の追跡された位置および/または配向の使用をオペレータがアクティブ化/非アクティブ化することを可能にする、1つ以上のボタン、または他の入力を含み得る。当業者には、これが入力装置を介して制御ユニット408に提供され得る情報の一例に過ぎないことは明白であろう。
図4のシステム400の自由空間入力装置418、420として使用され得る例示のハンドコントローラ700が図7に示される。図7の例示のハンドコントローラ700は、オペレータの右手で把持されることが意図されている。鏡像ハンドコントローラは、オペレータの左手で使用され得る。ハンドコントローラ700は、ヘッド704およびグリップ706を備える本体702を備える。グリップ706は、オペレータの手の平に着座するように構成されている。この例では、ハンドコントローラ700の本体702の位置および/または配向は、入力追跡システム406によって追跡される。いくつかの場合、本体702の位置および/または配向は、上記に説明されたような光学システムを使用して、入力追跡システム406によって追跡され得る。他の場合、本体702は、加速度計またはジャイロスコープなどの1つ以上の動きセンサを備え得、入力追跡システム406は、センサから受信された情報に基づいて、ハンドコントローラ700の位置および/または配向を決定および追跡するように構成され得る。
図7の例示のハンドコントローラ700はまた、複数の入力708、710、712、および714を備え、これは、オペレータが、外科手術用ロボットを制御するために、制御ユニット408に追加の情報を提供することを可能にする。この例では、第1の入力708は、1つ以上の方向で基部上を枢動するサムスティックの形態であり、中心位置に対するその位置は、制御ユニット408に提供され得、第2の入力710は、軸(図示せず)を中心として本体702の周りを枢動するレバーの形態であり、第3および第4の入力712および714は、ボタンの形態である。当業者には、これが単に例であり、入力が任意の好適な形態を取り得ること、および/または異なる数の入力が存在し得ることが明白である。
第1の入力708は、ハンドコントローラがオペレータの手の中に把持されているときに、オペレータの親指によって制御され得るように位置付けられる。外科手術用ロボットが複数のアームを有する場合、第1の入力708は、オペレータが、別のロボットアームに取り付けられ、かつそれによって制御される、画像捕捉装置(例えば、内視鏡)の位置および/または視野を制御することを可能にし得る。これは、オペレータが、ハンドコントローラの本体を動かすことによって、1つの外科手術用ロボットアームに取り付けられた器具を制御し、ハンドコントローラの本体に対して第1の入力708を左、右、前および/または後に動かすことによって、別のロボットアームに取り付けられた画像捕捉装置(例えば、内視鏡)の位置および/または視野を同時にまたは並行に制御することを可能にする。いくつかの場合、第1の入力708は、オペレータが入力708に関与したときに、ロボットアームに取り付けられた画像捕捉装置の動きを制御するためだけに使用され得る。例えば、入力708は、オペレータが入力708に関与したときを検出するセンサ(例えば、静電容量センサ)を有し得、オペレータが入力708に関与したことをセンサが検出したとき、次いで、入力708は、画像捕捉装置の位置および/または視野を制御するために使用され得る。いくつかの場合、ヘッド704は、本体702に対する入力708の位置を感知するために位置センサを備え得る。他の場合、ハンドコントローラ700は、入力708に適用される力を検出するための力および/またはトルクセンサを備えてもよい。他の場合、ハンドコントローラ700の本体に対して、入力708を左、右、前および/または後に動かすことができることに加えて、オペレータは、入力708を押し下げることができてもよい。これらの場合、オペレータは、入力708を押し下げることによって、選択(例えば、仮想画面上に表示されたメニュー上)を示すことができてもよい。第1の入力708の操作およびその利益は、出願人の同時係属中の英国特許出願第1802992.6号に説明されており、これは、参照によりその全体が本明細書に組み込まれる。
第2の入力710は、ハンドコントローラがオペレータの手の中に把持されているときに、オペレータの指(例えば、人差し指)によって制御されるように、ハンドコントローラ700上に位置付けられる。第2の入力710は、対応するロボットアームに取り付けられたエンドエフェクタに、挟むか、または把持するアクションを実施させるように、オペレータによって使用され得る。例えば、オペレータは、オペレータが入力710をハンドコントローラ700の本体に向かって動かしたときに把持器具(ペンチ器具とも呼ばれ得る)が閉じられ、オペレータが入力710をハンドコントローラ700の本体から離れるように動かしたときに把持器具が開かれることを示し得る。第2の入力710の操作およびその利益は、出願人の同時係属中の英国特許出願第1616086.3号に説明されており、これは、参照によりその全体が本明細書に組み込まれる。
第3の入力712は、ハンドコントローラ700がオペレータの手の中で把持されるときに、オペレータの親指によって制御されるように、ハンドコントローラ700上に位置付けられる。いくつかの場合、第3の入力712は、ハンドコントローラをロボットアームと関与および関与解除するために使用され得るため、クラッチと呼ばれ得る。ハンドコントローラがロボットアームと関与するとき、ハンドコントローラは、そのロボットアームおよびそれに取り付けられた任意の器具の動きおよび位置を制御するために使用され得る。対照的に、ハンドコントローラがロボットアームと関与しない(すなわち、関与解除された)とき、ハンドコントローラは、ロボットアームおよびそれに取り付けられた任意の器具の動きおよび位置を制御するために使用されることができない。言い換えると、ハンドコントローラがロボットアームと関与するとき、ハンドコントローラの動きおよび位置は、ロボットアームの動きおよび位置を制御し、ハンドコントローラが関与解除されたとき、ハンドコントローラの動きおよび位置は、ロボットアームの動きおよび位置に影響を与えない。オペレータは、例えば、オペレータが休憩を取りたいときに、ハンドコントローラをロボットアームから関与解除し得る。いくつかの場合、オペレータは、第3の入力712を押すことによって、関与モードと関与解除モードとの間を切り替え得、逆もまた同様である。
第4の入力714は、ハンドコントローラ700がオペレータの手の中で把持されるときに、オペレータの親指によって制御されるように、ハンドコントローラ700上に位置付けられる。いくつかの場合、第4の入力714は、選択されたロボットアーム(例えば、ハンドコントローラによって現在制御されているロボットアームに取り付けられた電気外科手術用器具)に取り付けられた電気外科手術用器具を、選択された波形(例えば、CUT波形またはCOAG波形)でアクティブ化(例えば、電気エネルギーを提供)するために使用され得る。当業者に公知であるように、電気外科手術用器具は、電気外科手術を実施するように適合された外科手術用器具である。電気外科手術は、所望の効果(例えば、組織を切断することまたは組織を凝固させること)を引き起こすために、組織に高周波(すなわち、無線周波数)電流を流すことである。電気外科手術用器具は、電気外科手術発電機、電気外科手術用エンドユニット、電気外科手術エンドユニット、またはESUとも呼ばれ得る、電気外科手術用発電機から駆動電流(駆動電気外科手術用信号と呼ばれ得る)を受ける。電気外科手術用発電機は、典型的には、異なる外科的効果を達成するために、複数の異なる電流波形を生成するように構成され得る。例えば、多くの標準的な電気外科手術用発電機は、COAGおよびCUT波形を生成するように構成され得る。COAG波形は、低電力設定で使用されたときに、乾燥効果を引き起こし、高電力設定で使用されたときに、高周波凝固効果を引き起こす、無線周波数のバーストで構成されている。CUT波形は、より低い電圧で連続波形であるが、COAGよりも高電流であり、これは、組織を切断させる。
図7の例示のハンドコントローラ700はまた、インジケータ716、特に、LEDインジケータを備え、選択されたロボットアームに取り付けられた電気外科手術用器具の現在の電気外科手術モードを示す。例えば、インジケータ716は、電気外科手術用器具がCUTモードでアクティブであるときに黄色光を放射し得、インジケータ716は、電気外科手術用器具がCOAGモードでアクティブであるときに青色光を放射し得る。
図4に戻ると、入力追跡システム406は、1つ以上のプロセッサ424およびメモリ426を含み得る。メモリ426は、1つ以上のプロセッサ424によって実行されて、任意の好適な方法(上述のものなど)を使用して1つ以上の自由空間入力(例えば、自由空間入力装置418、420)の位置および/または配向を追跡し、1つ以上の自由空間入力(例えば、自由空間入力装置418、420)のためのリアルタイム位置および/または配向データ422を生成し、リアルタイム位置および/または配向データ422を制御ユニット408に提供し得る、ソフトウェアコードを非一時的な方式で記憶する。
制御ユニット408は、1つ以上の入力(例えば、ハンドコントローラ)の位置および/または配向を示す入力追跡システム406からデータ422を受信するように構成されている。制御ユニット408はまた、外科手術用ロボット402から入力428を受信する。これらの入力428は、ロボットアームジョイント上に位置する、位置センサおよびトルクセンサからのセンサデータを含み得る。制御ユニット408は、外科手術用器具から、またはそれに関する力フィードバックおよび/またはデータなどの、外科手術用器具からの他の入力を受信し得る。制御ユニット408は、それが外科手術用ロボット402および入力追跡システム406から受信する入力に応答して、外科手術用ロボット402を駆動する。いくつかの場合、制御ユニット408は、1つ以上の入力(例えば、ハンドコントローラ)の動きを制御信号430に変換して、同じ方式で外科手術用ロボット402のアームジョイントおよび/または器具エンドエフェクタを動かすように構成されている。例えば、制御ユニット408は、アームに取り付けられた器具のエンドエフェクタが対応する入力(例えば、ハンドコントローラ)の動きに従うように構成され得る。
いくつかの場合、アームジョイントおよび/または器具エンドエフェクタを動かす制御信号を生成するために、制御ユニット408は、外科手術部位のビデオストリームに示される器具エンドエフェクタの配向および位置と、その器具を制御するために使用される入力(例えば、ハンドコントローラ)の配向および位置との間のマッピングを生成し(またはそれによって構成される)、これは、入力(例えば、ハンドコントローラ)の動きを外科手術部位のビデオストリームに見られる対応する動きに変換するために使用され得る。例えば、マッピングは、オペレータ(例えば、外科医)が入力(例えば、ハンドコントローラ)を右に動かしたときに、次いで、オペレータ(例えば、外科医)が外科手術部位のビデオストリームでエンドエフェクタが右に動くのを見ることになるように生成される。これは、オペレータ(例えば、外科医)が、非常に直感的な方式で入力(例えば、ハンドコントローラ)を動かして、エンドエフェクタの位置および動きを制御することを可能にする。次いで、制御ユニット408は、入力(例えば、ハンドコントローラ)の動きを制御信号に変換して、マッピングに従って、入力デカルト座標基準システムにおける入力の位置および配向を、カメラデカルト座標基準システムにおける器具エンドエフェクタの位置および配向に変換することによって、ロボットアームに取り付けられたアームジョイントおよび/または器具エンドエフェクタを動かすように構成され得る。次いで、制御ユニット408は、制御信号430を生成して、カメラ座標基準内に位置および配向を有するようにエンドエフェクタを動くようにし得る。これらの場合、エンドエフェクタと入力(例えば、ハンドコントローラ)との間のマッピングは、視野および/または画像捕捉装置(例えば、内視鏡)の位置が調節されたときに更新され得る。マッピングの例は、出願人の同時係属中の英国特許出願第1802992.6号に説明されており、これは、参照によりその全体が本明細書に組み込まれる。
リンケージおよび/またはジンバルもしくは他の固定構造に取り付けられた入力装置を有する、図2の物理的オペレータコンソール200などの、物理的オペレータコンソールは、リンケージおよび/またはジンバルが、使用中にオペレータに力フィードバックを提供して、対応するエンドエフェクタに及ぼされる力を表示または複製するように駆動され得るように構成され得る。これは、オペレータ(例えば、外科医)が、オペレータによって制御される任意のエンドエフェクタに及ぼされる力について通知されることを可能にし得る。しかしながら、本明細書に説明される例におけるように、入力が自由空間入力である場合、力フィードバックは、この様式で提供されることができない。しかしながら、力フィードバックを提供する代わりに、いくつかの場合、制御ユニット408は、対応する器具エンドエフェクタに力が及ぼされたことを外科手術用ロボットから受信された入力428から検出することに応答して、オペレータに触覚フィードバックを提供するように構成され得る。触覚フィードバックの存在は、オペレータによって現在制御されている器具エンドエフェクタに力が及ぼされたことをオペレータに示し得る。制御ユニット408は、力の相対強度を示すように、触覚フィードバックのパラメータ(例えば、周波数、強度)を調節するように構成され得る。例えば、いくつかの場合、触覚フィードバックは、振動の形態であり得る。これらの場合、オペレータに提供される振動の周波数または強度は、力の強度を示すように変更され得る。
1つ以上の入力が入力装置(例えば、ハンドコントローラ)である場合、触覚フィードバックは、入力装置(例えば、ハンドコントローラ)を介して提供され得る。例えば、いくつかの場合、制御ユニット408は、特定の入力装置(例えば、ハンドコントローラ)によって現在制御されている器具エンドエフェクタに力が及ぼされていると検出することに応答して、その入力装置を振動させるように構成され得る。具体的には、これらの場合、入力装置は、アクティブ化されたときに入力装置(例えば、ハンドコントローラ)を振動させる振動装置を備え得る。例示の振動装置としては、限定されるものではないが、偏心回転アクチュエータ(ERM)、線形共鳴アクチュエータ(LRS)、または圧電アクチュエータが挙げられる。
1つ以上の入力が、オペレータの身体部位のうちの1つ以上である場合、オペレータは、制御ユニット408によるアクティブ化時、オペレータに触覚フィードバックを提供し得る装置を備え得る。例えば、これらの場合、追跡されるオペレータの身体部位であるにもかかわらず、オペレータは、触覚フィードバックを提供し得る装置(ハンドコントローラなど)を保持するように構成され得るか、またはオペレータは、触覚フィードバックを提供し得るウェアラブル装置を装備し得る。
制御ユニット408は、1つ以上のプロセッサ432およびメモリ434を備え得る。メモリ434は、入力追跡システム406から受信された位置および/または配向情報/データ422に基づいて、外科手術用ロボットを制御するために、1つ以上のプロセッサ432によって実行され得るソフトウェアコードを非一時な方式で記憶する。いくつかの場合、ソフトウェアコードはまた、オペレータによって現在制御されている器具エンドエフェクタに力が及ぼされていないときに外科手術用ロボットから受信された入力428から検出し、オペレータによって現在制御されている器具エンドエフェクタに力が及ぼされたと検出することに応答して、オペレータに触覚フィードバックを提供するように構成され得る。
図4のシステム400は、単一のロボットアームを有する単一の外科手術用ロボット402を制御するために使用されるように上記に示され、説明されているが、本明細書に説明される方法およびシステムはまた、各々、少なくとも1つのロボットアームを有する複数の外科手術用ロボット、または複数のロボットアームを有する外科手術用ロボットを備える、外科手術用ロボットシステムを制御するためにも使用され得ることが当業者には明白であろう。具体的には、多くの外科手術手技は、複数の外科手術用ロボットアームの使用を必要とする。例えば、多くの外科手術手技では、内視鏡は、1つのロボットアームに取り付けられ、かつそれによって制御され、1つ以上の他のエンドエフェクタ(例えば、限定されるものではないが、一対の把持具(ペンチとも呼ばれ得る)、メス、および/またははさみなどの外科手術用器具)は、異なるロボットアームに各々取り付けられ、かつそれらによって制御される。ロボットアームは、同じ外科手術用ロボットの一部を形成してもよく、または異なる外科手術用ロボットの一部を形成してもよい。図4のシステム400が、複数のロボットアームを制御するために使用される場合、システム400は、どのロボットアームが、任意の時点で、どの入力によって制御されるかを決定するための好適な手段を備え得る。例えば、いくつかの場合、オペレータ(例えば、外科医)は、例えば、入力および/または仮想現実ディスプレイ装置を使用して、ロボットアームのうちのどれが、入力によって現在制御されるべきかを選択することができてもよい。例えば、いくつかの場合、仮想現実ディスプレイ装置は、外科手術部位のビデオストリームの表現に加えて、どのロボットアームおよびどの器具が現在制御されているかを示す情報を仮想画面上に表示するように構成され得、オペレータは、ハンドコントローラ上の1つ以上の入力(例えば、ボタン)をアクティブ化することによって現在制御されているロボットアームおよび器具を変更することができてもよい。
いくつかの場合、オペレータ(例えば、外科医)は、複数のロボットアーム(および複数のエンドエフェクタ)を同時に制御することができてもよい。例えば、複数のオペレータ入力(例えば、複数のハンドコントローラ)がある場合、オペレータ(例えば、外科医)は、入力(例えば、ハンドコントローラ)のうちのどれが、ロボットアーム(および、したがって、エンドエフェクタ)のうちのどれを制御するために使用されるべきかを選択することができてもよい。例えば、2つのハンドコントローラが存在する場合、オペレータは、左ハンドコントローラ(すなわち、オペレータの左手のハンドコントローラ)が、エンドエフェクタ1に取り付けられたロボットアーム1を制御するために使用されるように、かつ右ハンドコントローラ(すなわち、オペレータの右手のハンドコントローラ)が、エンドエフェクタ2に取り付けられたロボットアーム2を制御するために使用されるように指定し得る。
いくつかの場合、画像捕捉装置(例えば、内視鏡)は、他のエンドエフェクタとは異なる様式で制御され得る。例えば、英国特許出願第1802992.6号に説明されるように、いくつかの場合では、ハンドコントローラの位置および/または配向が、外科手術用ロボットアームに取り付けられた外科手術用器具の位置を制御するために使用され得、ハンドコントローラ上の別の入力(例えば、サムスティック入力)が、異なる外科手術用ロボットアームに取り付けられた画像捕捉装置(例えば、内視鏡)を同時に制御するために使用され得る。
図4は、別々の別個の装置であるように制御ユニット408および入力追跡システム406を示すが、他の例では、制御ユニット408および入力追跡システム406によって実施されるように上記に説明された機能は、単一のコンピューティング装置または関連するコンピューティング装置のセットによって実施され得る。
図4のシステム400によって実施され得る仮想コンソールを使用して外科手術用ロボットを制御する方法800を説明する図8を参照する。方法800は、仮想現実ディスプレイ装置(例えば、図4の仮想現実ディスプレイ装置404)が、仮想現実ディスプレイ装置のオペレータに仮想現実情景のビューを提示する、ブロック802で始まる。仮想情景は、外科手術部位のビデオストリームの表現が表示される仮想画面を含む。ブロック804では、入力追跡システム(例えば、図4の入力追跡システム406)は、空間内の1つ以上の自由空間入力の位置および/または配向を追跡する。上記に説明されるように、いくつかの場合、1つ以上の自由空間入力は、オペレータの身体部位のうちの1つ以上を含み得、他の場合、1つ以上の自由空間入力は、1つ以上の入力装置(限定されるものではないが、ハンドコントローラなど)を含み得る。ブロック806では、制御ユニット(例えば、図4の制御ユニット408)は、1つ以上の自由空間入力の追跡された位置を1つ以上の制御信号に変換して、外科手術用ロボットのアームの位置を制御する(806)。
いくつかの場合、方法は、外科手術部位のビデオストリームを受信し、そこから仮想現実情景を生成することをさらに含み得る。
図8は、連続的に実行される方法800のブロック802~806を例示するが、他の例では、ステップのうちの1つ以上が同時に実行されてもよい。例えば、いくつかの場合、ブロック802は、ブロック804および806と同時に実行され得る。
上記に説明される例では、外科手術部位のビデオストリームの表現が表示される仮想画面が、仮想現実(VR)ディスプレイ装置を介して、仮想現実情景/環境の一部としてオペレータ(例えば、外科医)に提示され、他の例では、仮想画面は、限定されるものではないが、複合現実(MR)ディスプレイ装置または拡張現実(AR)ディスプレイ装置などの、仮想画像をユーザに提示することができる他のディスプレイ装置を使用してユーザに提示され得る。当業者に公知であるように、VRディスプレイ装置は、ユーザの現実世界(RR)をコンピュータ生成された世界と完全に置換して、ユーザの感覚をだまして、異なる環境または世界にあると思わせる。したがって、VRディスプレイ装置は、ユーザが見ることができるすべてが仮想環境であるように、ユーザのRRからユーザを遮断する。上記に説明されるように、VRディスプレイ装置の例としては、限定されるものではないが、Oculus Rift(登録商標)、HTC Vive(登録商標)、PlayStation(登録商標)VR、またはSamsung(登録商標)Gear VRが挙げられる。対照的に、ARディスプレイ装置は、直接的または間接的に、コンピュータ生成された画像を用いて現実世界を補完または拡張する。これは、例えば、仮想物体を、別の透明な一対のメガネまたはバイザー上に投影し、それらを現実世界上にオーバーレイすることによって、または仮想物体を、カメラから捕捉された情景のライブビュー上にオーバーレイとして注釈付けまたは投影することによって達成され得る。ARディスプレイ装置の例としては、限定されるものではないが、Google Glass(登録商標)が挙げられる。MRディスプレイ装置は、現実世界および仮想世界を混合して、物理的物体およびデジタル物体が共存する新しい環境を生成する。具体的には、MRディスプレイ装置は、仮想物体を、それらが実際にそこにあるかのように、現実世界に配置する。ユーザは、複合現実環境をナビゲートし、現実物体および仮想物体の両方とリアルタイムで対話し得る。例示のMRディスプレイ装置としては、限定されるものではないが、Microsoft HoloLens(登録商標)が挙げられる。
具体的には、いくつかの場合、仮想現実ディスプレイ装置(例えば、仮想現実ヘッドセット)を介して、仮想現実情景/環境の一部としてオペレータ(例えば、外科医)に提示される仮想画面の代わりに、仮想画面は、ARディスプレイ装置またはMRディスプレイ装置によって、手術室の現実世界ビュー上のオーバーレイまたはその一部として、ユーザに提示され得る。例えば、ARまたはMRディスプレイ装置(または現実世界で仮想画面およびその配置を生成するコンピュータ)によって一意に識別され得る材料片が手術室に配置され得、次いで、ARまたはMRディスプレイ装置が、現実世界で仮想画面を材料片とマッピングまたは整列させ得る。このようにして、仮想画面は、上記に説明された例の仮想現実情景にアンカー固定されたのと同じ方式で、現実世界において材料片の場所にアンカー固定される。いくつかの場合、材料片は、ARまたはMRディスプレイ装置によって仮想画面の場所として識別される特定の色(例えば、白色)を有し得る。材料片は、現実世界における仮想画面の所望の寸法を有するようにサイズ決めされ得る。いくつかの場合、材料片は、長方形であってもよい。異なるサイズの材料片は、例えば、特定の手技または手術のために、手術室内の空間を収容するために、異なる手技のために、または異なる手術室内で使用され得る。いくつかの場合、材料片は、同じサイズのディスプレイ画面またはモニタと比較して、1つの場所から別の場所に容易に動かされ得るように、折り畳み可能または可撓性であってもよい。
VRディスプレイ装置を使用して没入型仮想現実情景/環境の一部として、仮想画面をオペレータ(例えば、外科医)に提示するのではなく、ARディスプレイ装置またはMRディスプレイ装置を使用してオペレータ(例えば、外科医)に仮想画面を提示することは、オペレータを仮想現実環境に没入させることに伴う問題のうちのいくつかを軽減し得る。具体的には、オペレータが仮想現実情景/環境内に没入するとき、オペレータは、手術室チームの残りの人員から遮断される。対照的に、現実世界の一部としてオペレータ(例えば、外科医)に仮想画面を提示することは、手技中に手術室チームの残りの人員を見ることができることを可能にし、これは、手術室で起こっていることのより良好な全面的な理解をオペレータに提供する。
さらに他の場合、ディスプレイ装置は、仮想画面を壁、投影画面、または材料片上に投影するように構成されている投影装置(例えば、前方投影もしくは後方投影装置またはプロジェクタ)(いくつかの場合、ポータブルであってもよい)の形態であってもよい。例えば、ARおよびMRディスプレイ装置の場合と同様に、手術室に配置され得る材料片が存在してもよく、仮想画面は、この材料片上に投影されてもよい。これは、ユーザに表示される仮想画面が、VR、AR、またはMRヘッドセットを介して表示される仮想画面よりも大きくなることを可能にし得、これは、仮想画面、特に、外科手術部位のリアルタイムビデオストリームの表現が、より高い解像度で表示されることを可能にし得る。ARおよびMRディスプレイ装置の場合と同様に、材料片は、投影装置によって仮想画面の場所として識別される特定の色(例えば、白色)を有し得る。いくつかの場合、材料片は、長方形であってもよい。異なるサイズの材料片は、例えば、特定の手技または手術のために、手術室内の空間を収容するために、異なる手技のために、または異なる手術室内で使用され得る。いくつかの場合、材料片は、同じサイズのディスプレイ画面またはモニタと比較して、1つの場所から別の場所に容易に動かされ得るように、折り畳み可能または可撓性であってもよい。
さらに、上記に説明される例示のシステムは、1つ以上の自由空間入力の位置および/または配向を追跡するように構成された入力追跡システムを備えるが、他の例では、入力追跡システムは、図2を参照して上記に説明されたもの(例えば、平行四辺形リンケージ上に装着されたハンドグリップまたはハンドコントローラ)などの、従来の外科手術用ロボット入力装置の位置および/または配向を追跡するように構成され得る。多くの場合、物理的コンソールのディスプレイが物理的コンソールを嵩張って、大きいものにするため、物理的コンソールが多くの空間を占有し、動かすことが困難であることなどの、物理的コンソールに伴う問題の多くは、VR、ARまたはMRディスプレイ装置を使用して、物理的ディスプレイの代わりに仮想画面をユーザに提示することによって軽減され得る。さらに、従来の外科手術用ロボット入力装置(例えば、ハンドグリップまたは平行四辺形リンケージに装着されたハンドコントローラ)を使用することは、多くの外科医にとって主要な不利益とみなされ得る、自由空間入力を使用するときに、力フィードバックを受けることができない問題を軽減する。したがって、外科手術用ロボットを制御するためのシステムであって、外科手術部位のリアルタイムビデオストリームの表現が表示される際にオペレータに仮想画面を提示するためのVR、AR、またはMRディスプレイと、ロボットアーム(およびそれに取り付けられた任意の器具)の位置および/または配向を制御する従来の入力装置と、を備える、システムは、上記に説明された完全な仮想システムの利点の多くを、その欠点のうちのいくつかなしで、有し得る。
これにより、本出願人は、本明細書に説明される各個々の特徴および2つ以上のかかる特徴の任意の組み合わせを、かかる特徴または組み合わせが、当業者の共通の一般知識に照らして、全体として本明細書に基づいて行うことができるような程度まで、かかる特徴または特徴の組み合わせが、本明細書に開示される任意の問題を解決するかどうかにかかわらず、分離して開示する。前述の説明を考慮すると、本発明の範囲内で様々な修正を行うことができることは当業者には明白であろう。

Claims (20)

  1. 外科手術用ロボット(402、300)を制御するためのシステム(400)であって、前記外科手術用ロボット(403、300)が、基部(304)と、前記基部(304)から器具のための取り付け部に延在するアーム(302)と、を備え、前記アーム(302)が、複数のジョイント(310)を備え、それによって、前記アーム(302)の構成が、変更されることができ、前記システム(400)が、
    ヘッドマウントディスプレイ装置(404)であって、前記ヘッドマウントディスプレイ装置(404)のオペレータに仮想画面(502)を提示するように構成されており、前記仮想画面(502)が、前記オペレータに可視の情景内で静止しており、外科手術部位(412)のリアルタイムビデオストリーム(410)の表現(504)が、前記仮想画面(502)上に表示される、ヘッドマウントディスプレイ装置(404)と、
    1つ以上の自由空間入力(418、420)の位置および/または配向を追跡するように構成された入力追跡システム(406)と、
    前記1つ以上の自由空間入力(418、420)の前記追跡された位置および/または配向を、前記外科手術用ロボット(402、300)の前記アーム(302)の位置を制御する1つ以上の制御信号に変換するように構成された制御ユニット(408)と、を備える、システム。
  2. 前記ヘッドマウントディスプレイ装置(404)が、仮想現実ヘッドセットであって、仮想現実情景(500、600)のビュー(510、608)を前記仮想現実ヘッドセット(404)の前記オペレータに提示するように構成された、仮想現実ヘッドセットを含み、前記仮想現実情景(500、600)が、前記仮想画面(502)を含む、請求項1に記載のシステム(400)。
  3. 前記仮想現実ヘッドセット(404)は、前記オペレータが前記仮想現実ヘッドセット(404)を使用しているときに、前記オペレータの頭部および/または前記オペレータの視線の位置を追跡するように構成された1つ以上のセンサを備え、前記仮想現実ヘッドセット(404)が、前記1つ以上のセンサから、前記オペレータの頭部の位置の変化および/または前記オペレータの視線の変化を検出することに応答して、前記オペレータに前記仮想現実情景(500)の異なるビューを提示するようにさらに構成されている、請求項2に記載のシステム(400)。
  4. 前記仮想現実ヘッドセット(404)は、前記オペレータの頭部および/または前記オペレータの視線が第1の位置にあることを検出することに応答して、前記仮想画面(502)が可視である前記仮想現実情景(500、600)のビュー(510、608)を提示するように構成されている、請求項3に記載のシステム(400)。
  5. 前記仮想現実ヘッドセット(404)は、前記オペレータの頭部および/または前記オペレータの視線が、前記第1の位置に対して第1の方向(610、614)に移動していることを検出することに応答して、別の仮想物体(602、604、606)が表示される前記仮想現実情景(600)のビュー(612)を提示するように構成されている、請求項4に記載のシステム(400)。
  6. 他の仮想物体(602)が、前記外科手術用ロボット(402、300)のリアルタイム表現である、請求項5に記載のシステム(400)。
  7. 他の仮想物体(602、604)が、前記外科手術用ロボット(402、300)および患者のリアルタイム表現(602、604)である、請求項5に記載のシステム(400)。
  8. 他の仮想物体(606)が、1つ以上の患者術前スキャンの表現である、請求項5に記載のシステム(400)。
  9. 前記仮想現実ヘッドセット(404)は、前記オペレータの頭部および/または前記オペレータの視線が、前記第1の位置に対して第2の方向(614)に移動していることを検出することに応答して、さらなる仮想物体(606)が表示される前記仮想現実情景(600)のビュー(616)を提示するように構成されている、請求項5~8のいずれか一項に記載のシステム(400)。
  10. 前記ヘッドマウントディスプレイ装置が、現実世界内の仮想物体として前記オペレータに前記仮想画面を提示するように構成された拡張現実ヘッドセットまたは複合現実ヘッドセットを含む、請求項1に記載のシステム(400)。
  11. 前記ヘッドマウントディスプレイ装置は、前記オペレータが前記ヘッドマウントディスプレイ装置を使用しているときに、前記オペレータの頭部および/または前記オペレータの視線の位置を追跡するように構成された1つ以上のセンサを備え、前記ヘッドマウントディスプレイ装置が、前記1つ以上のセンサから、前記オペレータの頭部の位置の変化および/または前記オペレータの視線の変化を検出することに応答して、前記オペレータに前記仮想画面の異なるビューを提示するようにさらに構成されている、請求項10に記載のシステム(400)。
  12. 前記ビデオストリーム(410)内に示される前記外科手術部位(412)の視野が、前記オペレータの頭部または前記オペレータの視線の動きによって自動的に制御されない、請求項1~11のいずれか一項に記載のシステム(400)。
  13. 前記1つ以上の自由空間入力(418、420)が、ハンドコントローラ(700)を含む、請求項1~12のいずれか一項に記載のシステム(400)。
  14. 前記制御ユニット(408)は、前記外科手術用ロボットまたはそれに取り付けられた器具の前記アームが、その上に及ぼされた力を有していることを検出することに応答して、前記及ぼされた力を示すフィードバックを前記オペレータに提供させるようにさらに構成されている、請求項1~13のいずれか一項に記載のシステム(400)。
  15. 前記制御ユニット(408)が、前記検出された力の大きさに基づいて、前記フィードバックのパラメータを調節するようにさらに構成されている、請求項14に記載のシステム(400)。
  16. 前記外科手術部位(412)の前記ビデオストリーム(410)が、前記外科手術用ロボット(402、300)のアームに取り付けられた前記内視鏡(414)によって捕捉され、前記内視鏡(414)の位置が、前記外科手術用ロボット(402、300)によって制御される、請求項1~15のいずれか一項に記載のシステム(400)。
  17. 前記ヘッドマウントディスプレイ装置(404)が、前記外科手術部位(412)の前記ビデオストリーム(410)を受信し、前記外科手術部位(412)の前記ビデオストリーム(410)から前記仮想画面を生成するようにさらに構成されている、請求項1~16のいずれか一項に記載のシステム(400)。
  18. 前記外科手術用ロボット(402、300)をさらに備える、請求項1~17のいずれか一項に記載のシステム(400)。
  19. 前記外科手術部位(412)の前記リアルタイムビデオストリーム(410)が、画像捕捉装置(414)によって捕捉され、
    前記制御ユニット(408)が、前記画像捕捉装置(414)の所望の位置および/または視野を示す1つ以上の自由形式入力のうちの少なくとも1つからオペレータ入力を受信し、前記受信されたオペレータ入力に応じて、前記画像捕捉装置(414)の前記位置および/または視野を制御するようにさらに構成されている、請求項1~18のいずれか一項に記載のシステム(400)。
  20. 外科手術用ロボットを制御する方法(800)であって、前記外科手術用ロボットが、基部、および前記基部から器具の取り付け部まで延在するアームを備え、前記アームが、複数のジョイントを備え、それによって、前記アームの構成が、変更されることができ、前記方法(800)が、
    ヘッドマウントディスプレイ装置を使用して、外科手術部位のビデオストリームの表現が表示される仮想画面を提示すること(802)であって、前記仮想画面が、前記ヘッドマウントディスプレイ装置のオペレータに可視の情景内で静止している、提示することと、
    入力追跡システムを使用して、1つ以上の自由空間入力の空間内の位置を追跡すること(804)と、
    前記1つ以上の自由空間入力の前記追跡された位置を1つ以上の制御信号に変換して、前記外科手術用ロボットの前記アームの位置を制御すること(806)と、を含む、方法(800)。
JP2022557858A 2020-03-23 2021-03-23 外科手術用ロボットを制御するための仮想コンソール Active JP7445377B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB2004206.5 2020-03-23
GB2004206.5A GB2593473B (en) 2020-03-23 2020-03-23 Virtual console for controlling a surgical robot
PCT/GB2021/050708 WO2021191598A1 (en) 2020-03-23 2021-03-23 Virtual console for controlling a surgical robot

Publications (2)

Publication Number Publication Date
JP2023520191A true JP2023520191A (ja) 2023-05-16
JP7445377B2 JP7445377B2 (ja) 2024-03-07

Family

ID=70546603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022557858A Active JP7445377B2 (ja) 2020-03-23 2021-03-23 外科手術用ロボットを制御するための仮想コンソール

Country Status (8)

Country Link
US (1) US20230329818A1 (ja)
EP (1) EP4125666A1 (ja)
JP (1) JP7445377B2 (ja)
CN (1) CN115334992A (ja)
AU (1) AU2021240407B2 (ja)
BR (1) BR112022019028A2 (ja)
GB (1) GB2593473B (ja)
WO (1) WO2021191598A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240173018A1 (en) * 2021-07-22 2024-05-30 The University Of British Columbia System and apparatus for remote interaction with an object
CN114081624B (zh) * 2021-11-10 2023-06-27 武汉联影智融医疗科技有限公司 一种手术机器人虚拟仿真系统
CN114093495A (zh) * 2021-11-11 2022-02-25 北京歌锐科技有限公司 基于混合现实的操控方法、混合现实设备及手术机器人
CN114176785B (zh) * 2022-01-13 2024-05-24 北京歌锐科技有限公司 一种控制机器人的系统及方法
CN115556115B (zh) * 2022-11-11 2024-07-23 创客天下(北京)科技发展有限公司 基于mr技术的协作机器人控制系统
CN116243795B (zh) * 2023-02-20 2024-06-21 南方科技大学 基于混合现实的物品抓取方法及混合现实设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017514608A (ja) * 2014-05-05 2017-06-08 バイカリアス サージカル インク. 仮想現実外科手術デバイス
US20190005848A1 (en) * 2017-06-29 2019-01-03 Verb Surgical Inc. Virtual reality training, simulation, and collaboration in a robotic surgical system
JP2019528838A (ja) * 2016-09-21 2019-10-17 バーブ サージカル インコーポレイテッドVerb Surgical Inc. ロボット手術のためのユーザコンソールシステム
JP2020520521A (ja) * 2017-05-16 2020-07-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 協働的介入のための拡張現実

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
WO2011116332A2 (en) * 2010-03-18 2011-09-22 SPI Surgical, Inc. Surgical cockpit comprising multisensory and multimodal interfaces for robotic surgery and methods related thereto
CN116035699A (zh) * 2017-04-20 2023-05-02 直观外科手术操作公司 用于约束虚拟现实手术系统的系统和方法
US10610303B2 (en) * 2017-06-29 2020-04-07 Verb Surgical Inc. Virtual reality laparoscopic tools
US11534246B2 (en) * 2018-06-15 2022-12-27 Verb Surgical Inc. User input device for use in robotic surgery
US11992373B2 (en) * 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017514608A (ja) * 2014-05-05 2017-06-08 バイカリアス サージカル インク. 仮想現実外科手術デバイス
JP2019528838A (ja) * 2016-09-21 2019-10-17 バーブ サージカル インコーポレイテッドVerb Surgical Inc. ロボット手術のためのユーザコンソールシステム
JP2020520521A (ja) * 2017-05-16 2020-07-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 協働的介入のための拡張現実
US20190005848A1 (en) * 2017-06-29 2019-01-03 Verb Surgical Inc. Virtual reality training, simulation, and collaboration in a robotic surgical system

Also Published As

Publication number Publication date
WO2021191598A1 (en) 2021-09-30
BR112022019028A2 (pt) 2022-11-01
US20230329818A1 (en) 2023-10-19
GB202004206D0 (en) 2020-05-06
JP7445377B2 (ja) 2024-03-07
GB2593473B (en) 2024-09-04
AU2021240407A1 (en) 2022-11-10
CN115334992A (zh) 2022-11-11
AU2021240407B2 (en) 2024-01-25
GB2593473A (en) 2021-09-29
EP4125666A1 (en) 2023-02-08

Similar Documents

Publication Publication Date Title
US11857278B2 (en) Roboticized surgery system with improved control
JP7445377B2 (ja) 外科手術用ロボットを制御するための仮想コンソール
US11986259B2 (en) Association processes and related systems for manipulators
KR101772958B1 (ko) 최소 침습 원격조종 수술 기구를 위한 환자측 의사 인터페이스
CN110494095A (zh) 用于约束虚拟现实手术系统的系统和方法
US20200275985A1 (en) Master control device with multi-finger grip and methods therefor
CN114041103A (zh) 用于计算机辅助手术系统的操作模式控制系统和方法
JP7516508B2 (ja) 移動可能なディスプレイシステム
US20220378528A1 (en) Systems and methods for controlling a surgical robotic assembly in an internal body cavity
KR102532351B1 (ko) 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
JP5800609B2 (ja) 医療用マスタスレーブマニピュレータ
CN111818872B (zh) 相机控制
JP2021137667A (ja) 手術システム
WO2023192465A1 (en) User interface interaction elements with associated degrees of freedom of motion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240223

R150 Certificate of patent or registration of utility model

Ref document number: 7445377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150