JP2019506922A - ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法 - Google Patents

ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法 Download PDF

Info

Publication number
JP2019506922A
JP2019506922A JP2018533800A JP2018533800A JP2019506922A JP 2019506922 A JP2019506922 A JP 2019506922A JP 2018533800 A JP2018533800 A JP 2018533800A JP 2018533800 A JP2018533800 A JP 2018533800A JP 2019506922 A JP2019506922 A JP 2019506922A
Authority
JP
Japan
Prior art keywords
robot
head
tracking data
surgical
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018533800A
Other languages
English (en)
Other versions
JP6714085B2 (ja
JP2019506922A5 (ja
Inventor
アレクサンドラ ポポヴィッチ
アレクサンドラ ポポヴィッチ
デイビッド ポール ヌーナン
デイビッド ポール ヌーナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019506922A publication Critical patent/JP2019506922A/ja
Publication of JP2019506922A5 publication Critical patent/JP2019506922A5/ja
Application granted granted Critical
Publication of JP6714085B2 publication Critical patent/JP6714085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/305Details of wrist mechanisms at distal ends of robotic arms
    • A61B2034/306Wrists with multiple vertebrae
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means

Abstract

患者の手術部位でエンドエフェクタを操作するように構成されたロボットを含む手術用ロボットシステムのための制御ユニットが提供される。制御ユニットはプロセッサを含み、プロセッサは、画像獲得デバイスから受け取られる、獲得された患者のライブ画像を、表示のために仮想現実(VR)デバイスに送信し、VRデバイスの表示ユニットのビューワに表示されたライブ画像に対するユーザの反応に基づく、VRデバイスのVR追跡システムからの追跡データを含む入力データをVRデバイスから受け取り、VRデバイスから受け取った入力データを処理して患者内のターゲットを決定し、エンドエフェクタがターゲットに到達するための経路を、ライブ画像と処理された入力データとに基づいて決定し、制御信号を送信して、ロボットにエンドエフェクタを決定された経路を通してターゲットまで誘導させるように構成される。

Description

[0001] 本手法は、手術の分野に関し、特に、硬い近位部分と柔軟な遠位部分とを有するロボットを、仮想現実デバイスから得る医療画像及び追跡データを使用して制御するためのシステム、コントローラ、及び方法に関する。
[0002] 手術は一般に、外科医個々の技量に依拠する。器用さは、通例、外科医の手及び硬い器具に制限される。これらの制限は、操作を行うための空間が入口点及び解剖学的構造によって制約される低侵襲手術や自然開口部手術で特に顕著である。低侵襲手術では、通常、内視鏡によって視覚的フィードバックが提供される。
[0003] 患者体内の手術部位における外科医の器用さを向上させるために、低侵襲手術で手術用ロボット及び/又は操縦可能デバイスを使用することがある。手術用ロボットの例としては、Vinci(登録商標)ロボットなどのマルチアームシステム、又はMedrobotics Flex(登録商標)ロボットシステムなどの柔軟ロボットがある。これらのロボットシステムは、種々のインターフェース機構を使用して外科医(又はユーザ)によって制御されるが、そのような機構には、ロボットシステムを操作するためのハンドコントローラ又は入力ハンドル、及び内視鏡ビデオを取り込み、ロボットシステムの様々な制御モードを表示するための画像ディスプレイが含まれる。
[0004] 手持ち型の器用なデバイスの制御は難しい。ユーザは、通常は支点(身体内への入口点)を中心とする、器用でない近位端の運動と、身体内での複雑で器用な運動とを組み合わせなければならない。この問題に対応する手法の一つは、ロボットによる器用なデバイスの位置決めであるが、これは手術室内の占有面積を増大させ、手術の費用及び所用時間を増大させる。この問題は、近位端が撮像デバイスの視野内にない場合に増大する(例えば、内視鏡が患者の内部のみの画像を撮影し、Cアームなどの携帯型撮像システムの視野が小さ過ぎてデバイス全体の画像を捉えることができず、操作者に放射線曝露を生じさせる可能性がある)。また、器用なデバイスを用いて位置が実現された後、手の震えや不随意の手の運動によって位置ずれが発生することもある。外科医の器用さを向上させるために、手術用ロボットは6度を超える自由度を持つことがあり、その結果ロボットが非直感的なものになるか、その他の理由で制御が困難になる。
[0005] この問題は、低侵襲手術や自然開口部手術の際に遭遇されるような制約のある空間内での操作と、ヘビ型ロボットなどの超冗長ロボットの使用とによって増大する。これらのロボットの制御は通常はハンドルを使用して行われるが、ハンドルは操作が複雑であり、通常は急な学習曲線を伴う。ユーザは内視鏡画像を使用して手術野の中を移動しており、ハンドルの運動を画像とマッピングすることは困難である。
[0006] したがって、仮想現実デバイスから提供されるライブ画像と追跡情報との組み合わせを使用して手術用ロボットを制御するための装置、システム、方法、及びコンピュータ可読記憶媒体を提供し、それにより、一般にはユーザの手又は器用さの使用に依存せずに、運動の検出を使用したターゲットの選択を可能にすることが望ましい。
[0007] 例示的な一実施形態によると、患者の手術部位で少なくとも1つのエンドエフェクタを操作するように構成されたロボットを含む手術用ロボットシステムのための制御ユニットは、プロセッサを備える。プロセッサは、少なくとも1つの画像獲得デバイスから受け取られる、獲得された患者のライブ画像を、表示ユニットに表示するために仮想現実(VR)デバイスに送信することと、VRデバイスから入力データを受け取ることであって、入力データは、VRデバイスの表示ユニットに表示された獲得された患者のライブ画像に対するユーザの反応に基づく、VRデバイスのVR追跡システムからの追跡データを含む、ことと、VRデバイスから受け取った入力データを処理して、患者内のターゲットを決定することと、ロボットにより操作可能な少なくとも1つのエンドエフェクタがターゲットに到達するための経路を、獲得されたライブ画像と処理された入力データとに基づいて決定することと、ロボット制御信号を送信して、ロボットに、少なくとも1つのエンドエフェクタを、決定された経路を通してターゲットまで誘導させることと、を行うように構成される。
[0008] 別の例示的実施形態によると、手術用ロボットシステムは、患者内の手術部位に位置決めされた少なくとも1つのエンドエフェクタを操作するように構成されたロボットと、手術部位でライブ画像を獲得するように構成された少なくとも1つの画像獲得デバイスと、獲得されたライブ画像を表示し、仮想現実(VR)デバイスを介してユーザの行為によって提供される追跡データを判定するように構成されたVRデバイスと、入力/出力(I/O)回路及びプロセッサを備える制御ユニットと、を含む。I/O回路は、少なくとも1つの画像獲得デバイスから獲得されたライブ画像を受け取り、獲得されたライブ画像を表示のためにVRデバイスに提供し、VRデバイスから判定された追跡データを受け取り、ロボットにロボット制御信号を提供するように構成される。プロセッサは、少なくとも1つの画像獲得デバイスからI/O回路を介して受け取られる獲得されたライブ画像を、VRデバイスに送信し、VRデバイスからの判定された追跡データを処理して、患者内の手術部位でターゲットを選択し、少なくとも1つのエンドエフェクタが選択されたターゲットに到達するための経路を、獲得されたライブ画像と、処理され判定された追跡データとに基づいて決定し、ロボットにロボット制御信号を送信して、少なくとも1つの器具を決定された経路を通して選択されたターゲットまで移動させるように構成される。
[0009] 別の例示的実施形態によると、手術用ロボットシステムを操作するためにプロセッサにより実行可能な機械可読命令を記憶した非一時的なコンピュータ可読記憶媒体が提供される。手術用ロボットシステムは、患者内の手術部位に位置決めされる少なくとも1つのエンドエフェクタを操作するように構成された少なくとも1つのロボットと、手術部位でライブ画像を獲得するように構成された少なくとも1つの画像獲得デバイスと、ユーザにより装着され、獲得されたライブ画像を表示すると共に、ユーザの頭部の運動又はユーザの目の動きのうち少なくとも一方を判定するように構成された頭部装着型ディスプレイ(HMD)デバイスと、を含む。非一時的なコンピュータ可読媒体は、少なくとも1つの画像獲得デバイスから受け取られた、獲得されたライブ画像をHMDデバイスへ送信させるための送信コードと、HMDデバイスからの頭部追跡データ及び目追跡データのうち判定された少なくとも一方を処理して、患者内の手術部位でターゲットを選択するための処理コードと、少なくとも1つのエンドエフェクタを含むロボットの遠位部分が患者内の手術部位の選択されたターゲットに到達するための経路を、獲得されたライブ画像と、処理され判定された頭部追跡データ及び/又は目追跡データとに基づいて決定するための決定コードと、ロボットにロボット制御信号を送信して、少なくとも1つのエンドエフェクタを決定された経路を通して患者内の手術部位の選択されたターゲットまで移動させるためのロボット制御コードと、を含む。
[0010] 本発明は、以下に提示される例示的実施形態の詳細な説明を添付図面と併せて考察することから容易に理解されよう。
[0011] 本発明の例示的実施形態による手術用ロボットシステムを示す概略ブロック図である。 [0012] 本発明の例示的実施形態による手術用ロボットシステムを示す概略ブロック図である。 [0013] 本発明の例示的実施形態による、手術用ロボットシステムの一部として頭部追跡機能を備えた頭部装着型ディスプレイ(HMD)デバイスを示す概略図である。 [0014] 本発明の例示的実施形態による、手術用ロボットシステムの一部としてのHMDデバイスを示す概略図である。 [0015] 本発明の例示的実施形態による、HMDデバイスを使用して自然開口部を通過するためのヘビ状又はカテーテル状ロボットの一部分を示す概略図である。 [0016] 本発明の例示的実施形態による、手術用ロボットシステムを制御する方法を示すフローチャートである。 [0017] 本発明の例示的実施形態による、手術用ロボットシステムの一部として目追跡機能を備えたHMDデバイスを示す概略図である。
[0018] 以下、本発明について、本発明の実施形態が示された添付図面を参照して、より完全に説明する。ただし、本発明は異なる形態で具現化されてよく、本明細書に述べられる実施形態に制限されるものとは解釈されるべきではない。むしろ、それらの実施形態は、本発明の教示のための例として提供される。
[0019] 概して、様々な実施形態によれば、仮想現実(VR)デバイスが提供され、これをユーザ(例えば外科医)が使用して、外科医による身体的な動き(例えば、従来の手動コントロールを操作するためにユーザの手を使用すること以外の)を通じてロボットを制御することにより、VRデバイスによって受け取られたライブ画像に基づいてロボットのターゲットを特定し、選択する。ライブ画像は、例えば、例えば専用の内視鏡コントローラにより操作可能な、内視鏡の遠位端に装着されたカメラによる、又は例えばロボットにより操作可能な前方視カメラによる内視鏡画像である。例えば、VRデバイスは、頭部装着型ディスプレイ(HMD)デバイスであり、これは、ユーザが装着したヘッドピース内のディスプレイに内視鏡画像を表示して、例えば患者内部の手術部位を示す。HMDデバイスはさらに、頭部の運動や目の運動など、ユーザの運動を検出するように構成された1つ又は複数のセンサを含み、検出された運動が処理されて、ディスプレイ上の画像に示された手術部位内でロボットのためのターゲットを選択する。ライブ画像並びに頭部の運動及び/又は目の動きの検出を使用して、外科医が着目している領域(ターゲット)の方へ自分の頭部を動かす、及び/又は目の動きを向けるという従来の手術時の体験を模擬することによってロボットの使用性が向上し、同時に、手術用ロボットの向上した器用さが維持される。
[0020] 本明細書で使用される用語は特定の実施形態を説明することのみを目的とし、制限する意図はないことを理解されたい。定義される用語は、本教示の技術分野で一般に理解され、受け入れられている、当該定義される用語の技術的及び科学的意味に追加されるものである。
[0021] 本明細書及び添付の特許請求の範囲で使用される場合、用語「a」、「an」、及び「the」は、文脈が明らかに別の意味を指示しない限り、単数及び複数両方の指示物を含む。したがって、例えば、「デバイス(a device)」は、1つのデバイス及び複数のデバイスを含む。
[0022] 本明細書で使用される場合、2つ以上の部分又は構成要素が「結合されて」いるという記述は、それらの部分が直接、又は間接的に、すなわち、連結が発生する限り1つ若しくは複数の中間部分若しくは構成要素を介して一緒につながれているか、一緒に動作することを意味するものとする。
[0023] 方向を表す用語/句及び相対的な用語/句は、添付図面に図示されるように、様々な要素の互いとの関係を記述するために使用される。これらの用語/句は、図面に描かれる向きに加えて、デバイス及び/又は要素の異なる向きを包含することが意図される。
[0024] 本明細書で使用される「コンピュータ可読記憶媒体」は、コンピューティングデバイスのプロセッサにより実行可能な命令を記憶する任意の有形の記憶媒体を包含する。コンピュータ可読記憶媒体は、一時的な伝搬信号などの一時的媒体と区別するために、非一時的なコンピュータ可読記憶媒体と称することがある。コンピュータ可読記憶媒体は、有形のコンピュータ可読媒体と称する場合もある。
[0025] いくつかの実施形態において、コンピュータ可読記憶媒体は、コンピューティングデバイスのプロセッサによりアクセス可能なデータを記憶することもできる。コンピュータ可読記憶媒体の例には、これらに限定されないが、フロッピーディスク、磁気ハードディスクドライブ、固体状態ハードディスク、フラッシュメモリ、USBサムドライブ、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、光ディスク、光磁気ディスク、及びプロセッサのレジスタファイルが含まれる。光ディスクの例には、コンパクトディスク(CD)及びデジタル多用途ディスク(DVD)、例えば、CD−ROM、CD−RW、CD−R、DVD−ROM、DVD−RW、又はDVD−Rディスクが含まれる。コンピュータ可読記憶媒体という用語は、ネットワーク又は通信リンクを解してコンピュータデバイスによってアクセスされることが可能な様々な種類の記録媒体も指す。例えば、データは、モデム、インターネット、又はローカルエリアネットワークを通じて取得される。コンピュータ可読記憶媒体の言及は、場合によっては複数のコンピュータ可読記憶媒体であると解釈すべきである。プログラムの様々な実行可能コンポーネントは、異なる場所に記憶することができる。コンピュータ可読記憶媒体は、例えば、同じコンピュータシステム内にある複数のコンピュータ可読記憶媒体である。コンピュータ可読記憶媒体は、複数のコンピュータシステム又はコンピューティングデバイスに分散されたコンピュータ可読記憶媒体であってもよい。
[0026] 「メモリ」は、コンピュータ可読記憶媒体の一例である。コンピュータメモリは、プロセッサが直接アクセスできるメモリである。コンピュータメモリの例には、これらに限定されないが、RAMメモリ、レジスタ、及びレジスタファイルが含まれる。「コンピュータメモリ」又は「メモリ」の言及は、場合によっては複数のメモリであると解釈されるべきである。メモリは、例えば、同じコンピュータシステム内にある複数のメモリである。メモリは、複数のコンピュータシステム又はコンピューティングデバイスに分散された複数のメモリであってもよい。
[0027] コンピュータストレージは、任意の不揮発性のコンピュータ可読記憶媒体である。コンピュータストレージの例には、これらに限定されないが、ハードディスクドライブ、USBサムドライブ、フロッピードライブ、スマートカード、DVD、CD−ROM、及び固体状態ハードドライブが含まれる。いくつかの実施形態では、コンピュータストレージはコンピュータメモリでもあり、その逆も同様である。「コンピュータストレージ」又は「ストレージ」の言及は、場合によっては複数の記憶装置又はコンポーネントを含むものと解釈すべきである。例えば、ストレージは、同じコンピュータシステム又はコンピューティングデバイス内にある複数の記憶装置を含む。ストレージは、複数のコンピュータシステム又はコンピューティングデバイスに分散された複数のストレージも含む。
[0028] 本明細書で使用される「プロセッサ」は、プログラム又は機械実行可能命令を実行することが可能な電子コンポーネントを包含する。「プロセッサ」を備えるコンピューティングデバイスの言及は、場合によっては2つ以上のプロセッサ又は処理コアを含んでいるものと解釈すべきである。プロセッサは、例えばマルチコアプロセッサである。プロセッサは、単一のコンピュータシステム内にあるか又は複数のコンピュータシステムに分散された、プロセッサの集まりを指す場合もある。コンピューティングデバイスという用語は、場合によっては、各々が1つ又は複数のプロセッサを備えたコンピューティングデバイスの集まり又はネットワークを指すものとも解釈すべきである。多くのプログラムは、同じコンピューティングデバイス内にあるか、さらには複数のコンピューティングデバイスに分散されている場合もある複数のプロセッサによって実行される命令を有する。
[0029] 本明細書で使用される「ユーザインターフェース」又は「ユーザ入力装置」は、ユーザ又は操作者がコンピュータ又はコンピュータシステムと対話することを可能にするインターフェースである。ユーザインターフェースは、操作者に情報若しくはデータを提供する、及び/又は操作者から情報若しくはデータを受け取る。ユーザインターフェースは、操作者からの入力がコンピュータによって受け取られることを可能にし、コンピュータからユーザに出力を提供する。換言すると、ユーザインターフェースは、操作者がコンピュータを制御又は操作することを可能にし、またインターフェースは、コンピュータがユーザの制御又は操作の結果を示すことを可能にする。ディスプレイ又はグラフィックユーザインターフェースへのデータ又は情報の表示は、操作者に情報を提供することの一例である。タッチ画面、キーボード、マウス、トラックボール、タッチパッド、ポインティングスティック、グラフィクスタブレット、ジョイスティック、ゲームパッド、ウェブカメラ、ヘッドセット、ギアスティック、操縦ハンドル、有線グローブ、ワイヤレスリモコン、及び加速度計を通じてデータを受け取ることはすべて、ユーザから情報又はデータを受け取ることを可能にするユーザインターフェースコンポーネントの例である。
[0030] 本明細書で使用される「ハードウェアインターフェース」は、コンピュータシステムのプロセッサが外部のコンピューティングデバイス及び/若しくは装置と対話する、並びに/又はそれらを制御することを可能にするインターフェースを包含する。ハードウェアインターフェースは、プロセッサが外部のコンピューティングデバイス及び/又は装置に制御信号又は命令を送ることを可能にする。ハードウェアインターフェースはまた、プロセッサが外部のコンピューティングデバイス及び/又は装置とデータを交換することも可能にする。ハードウェアインターフェースの例には、これらに限定されないが、ユニバーサルシリアルバス、IEEE1394ポート、パラレルポート、IEEE1284ポート、シリアルポート、RS−232ポート、IEEE−488ポート、Bluetooth(登録商標)接続、ワイヤレスローカルエリアネットワーク接続、TCP/IP接続、Ethernet(登録商標)接続、制御電圧インターフェース、MIDIインターフェース、アナログ入力インターフェース、及びデジタル入力インターフェースが含まれる。
[0031] 本明細書で使用される「ディスプレイ」又は「表示装置」又は「表示ユニット」は、画像又はデータを表示するために適合された出力装置又はユーザインターフェースを包含する。ディスプレイは、視覚データ、音声データ、及び/又は触覚データを出力する。ディスプレイの例には、これらに限定されないが、コンピュータモニタ、テレビ画面、タッチ画面、触覚電子ディスプレイ、点字画面、陰極線管(CRT)、蓄積管、双安定ディスプレイ、電子ペーパー、ベクトルディスプレイ、フラットパネルディスプレイ、真空蛍光ディスプレイ(VF)、発光ダイオード(LED)ディスプレイ、エレクトロルミネセントディスプレイ(ELD)、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、有機発光ダイオードディスプレイ(OLED)、プロジェクタ、及び頭部装着型ディスプレイが含まれる。
[0032] これらの図中で同様の番号が付された要素は、等価な要素であるか、又は同じ機能を行うかのいずれかである。前に説明された要素は、機能が等価であれば、後の図では必ずしも説明されない。
[0033] はじめに、医療画像には、内視鏡の遠位端に設けられた内視鏡カメラを介して取得される画像や、ロボットの遠位端に(例えばエンドエフェクタとして)設けられた前方視カメラを介して取得される画像などの、2D又は3D画像が含まれることに留意されたい。また、ライブ画像には、低侵襲処置中に医療撮像により撮影される静止画像又はビデオ画像が含まれる。例えば、手術部位及びその周辺領域をより広く見るために、X線、超音波、及び/又は磁気共鳴によって取得される画像など、他の医療撮像が手術過程時に組み込まれてもよい。
[0034] 図1は、本発明の代表的実施形態による手術用ロボットシステムを示す概略ブロック図である。図1は手術用ロボットシステム100を描いており、これは、通例は、患者の身体内で特定された手術部位で、ロボットにより操作可能な手術用器具及び他の道具を操作することを伴う医療処置に利用される。そのような医療処置には、これらに限定されないが、例えば、低侵襲心臓手術(例えば冠動脈バイパスグラフトや僧帽弁置換)、低侵襲腹部手術(腹腔鏡)(例えば前立腺切除や胆嚢切除)、及び自然開口部越経管腔内視鏡手術が含まれる。
[0035] 図1を参照すると、描かれる実施形態では、手術用ロボットシステム100は、少なくとも1つのロボット101、制御ユニット106、及び仮想現実(VR)デバイス120を含む。ロボット101は、手術部位Sでライブ画像を獲得するように構成された少なくとも1つの画像獲得デバイス112と、内部の手術処置を行うための手術道具などの少なくとも1つの器具113と、を含む1つ又は複数のエンドエフェクタを、患者P内の手術部位Sに位置決めすべく操作するように構成される。内部の手術処置には、例えば、手術部位S内の解剖学的ターゲットTに関連する低侵襲手術や自然開口部手術が含まれ、その例は上記で挙げた。
[0036] VRデバイス120は、獲得されたライブ画像をユーザによって見られるVR表示ユニット121に表示するように構成されると共に、代表的な運動センサ124によって示される1つ又は複数の運動感知回路を介してユーザの(表示された画像に応答した)動きを捕捉するVR追跡システム122を使用して追跡データを検出するように構成される。例えば、下記でさらに述べるように、VRデバイス120は、表示ユニット121と運動センサ124とを含む、ユーザに装着されるヘッドピースを含む頭部装着型ディスプレイ(HMD)デバイスである。表示ユニット121は、単一のディスプレイであっても、又はユーザの両目に対応する2つの眼用ディスプレイ(図示せず)に分割されてもよい。2つの眼用ディスプレイは、画像獲得デバイス112が立体視である場合には3次元表示を可能にし、又は画像獲得デバイス112が単眼である場合には擬似的な3次元表示を可能にするが、2つの眼用ディスプレイは部分的に重なり合うように構成される。運動センサ124は、例えば、3軸周りのユーザの頭部の運動を検出する複数の加速度計であり、追跡データは、ユーザの頭部の動きに対応する頭部追跡データを含む。それに代えて、運動センサ124は、ユーザの目の動きを検出する後ろ向きのカメラを含んでもよく、その場合、追跡データは、ユーザの目の動きに対応する目追跡データを含む。
[0037] VRデバイス120は、ユーザから命令を受け取るための、入力装置126によって示される1つ又は複数の入力装置(例えばユーザインターフェース)も含む。ここで使用される入力装置126は、ユーザがVRデバイス120と手術用ロボットシステム100の両方と対話することを可能にするインターフェースである。入力装置126は、例えば、タッチ画面、キーボード、マウス、トラックボール、タッチパッド、又は音声コマンドインターフェースの1つ又は複数を含む。本実施形態では、ユーザは、入力装置126を使用して具体的なコマンドを入力し、例えば、プロセッサ130に確認信号を送って、プロセッサ130によって決定された選択されたターゲットTを確定する、又は、VR追跡システム122及び/若しくはプロセッサ130に起動信号を送って、HMDデバイスによる頭部の運動の検出を含む頭部追跡モード、若しくはHMDデバイスによる目の動きの検出を含む目追跡モードの一方を起動する。代替の実施形態では、入力装置126はVRデバイス120の外部にある。例えば、入力装置126は、制御ユニット106に組み込まれるか、又はI/O回路108を介してVRデバイス120及びプロセッサ130の両方と通信するように構成された別個のユニットとされる。
[0038] 制御ユニット106は、手術用ロボットシステム100の全体的な動作を制御し、その他の形で連携させるように構成される。制御ユニット106は、入力/出力(I/O)回路106及びプロセッサ130を含む。プロセッサ130は、処理を可能にするための関連付けられたメモリ134と、コンピュータ可読媒体(CRM)136とを含む。プロセッサ130は一般に、獲得されたライブ画像を画像獲得デバイス112からI/O回路108を介して受け取り、獲得されたライブ画像を処理して、例えばメモリ134及び/又はCRM136に記憶するように構成され、それにより、プロセッサ130は、画像獲得デバイス112によって通過された患者Pの内部部分同士を基本的に視覚的にマッピングするデータベースを構築することができる。このデータベースはその後、下記で述べるように、ターゲットTが選択されると、ターゲットTまでの経路を決定するために使用することができる。プロセッサ130は、獲得されたライブ像を、表示ユニット121に表示するためにI/O回路108を介してVRデバイス120に送信する。代替の構成では、獲得されたライブ画像は、獲得されたライブ画像がI/O回路108によって受け取られると、プロセッサ130による撮像処理は行われずに、I/O回路108からVRデバイス120に送信される。
[0039] プロセッサ130はさらに、VR追跡システム122によって判定される追跡データを、I/O回路108を介してVRデバイス120から受け取り、判定された追跡データを処理して、患者P内の手術部位Sでターゲット(例えばターゲットT)を選択するように構成される。プロセッサ130はさらに、例えば例示的な画像獲得デバイス112及び器具113を含むロボット101の1つ又は複数のエンドエフェクタが選択されたターゲットTに到達するための経路を、獲得されたライブ画像と、処理され判定された追跡データとに基づいて決定するように構成される。プロセッサ130は、I/O回路108を介してロボット101にロボット制御信号を送信して、1つ又は複数のエンドエフェクタを、決定された経路に沿って選択されたターゲットTまで移動させる。
[0040] そのために、I/O回路108は、獲得されたライブ画像を画像獲得デバイス112から受け取り、獲得されたライブ画像を、表示ユニット121に表示するためにプロセッサ130及び/又はVRデバイス120に提供する(直接、又は画像処理後にプロセッサ130から転送されるかのいずれか)。I/O回路108は、VRデバイス120から入力データ(追跡データを含む)も受け取り、それをプロセッサ130に提供し、追跡データに応じてプロセッサ130が決定したロボット制御信号をロボット101に送る。
[0041] 描かれる実施形態では、ロボット101は、患者Pの身体内の入口点Eに位置決めされる硬い近位部分102(例えばロボットアーム又はロボットアームの一部分)と、患者P内の手術部位Sに位置決めされる柔軟な遠位部分103とを有する。ロボット101は、本明細書では、特定のロボット処置に対して要求されるように柔軟な遠位部分103を操縦するための1つ又は複数の関節とそれに対応する2つ以上のリンクとが動力制御されるように構造的に構成された、任意のロボットデバイスと広く定義される。柔軟な遠位部分103は、画像獲得デバイス112と器具113とを含む1つ又は複数のエンドエフェクタを含む。器具113は、例えば、グリッパー若しくは道具ホルダー、腹腔鏡器具、腹腔鏡、例えば脊椎固定手術でネジを配置するための道具、生検若しくは治療用の針、組織若しくは腫瘍の撮像及びアブレーション用の超音波トランスデューサ、又は他の手術用若しくは介入用道具である。
[0042] 実際には、当業者には認識されるように、ロボット101は最低でも3自由度を有し、有益には6自由度以上を有する。ロボット101は、2つの交差するモータ軸を備えた遠隔運動中心(remote center of motion)(RCM)機構を有してよい。また、ロボット101には投光装置(図示せず)が関連付けられていてもよい。組み込むことが可能な操縦可能又は器用な手術用ロボットデバイスの一例は、参照により本明細書に組み込まれる、Sanchezによる米国特許第7,121,781号(2006年10月17日)に記載されるものなどの、7自由度の汎用手関節である。この汎用手関節は、遠位部分に複数の関節とジョーとを含み、近位部分に駆動システムを含む。このデバイスはさらに、ロボット位置決め機構とコンピュータコントローラとを使用して位置決めすることができる。ロボット位置決めにより、解剖学的構造に対するデバイスの運動を追跡することが可能になる。エンドエフェクタを上記手関節に結合することができ、それにより、同じ枢動点を中心とした2つの別々の自由度が得られる。エンドエフェクタは、ピンによって移動させ、作動させることができ、小型の低侵襲医療器具が可能となる。
[0043] 図1には、単一の硬い近位部分102とそれに対応する単一の遠位部分103とを操作するための単一のロボット101が描かれているが、本教示の範囲から逸脱することなく、対応する複数の硬い近位部分及び/又は複数の硬い遠位部分を備えた複数のロボットが組み込まれてもよいことが理解される。すなわち、ロボット101は、手術部位S内で異なるエンドエフェクタを制御する複数のロボットアーム(図示せず)を含んでもよい。例えば、1つのロボットアームが、手術部位Sのライブ画像を提供するための画像獲得デバイス112などの前方視カメラを含み、別のロボットアームが器具113並びにその他の器具を含んでもよい。
[0044] 画像獲得デバイス112は、手術用ロボットシステム100の制御ユニット106と共に撮像システムの一部をなし、前方光学視野又は傾斜光学視野を有する任意種類のカメラを1つ又は複数個含み、事前に定められたフレームレート(例えば毎秒30フレーム)で一連の2次元デジタルビデオフレームを獲得することが可能であり、また、それぞれのデジタルビデオフレームを、入力/出力回路108を介して制御ユニット106に提供することが可能であってよい。詳細には、画像獲得デバイス112は、その視野の中で、ロボット101の柔軟な遠位部分103から手術部位S及び解剖学的ターゲットT(例えば臓器)のライブ画像を獲得できるように位置及び向きが設定された前方視カメラであってよい。一実施形態では、硬い近位部分102は、ロボット101によって制御される内視鏡のようなデバイスであり、単一の近位部分102が複数のチャネルを含み、それらの1つは、画像獲得デバイス112の制御及び/又はそれとの通信を可能にし、チャネルのうち少なくとも1つの他のチャネルは、器具113又は他のエンドエフェクタの進入及び制御を可能にする。代替の実施形態では、画像獲得デバイス112は、硬い近位部分102に対応する柔軟な遠位部分103にあり、一方、他のエンドエフェクタは、他の硬い近位部分(図示せず)に対応する柔軟な遠位部分にあり、それらはすべてロボット101を介して制御される。さらに別の実施形態では、画像獲得デバイス112は、別個の内視鏡の柔軟な遠位部分にあり、ロボット101の一部ではなく、図2を参照して下記で述べるように、別個の内視鏡コントローラ(ロボット101と連携して動作する)の制御下にある。また、画像獲得デバイス112は、3次元で知覚できる画像を提供する立体視カメラ又は立体視内視鏡であってもよい。立体視内視鏡の一例が、参照により本明細書に組み込まれる、Breidenthalらの米国特許第6,139,490号(2000年10月31日)に記載されている。それに代えて、画像獲得デバイス112は単眼であってもよく、表示ユニット121はユーザの両目に対応する2つの眼用ディスプレイに分割され、その場合、単眼画像は、2つの重なり合う半画像に分割され、2つの眼用ディスプレイの各々に別々に呈示されて、擬似的な立体視を作り出す。
[0045] 外部の医療画像デバイスが含まれてもよい。医療画像デバイスは、手術用ロボット101の柔軟な遠位部分103及び手術部位SにあるターゲットTのライブ画像を1つ又は複数獲得するように構成され、より包括的な概観を提供する。そのような医療画像デバイスは、患者Pの一部分を少なくとも部分的に包囲するCアーム(図示せず)を含み得る。Cアームは撮像スキャナの増強器であり、C字型に構成されていることからその名がある。Cアームは、放射線撮影機能を持ち、当業者に知られるように、手術処置中の蛍光透視撮像に使用される。X線システムを実施するCアームの一例が、参照により本明細書に組み込まれる、Popovicの米国特許第9,095,252号(2015年8月4日)に記載されている。
[0046] 図2は、別個の撮像内視鏡とそれに対応する内視鏡コントローラとを含む、本発明の代表的実施形態による手術用ロボットシステムを示す概略ブロック図である。図2は、手術用ロボットシステム200を描いており、これは、通例は、患者の身体内で特定された手術部位で、ロボットにより操作可能な手術用器具及び他の道具を操作することを伴う医療処置に利用される。そのような医療処置には、これらに限定されないが、例えば、低侵襲心臓手術(例えば冠動脈バイパスグラフトや僧帽弁置換)、低侵襲腹部手術(腹腔鏡)(例えば前立腺切除や胆嚢切除)、及び自然開口部越経管腔内視鏡手術が含まれる。
[0047] 図2を参照すると、描かれる実施形態では、手術用ロボットシステム200は、少なくとも1つのロボット101、制御ユニット106、及びVRデバイス120を含む点で手術用ロボットシステム100と同様である。ロボット101は、内部の手術処置を行うための手術道具などの少なくとも1つの器具113を含む1つ又は複数のエンドエフェクタを、患者P内の手術部位Sに位置決めすべく操作するように構成される。内部の手術処置には、例えば、手術部位S内の解剖学的ターゲットTに関連する低侵襲手術や自然開口部手術が含まれ、その例は上記で挙げた。
[0048] 加えて、手術用ロボットシステム200は、ロボット101とは別個の内視鏡142を制御するように構成された内視鏡コントローラ140を含む。内視鏡142は、画像獲得デバイスであり、上記で図1を参照して論じた少なくとも1つの画像獲得デバイス112と機能が似ている。内視鏡142は、手術部位Sでライブ画像を獲得するように構成される。「内視鏡検査法」は内部を見ることを意味し、通例は医療上の理由から、身体及び/又は臓器に直接挿入される内視鏡142などの内視鏡を使用して身体の内部を見ることを言う。VRデバイス120は、内視鏡142により獲得されたライブ画像をユーザによって見られるVR表示ユニット121に表示するように構成されると共に、上述のように代表的な運動センサ124によって示される1つ又は複数の運動感知回路を介してユーザの(表示された画像に応答した)動きを捕捉するVR追跡システム122を使用して追跡データを検出するように構成される。
[0049] 様々な実施形態において、内視鏡142は、硬い管又は柔軟な管、検査対象の臓器又は物体を照明する光送達システム(例えば、光源は通常は身体の外部にあり、光は通例光ファイバシステムを介して誘導される)、対物レンズからビューワに画像を伝送するレンズ系、通例は、硬い内視鏡の場合にはリレーレンズ系、又はファイバスコープの場合は光ファイバの束、を含む。また、アイピースを持たないビデオスコープも企図され、その場合は、画像捕捉のためにカメラが画面に画像を送信する。また、様々な実施形態において、内視鏡142は、例えば立体視内視鏡であり、その画像データは、見かけ上3次元の画像を、例えばVR表示ユニット121に表示することを可能にする。
[0050] 描かれる実施形態では、ロボット101は、患者Pの身体内で第1の入口点E1に位置決めされる硬い近位部分102と、患者P内の手術部位Sに位置決めされる柔軟な遠位部分103とを有する。内視鏡142は、患者Pの身体内で第2の入口点E2に位置決めされるシースを含む。様々な実施形態において、内視鏡142は複数のチャネルを含み、そのうちの1つは画像の獲得を提供し、チャネルのうち少なくとも1つの他のチャネルは、内視鏡コントローラ140によって制御される、医療器具若しくは操縦器、及び/又は手術部位Sを照明するための光源などの別の器具の進入及び制御を可能にする。
[0051] 制御ユニット106は、ロボット101と内視鏡142の制御及び連携を含む、手術用ロボットシステム200の全体的な動作を制御し、その他の形で連携させるように構成される。制御ユニット106はI/O回路208を含み、これは、内視鏡コントローラ140と通信するための追加的なインターフェースを有する点でI/O回路108と異なる。したがって、プロセッサ130は一般に、獲得されたライブ画像を内視鏡142から内視鏡コントローラ140及びI/O回路208を介して受け取り、獲得されたライブ画像を処理して、例えばメモリ134及び/又はCRM136に記憶するように構成され、それにより、プロセッサ130は、内視鏡142が通過した患者Pの内部部分同士を基本的に視覚的にマッピングするデータベースを構築することができる。このデータベースはその後、下記で述べるように、ターゲットTが選択されると、ターゲットTまでの経路を決定するために使用することができる。プロセッサ130は、獲得されたライブ画像を、表示ユニット121に表示するためにI/O回路208を介してVRデバイス120に送信する。代替の構成では、獲得されたライブ画像は、獲得されたライブ画像が内視鏡コントローラ140からI/O回路208によって受け取られると、プロセッサ130による撮像処理は行われずに、I/O回路208からVRデバイス120に送信される。
[0052] プロセッサ130はさらに、VR追跡システム122によって判定される追跡データを、I/O回路208を介してVRデバイス120から受け取り、判定された追跡データを処理して、患者P内の手術部位Sでターゲット(例えばターゲットT)を選択するように構成される。プロセッサ130はさらに、例えば例示的な器具113を含むロボット101の1つ又は複数のエンドエフェクタが選択されたターゲットTに到達するための経路を、獲得されたライブ画像と、処理され判定された追跡データとに基づいて決定するように構成される。プロセッサ130は、I/O回路208を介してロボット101にロボット制御信号を送信して、1つ又は複数のエンドエフェクタを、決定された経路に沿って選択されたターゲットTまで移動させる。
[0053] そのために、I/O回路208は、獲得されたライブ画像を画像獲得デバイス112から内視鏡142及び内視鏡コントローラ140を介して受け取り、獲得されたライブ画像を、表示ユニット121に表示するためにプロセッサ130及び/又はVRデバイス120に提供する(直接、又は画像処理後にプロセッサ130から転送されるかのいずれか)。I/O回路208は、VRデバイス120から入力データ(追跡データを含む)も受け取り、それをプロセッサ130に提供し、追跡データに応じてプロセッサ130が決定したロボット制御信号をロボット101に送る。
[0054] VRデバイス120(図1及び図2に示される)を参照すると、表示ユニット121は、ユーザの近くに併置される場合もある1つ又は複数のディスプレイを含む。例えば、図3及び図4Aを参照すると、VRデバイス120がHMDデバイスとして実施される場合、表示ユニット121は、ゴーグルのように、ヘッドピース220の前部のユーザ333の目のすぐ前に取り付けられる。表示ユニット121は、上述のように手術部位Sのライブ画像を表示するように構成され、ユーザは自身の頭部及び/又は目を動かして表示ユニット121に表示されたライブ画像を観察し、選択のためにターゲットを追跡し、それにより、手術部位を観察して処置を行うために外科医が自身の頭部及び/又は目を動かす実際の手術処置を模擬する。画像獲得デバイス112が立体視画像を提供する場合、表示ユニット121に表示されるライブ画像は3次元に見える。一実施形態では、表示ユニット121は、術前画像も表示する。したがって、少なくとも1つの画像獲得デバイス112からの画像は、捕捉されてHMDデバイスに表示される。
[0055] 本発明の例示的実施形態による手術用ロボットシステム100又は200の一部として頭部追跡機能を備えたHMDデバイスを示す概略図である図3を特に参照すると、HMDデバイスのVR追跡システム122は、ユーザの頭部の運動に基づく追跡データを生成するように構成される。例えば、立体視内視鏡が手術部位Sのライブ画像を獲得し、そのライブ画像がHMDデバイスに表示される。立体視内視鏡は、ロボット101及び制御ユニット106又は内視鏡142によって制御される画像獲得デバイス112であってよく、図2を参照して述べたようにロボット101に取り付けられて別個の内視鏡コントローラ140によって制御されるのではない。
[0056] ユーザ333は、入力装置126(例えば、足ペダル、押しボタン、又は音声コマンド)を使用して頭部追跡モードを起動する。VR追跡システム122は、ユーザの頭部の運動を追跡し、プロセッサ130に追跡データを送って、HMDデバイス内の表示ユニット121の裏面の画面又はビューワ(図示せず)においてターゲットTを選択するための運動を計算させる。例えば、運動の計算は、画像面内の平面状の頭部の運動を使用して行われる。この場合、少なくとも1つの運動センサ124は、ユーザ333の頭部の運動を測定する1つ又は複数の加速度計を備える。より詳細には、描かれる実施形態では、VR追跡システム122は、y軸を中心とした頭部の運動(ヨーを示す)を測定するための第1の加速度計221、z軸を中心とした頭部の運動(ロールを示す)を測定するための第2の加速度計222、及びx軸を中心とした頭部の運動(ピッチを示す)を測定するための第3の加速度計223の3つの加速度計を含んでいる。VR追跡システム122は、第1〜第3の加速度計221〜223によってそれぞれ検出された軸周りの運動を追跡データに変換し、それが、I/O回路108を介して入力データとしてプロセッサ130に提供される。
[0057] そして、プロセッサ130は、追跡データを処理して、表示ユニット121(及びそこに表示されたライブ画像)との関係でユーザの頭部の角度を判定することによってターゲットTを特定又は選択することができ、ここで、頭部の角度は、ユーザ333が見ている、手術部位S内のターゲットTを構成するライブ画像の領域又は点を示す。ユーザ333が表示ユニット121の手術野S内でのターゲットTの位置に満足すると、制御システム106内のプロセッサ130に確認信号が送られる(例えば、足ペダル、押しボタン、又は音声コマンドを介して)。プロセッサ130は、選択されたターゲットTに対応する2次元又は3次元の座標を割り当てる(又はアドレス指定する)ことができる。患者Pの身体内の入口点Eの場所と、選択されたターゲットTの座標とを把握し、それに画像獲得デバイス112(又は内視鏡142)から獲得されたライブ画像のデータベースを併用して、プロセッサ130は、ロボット101により操作可能な少なくとも1つの器具113が選択されたターゲットTに到達するための経路(又はベクトル)を決定することができる。ロボットにより制御される器具が患者の手術部位内のターゲットに到達するためのそのような経路を決定する一例が、参照により本明細書に組み込まれる、Popovicらの米国特許第8,934,003号(2015年1月13日)により提供される。プロセッサ130はそして、ロボット101にロボット制御信号を送信して、ロボット101に、少なくとも1つの器具113の遠位端を、決定された経路を通してターゲットTまで誘導させる。すなわち、制御システム106は、ロボット101にコマンドを発して、選択されたターゲットTの位置まで移動させる。ロボット101の各関節の必要とされる運動は、当技術分野で知られる方法を使用してプロセッサ130によって実施される。例えば、ロボット101は、当技術分野で知られる視覚的サーボ制御方法を利用する。
[0058] 図4Aを参照すると、HMDデバイスのVR追跡システム122は、上記で図3を参照して述べたように、ユーザの頭部の運動に基づいて追跡データを生成するように構成される。ここでも、ユーザ333は、入力装置126(例えば、足ペダル、押しボタン、又は音声コマンド)を使用して頭部追跡モードを起動する。少なくとも1つの運動センサ124は、各軸を中心としたユーザ333の頭部運動を測定する1つ又は複数の加速度計(第1〜第3の加速度計221〜223)を備える。VR追跡システム122は、軸周りの運動を追跡データに変換し、それが、I/O回路108を介して入力データとしてプロセッサ130に提供される。そして、プロセッサ130は、上述のように、追跡データを処理して、表示ユニット121(及びそこに表示されたライブ画像)との関係でユーザの頭部の角度を判定することによってターゲットTを特定又は選択することができる。
[0059] ただし、図4Aは、画像獲得デバイス112が前方視カメラをロボットの一部として含む場合の動作を特に描いており、ロボットは、低侵襲手術のために硬い内視鏡を保持するマルチリンク若しくは同心弧ロボット、又は自然開口部150を通過するため(例えば気管支鏡検査)の図4Bに示すようなヘビ状若しくはカテーテル状ロボット1000である。描かれる実施形態では、ユーザ333は、解剖学的構造の仮想的なウォークスルーを行うことができ、ロボット1000はこの経路に沿って追従する。ターゲットの選択及び運動は連続的である。換言すると、プロセッサ130は、前方視カメラからの前方視画像を処理し、HMDからの判定された頭部追跡及び/又は目追跡データを継続進行モードで処理し、ロボット制御信号を送信して、ロボットに、前方視画像と判定された頭部追跡又は目追跡データとに基づいて、前方視カメラを継続進行モードで患者の内部を移動させるように構成される。
[0060] 上述のように、VRデバイス120の運動センサ124は、ユーザの目の動きを検出する2つの後ろ向きのカメラを含む目追跡システムであってよい。これは、例えば、VRデバイス120が、上述のように、表示ユニット121と、ヘッドピース220の表示ユニット121の近傍又は表示ユニット121自体の裏面のどちらかに装着された2つの後ろ向きのカメラとを含む、ユーザ333に装着されるヘッドピース220を含むHMDデバイスである場合に実施される。
[0061] 図6は、本発明の例示的実施形態による、手術用ロボットシステム100又は200の一部として目追跡能力を備えたHMDデバイスを示す概略図である。図6を参照すると、ユーザ333に装着されたヘッドピース220の表示ユニット121の裏面には、左アイピース331及び右アイピース332を備える両眼画面又はビューワがあり、各アイピースは、それぞれユーザ333の左目及び右目と概ね位置が合わせられる。表示ユニット121の裏面は、左目トラッカー335及び右目トラッカー336として示される2つの後ろ向きのカメラをさらに含み、これらは、特にユーザの目の虹彩を追従するように構成される。そして、ターゲットの選択は、HMDデバイス及び/又はプロセッサ130に組み込まれた目追跡システムを使用して行う。目の動きは、プロセッサ130により、それぞれ左アイピース331及び右アイピース332、並びに/又は手術部位Sにマッピングされ、それに応じてターゲットTが移動される。したがって、VR追跡システム122の追跡信号は目追跡信号と称される。代替の構成では、表示ユニット121の裏面は、ライブ画像を表示するための単一の(単眼)画面又はビューワを含む。ただし、目追跡能力を可能にするために、2つの後ろ向きのカメラ、左目トラッカー335、及び右目トラッカー336がやはりあってもよい。
[0062] 再度図1を参照すると、制御ユニット106は、本明細書では、手術部位Sにあるロボット101の柔軟な遠位部分103及び解剖学的物体又はターゲットTに関係するライブ画像及び術前画像の獲得及び処理を制御する1つ又は複数の制御コマンドを提供し、VRデバイス130からのターゲットTの選択に関係する追跡情報を利用してターゲットTまでの経路を決定し、さらに、柔軟な遠位部分103を制御するように構造的に構成された、任意のコントローラとして広く定義される。一般に、I/O回路108は、制御ユニット106の外部にあるデバイスと要素との間の通信を制御する。I/O回路108は、プロセッサ130、VRデバイス120、及びロボット101との間の入力信号及び出力信号又はデータを解釈するための必要な論理を含んだインターフェースの役割を果たす。I/O回路108は、画像獲得デバイス112から獲得されたライブ画像を受け取るように構成された第1の入力と、獲得されたライブ画像を、最終的には表示のためにプロセッサ130及びVRデバイス120のうち少なくとも一方に提供するように構成された第1の出力とを含む。I/O回路108はさらに、追跡データを含む判定された入力データをVRデバイス120から受け取るように構成された第2の入力と、判定された入力データをプロセッサ130に提供する(プロセッサ130はその入力データを処理して、それに応じてターゲットTを特定し、選択する)ように構成された第2の出力と、ロボット制御信号をロボット101に提供するように構成された第3の出力とを含んでよい。
[0063] プロセッサ130は、記載される機能及び動作を、ハードウェア、ソフトウェア、及びファームウェアの組み合わせを使用して行う。プロセッサ130は、手術部位Sにある手術用ロボット101の柔軟な遠位部分103に関係する医療画像(例えば、画像獲得デバイス112又は外部の医療画像デバイスからの)を処理して、柔軟な遠位部分103を、手術部位Sにある対応する解剖学的構造と位置合わせするように構成される。プロセッサ130は、位置追跡システム(図示せず)から得る手術用ロボット101の硬い近位部分102の追加的な位置追跡情報を処理して、硬い近位部分102の運動を決定するように構成される。位置追跡システムは、追跡システム120とは別個であり、当業者に理解されるように、光学追跡システム、機械的追跡システム、電磁追跡システムの1つ又は複数であってよい。センサ又はタグ(例えば発光ダイオード(LED)、受動マーカ、反射マーカ等)を手術用ロボット101の硬い近位部分102に含めて、位置追跡システムと協働するようにしてもよい。一実施形態では、位置補償モードが設けられ、そのモードに従って、プロセッサ130は、硬い近位部分102の判定された位置及び運動に基づいて、手術用ロボット101の柔軟な遠位部分103の運動補償信号を生成するように構成される。
[0064] 図2〜図4を追加的に参照すると、ロボット101は器用であり、入口点Eを通して患者に挿入される。硬い近位部分102は手持ち型であってよい。この硬い近位部分102は、入口点E(「枢動点」)を中心として枢動する。柔軟な遠位部分103は、入口点Eを傷つけることなく患者Pの内部を移動する。
[0065] 位置補償モードでは、上述のように、画像獲得デバイス112、又はX線(若しくは円錐ビームCT、US、内視鏡等)などの外部の医療画像デバイスを使用して、柔軟な遠位部分103に関係する画像が撮影される。手術部位S内での柔軟な遠位部分103の形状及び姿勢並びに/又は位置合わせは、画像に基づく位置合わせ及び道具追跡位置合わせを伴う、術前手術計画及び術中画像に対する手術道具のリアルタイム追跡など、当技術分野で知られる様々な手法を使用して決定される。
[0066] すなわち、内視鏡142を備えた又は備えていないロボット101は、追加的な座標系を生じさせるため、何らかの要求される基準枠に対するロボット101の位置整合(位置及び向き)は、保証し維持することが難しい。その理由は、ロボット101の位置決めには作業空間及び運動の制約が伴うからである。位置合わせにより異種の座標系間の位置ずれの問題に対処し、よって、同じ位置整合を臨床医が頭の中で行う必要がない。ロボット101の位置合わせにより、術前画像をライブ内視鏡フィードに位置合わせするなどの能力が可能になり、それにより、解剖学的ターゲットの位置特定を助けることができる。術前画像は、コンピュータ断層撮影(CT)、超音波、磁気共鳴撮像(MRI)、陽電子放射断層撮影(PET)、単一光子放射コンピュータ断層撮影(SPECT)等により得られるような3D画像を含む。
[0067] 手術用ロボット101をそれがいる作業空間に位置合わせするには各種の方法が存在する。位置合わせは、画像獲得デバイス112のライブビュー内で見えている特徴を、術前CTなどの他の方式で知られる対応する特徴と一致させることにより行うことができる。内視鏡手術における画像に基づく位置合わせ及び道具追跡位置合わせの一例が、参照により本明細書に組み込まれる、Popovicの米国特許第9,095,252号(2015年8月4日)に記載されている。柔軟な遠位部分103の位置合わせは、1)ロボット101の柔軟な遠位部分103及びその周囲にある解剖学的構造の術中画像を(例えば、上述の外部の医療画像デバイスから)獲得し、位置合わせを行うこと、又は2)ロボット101の柔軟な遠位部分103から、周囲にある解剖学的構造の画像を獲得すること(例えば、カメラや超音波トランスデューサなどの画像獲得デバイス112から)、を含む。
[0068] 実際には、上述の制御プロセスは、ハードウェア、ソフトウェア、及び/又は任意のプラットフォーム(例えば汎用コンピュータ、特定用途集積回路(ASIC)等)にインストールされたファームウェアの任意の組み合わせによって具現化されるモジュールによって実施される。さらに、処理は、制御ユニット106のプロセッサ130によって行うことができる。
[0069] 本発明の実施形態は、患者Pの身体への入口に位置決めされる硬い近位部分102と、患者P内の手術部位Sに位置決めされる柔軟な遠位部分103とを有する手術用ロボット101を含む手術用ロボットシステム100を制御するためにプロセッサ130により実行されるように構成された機械可読命令が記憶された非一時的なコンピュータ可読記憶媒体136も対象とする。それに対応する機械可読命令が、方法500を行うように構成される。
[0070] 図5は、手術用ロボットシステムを制御し誘導するための方法500の代表的実施形態の動作を示すフローチャートであり、例えばプロセッサ130によって実施される。説明のために、方法500は、図1に描かれるバージョンの手術用ロボットシステム100によって行われるものとするが、この方法は、本発明の教示の範囲から逸脱することなく、手術用ロボットシステム200を含む代替の構成にも実質的に適用することができる。
[0071] 図5を参照すると、S511で、獲得されたライブ画像が動作画像獲得デバイスから受け取られる。ライブ画像は、例えば、ロボットの遠位部分に付いている1つ又は複数のカメラによって獲得される。ライブ画像は、静止画像又はビデオであり、手術部位を示す。代替の実施形態では、画像は、ロボットコントローラ又は別個の内視鏡コントローラの制御下にある内視鏡によって獲得される。動作S512で、ライブ画像(又はライブ画像データ)がHMDデバイスなどのVRデバイスに送信され、そこでライブ画像がユーザに表示される。ライブ画像をVRデバイスに送信する前に、ライブ画像に画像処理を行ってもよい。例えばVRデバイスがHMDデバイスである場合、ライブ画像は、HMDヘッドピース内の表示画面又はビューワに表示される。それに代えて、ライブ画像は、ユーザの視野内の固定された位置に位置する、コンピュータモニタなどの別個の表示ユニットに表示されてもよい。プロセッサは、運動の方向、ターゲットの場所、ロボットの位置などの視覚的標識と共にVRデバイスに送信するために、獲得されたライブ画像を増強してもよい。
[0072] 動作513で入力データがVRデバイスから受け取られ、入力データは、検出されたユーザの運動を示す追跡データを含んでいる。例えば、VRデバイスがHMDデバイスである場合、検出された運動は、HMDヘッドピースを装着しているユーザの頭部の運動又は目の動きである。HMDヘッドピースは、上述のように、そのような運動を検出するためのセンサを含むことができる。運動は、VRデバイス内のVR追跡システムによって追跡データに変換され、例えばプロセッサに送信される。それに代えて、生の運動データをプロセッサに送信し、プロセッサがその生の運動データを追跡データに変換してもよい。他の入力データには、ユーザによって入力されるコマンドが含まれ、そのようなコマンドには、ディスプレイ上の表示されたライブ画像の特徴を強調表示するためのカーソルの移動(例えば、選択されたターゲットを特定する)、選択されたターゲットを確定する確認信号、及び頭部追跡モード又は目追跡モードなどの追跡モードの種類を起動する起動信号などがある。
[0073] 動作514で、VRデバイスから受け取られた入力データを処理して、患者内の手術部位でターゲットを選択する。ターゲットが選択されると、動作515で、手術用ロボットによって操作可能な一つのエンドエフェクタ(又は複数のエンドエフェクタ)が選択されたターゲットに到達するための経路が、ライブ画像と、処理され判定された入力データとに基づいて決定される。次いで、動作516でロボット制御信号を送信して、ロボットにエンドエフェクタを誘導させて、決定された経路を通して手術部位の選択されたターゲットに到達する。図5の説明を通じて、「送信される」という用語は、ケーブル若しくは導体及び/又はワイヤレス通信を含む、任意モードの信号通信によって送ることを言う。
[0074] 様々な実施形態について図面及び前述の説明に詳細に図示し、説明してきたが、そのような図示及び説明は、説明又は例示のためであり、制限的なものとはみなすべきでない。本発明は、開示された実施形態に制限されない。
[0075] 開示された実施形態の他の変形例を、図面、本開示、及び添付の特許請求の範囲の考察から、特許権が請求される本発明を実施する際に当業者によって理解し、実施することができる。特許請求の範囲では、「〜を含む」という単語は、他の要素又はステップを排除せず、不定冠詞の「a」又は「an」は複数を排除しない。単一のプロセッサ又は他のユニットが、特許請求の範囲に記載される数個の項目の機能を実現することができる。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、それらの手段の組み合わせを有利に使用できないことを意味するものではない。コンピュータプログラムは、他のハードウェアと共に又はその一部として供給される光学記憶媒体又は固体状態媒体などの適切な媒体で記憶/配布することができるが、インターネット又は他の有線若しくは無線の遠隔通信システムを介するなど、他の形態で配布されてもよい。特許請求の範囲内に参照符号がある場合、範囲を制限するものとは解釈すべきでない。

Claims (22)

  1. 患者の手術部位で少なくとも1つのエンドエフェクタを操作するロボットを含む手術用ロボットシステムのための制御ユニットであって、前記制御ユニットは、
    プロセッサであって、
    少なくとも1つの画像獲得デバイスから受け取られる、獲得された患者のライブ画像を、表示ユニットのビューワに表示するために仮想現実(VR)デバイスに送信することと、
    前記VRデバイスから入力データを受け取ることであって、前記入力データは、前記VRデバイスの前記表示ユニットの前記ビューワに表示された獲得された前記患者の前記ライブ画像に対するユーザの反応に基づく、前記VRデバイスのVR追跡システムからの追跡データを含む、ことと、
    前記VRデバイスから受け取った前記入力データを処理して、前記患者内のターゲットを決定することと、
    前記ロボットにより操作可能な前記少なくとも1つのエンドエフェクタが前記ターゲットに到達するための経路を、獲得された前記ライブ画像と処理された前記入力データとに基づいて決定することと、
    ロボット制御信号を送信して、前記ロボットに、前記少なくとも1つのエンドエフェクタを、決定された前記経路を通して前記ターゲットまで誘導させることと、
    を行うプロセッサを備える、制御ユニット。
  2. 前記VRデバイスは、前記ユーザによって装着されるヘッドピースを備えた頭部装着型ディスプレイ(HMD)デバイスである、請求項1に記載の制御ユニット。
  3. 前記VR追跡システムは頭部追跡システムを備え、
    前記プロセッサはさらに、前記頭部追跡システムからの頭部追跡データを処理して前記ターゲットを選択し、前記頭部追跡データは前記ユーザの頭部の動きに対応している、請求項2に記載の制御ユニット。
  4. 前記VR追跡システムは目追跡システムを備え、
    前記プロセッサはさらに、前記目追跡システムからの目追跡データを処理して前記ターゲットを選択し、前記目追跡データは前記ユーザの目の動きに対応している、請求項2に記載の制御ユニット。
  5. 前記ロボットにより操作可能な前記少なくとも1つのエンドエフェクタは、手術道具及び内視鏡カメラのうち少なくとも一方を備える、請求項1に記載の制御ユニット。
  6. 前記画像獲得デバイスから獲得された前記ライブ画像を受け取る第1の入力と、
    獲得された前記ライブ画像を、前記プロセッサ及び前記VRデバイスのうち少なくとも一方に提供する第1の出力と、
    前記VRデバイスから前記入力データを受け取る第2の入力と、
    前記ロボットに前記ロボット制御信号を提供する第2の出力と、
    を含む入力/出力(I/O)回路をさらに備える、請求項1に記載の制御ユニット。
  7. 前記VRデバイスの前記表示ユニットは、前記ビューワに表示された獲得された前記ライブ画像の特徴を強調表示するための移動可能なカーソルを提供する、請求項1に記載の制御ユニット。
  8. 前記プロセッサはさらに、入力装置からの確認信号を処理して、選択された前記ターゲットを確定する、請求項1に記載の制御ユニット。
  9. 前記プロセッサはさらに、前記HMDデバイスの入力からの起動信号を処理して、目の動き及びそれに対応する目追跡データの判定又は頭部の運動及びそれに対応する頭部追跡データの判定をそれぞれ含む、目追跡モード及び頭部追跡モードのうち一方を起動する、請求項2に記載の制御ユニット。
  10. 前記プロセッサはさらに、視覚的標識と共に前記VRデバイスに送信するために、獲得された前記ライブ画像を増強する、請求項1に記載の制御ユニット。
  11. 前記少なくとも1つの画像獲得デバイスは、前記少なくとも1つのロボットにより操作可能な前方視カメラを含み、
    前記プロセッサはさらに、前記前方視カメラからの前方視画像を処理し、前記HMDデバイスからの判定された前記目追跡データ又は頭部追跡データを継続進行モードで処理し、前記ロボット制御信号を送信して、前記ロボットに、前記前方視画像と、判定された前記頭部追跡データ又は目追跡データとに基づいて、前記前方視カメラを前記継続進行モードで前記患者内を移動させる、請求項9に記載の制御ユニット。
  12. 患者内の手術部位に位置決めされた少なくとも1つのエンドエフェクタを操作するロボットと、
    前記手術部位でライブ画像を獲得する少なくとも1つの画像獲得デバイスと、
    獲得された前記ライブ画像を表示し、仮想現実(VR)デバイスを介してユーザの行為によって提供される追跡データを判定するVRデバイスと、
    制御ユニットと、
    を備える手術用ロボットシステムであって、前記制御ユニットは、
    前記少なくとも1つの画像獲得デバイスから獲得された前記ライブ画像を受け取り、獲得された前記ライブ画像を表示のために前記VRデバイスに提供し、前記VRデバイスから判定された前記追跡データを受け取り、前記ロボットにロボット制御信号を提供する入力/出力(I/O)回路と、
    プロセッサであって、
    前記少なくとも1つの画像獲得デバイスから前記I/O回路を介して受け取られる獲得された前記ライブ画像を、前記VRデバイスに送信し、
    前記VRデバイスからの判定された前記追跡データを処理して、前記患者内の前記手術部位でターゲットを選択し、
    前記少なくとも1つのエンドエフェクタが選択された前記ターゲットに到達するための経路を、獲得された前記ライブ画像と、処理され判定された前記追跡データとに基づいて決定し、
    前記ロボットに前記ロボット制御信号を送信して、少なくとも1つの器具を決定された前記経路を通して選択された前記ターゲットまで移動させる、プロセッサと、
    を備える、手術用ロボットシステム。
  13. 前記VRデバイスは、前記ユーザによって装着される頭部装着型ディスプレイ(HMD)であり、
    前記追跡データは、前記HMDによって検出された前記ユーザの頭部の運動に対応する頭部追跡データ、及び前記HMDによって検出された前記ユーザの目の動きに対応する目追跡データ、のうち少なくとも一方を含む、請求項12に記載の手術用ロボットシステム。
  14. 前記制御ユニットに結合された入力装置をさらに備え、前記プロセッサはさらに、前記入力装置からの確認信号を処理して、選択された前記ターゲットを確定する、請求項12に記載の手術用ロボットシステム。
  15. 前記プロセッサはさらに、前記入力装置からの起動信号を処理して、前記HMDによる前記頭部の運動の検出を含む頭部追跡モード、又は前記HMDによる前記目の動きの検出を含む目追跡モードのうち一方を起動する、請求項14に記載の手術用ロボットシステム。
  16. 前記少なくとも1つの画像獲得デバイスは立体視内視鏡を備える、請求項12に記載の手術用ロボットシステム。
  17. 前記ロボットは、前記少なくとも1つのエンドエフェクタを含む柔軟な遠位部分に結合された、硬い近位部分を備える、請求項12に記載の手術用ロボットシステム。
  18. 手術用ロボットシステムを操作するためにプロセッサにより実行可能な機械可読命令を記憶した非一時的なコンピュータ可読記憶媒体であって、前記手術用ロボットシステムは、患者内の手術部位に位置決めされる少なくとも1つのエンドエフェクタを操作する少なくとも1つのロボットと、前記手術部位でライブ画像を獲得する少なくとも1つの画像獲得デバイスと、ユーザにより装着され、獲得された前記ライブ画像を表示すると共に、前記ユーザの頭部の運動又は前記ユーザの目の動きのうち少なくとも一方を判定する頭部装着型ディスプレイ(HMD)デバイスと、を含み、前記非一時的なコンピュータ可読媒体は、
    前記少なくとも1つの画像獲得デバイスから受け取られた、獲得された前記ライブ画像を前記HMDデバイスへ送信させるための送信コードと、
    前記HMDデバイスからの頭部追跡データ及び目追跡データのうち判定された少なくとも一方を処理して、前記患者内の前記手術部位でターゲットを選択するための処理コードと、
    前記少なくとも1つのエンドエフェクタを含む前記ロボットの遠位部分が前記患者内の前記手術部位の選択された前記ターゲットに到達するための経路を、獲得された前記ライブ画像と、処理され判定された前記頭部追跡データ及び/又は目追跡データとに基づいて決定するための決定コードと、
    前記ロボットにロボット制御信号を送信して、前記少なくとも1つのエンドエフェクタを、決定された前記経路を通して前記患者内の前記手術部位の選択された前記ターゲットまで移動させるためのロボット制御コードと、
    を含む、非一時的なコンピュータ可読記憶媒体。
  19. 入力装置からの確認信号を処理して、選択された前記ターゲットをユーザが確定するための確認コードをさらに含む、請求項18に記載の非一時的なコンピュータ可読記憶媒体。
  20. 入力装置からの起動信号を処理して、前記HMDデバイスによる頭部の運動の感知を含む頭部追跡モード又は前記HMDデバイスによる目の動きの感知を含む目追跡モードを起動するための起動コードをさらに含む、請求項18に記載の非一時的なコンピュータ可読記憶媒体。
  21. 視覚的標識と共に前記HMDデバイスに送信するために、獲得された前記ライブ画像を増強するための増強コードをさらに含む、請求項18に記載の非一時的なコンピュータ可読記憶媒体。
  22. 前記ロボットにより制御可能な前記エンドエフェクタのうち1つに関連付けられた前方視カメラからの前方視画像を処理し、
    前記HMDデバイスからの判定された前記頭部追跡データを継続進行モードで処理し、
    前記ロボット制御信号を送信して、前記前方視画像と、判定された前記頭部追跡データとに基づいて、前記少なくとも1つのロボットを前記患者内の前記手術部位において前記継続進行モードで移動させるための前方視画像コードをさらに含む、請求項18に記載の非一時的なコンピュータ可読記憶媒体。
JP2018533800A 2015-12-29 2016-12-27 ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法 Active JP6714085B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562272512P 2015-12-29 2015-12-29
US62/272,512 2015-12-29
PCT/EP2016/082716 WO2017114834A1 (en) 2015-12-29 2016-12-27 System, controller and method using virtual reality device for robotic surgery

Publications (3)

Publication Number Publication Date
JP2019506922A true JP2019506922A (ja) 2019-03-14
JP2019506922A5 JP2019506922A5 (ja) 2020-02-13
JP6714085B2 JP6714085B2 (ja) 2020-06-24

Family

ID=57714596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018533800A Active JP6714085B2 (ja) 2015-12-29 2016-12-27 ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法

Country Status (5)

Country Link
US (2) US10646289B2 (ja)
EP (1) EP3397185A1 (ja)
JP (1) JP6714085B2 (ja)
CN (1) CN108472095B (ja)
WO (1) WO2017114834A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019177134A (ja) * 2018-02-19 2019-10-17 グローバス メディカル インコーポレイティッド ロボット外科手術システムで使用するための拡張現実ナビゲーションシステムおよびその使用方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
US9727963B2 (en) * 2015-09-18 2017-08-08 Auris Surgical Robotics, Inc. Navigation of tubular networks
JP6714085B2 (ja) * 2015-12-29 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法
EP3531953A1 (en) * 2016-10-25 2019-09-04 Novartis AG Medical spatial orientation system
JP6850183B2 (ja) * 2017-04-11 2021-03-31 川崎重工業株式会社 ロボットシステム及びその運転方法
WO2018195319A1 (en) * 2017-04-20 2018-10-25 Intuitive Surgical Operations, Inc. Systems and methods for constraining a virtual reality surgical system
US11779192B2 (en) * 2017-05-03 2023-10-10 Covidien Lp Medical image viewer control from surgeon's camera
CN107566510B (zh) * 2017-09-20 2020-12-01 歌尔光学科技有限公司 远程医疗诊断服务系统
WO2019083805A1 (en) 2017-10-23 2019-05-02 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM
AU2019206392A1 (en) * 2018-01-10 2020-07-23 Covidien Lp Guidance for positioning a patient and surgical robot
TWI741196B (zh) * 2018-06-26 2021-10-01 華宇藥品股份有限公司 整合擴增實境之手術導航方法及系統
KR102488901B1 (ko) * 2018-08-01 2023-01-17 브레인 나비 바이오테크놀러지 씨오., 엘티디. 수술 중 환자 위치를 추적하는 방법 및 시스템
US11612438B2 (en) 2018-09-05 2023-03-28 Point Robotics Medtech Inc. Navigation system and method for medical operation by a robotic system using a tool
GB2577719B (en) * 2018-10-03 2023-04-26 Cmr Surgical Ltd Navigational aid
EP3871143A4 (en) * 2018-10-25 2022-08-31 Beyeonics Surgical Ltd. USER INTERFACE FOR HEAD MOUNTED DISPLAY SYSTEM
DE102018128848A1 (de) * 2018-11-16 2020-05-20 Olympus Winter & Ibe Gmbh Verfahren und Vorrichtung zur Ausführung verschiedener Funktionen im Zusammenhang mit chirurgischen Geräten
CN109410680A (zh) * 2018-11-19 2019-03-01 叶哲伟 一种基于混合现实的虚拟手术训练方法及系统
US20220117662A1 (en) * 2019-01-31 2022-04-21 Intuitive Surgical Operations, Inc. Systems and methods for facilitating insertion of a surgical instrument into a surgical space
KR102297517B1 (ko) * 2019-03-06 2021-09-02 서울대학교 산학협력단 최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법
CA3152108A1 (en) * 2019-11-05 2021-05-14 Jeffrey BAIL Surgical virtual reality user interface
US11871904B2 (en) * 2019-11-08 2024-01-16 Covidien Ag Steerable endoscope system with augmented view
US11409091B2 (en) 2019-12-31 2022-08-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11864841B2 (en) 2019-12-31 2024-01-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11607287B2 (en) * 2019-12-31 2023-03-21 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11048072B1 (en) * 2019-12-31 2021-06-29 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
WO2021140513A1 (en) * 2020-01-06 2021-07-15 Beyeonics Surgical Ltd. User interface for controlling a surgical system
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11690674B2 (en) * 2020-04-03 2023-07-04 Verb Surgical Inc. Mobile virtual reality system for surgical robotic systems
FR3109237B1 (fr) 2020-04-10 2022-08-05 Virtualisurg Système de connexion d’un dispositif d’entraînement chirurgical à un dispositif virtuel
FR3109078B1 (fr) 2020-04-10 2022-05-06 Virtualisurg Dispositif de simulation chirurgicale
CN112914730B (zh) * 2021-01-19 2022-12-16 上海市第十人民医院 一种基于vr技术的远程介入治疗系统
CN113766267B (zh) * 2021-09-15 2023-10-24 深圳市道通智能航空技术股份有限公司 基于无人机的多路视频直播方法、系统、设备及存储介质
CN114305695B (zh) * 2021-12-06 2023-12-26 上海微创医疗机器人(集团)股份有限公司 移动指引方法及系统、可读存储介质、及手术机器人系统
CN114972415B (zh) * 2021-12-28 2023-03-28 广东东软学院 机器人视觉跟踪方法、系统、电子设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237987A (ja) * 2010-05-10 2011-11-24 Olympus Corp 操作入力装置およびマニピュレータシステム
US20130030571A1 (en) * 2010-04-07 2013-01-31 Sofar Spa Robotized surgery system with improved control
JP2013516264A (ja) * 2010-01-08 2013-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ リアルタイム速度最適化を使用した校正不要のビジュアルサーボ
JP2017512554A (ja) * 2014-03-19 2017-05-25 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視線追跡を使用する医療装置、システム、及び方法

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US5641288A (en) * 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6139490A (en) * 1996-02-22 2000-10-31 Precision Optics Corporation Stereoscopic endoscope with virtual reality viewing
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6459926B1 (en) 1998-11-20 2002-10-01 Intuitive Surgical, Inc. Repositioning and reorientation of master/slave relationship in minimally invasive telesurgery
EP2070487B1 (en) * 2002-08-13 2014-03-05 NeuroArm Surgical, Ltd. Microsurgical robot system
SG155167A1 (en) * 2004-08-03 2009-09-30 Silverbrook Res Pty Ltd Walk-up printing
CN100468295C (zh) * 2007-04-10 2009-03-11 南京航空航天大学 基于人体表面肌电信息的头盔显示器虚拟视觉时延补偿系统及方法
GB0712690D0 (en) * 2007-06-29 2007-08-08 Imp Innovations Ltd Imagee processing
GB2464092A (en) 2008-09-25 2010-04-07 Prosurgics Ltd Surgical mechanism control system
CN102711650B (zh) 2010-01-13 2015-04-01 皇家飞利浦电子股份有限公司 用于内窥镜手术的基于图像整合的配准和导航
DE202012013197U1 (de) 2011-08-21 2015-05-21 M.S.T. Medical Surgery Technologies Ltd. Vorrichtung zum Unterstützen einer laparoskopischen Chirurgie - Regelbasierte Herangehensweise
US20190029765A1 (en) * 2012-06-21 2019-01-31 Globus Medical, Inc. Surgical robotic systems providing transfer of registration and related methods and computer program products
US9058053B2 (en) * 2012-10-26 2015-06-16 The Boeing Company Virtual reality display system
JP2016032485A (ja) * 2012-12-27 2016-03-10 国立大学法人 東京医科歯科大学 内視鏡下手術支援システム及び画像制御方法
WO2014125789A1 (en) * 2013-02-14 2014-08-21 Seiko Epson Corporation Head mounted display and control method for head mounted display
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
KR20140121581A (ko) 2013-04-08 2014-10-16 삼성전자주식회사 수술 로봇 시스템
US20170115736A1 (en) * 2013-04-10 2017-04-27 Google Inc. Photo-Based Unlock Patterns
US10584940B2 (en) * 2013-05-09 2020-03-10 Shooting Simulator, Llc System and method for marksmanship training
US10274287B2 (en) * 2013-05-09 2019-04-30 Shooting Simulator, Llc System and method for marksmanship training
US9592095B2 (en) * 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
JP6252004B2 (ja) * 2013-07-16 2017-12-27 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
RU2642941C2 (ru) * 2013-07-16 2018-01-29 Сейко Эпсон Корпорейшн Устройство обработки информации, способ обработки информации и система обработки информации
CN104035760A (zh) * 2014-03-04 2014-09-10 苏州天魂网络科技有限公司 跨移动平台实现沉浸式虚拟现实的系统
JP2015192697A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 制御装置および制御方法、並びに撮影制御システム
JP2017514608A (ja) * 2014-05-05 2017-06-08 バイカリアス サージカル インク. 仮想現実外科手術デバイス
SG11201701018PA (en) * 2014-08-10 2017-03-30 Autonomix Medical Inc Ans assessment systems, kits, and methods
US10034508B2 (en) * 2014-08-12 2018-07-31 Microsoft Technology Licensing, Llc Weight-distributing headband for head-worn assembly
US10702353B2 (en) * 2014-12-05 2020-07-07 Camplex, Inc. Surgical visualizations systems and displays
WO2016092698A1 (ja) * 2014-12-12 2016-06-16 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9538962B1 (en) * 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10908681B2 (en) * 2015-02-20 2021-02-02 Covidien Lp Operating room and surgical site awareness
US9703102B2 (en) * 2015-08-28 2017-07-11 Tomy Company Ltd. Information processing device including head mounted display
WO2017091704A1 (en) * 2015-11-25 2017-06-01 Camplex, Inc. Surgical visualization systems and displays
EP3174267B1 (en) 2015-11-30 2018-11-07 Sap Se Interaction pattern for a mobile telecommunication device
WO2017114855A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
JP6714085B2 (ja) * 2015-12-29 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法
CN111329551A (zh) * 2016-03-12 2020-06-26 P·K·朗 用于脊柱和关节手术的增强现实引导
EP3429496A1 (en) * 2016-03-17 2019-01-23 Koninklijke Philips N.V. Control unit, system and method for controlling hybrid robot having rigid proximal portion and flexible distal portion
US10990169B2 (en) * 2016-06-28 2021-04-27 Rec Room Inc. Systems and methods for assisting virtual gestures based on viewing frustum
KR20230133940A (ko) * 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
US9844321B1 (en) * 2016-08-04 2017-12-19 Novartis Ag Enhanced ophthalmic surgical experience using a virtual reality head-mounted display
US10499997B2 (en) * 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
EP3529686A4 (en) * 2017-01-13 2019-09-25 Samsung Electronics Co., Ltd. APPARATUS AND METHOD FOR PROVIDING GUIDANCE IN A VIRTUAL ENVIRONMENT
US10416769B2 (en) * 2017-02-14 2019-09-17 Microsoft Technology Licensing, Llc Physical haptic feedback system with spatial warping
EP4032459A1 (en) * 2017-04-07 2022-07-27 Auris Health, Inc. Patient introducer alignment
US20180356880A1 (en) * 2017-04-14 2018-12-13 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer
US10861236B2 (en) * 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
US11406255B2 (en) * 2018-01-03 2022-08-09 Koninklijke Philips N.V. System and method for detecting abnormal tissue using vascular features
US20190254753A1 (en) * 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019231891A1 (en) * 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
AU2019289085B2 (en) * 2018-06-19 2022-09-01 Howmedica Osteonics Corp. Automated instrument or component assistance using mixed reality in orthopedic surgical procedures
EP3820373A4 (en) * 2018-08-07 2022-04-27 Auris Health, Inc. COMBINATION OF STRAIN-BASED FORM MEASUREMENT WITH CATHETER CONTROL
CA3121279A1 (en) * 2018-11-30 2020-06-04 Joseph J.K. MA Ocular systems, devices, and methods
CA3127605C (en) * 2019-01-23 2022-08-02 Proprio, Inc. Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site
WO2020163324A1 (en) * 2019-02-05 2020-08-13 Smith & Nephew Inc. Methods for improved surgical planning using machine learning and devices thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013516264A (ja) * 2010-01-08 2013-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ リアルタイム速度最適化を使用した校正不要のビジュアルサーボ
US20130030571A1 (en) * 2010-04-07 2013-01-31 Sofar Spa Robotized surgery system with improved control
JP2011237987A (ja) * 2010-05-10 2011-11-24 Olympus Corp 操作入力装置およびマニピュレータシステム
JP2017512554A (ja) * 2014-03-19 2017-05-25 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視線追跡を使用する医療装置、システム、及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019177134A (ja) * 2018-02-19 2019-10-17 グローバス メディカル インコーポレイティッド ロボット外科手術システムで使用するための拡張現実ナビゲーションシステムおよびその使用方法

Also Published As

Publication number Publication date
CN108472095A (zh) 2018-08-31
CN108472095B (zh) 2021-11-02
US20200268462A1 (en) 2020-08-27
JP6714085B2 (ja) 2020-06-24
WO2017114834A1 (en) 2017-07-06
US10646289B2 (en) 2020-05-12
EP3397185A1 (en) 2018-11-07
US11413099B2 (en) 2022-08-16
US20190008595A1 (en) 2019-01-10

Similar Documents

Publication Publication Date Title
US11413099B2 (en) System, controller and method using virtual reality device for robotic surgery
AU2018378810B2 (en) System and method for medical instrument navigation and targeting
CN108472090B (zh) 用于控制外科手术机器人的系统、控制单元和方法
EP3801189A1 (en) Path-based navigation of tubular networks
JP5568574B2 (ja) 内視鏡装置をナビゲーションする方法、および画像表示のための装置
KR20140112207A (ko) 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
JP7041068B2 (ja) 剛性近位部及びフレキシブル遠位部を有するハイブリッドロボットを制御するための制御ユニット、システム、及び方法
JP2015514492A (ja) 術前及び術中3d画像を用いて内視鏡を手動操作するガイダンスツール
JPWO2007145327A1 (ja) 遠隔操作システム
US11406255B2 (en) System and method for detecting abnormal tissue using vascular features
CN111491567A (zh) 用于引导超声探头的系统和方法
WO2023150449A1 (en) Systems and methods for remote mentoring in a robot assisted medical system
Staub et al. Setup of a Scientific Research Platform for Robot-Assisted Minimally Invasive Heart Surgery Scenarios

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200313

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200604

R150 Certificate of patent or registration of utility model

Ref document number: 6714085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250