JP2021510224A - 患者および手術ロボットを配置するためのガイダンス - Google Patents
患者および手術ロボットを配置するためのガイダンス Download PDFInfo
- Publication number
- JP2021510224A JP2021510224A JP2020538094A JP2020538094A JP2021510224A JP 2021510224 A JP2021510224 A JP 2021510224A JP 2020538094 A JP2020538094 A JP 2020538094A JP 2020538094 A JP2020538094 A JP 2020538094A JP 2021510224 A JP2021510224 A JP 2021510224A
- Authority
- JP
- Japan
- Prior art keywords
- surgical
- user
- guidance
- training
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
- G09B23/285—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/305—Details of wrist mechanisms at distal ends of robotic arms
- A61B2034/306—Wrists with multiple vertebrae
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Medicinal Chemistry (AREA)
- Mathematical Analysis (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- Pulmonology (AREA)
- Radiology & Medical Imaging (AREA)
- Manipulator (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本開示に従って提供されるのは、身体および手術ロボットを配置するためのガイダンスを提供するためのシステム、方法、およびコンピュータ可読媒体である。例示的なシステムは、手術訓練環境の画像をキャプチャし、手術訓練環境の画像データを生成するように構成されている画像キャプチャデバイスと、ヘッドマウントディスプレイと、手術訓練パラメータを受信し、手術訓練環境の画像データを受信し、テーブルと手術ロボットの姿勢を検出し、手術訓練環境に基づいて、仮想訓練環境を生成し、手術訓練環境に対するユーザの姿勢を判定し、手術訓練パラメータおよび判定したユーザの姿勢に基づいて、テーブル上の身体または身体の周りに手術ロボットを配置するためのガイダンスを生成し、ヘッドマウントディスプレイに生成されたガイダンス表示させるように構成されているコンピューティングデバイスと、を含む。【選択図】図3A
Description
ロボット手術により、外科医が、開腹手術および/または腹腔鏡手術処置などの手動による手術技術では不可能であるか、または効率が低いであろう様々な手術処置を実施することが可能となる。しかしながら、外科医がロボット手術処置のために手術ロボットを快適に使用するためには、広範な訓練と準備が必要となることが多い。ロボット手術の準備の1つの重要な側面としては、手術テーブルに患者を位置付ける、患者の周りに手術ロボットのさまざまなアームを位置付けるなどの手術環境を準備することを伴う。しかしながら、特定の手術処置のために患者をどのように配置するか、その後、手術領域への最良のアクセスを確実にするために患者の周りに手術ロボットをどのように配置するかを外科医に教示する従来の訓練アプローチでは、かなりの時間がかかり、場合によっては、ロボット手術システムの採用をやめさせることさえある。以下に開示されるのは、ロボット手術のための患者および手術ロボットを配置するためのガイダンスおよび/または訓練を提供するための改善されたシステム、方法、およびコンピュータ可読媒体である。
本開示は、患者および/または手術ロボットを配置するためのガイダンスの提供に関連し、より詳細には、仮想または拡張現実視覚ガイダンスを生成および表示して、様々なタイプの手術ロボット処置のために患者および/または手術ロボットの1つ以上の構成要素をどのように配置するかについて臨床者をガイドおよび/または訓練するシステム、方法、およびコンピュータ可読媒体に関連する。
本開示の実施形態に従って提供されるのは、身体および手術ロボットを配置するためのガイダンスを提供するためのシステムである。本開示の一態様では、システムは、画像キャプチャデバイスであって、テーブルと手術ロボットを含む手術訓練環境の画像をキャプチャすることと、キャプチャした画像に基づいて手術訓練環境の画像データを生成することと、を行うように構成されている、画像キャプチャデバイスと、ユーザによって着用されるヘッドマウントディスプレイ(HMD)と、プロセッサおよび命令を記憶しているメモリを含むコンピューティングデバイスであって、命令は、プロセッサによって実行されると、コンピューティングデバイスに、手術訓練パラメータを受信することと、画像キャプチャデバイスから手術訓練環境の画像データを受信することと、受信された画像データに基づいて、テーブルおよび手術ロボットの姿勢を検出することと、手術訓練環境の画像データに基づいて、仮想訓練環境を生成することであって、仮想環境はテーブルおよび手術ロボットの表現を含む、生成することと、受信された画像データおよび生成された仮想訓練環境に基づいて、手術訓練環境に対するユーザの姿勢を判定することと、手術訓練パラメータ、および手術訓練環境に対する、HMDを着用しているユーザの判定された姿勢に基づいて、テーブル上の身体の少なくとも一部または身体の周りの手術ロボットの少なくとも一部のうちの少なくとも1つを配置するためのガイダンスを生成することと、HMDに、生成したガイダンスを表示させることと、を行わせる、コンピューティングデバイスと、を含む。
本開示の別の態様では、身体はマネキンであり、手術訓練環境はテーブル上の身体をさらに含む。
本開示のさらなる態様では、ガイダンスは、手術訓練パラメータに基づいて、身体の少なくとも一部をテーブル上に配置するための指示を含む。
本開示のさらなる態様では、指示は、HMDによって表示されるテキスト指示を含む。
本開示のなおさらなる態様では、コンピューティングデバイスは、HMDに、身体に重なるように身体の少なくとも1つの器官の位置の拡張現実画像を表示させる。
本開示の別の態様では、指示は、身体の少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む。
本開示のさらなる態様では、ガイダンスは、ユーザが身体の少なくとも一部を推奨位置に位置付けたときに、位置付けたことを示す。
本開示の別の態様では、ガイダンスは、身体の少なくとも1つの器官の位置の拡張現実画像を含む。
本開示のさらなる態様では、身体の少なくとも1つの器官の位置の拡張現実画像は、患者の身体内部の器官の位置のモデルに基づく。
本開示の別の態様では、指示は、手術ロボットの少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む。
本開示のさらなる別の態様では、仮想訓練環境は、仮想身体の表現をさらに含む。
本開示のさらなる別の態様では、画像キャプチャデバイスは、HMDに結合されている。
本開示のさらなる別の態様では、画像キャプチャデバイスは、複数の画像キャプチャデバイスのうちの1つであり、複数の画像キャプチャデバイスは、手術訓練環境の周りの複数のそれぞれの位置に配置される。
本開示のさらなる別の態様では、手術ロボットの少なくとも一部は、ベース、第1の関節、第1の関節に結合された第1のアーム、第1のアームに結合された第2の関節、および第2の関節に結合された第2のアームのうちの1つ以上を含み、ベースが、第1の関節、第1のアーム、および第2の関節を介して第2のアームに結合されている。
本開示のさらなる別の態様では、手術訓練パラメータを受信することは、メモリから事前設定された手術訓練パラメータをロードすることを含む。
本開示のさらなる別の態様では、手術訓練パラメータを受信することは、ユーザによる入力から手術訓練パラメータの選択を受信することを含む。
本開示のさらなる別の態様では、手術訓練パラメータは、訓練プログラムに基づく。
本開示のさらなる態様では、訓練プログラムは、訓練プログラムのデータベースから選択される。
本開示のさらなる別の態様では、訓練プログラムのデータベースは、手術のタイプ、患者のタイプ、患者の特徴、および治療される病状のタイプのうちの1つ以上に関連する訓練プログラムを含む。
本開示のさらなる態様では、訓練プログラムは、グラフィカルユーザインターフェースを介して選択される。
本開示の別の態様では、手術訓練パラメータは、手術のタイプ、患者の年齢、患者の体重、患者のサイズ、および患者の病状のうちの1つ以上を含む。
本開示のさらなる別の態様では、コンピューティングデバイスに、手術訓練環境に対するHMDを着用しているユーザの姿勢を判定させるための命令は、プロセッサによって実行されると、コンピューティングデバイスに、受信された画像データを分析して、受信された画像データ内のユーザ、ならびにテーブルおよび手術ロボットのうちの1つ以上を識別することと、テーブルおよび手術ロボットのうちの1つ以上に対するユーザの位置を判定することと、テーブルまたは手術ロボットのうちの1つ以上に対するユーザの判定された位置に基づいて、仮想環境内にユーザの表現を生成することと、を行わせるさらなる命令を含む。
本開示のさらなる別の態様では、命令が、プロセッサによって実行されると、コンピューティングデバイスにさらに、ガイダンスによって示されたアクションをユーザが実施したか否かを判定させる。
本開示のさらなる態様では、画像キャプチャデバイスは、手術訓練環境の追加の画像データをキャプチャするように構成されており、ガイダンスによって示されるアクションをユーザが実施したか否かを判定することは、追加の画像データを分析して、ユーザの動きを検出することと、ユーザの検出された動きに基づいて、ガイダンスによって示されるアクションをユーザが実施したか否かを判定することと、を含む。
本開示のさらなる態様では、命令が、プロセッサによって実行されると、コンピューティングデバイスに、ユーザの検出された動きに基づいて、スコアを判定することと、HMDに判定されたスコアを表示させることと、をさらに行わせる。
本開示の実施形態に従って提供されるのは、身体および手術ロボットを配置するためのガイダンスを提供するための方法である。本開示の一態様では、本方法は、手術訓練パラメータの選択を受信することと、テーブルおよび手術ロボットを含む手術訓練環境の画像データを取得することと、取得された画像データに基づいて、テーブルおよび手術ロボットの位置を検出することと、手術訓練環境の取得された画像データに基づいて、仮想訓練環境を生成することであって、仮想訓練環境が、テーブルおよび手術ロボットの表現を含む、生成することと、取得された画像データと生成された仮想訓練環境に基づいて、手術訓練環境に対するヘッドマウントディスプレイデバイス(HMD)を着用しているユーザの姿勢を判定することと、手術訓練パラメータおよび手術訓練環境に対するユーザの判定された姿勢に基づいて、テーブル上の身体の少なくとも一部または身体の周りの手術ロボットの少なくとも一部のうちの少なくとも1つを配置するためのガイダンスを生成することと、HMDに生成したガイダンスを表示させることと、を含む。
本開示の別の態様では、身体はマネキンであり、手術訓練環境はテーブル上の身体をさらに含む。
本開示のさらなる態様では、ガイダンスは、手術訓練パラメータに基づいて、身体の少なくとも一部をテーブル上に配置するための指示を含む。
本開示のさらなる態様では、指示は、HMDによって表示されるテキスト指示を含む。
本開示のなおさらなる態様では、本方法は、HMDに、身体に重なるように身体の少なくとも1つの器官の位置の拡張現実画像を表示させることをさらに含む。
本開示の別の態様では、指示は、身体の少なくとも一部が位置付けらえるべき推奨位置の拡張現実画像を含む。
本開示のさらなる態様では、ガイダンスは、ユーザが身体の少なくとも一部を推奨位置に位置付けたときに、位置付けたことを示す。
本開示の別の態様では、ガイダンスは、身体の少なくとも1つの器官の位置の拡張現実画像を含む。
本開示のさらなる態様では、身体の少なくとも1つの器官の位置の拡張現実画像は、患者の身体内部の器官の位置のモデルに基づく。
本開示の別の態様では、指示は、手術ロボットの少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む。
本開示のさらなる別の態様では、仮想訓練環境は、仮想身体の表現をさらに含む。
本開示のさらなる別の態様では、手術訓練パラメータは、訓練プログラムに基づく。
本開示のさらなる態様では、訓練プログラムは、訓練プログラムのデータベースから選択される。
本開示のなおさらなる態様では、訓練プログラムのデータベースは、手術のタイプ、患者のタイプ、患者の特徴、および治療されている病状のタイプのうちの1つ以上に関連する訓練プログラムを含む。
本開示のなおさらなる態様では、訓練プログラムは、グラフィカルユーザインターフェースを介して選択される。
本開示の別の態様では、手術訓練パラメータは、手術のタイプ、患者の年齢、患者の体重、患者のサイズ、および患者の病状のうちの1つ以上を含む。
本開示のなお別の態様では、手術訓練環境に対するHMDを着用しているユーザの姿勢を判定することは、受信された画像データを分析して、受信された画像データ内のユーザ、ならびにテーブルおよび手術ロボットのうちの1つ以上を識別することと、テーブルおよび手術ロボットのうちの1つ以上に対するユーザの位置を判定することと、テーブルまたは手術ロボットのうちの1つ以上に対するユーザの判定された位置に基づいて、仮想環境内にユーザの表現を生成することと、を含む。
本開示のさらなる別の態様では、方法は、ガイダンスによって示されたアクションをユーザが実施したか否かを判定することをさらに含む。
本開示のさらなる態様では、方法は、手術訓練環境の追加の画像データをキャプチャすることをさらに含み、ガイダンスによって示されたアクションをユーザが実施したか否かを判定することは、追加の画像データを分析して、ユーザの動きを検出することと、ユーザの検出された動きに基づいて、ガイダンスによって示されたアクションをユーザが実施したか否かを判定することと、を含む。
本開示のなおさらなる態様では、方法は、ユーザの検出された動きに基づいてスコアを判定することと、HMDに判定されたスコアを表示させることと、をさらに含む。
本開示の実施形態に従って提供されるのは、命令を含む非一時的なコンピュータ可読記憶媒体であって、命令は、コンピュータによって実行されると、コンピュータに、手術訓練パラメータの選択を受信することと、テーブルおよび手術ロボットを含む手術訓練環境の画像データを取得することと、取得された画像データに基づいて、テーブルおよび手術ロボットの位置を検出することと、手術訓練環境の取得された画像データに基づいて、仮想訓練環境を生成することであって、仮想訓練環境が、テーブルおよび手術ロボットの表現を含む、生成することと、取得された画像データと生成された仮想訓練環境に基づいて、手術訓練環境に対する、ヘッドマウントディスプレイデバイス(HMD)を着用しているユーザの姿勢を判定することと、手術訓練パラメータおよび手術訓練環境に対するユーザの判定された姿勢に基づいて、テーブル上の身体の少なくとも一部を配置し、身体の周りの手術ロボットの少なくとも一部を配置するためのガイダンスを生成することと、HMDに、生成されたガイダンスを表示させることと、を行わせる。
本開示の別の態様では、身体はマネキンであり、手術訓練環境はテーブル上の身体をさらに含む。
本開示のさらなる態様では、ガイダンスは、手術訓練パラメータに基づいて、身体の少なくとも一部をテーブル上に配置するための指示を含む。
本開示のなおさらなる態様では、指示は、HMDによって表示されるテキスト指示を含む。
本開示のなおさらなる態様では、命令が、プロセッサによって実行されると、コンピュータは、HMDに、身体に重なるように身体の少なくとも1つの器官の位置の拡張現実画像を表示させる。
本開示の別の態様では、指示は、身体の少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む。
本開示のさらなる態様では、ガイダンスは、ユーザが身体の少なくとも一部を推奨位置に位置付けたときに、位置付けたことを示す。
本開示の別の態様では、ガイダンスは、身体の少なくとも1つの器官の位置の拡張現実画像を含む。
本開示のさらなる態様では、身体の少なくとも1つの器官の位置の拡張現実画像は、患者の身体内部の器官の位置のモデルに基づく。
本開示の別の態様では、指示は、手術ロボットの少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む。
本開示のさらなる別の態様では、仮想訓練環境は、仮想身体の表現をさらに含む。
本開示のさらなる別の態様では、手術訓練パラメータは、訓練プログラムに基づく。
本開示のさらなる態様では、訓練プログラムは、訓練プログラムのデータベースから選択される。
本開示のさらなる態様では、訓練プログラムのデータベースは、手術のタイプ、患者のタイプ、患者の特徴、および治療されている病状のタイプのうちの1つ以上に関連する訓練プログラムを含む。
本開示のなおさらなる態様では、訓練プログラムは、グラフィカルユーザインターフェースを介して選択される。
本開示の別の態様では、手術訓練パラメータは、手術のタイプ、患者の年齢、患者の体重、患者のサイズ、および患者の病状のうちの1つ以上を含む。
本開示のなお別の態様では、手術訓練環境に対するHMDを着用しているユーザの姿勢を判定することは、受信された画像データを分析して、受信された画像データ内のユーザ、ならびにテーブルおよび手術ロボットのうちの1つ以上を識別することと、テーブルおよび手術ロボットのうちの1つ以上に対するユーザの位置を判定することと、テーブルまたは手術ロボットのうちの1つ以上に対するユーザの判定された位置に基づいて、仮想環境内にユーザの表現を生成することと、を含む。
本開示の別の態様では、命令が、プロセッサによって実行されると、コンピュータにさらに、ガイダンスによって示されたアクションをユーザが実施したか否かを判定させる。
本開示のさらなる態様では、命令が、プロセッサによって実行されると、コンピュータにさらに、手術訓練環境の追加の画像データをキャプチャさせ、ガイダンスによって示されたアクションをユーザが実施したか否かを判定することは、追加の画像データを分析して、ユーザの動きを検出することと、ユーザの検出された動きに基づいて、ガイダンスによって示されたアクションをユーザが実施したか否かを判定することと、を含む。
本開示のなおさらなる態様では、命令が、プロセッサによって実行されると、コンピュータにさらに、ユーザの検出された動きに基づいて、スコアを判定させ、HMDに判定されたスコアを表示させる。
本開示の上記態様および実施形態のいずれも、本開示の範囲から逸脱することなく組み合わせられ得る。
本開示の様々な態様および特徴は、図面を参照して、本明細書で以下に説明される。
本開示は、患者の身体(または、いくつかの例では、患者もしくは別の被験者の身体に基づいてモデル化されたマネキン、仮想身体、および/もしくは同様のものなどの非人体)および手術ロボットを配置するためのガイダンスを提供するためのシステム、方法、およびコンピュータ可読媒体に関する。より具体的には、本開示は、外科医、看護師、技術者、および/または他の手術室スタッフ(以下、臨床者と呼ぶ)などのユーザに、どのように身体を手術室テーブルに配置するか、およびどのように身体の周りに手術ロボットを配置するかを示して、身体内の手術部位への手術ロボットに結合された手術ツールの最良のアクセスを確実にする。拡張現実ヘッドギアおよび/または仮想現実ヘッドギアなどのヘッドマウントディスプレイ、ならびに身体、手術室テーブル、および/または手術室の周りの別の場所の上に視覚ガイダンスを表示するように構成されているプロジェクタを含む様々な表示デバイスおよび/またはスピーカによって、様々な形式の視覚および/または聴覚ガイダンスが表示および/または放出され得る。ガイダンスは、身体またはその任意の部分を手術室のテーブル上の特定の位置に動かし、次いで、ある特定の方法で身体の周りに手術ロボットの様々なアームを配置するように臨床者に指導する1つ以上の指示を含み得る。したがって、本明細書に開示されるシステム、方法、およびコンピュータ可読媒体は、ロボット手術の訓練中および/または実際のロボット手術処置中に使用されて、手術室における人間の患者および手術ロボットの配置を支援し得る。
図1を参照すると、本開示の実施形態による、患者および手術ロボットを配置するためのガイダンスを提供するためのシステム100が示されている。システム100は、身体Bを支持するテーブル110、ヘッドマウントディスプレイデバイス(HMD)120、1つ以上の画像キャプチャデバイス125a、125b、125c、および125d、ロボットアーム155を含む手術ロボット150、ならびにコンピューティングデバイス200を含み得る。HMD120は、拡張および/または仮想現実画像を出力するように構成されている任意のヘッドマウントディスプレイデバイスであり得る。画像キャプチャデバイス125a、125b、125c、および125dは、ビデオカメラ、スチルカメラ、立体カメラ、RGB−Dカメラを含む3次元カメラ、LIDARセンサー、ならびに/または同様のものなど当業者に知られている画像キャプチャデバイスであり得、手術訓練環境の周りに配置され得る。画像キャプチャデバイス125a、125b、125c、および125dのうちの1つ以上、例えば、図1に示されるような画像キャプチャデバイス125dは、HMD120に含まれるか、またはHMD120に結合され得る。追加的または代替的に、画像キャプチャデバイス125a、125b、125c、および125dは、無線接続または有線接続のいずれかによって、コンピューティングデバイス200に結合または他の方法で接続され得る。画像キャプチャデバイス125a、125b、125c、および125dを以下ではまとめて画像キャプチャデバイス125と呼ぶ。
ロボットアーム155に加えて、手術ロボット150は、ベース151、ベース151に結合された第1の関節152、第1の関節152に結合されたロボットアーム155などの第1のロボットアーム、第1のロボットアーム155に結合された第2の関節153、第2の関節153に結合された第2のアーム154、および第2のアーム154に結合された器具駆動ユニット156をさらに含み得る。手術ロボット150は図1に単一のロボットアセンブリとして示されているが、複数のロボットアセンブリが手術訓練環境に含まれてもよく、当業者は、以下に説明する方法が、本開示の範囲から逸脱することなく、単一および/または複数のロボットアセンブリを有する手術ロボット150に適用されてもよく、各々が少なくとも1つのベース151と、ロボットアーム154および155と、関節152および153と、器具駆動ユニット156と、を含むことを認識するだろう。身体Bは、患者の身体などの人体、マネキンもしくは他のシミュレートされた身体などの非人体、および/または、場合によっては、患者もしくは被験者の人体に基づいてモデル化された仮想身体であり得る。例えば、身体Bが仮想身体である実施形態では、身体Bは、特定の患者および/または被験者のパラメータに基づいて生成されてもよく、コンピューティングデバイス200に記憶されて、訓練手順中にロードされ得る。身体Bが仮想身体である実施形態では、身体Bは、手術訓練環境ではテーブル110上に物理的に存在しないが、以下で説明するように、仮想訓練環境において表示される。さらに、身体Bが仮想身体である実施形態では、テーブル110はまた、コンピューティングデバイス200および/またはHMD120によって生成され、HMD120を介して表示される仮想テーブルであってもよい。
コンピューティングデバイス200は、当業者に知られているロボット手術の訓練中に使用するように構成可能な任意のコンピューティングデバイスであり得る。例えば、コンピューティングデバイス200は、デスクトップコンピュータ、ラップトップコンピュータ、サーバおよび端末構成、ならびに/または手術ロボット150のための制御コンピュータ、ならびに/または同様のものであり得る。いくつかの実施形態では、コンピューティングデバイス200は、HMD120に含まれ得る。以下でさらに説明するように、システム100は、どのようにテーブル110上に身体Bを配置するか、およびどのように身体Bの周りに手術ロボット150を配置するかについての訓練などのロボット手術ための訓練中に使用され得る。
ここで、図2を参照すると、本開示の実施形態による図1のシステム100の一部を形成するコンピューティングデバイス200の概略図が示されている。コンピューティングデバイス200は、メモリ202、プロセッサ204、入力インターフェース206、通信インターフェース208、および出力インターフェース210を含む。メモリ202は、データベース240およびアプリケーション280を記憶する。アプリケーション280は、プロセッサ204によって実行されると、以下で説明するように、コンピューティングデバイス200に様々な機能を実施させる命令を含む。アプリケーション280は、プロセッサ204によって実行されると、コンピューティングデバイス200に、例えば、図4に示す例示的なグラフィカルユーザインターフェース(GUI)などの1つ以上のGUI(図2に図示せず)を生成させるGUI命令285をさらに含む。データベース240は、様々な手術訓練パラメータを含む様々な訓練プログラムを記憶する。
訓練プログラムは、ロボット手術のために、手術訓練環境によってシミュレートされるような作業環境を準備するようにユーザに指示するように設計された指示のセットである。例えば、訓練プログラムは、テーブル110上に身体Bを位置付け、および/もしくはこれの位置を調整し、身体Bおよび/もしくはテーブル110に対して手術ロボット150を位置付け、および/もしくはこれの位置を調整し、ならびに/または身体Bに対する手術ロボット150の姿勢を調整するように、ユーザに指示する指示を含み得る。訓練プログラムは、それぞれ独自の指示のセットを備えた様々なステップおよび/またはフェーズを含み得る。例えば、訓練プログラムの各ステップおよび/またはフェーズは、ロボット手術のための作業環境を準備するために異なるアクションを実施するようにユーザに指示する1つ以上の指示を含み得る。第1のステップまたはフェーズは、身体Bをテーブル110上に配置することに向けられてもよく、第2のステップまたはフェーズは、テーブル110上の身体Bの位置を調整して、手術部位への最良のアクセスを確保することに向けられてもよく、第3のステップまたはフェーズは、身体Bおよび/またはテーブル110の周りに手術ロボット150を位置付けることに向けられてもよく、第4のステップまたはフェーズは、身体Bに対する手術ロボット150の姿勢を調整することに向けられてもよい。
本明細書で使用される場合、「姿勢」という用語は、物体の位置および配向として定義される。例えば、手術ロボット150の姿勢は、手術訓練環境内の手術ロボット150の位置、手術訓練環境および手術訓練環境内の他の物体に対する手術ロボット150の配向、ならびに/またはベース151、ロボットアーム154および155、関節152および153、ならびに器具駆動ユニット156のうちの1つ以上の構成を指す。同様に、テーブル110、身体Bなどのような、手術訓練環境における他の物体の姿勢も判定されてもよい。
いくつかの実施形態では、ロボット手術の作業環境を準備するために異なるタスクを実施するなどのために、複数のユーザが同時に訓練されてもよい。各ユーザは、訓練プログラムのそれぞれの部分のガイダンスを生成および表示するように構成されたHMD120を着用してもよい。そのような実施形態では、訓練プログラムは、割り当てられた様々なステップおよび/またはタスクを実施するよう各ユーザに指示する、各個別のユーザに向けられた指示を含み得る。訓練プログラムは、各ユーザに向けられた指示をさらに順序付けて、様々なユーザにどのようにそれぞれのタスクを実施するのかだけでなく、1人のユーザのタスクが別のユーザが最初にタスクを完了することに依存するときに様々なタスクが実施されるべき順番を教示してもよい。他の実施形態では、ユーザの一部またはすべてがHMD120を着用しなくてもよく、ガイダンスは、代わりに、身体B、テーブル110、および/または手術訓練環境の周りの他の場所にガイダンスを直接表示するプロジェクタによって表示されてもよい。
手術訓練パラメータは、さまざまなタイプの手術、患者のタイプ、患者の特徴、手術によって治療される病状のタイプ、患者の身体内の手術部位の位置、および/または手術部位にアクセスするための患者の身体上の手術ポートの推奨位置を含む。いくつかの実施形態では、手術訓練パラメータのうちの1つ以上は、別の手術パラメータに依存し、および/または別の手術パラメータから導出され得る。例えば、ユーザが手術のタイプとして「虫垂切除術」を選択する場合、手術部位の場所は「下腹部」として導出され得る。同様に、手術ポートの推奨位置は、選択された手術のタイプ、および手術部位の場所に基づいて判定され得る。同様に、手術ロボット150の推奨姿勢は、手術部位の位置および/または手術ポートの推奨位置に基づいて判定されてもよく、したがって、どのように手術ロボット150の姿勢を配置し、および/または調整するかをユーザに指示する指示は、手術部位の位置および/または身体B上の手術ポートの推奨位置に依存および/またはこれらに基づいて判定されてもよい。患者の特徴は、身長、体重、身体タイプ、既存の病状および/もしくは以前に患者に対して実施された手術、ならびに/または患者の他の属性を含む。実施形態では、訓練プログラムおよび/または指示は、手術訓練パラメータに基づき得る。したがって、HMD120によって表示されるガイダンスは、以下でさらに説明するように、手術部位および/または手術ポートの推奨位置の視覚的表現を含み得る。
メモリ202は、プロセッサ204によって実行可能であり、かつコンピューティングデバイス200の動作を制御する、データおよび/またはソフトウェアを記憶するための任意の非一時的なコンピュータ可読記憶媒体を含み得る。実施形態において、メモリ202は、フラッシュメモリチップなどの、1つ以上のソリッドステート記憶デバイスを含み得る。1つ以上のソリッドステート記憶デバイスの代替または追加として、メモリ202は、大容量記憶コントローラ(図2に図示せず)および通信バス(図2に図示せず)を介してプロセッサ204に接続された1つ以上の大容量記憶デバイスを含み得る。本明細書に含まれるコンピュータ可読媒体の説明は、ソリッドステート記憶装置を指すが、コンピュータ可読記憶媒体が、プロセッサ204によってアクセス可能な任意の利用可能な媒体であり得ることは当業者によって理解されるべきである。すなわち、コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を記憶するための任意の方法または技術で実装された非一時的、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体を含み得る。例えば、コンピュータ可読記憶媒体は、RAM、ROM、EPROM、EEPROM、フラッシュメモリもしくは他のソリッドステートメモリ技術、CD−ROM、DVD、ブルーレイもしくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスクス記憶装置もしくは他の磁気記憶デバイス、または所望の情報を記憶するために使用することができ、かつコンピューティングデバイス200によってアクセスすることができる任意の他の媒体を含み得る。
入力インターフェース206は、マウス、キーボード、もしくは他のハンドヘルドコントローラ、フットペダル、タッチスクリーン、音声インターフェース、および/またはユーザがコンピューティングデバイス200と対話することができる任意の他のデバイスもしくはインターフェースであり得る。通信インターフェース208は、有線ネットワークおよび/もしくは無線ネットワークからからなるローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、無線モバイルネットワーク、ブルートゥース(登録商標)ネットワーク、ならびに/またはインターネットなどのネットワークに接続するように構成され得る。出力インターフェース210は、コンピューティングデバイス200によって画像またはデータを出力するために使用可能なスクリーンまたは他のディスプレイデバイスであり得る。
図3Aおよび図3Bを参照すると、本開示の実施形態による、身体および手術ロボットを配置するためのガイダンスを提供するための例示的な方法300のフローチャートが示されている。いくつかの実施形態では、方法300の一部またはすべてのステップが、手術処置の開始前に、手術室などの手術作業環境で実施され得る。他の実施形態では、方法300の一部またはすべてのステップが、カリキュラムが教示される訓練施設などの教育または手術訓練環境で実施され得る。以下で説明するのは、方法300のステップを実施するためにシステム100の様々な構成要素を使用する様々な例である。しかしながら、当業者であれば、これらのステップの一部またはすべてが、本開示の範囲から逸脱することなく、説明されたものとは異なる順番もしくは順序で実施され、繰り返され、省略され、または異なる構成要素を使用することによって実施され得ると認識するであろう。特に、以下に提供される例は、表示デバイスとしてHMD120を使用することを説明しているが、当業者であれば、上記のように、1つ以上のプロジェクタを含む様々な他の表示デバイスが、本開示の範囲を逸脱することなく、HMD120の代わりに、またはこれに追加する表示デバイスとして使用できることも認識するであろう。
ステップS302で開始し、少なくとも1つの画像キャプチャデバイス125が、手術訓練環境の少なくとも1つの画像をキャプチャする。上述のように、手術訓練環境は、テーブル110および手術ロボット150を含む。いくつかの実施形態では、手術訓練環境は、テーブル110上の身体Bをさらに含み得る。次いで、ステップS304で、画像キャプチャデバイス125は、キャプチャした画像に基づいて手術訓練環境の画像データを生成する。
ステップS306で、コンピューティングデバイス200が、少なくとも1つの手術訓練パラメータを受信する。手術訓練パラメータは、訓練プログラムに基づいてもよい。上記のように、データベース240は、様々なタイプの手術、患者のタイプ、患者の特徴、および/または手術によって治療されている病状のタイプを含む、様々な手術訓練パラメータを含む様々な訓練プログラムを記憶している。実施形態では、臨床者などのユーザは、GUI(例えば、GUI命令285に基づいて生成されたGUI)を介して訓練プログラムおよび/または特定の手術訓練パラメータを選択してもよく、その後、訓練プログラムおよび/または手術訓練パラメータは、コンピューティングデバイス200に提供される。
その後、またはそれと同時に、ステップS308で、コンピューティングデバイス200は、画像キャプチャデバイス125から手術訓練環境の画像データを受信する。いくつかの実施形態では、画像キャプチャデバイス125は、手術訓練環境の画像データを生成せず、代わりに、キャプチャした画像をコンピューティングデバイス200に送信し、次に、コンピューティングデバイス200が、キャプチャされた画像に基づいて手術訓練環境の画像データを生成する。そのような実施形態では、ステップS308で受信されるのはキャプチャされた画像であり、手術訓練環境の画像データではない。
次に、ステップS310で、コンピューティングデバイス200は、画像データを処理して、画像データに基づいてテーブル110および/または手術ロボット150の姿勢を検出する。例えば、コンピューティングデバイス200は、画像データ内のテーブル110および手術ロボット150を含む様々な物体を識別するために、様々な画像処理および/またはモデリング技法を実施してもよい。次いで、コンピューティングデバイス200は、ステップS312で、手術訓練環境の画像データ、ならびにテーブル110および/または手術ロボット150の検出した姿勢に基づいて仮想訓練環境を生成する。仮想訓練環境は、いくつかの例では、テーブル110および/または手術ロボット150の仮想表現を含み得る。
次いで、コンピューティングデバイス200は、ステップS314で、手術訓練環境に対するユーザの姿勢を判定する。判定は、受信された画像データおよび/または生成された仮想訓練環境に基づいてもよい。例えば、コンピューティングデバイス200は、当業者に知られている様々な画像処理および/または物体検出アルゴリズムを利用して、画像キャプチャデバイス125から受信された画像データをさらに処理および分析して、画像データ内のユーザを識別してもよい。実施形態では、ユーザは、テーブル110および/または手術ロボット150対して画像データ内で識別される。次いで、コンピューティングデバイス200は、テーブル110および/または手術ロボット150に対するユーザの姿勢を判定し、テーブル110および/または手術ロボット150に対するユーザの判定された姿勢に基づいて、仮想訓練環境におけるユーザの表現を生成する。コンピューティングデバイス200は、ユーザの判定された姿勢に基づいて、仮想訓練環境をさらに増強し、それにより、仮想訓練環境内にユーザの表現を含み得る。
その後、ステップS316で、コンピューティングデバイス200は、ステップS306で受信した手術訓練パラメータおよびステップS314で判定した手術訓練環境に対するユーザの姿勢に基づいて、テーブル110上に身体Bを配置するためのガイダンスを生成する。ガイダンスは、身体Bをテーブル110上に配置するための少なくとも1つの指示を含む。例えば、ガイダンスは、テキスト指示、仮想および/もしくは拡張現実画像などのグラフィックもしくは他の視覚指示、ならびに/または聴覚指示を含み得る。実施形態では、ガイダンスは、身体Bの1つ以上の部分を推奨位置に再配置するなど、特定のアクションを実施するようにユーザに指示する指示を含み得る。例えば、ガイダンスは、身体Bが位置付けられるべき推奨位置の拡張現実画像を介して表示される指示を含み得る。いくつかの実施形態では、ガイダンスは複数の指示を含んでもよく、指示は並べられた順序で提供され得る。
ガイダンスはさらに、テーブル110上の身体Bの仮想および/または拡張現実画像と、身体B内部の1つ以上の器官または他の内部構造の位置とを含み得る。1つ以上の器官または他の内部構造の位置は、身体の内部の器官および/もしくは内部構造の位置のモデル、ならびに/または実際の患者の身体のスキャンに基づいてもよい。いくつかの実施形態では、身体B内部の1つ以上の器官または他の内部構造の位置の仮想および/または拡張現実画像は、1つ以上の器官または他の内部構造を明らかにするために身体Bの皮膚が「はがされた」画像を含む。
実施形態では、ガイダンスは、ステップS306で受信された手術訓練パラメータおよび/または訓練プログラム、ならびにステップS310で生成された仮想訓練環境に基づいてもよい。例えば、コンピューティングデバイス200は、身体Bおよび/または手術ロボット150の姿勢、ならびに身体Bおよび手術ロボット150に対するユーザの姿勢を分析して、手術訓練環境における身体Bおよび手術ロボット150の特定の姿勢に基づいて修正されるように、訓練プログラムに含まれる指示に基づいてガイダンスを生成してもよい。
コンピューティングデバイス200は、ステップS306で受信した手術訓練パラメータおよびステップS314で判定した手術訓練環境に対するユーザの姿勢に基づいて、テーブル110上の身体Bの周りに手術ロボット150を配置し、および/または手術ロボット150の姿勢を推奨姿勢に調整するためのさらなるガイダンスを生成する。上述のようにテーブル110上に身体Bを配置するためのガイダンスと同様に、身体Bの周りに手術ロボット150を配置し、および/または手術ロボット150の姿勢を調整するためのガイダンスは、1つ以上のアクションを実施するようにユーザに指示する様々な指示を含み得る。例えば、ガイダンスは、テキスト指示、仮想および/もしくは拡張現実画像などのグラフィックもしくは他の視覚指示、ならびに/または聴覚指示を含み得る。実施形態では、ガイダンスは、手術ロボット150が位置付けられるべき推奨位置および/または手術ロボット150が調整されるべき推奨姿勢の拡張現実画像を介して表示される指示を含み得る。
次いで、コンピューティングデバイス200は、ステップS318で、HMD120に、生成されたガイダンスを表示させる。コンピューティングデバイス200はさらに、HMD120に、身体Bの1つ以上の器官または他の内部構造の位置の拡張現実画像を表示させてもよい。拡張現実画像は、身体B上に重ねられ得る。
ガイダンスを表示した後、コンピューティングデバイス200は、ステップS320で、画像キャプチャデバイス125から手術訓練環境の追加の画像データを受信する。例えば、ユーザが指示を満たすために必要な1つ以上のアクションを実施することによって表示されたガイダンスに作用すると、画像キャプチャデバイス125は、少なくとも1つの追加の画像をキャプチャし、追加の画像を処理して追加の画像データを生成してもよく、次いで、追加の画像データは、コンピューティングデバイス200に送信される。
次いで、コンピューティングデバイス200は、ステップS322で、追加の画像データを処理および/または分析して、ユーザによって実施されたアクションを識別し、ガイダンスに含まれる指示を満たすために必要なすべてのアクションをユーザが実施したか否かを判定する。例えば、アクションは、手術ロボット150のすべてまたは1つ以上の部分(例えば、ロボットアーム155)、および/または身体Bのすべてまたは1つ以上の部分(例えば腕、脚、胴など)を動かすか、または再配置する、ユーザによって実施される動きであり得る。例えば、コンピューティングデバイス200は、追加の画像データを分析して、手術訓練環境、特にテーブル110および/または手術ロボット150に対するユーザの腕および/または手の動きなどのユーザの動きを検出して、ガイダンスによって示された特定のアクションをユーザが実施したか否かを判定してもよい。コンピューティングデバイス200が、ユーザがアクションを実施したと判定した場合(S322で「はい」)、処理はステップS324に進む。代替的には、コンピューティングデバイス200がユーザの動きを検出できない場合(S322で「いいえ」)、処理はステップS318に戻る。
ステップS324で、コンピューティングデバイス200は、ユーザによって実施され、S322で識別したアクションが、S318で表示されたガイダンスに対応するか否かを判定する。例えば、コンピューティングデバイス200は、次いで、ユーザの検出された動きに基づいて、ユーザがステップS318で表示されたガイダンスによって示されたアクションを実施して指示を満たしたか否かを判定してもよい。コンピューティングデバイス200はさらに、指示によって示されるアクションのユーザの実施に基づいて、評価される訓練スコアを判定してもよい。例えば、訓練スコアの評価は、指示によって示されるアクションのユーザの実施の精度、速度、一貫性、などに基づいてもよい。コンピューティングデバイス200が、ユーザによって実施されたアクションがガイダンスに対応しないと判定した場合(ステップS324で「いいえ」)、処理はステップS318に戻る。
代替的には、コンピューティングデバイス200が、ユーザによって実施されたアクションがガイダンスに対応すると判定した場合(ステップS324で「はい」)、処理はステップS326に進み、コンピューティングデバイス200は、ユーザが指示を満たしたか否かを示す更新されたガイダンスを生成し、HMD120に表示させる。例えば、コンピューティングデバイスは、HMD120に、指示のステータス、例えば、指示が満たされたか否か、ユーザのアクションが指示を満たした精度の程度、および/または指示によって示されるアクションのユーザの実施に基づいて評価される訓練スコアを示す拡張現実画像を表示させてもよい。
その後、ステップS328で、コンピューティングデバイス200は、訓練プログラムが完了したか否かを判定する。例えば、ガイダンスに含まれる指示によって必要とされるすべてのアクションが実施された場合、コンピューティングデバイス200は、訓練プログラムが完了したと判定してもよい。コンピューティングデバイス200が、訓練プログラムが完了したと判定した場合(ステップS328で「はい」)、コンピューティングデバイス200は、HMD120にユーザの最終スコアを表示させ、その後、処理は終了する。代替的に、コンピューティングデバイス200が、訓練プログラムが完了していないと判定した場合(ステップS328で「いいえ」)、処理はステップS330に進む。
ステップS330で、コンピューティングデバイス200は、テーブル110上に身体Bを配置し、手術訓練環境の周りに手術ロボット150を配置し、および/または手術ロボット150の姿勢を調整するための新たなガイダンスを生成する。例えば、新たなガイダンスは、ステップS316で生成されたガイダンスに含まれる指示によって要求されるアクションが実施された後に、ユーザによって実施される追加のアクションを含み得る。実施形態では、新たなガイダンスは、上記のように、訓練プログラムの次のステップまたはフェーズを実施するようにユーザに指示する1つ以上の指示を含み得る。例えば、新たなガイダンスは、身体Bの異なる部分および/または手術ロボット150の異なる部分を再配置するようにユーザに指示する1つ以上の指示を含み得る。
その後、処理はステップS332に進み、コンピューティングデバイス200は、HMD120に、生成した新たなガイダンスを表示させる。コンピューティングデバイス200はさらに、HMD120に、身体Bの1つ以上の器官または他の内部構造の位置の拡張現実画像も表示させる。
ガイダンスを表示した後、コンピューティングデバイス200は、ステップS334で、画像キャプチャデバイス125から手術訓練環境の追加の画像データを受信する。次いで、コンピューティングデバイス200は、ステップS336で、追加の画像データを処理および/または分析して、ユーザによって実施されたアクションを識別し、ユーザによって実施されたアクションが新たなガイダンスに含まれる指示を満たすか否かを判定する。例えば、コンピューティングデバイス200は、追加の画像データを分析して、手術訓練環境、特にテーブル110および/または手術ロボット150に対するユーザの腕および/または手の動きなどのユーザの動きを検出してもよい。コンピューティングデバイス200が、ユーザがアクションを実施したと判定する場合(ステップS336で「はい」)、処理はステップS338に進む。代替的には、コンピューティングデバイスがユーザの動きを検出することができない場合(ステップS336で「いいえ」)、処理はステップS332に戻る。
ステップS338で、コンピューティングデバイス200は、ユーザによって実施され、ステップS334で識別したアクションが、新たなガイダンスに含まれる指示に対応するか否かを判定する。例えば、コンピューティングデバイス200は、ユーザの検出された動きに基づいて、指示を満たすためにガイダンスによって示されるアクションをユーザが実施したか否かを判定してもよい。コンピューティングデバイス200はさらに、指示によって示されるアクションのユーザの実施に基づいて評価された訓練スコアを判定する。コンピューティングデバイス200が、ユーザによって実施されたアクションがガイダンスに対応しないと判定した場合(ステップS338で「いいえ」)、処理はステップS332に戻る。代替的には、コンピューティングデバイス200が、ユーザによって実施され、かつステップS334で識別されたアクションがステップS332で表示された新たなガイダンスに対応すると判定した場合(ステップS338で「はい」)、処理はステップS328に戻り、コンピューティングデバイス200は再度、訓練プログラムが完了しているか否かを判定し、方法300は、ステップS328に関して上述したように続く。
図3の方法300に関連する上述の説明は、コンピューティングデバイス200によって実施される機能を指すが、当業者であれば、そのような機能が、アプリケーション280などの1つ以上のアプリケーションの実行に基づいて、ならびに/またはコンピューティングデバイス200に含まれる専用ハードウェアおよび/もしくは他のソフトウェアに基づいて、コンピューティングデバイス200によって実施され得ると理解するであろう。したがって、コンピューティングデバイス200によって実施されるものとして説明されているが、方法300の説明は、ハードウェアの実施形態に限定されるものとして解釈されるべきではない。
ここで、図4Aおよび図4Bを参照すると、本開示の実施形態による、HMD120によって表示され得る例示的なグラフィカルユーザインターフェース(GUI)400が示されている。GUI400は、図3Aおよび図3Bの方法300に関して上述した処理などの手術準備および/または訓練処置中の様々なポイントでHMD120によって表示され得る。図4Aに実証される実施形態では、テーブル110および手術ロボット150は、ユーザに見える手術訓練環境内の物理的物体である。身体Bは、テーブル110上に横になって示されている。この例では、身体Bは仮想身体であり、ガイダンスは、身体Bの左腕を特定の方向に3インチ動かすようにユーザに指示している。身体Bの左腕が移動すべき位置は、身体B上に表示されるゴーストオーバーレイ410によって示される。矢印420などの方向インジケータは、身体Bの左腕が動くべき方向を示す。指示はまた、テキスト指示430として表示される。さらに、1つ以上の器官440の拡張現実画像が、身体Bにオーバレイされ、および/または重ねられて示されている。1つ以上の器官440の拡張現実画像に加えて、GUI400は同様に、手術部位のグラフィック表現(図示せず)、および/または手術ポートの推奨位置のグラフィック表現(図示せず)を含んでもよく、2018年1月10日にCovidien LPによって出願され共同所有されている米国特許出願第62/615,481号(代理人整理番号C00014520.USP1(203−11482))にさらに説明され、その内容全体が参照により本明細書に組み込まれる。
ユーザが身体Bの左腕を示された位置に動かした後、GUI400は、図4Bに示されるように更新されてもよい次いで、GUI400は、身体Bが正しく配置されたことを示す確認画像450を示し得る。インジケータ455はまた、指示を満たすアクションが無事に実施されたことをユーザに通知するために示され得る。GUI400はまた、訓練プログラムにおける次の指示、例えば、手術ロボット150を再配置するための指示を示し得る。GUI400は、手術ロボット150が配置されるべき位置および姿勢で、手術ロボット150のゴースト画像415を示し得る。矢印425などの方向インジケータもまた、手術ロボット150および/またはロボットアーム155が動くべき方向を示すように示され得る。テキスト指示430はまた、新たな指示に基づいて更新され得る。
デバイス、そのようなデバイスを組み込んだシステム、およびそれらを使用する方法の詳細な実施形態が本明細書に記載されてきた。しかしながら、これらの詳細な実施形態は、本開示の単なる実施例であり、様々な形態で実施され得る。したがって、本明細書に開示された具体的な構造的および機能的詳細は、限定するものと解釈されるべきではなく、単に請求項の根拠として、および当業者が本開示を適切に適切な詳細な構造で様々に用いることを可能にするための、代表的な根拠として解釈されるべきである。
Claims (65)
- 身体と手術ロボットを配置するためのガイダンスを提供するシステムであって、
画像キャプチャデバイスであって、
テーブルと手術ロボットを含む手術訓練環境の画像をキャプチャすることと、
前記キャプチャした画像に基づいて前記手術訓練環境の画像データを生成することと、を行うように構成されている、画像キャプチャデバイスと、
ユーザによって着用されるヘッドマウントディスプレイ(HMD)と、
プロセッサおよび命令を記憶しているメモリを含むコンピューティングデバイスであって、前記命令は、前記プロセッサによって実行されると、前記コンピューティングデバイスに、
手術訓練パラメータを受信することと、
前記画像キャプチャデバイスから前記手術訓練環境の前記画像データを受信することと、
前記受信された画像データに基づいて、前記テーブルおよび前記手術ロボットの姿勢を検出することと、
前記手術訓練環境の前記画像データに基づいて、仮想訓練環境を生成することであって、前記仮想環境は前記テーブルおよび前記手術ロボットの表現を含む、生成することと、
前記受信された画像データおよび前記生成された仮想訓練環境に基づいて、前記手術訓練環境に対する前記ユーザの姿勢を判定することと、
前記手術訓練パラメータ、および前記手術訓練環境に対する、前記HMDを着用している前記ユーザの前記判定された姿勢に基づいて、前記テーブル上の身体の少なくとも一部または前記身体の周りの前記手術ロボットの少なくとも一部のうちの少なくとも1つを配置するためのガイダンスを生成することと、
前記HMDに、前記生成されたガイダンスを表示させることと、を行わせる、コンピューティングデバイスと、を含む、システム。 - 前記身体がマネキンであり、前記手術訓練環境が前記テーブル上の前記身体をさらに含む、請求項1に記載のシステム。
- 前記ガイダンスが、前記手術訓練パラメータに基づいて、前記テーブル上の前記身体の少なくとも一部を配置するための指示を含む、請求項2に記載のシステム。
- 前記指示が、前記HMDによって表示されるテキスト指示を含む、請求項3に記載のシステム。
- 前記コンピューティングデバイスが、前記HMDに、前記身体に重なるように前記身体の少なくとも1つの器官の位置の拡張現実画像を表示させる、請求項4に記載のシステム。
- 前記指示が、前記身体の少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む、請求項3に記載のシステム。
- 前記ガイダンスは、前記ユーザが前記身体の少なくとも一部を前記推奨位置に位置付けたときに、位置付けたことを示す、請求項6に記載のシステム。
- 前記ガイダンスが、前記身体の少なくとも1つの器官の位置の拡張現実画像を含む、請求項3に記載のシステム。
- 前記身体の前記少なくとも1つの器官の前記位置の前記拡張現実画像が、患者の身体内部の器官の位置のモデルに基づく、請求項8に記載のシステム。
- 前記指示が、前記手術ロボットの少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む、請求項3に記載のシステム。
- 前記仮想訓練環境が、仮想身体の表現をさらに含む、請求項1に記載のシステム。
- 前記画像キャプチャデバイスが、前記HMDに結合されている、請求項1に記載のシステム。
- 前記画像キャプチャデバイスが、複数の画像キャプチャデバイスのうちの1つであり、前記複数の画像キャプチャデバイスが、前記手術訓練環境の周りの複数のそれぞれの位置に配置される、請求項1に記載のシステム。
- 前記手術ロボットの前記少なくとも一部が、
ベース、
第1の関節、
前記第1の関節に結合された第1のアーム、
前記第1のアームに結合された第2の関節、および
前記第2の関節に結合された第2のアームのうちの1つ以上を含み、
前記ベースが、前記第1の関節、前記第1のアーム、および前記第2の関節を介して前記第2のアームに結合されている、請求項1に記載のシステム。 - 前記手術訓練パラメータを受信することが、事前設定された手術訓練パラメータを前記メモリからロードすることを含む、請求項1に記載のシステム。
- 前記手術訓練パラメータを受信することが、ユーザによる入力から手術訓練パラメータの選択を受信することを含む、請求項1に記載のシステム。
- 前記手術訓練パラメータが、訓練プログラムに基づく、請求項1に記載のシステム。
- 前記訓練プログラムが、訓練プログラムのデータベースから選択される、請求項17に記載のシステム。
- 前記訓練プログラムのデータベースが、
手術のタイプ
患者のタイプ
前記患者の特徴、および
治療されている病状のタイプのうちの1つ以上に関連する訓練プログラムを含む、請求項18に記載のシステム。 - 前記訓練プログラムが、グラフィカルユーザインターフェースを介して選択される、請求項19に記載のシステム。
- 前記手術訓練パラメータが、
手術のタイプ
患者の年齢
前記患者の体重
前記患者のサイズ、および
前記患者の病状のうち1つ以上を含む、請求項1に記載のシステム。 - 前記コンピューティングデバイスに、前記手術訓練環境に対する前記HMDを着用している前記ユーザの姿勢を判定させるための前記命令が、前記プロセッサによって実行されると、前記コンピューティングデバイスに、
前記受信された画像データを分析して、前記受信された画像データ内の前記ユーザ、ならびに前記テーブルおよび前記手術ロボットのうちの1つ以上を識別することと、
前記テーブルおよび前記手術ロボットのうちの1つ以上に対する前記ユーザの位置を判定することと、
前記テーブルまたは前記手術ロボットのうちの1つ以上に対する前記ユーザの前記判定された位置に基づいて、前記仮想環境内に前記ユーザの表現を生成することと、を行わせるさらなる命令を含む、請求項1に記載のシステム。 - 前記命令が、前記プロセッサによって実行されると、前記コンピューティングデバイスに、前記ガイダンスによって示されるアクションを前記ユーザが実施したか否かを判定することをさらに行わせる、請求項1に記載のシステム。
- 前記画像キャプチャデバイスが、前記手術訓練環境の追加の画像データをキャプチャするように構成されており、前記ガイダンスによって示される前記アクションを前記ユーザが実施したか否かを判定することが、
前記追加の画像データを分析して、前記ユーザの動きを検出することと、
前記ユーザの前記検出された動きに基づいて、前記ガイダンスによって示される前記アクションを前記ユーザが実施したか否かを判定することと、を含む、請求項23に記載のシステム。 - 前記命令が、前記プロセッサによって実行されると、前記コンピューティングデバイスに、
前記ユーザの前記検出された動きに基づいて、スコアを判定することと、
前記HMDに前記判定されたスコアを表示させることと、をさらに行わせる、請求項24に記載のシステム。 - 身体および手術ロボットを配置するためのガイダンスを提供するための方法であって、
手術訓練パラメータの選択を受信することと、
手術訓練環境であって、
テーブルと、
手術ロボットと、を含む手術訓練環境の画像データを取得することと、
前記取得された画像データに基づいて、前記テーブルおよび前記手術ロボットの位置を検出することと、
前記手術訓練環境の前記取得された画像データに基づいて、仮想訓練環境を生成することであって、前記仮想訓練環境が、前記テーブルおよび前記手術ロボットの表現を含む、生成することと、
前記取得された画像データと前記生成された仮想訓練環境に基づいて、前記手術訓練環境に対するヘッドマウントディスプレイデバイス(HMD)を着用しているユーザの姿勢を判定することと、
前記手術訓練パラメータおよび前記手術訓練環境に対する前記ユーザの前記判定された姿勢に基づいて、前記テーブル上の身体の少なくとも一部または前記身体の周りの前記手術ロボットの少なくとも一部のうちの少なくとも1つを配置するためのガイダンスを生成することと、
前記HMDに前記生成されたガイダンスを表示させることと、を含む、方法。 - 前記身体がマネキンであり、前記手術訓練環境が前記テーブル上の前記身体をさらに含む、請求項26に記載の方法。
- 前記ガイダンスが、前記手術訓練パラメータに基づいて、前記テーブル上の前記身体の少なくとも一部を配置するための指示を含む、請求項27に記載の方法。
- 前記指示が、前記HMDによって表示されるテキスト指示を含む、請求項28に記載の方法。
- 前記HMDに、前記身体に重なるように前記身体の少なくとも1つの器官の位置の拡張現実画像を表示させることをさらに含む、請求項29に記載の方法。
- 前記指示が、前記身体の少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む、請求項28に記載の方法。
- 前記ガイダンスは、前記ユーザが前記身体の少なくとも一部を前記推奨位置に位置付けたときに、位置付けたことを示す、請求項31に記載の方法。
- 前記ガイダンスが、前記身体の少なくとも1つの器官の位置の拡張現実画像を含む、請求項28に記載の方法。
- 前記身体の前記少なくとも1つの器官の前記位置の前記拡張現実画像が、患者の身体内部の器官の位置のモデルに基づく、請求項33に記載の方法。
- 前記指示が、前記手術ロボットの少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む、請求項28に記載の方法。
- 前記仮想訓練環境が、仮想身体の表現をさらに含む、請求項26に記載の方法。
- 前記手術訓練パラメータが、訓練プログラムに基づく、請求項26に記載の方法。
- 前記訓練プログラムが、訓練プログラムのデータベースから選択される、請求項37に記載の方法。
- 前記訓練プログラムのデータベースが、
手術のタイプ
患者のタイプ
前記患者の特徴、および
治療されている病状のタイプのうちの1つ以上に関連する訓練プログラムを含む、請求項38に記載の方法。 - 前記訓練プログラムが、グラフィカルユーザインターフェースを介して選択される、請求項39に記載の方法。
- 前記手術訓練パラメータが、
手術のタイプ
患者の年齢
前記患者の体重
前記患者のサイズ、および
前記患者の病状のうち1つ以上を含む、請求項26に記載の方法。 - 前記手術訓練環境に対する前記HMDを着用している前記ユーザの姿勢を判定することが、
前記受信された画像データを分析して、前記受信された画像データ内の前記ユーザ、ならびに前記テーブルおよび前記手術ロボットのうちの1つ以上を識別することと、
前記テーブルおよび前記手術ロボットのうちの1つ以上に対する前記ユーザの位置を判定することと、
前記テーブルまたは前記手術ロボットのうちの1つ以上に対する前記ユーザの前記判定された位置に基づいて、前記仮想環境内に前記ユーザの表現を生成することと、を含む、請求項26に記載の方法。 - 前記ガイダンスによって示されるアクションを前記ユーザが実施したか否かを判定することをさらに含む、請求項26に記載の方法。
- 前記手術訓練環境の追加の画像データをキャプチャすることをさらに含み、
前記ガイダンスによって示される前記アクションを前記ユーザが実施したか否かを判定することが、
前記追加の画像データを分析して、前記ユーザの動きを検出することと、
前記ユーザの前記検出された動きに基づいて、前記ガイダンスによって示される前記アクションを前記ユーザが実施したか否かを判定することと、を含む、請求43に記載の方法。 - 前記ユーザの前記検出された動きに基づいて、スコアを判定することと、
前記HMDに、前記判定されたスコアを表示させることと、をさらに含む、請求項44に記載の方法。 - 命令を含む非一時的なコンピュータ可読記憶媒体であって、前記命令は、コンピュータによって実行されると、前記コンピュータに、
手術訓練パラメータの選択を受信することと、
手術訓練環境であって、
テーブルと、
手術ロボットと、を含む手術訓練環境の画像データを取得することと、
前記取得された画像データに基づいて、前記テーブルおよび前記手術ロボットの位置を検出することと、
前記手術訓練環境の前記取得された画像データに基づいて、仮想訓練環境を生成することであって、前記仮想訓練環境が、前記テーブルおよび前記手術ロボットの表現を含む、生成することと、
前記取得された画像データと前記生成された仮想訓練環境に基づいて、前記手術訓練環境に対するヘッドマウントディスプレイデバイス(HMD)を着用しているユーザの姿勢を判定することと、
前記手術訓練パラメータおよび前記手術訓練環境に対する前記ユーザの前記判定された姿勢に基づいて、前記テーブル上の身体の少なくとも一部を配置するため、および前記身体の周りの前記手術ロボットの少なくとも一部を配置するためのガイダンスを生成することと、
前記HMDに、前記生成されたガイダンスを表示させることと、を行わせる、非一時的なコンピュータ可読記憶媒体。 - 前記身体がマネキンであり、前記手術訓練環境が前記テーブル上の前記身体をさらに含む、請求項46に記載の非一時的なコンピュータ可読記憶媒体。
- 前記ガイダンスが、前記手術訓練パラメータに基づいて、前記テーブル上の前記身体の少なくとも一部を配置するための指示を含む、請求項47に記載の非一時的なコンピュータ可読記憶媒体。
- 前記指示が、前記HMDによって表示されるテキスト指示を含む、請求項48に記載の非一時的なコンピュータ可読記憶媒体。
- 前記プロセッサによって実行されると、前記コンピュータが、前記HMDに、前記身体に重なるように前記身体の少なくとも1つの器官の位置の拡張現実画像を表示させるようにする、さらなる命令を含む、請求項49に記載の非一時的なコンピュータ可読記憶媒体。
- 前記指示が、前記身体の少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む、請求項48に記載の非一時的なコンピュータ可読記憶媒体。
- 前記ガイダンスは、前記ユーザが前記身体の少なくとも一部を前記推奨位置に位置付けたときに、位置付けたことを示す、請求項51に記載の非一時的なコンピュータ可読記憶媒体。
- 前記ガイダンスが、前記身体の少なくとも1つの器官の位置の拡張現実画像を含む、請求項48に記載の非一時的なコンピュータ可読記憶媒体。
- 前記身体の前記少なくとも1つの器官の前記位置の前記拡張現実画像が、患者の身体内部の器官の位置のモデルに基づく、請求項53に記載の非一時的なコンピュータ可読記憶媒体。
- 前記指示が、前記手術ロボットの少なくとも一部が位置付けられるべき推奨位置の拡張現実画像を含む、請求項48に記載の非一時的なコンピュータ可読記憶媒体。
- 前記仮想訓練環境が、仮想身体の表現をさらに含む、請求項46に記載の非一時的なコンピュータ可読記憶媒体。
- 前記手術訓練パラメータが、訓練プログラムに基づく、請求項46に記載の非一時的なコンピュータ可読記憶媒体。
- 前記訓練プログラムが、訓練プログラムのデータベースから選択される、請求項57に記載の非一時的なコンピュータ可読記憶媒体。
- 前記訓練プログラムのデータベースが、
手術のタイプ
患者のタイプ
前記患者の特徴、および
治療されている病状のタイプのうちの1つ以上に関連する訓練プログラムを含む、請求項58に記載の非一時的なコンピュータ可読記憶媒体。 - 前記訓練プログラムが、グラフィカルユーザインターフェースを介して選択される、請求項59に記載の非一時的なコンピュータ可読記憶媒体。
- 前記手術訓練パラメータが、
手術のタイプ
患者の年齢
前記患者の体重
前記患者のサイズ、および
前記患者の病状のうちの1つ以上を含む、請求項46に記載の非一時的なコンピュータ可読記憶媒体。 - 前記手術訓練環境に対する前記HMDを着用している前記ユーザの姿勢を判定することが、
前記受信された画像データを分析して、前記受信された画像データ内の前記ユーザ、ならびに前記テーブルおよび前記手術ロボットのうちの1つ以上を識別することと、
前記テーブルおよび前記手術ロボットのうちの1つ以上に対する前記ユーザの位置を判定することと、
前記テーブルまたは前記手術ロボットのうちの1つ以上に対する前記ユーザの前記判定された位置に基づいて、前記仮想環境内に前記ユーザの表現を生成することと、を含む、請求項46に記載の非一時的なコンピュータ可読記憶媒体。 - 前記プロセッサによって実行されると、前記コンピュータに、前記ガイダンスによって示されるアクションを前記ユーザが実施したか否かを判定させるさらなる命令を含む、請求項46に記載の非一時的なコンピュータ可読記憶媒体。
- 前記プロセッサによって実行されると、前記コンピュータに、
前記手術訓練環境の追加の画像データをキャプチャさせる、さらなる命令を含み、
前記ガイダンスによって示される前記アクションを前記ユーザが実施したか否かを判定することが、
前記追加の画像データを分析して、前記ユーザの動きを検出することと、
前記ユーザの前記検出された動きに基づいて、前記ガイダンスによって示される前記アクションを前記ユーザが実施したか否かを判定することと、を含む、請求項63に記載の非一時的なコンピュータ可読記憶媒体。 - 前記プロセッサによって実行されると、前記コンピュータに、
前記ユーザの前記検出された動きに基づいて、スコアを判定することと、
前記HMDに前記判定されたスコアを表示させることと、を行わせる、さらなる命令を含む、請求項64に記載の非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862615495P | 2018-01-10 | 2018-01-10 | |
US62/615,495 | 2018-01-10 | ||
PCT/US2019/012821 WO2019139935A1 (en) | 2018-01-10 | 2019-01-09 | Guidance for positioning a patient and surgical robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021510224A true JP2021510224A (ja) | 2021-04-15 |
JPWO2019139935A5 JPWO2019139935A5 (ja) | 2022-01-18 |
Family
ID=67218358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020538094A Withdrawn JP2021510224A (ja) | 2018-01-10 | 2019-01-09 | 患者および手術ロボットを配置するためのガイダンス |
Country Status (7)
Country | Link |
---|---|
US (2) | US11925423B2 (ja) |
EP (1) | EP3737321A4 (ja) |
JP (1) | JP2021510224A (ja) |
CN (1) | CN111670018A (ja) |
AU (1) | AU2019206392A1 (ja) |
CA (1) | CA3088004A1 (ja) |
WO (1) | WO2019139935A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11417071B1 (en) * | 2018-02-23 | 2022-08-16 | Red Pacs, Llc | Virtual toolkit for radiologists |
US11630436B2 (en) * | 2018-10-22 | 2023-04-18 | Mitutoyo Corporation | Measurement program selection assisting apparatus and measurement control apparatus |
US11234779B2 (en) * | 2019-09-10 | 2022-02-01 | Verb Surgical. Inc. | Handheld user interface device for a surgical robot |
EP4099915A1 (en) * | 2020-02-06 | 2022-12-14 | Covidien LP | System and methods for suturing guidance |
US20210251706A1 (en) * | 2020-02-18 | 2021-08-19 | Verb Surgical Inc. | Robotic Surgical System and Method for Providing a Stadium View with Arm Set-Up Guidance |
US12004816B2 (en) | 2020-03-30 | 2024-06-11 | Depuy Ireland Unlimited Company | Robotic surgical apparatus with positioning guide |
US20210299877A1 (en) * | 2020-03-30 | 2021-09-30 | Depuy Ireland Unlimited Company | Robotic surgical system with graphical user interface |
US20210299439A1 (en) * | 2020-03-31 | 2021-09-30 | Novocure Gmb | Methods, systems, and apparatuses for guiding transducer placements for tumor treating fields |
US11690674B2 (en) | 2020-04-03 | 2023-07-04 | Verb Surgical Inc. | Mobile virtual reality system for surgical robotic systems |
US20220015841A1 (en) * | 2020-07-15 | 2022-01-20 | Orthosoft Ulc | Robotic device and sterilization unit for surgical instrument |
US20210121245A1 (en) * | 2020-10-06 | 2021-04-29 | Transenterix Surgical, Inc. | Surgeon interfaces using augmented reality |
NL2027671B1 (en) * | 2021-02-26 | 2022-09-26 | Eindhoven Medical Robotics B V | Augmented reality system to simulate an operation on a patient |
CN113925607B (zh) * | 2021-11-12 | 2024-02-27 | 上海微创医疗机器人(集团)股份有限公司 | 手术机器人操作训练方法、装置、系统、介质及设备 |
CN115602032B (zh) * | 2022-12-13 | 2023-02-28 | 深圳智触计算机系统有限公司 | 基于虚拟现实的消化内镜手术培训系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5191167B2 (ja) * | 2007-06-06 | 2013-04-24 | オリンパスメディカルシステムズ株式会社 | 医用ガイドシステム |
GB0712690D0 (en) | 2007-06-29 | 2007-08-08 | Imp Innovations Ltd | Imagee processing |
US20100248200A1 (en) | 2008-09-26 | 2010-09-30 | Ladak Hanif M | System, Method and Computer Program for Virtual Reality Simulation for Medical Procedure Skills Training |
US20110306986A1 (en) | 2009-03-24 | 2011-12-15 | Min Kyu Lee | Surgical robot system using augmented reality, and method for controlling same |
US20110098553A1 (en) * | 2009-10-28 | 2011-04-28 | Steven Robbins | Automatic registration of images for image guided surgery |
SG10201501706YA (en) | 2010-03-05 | 2015-06-29 | Agency Science Tech & Res | Robot Assisted Surgical Training |
US20140098138A1 (en) | 2012-10-05 | 2014-04-10 | Samsung Electronics Co., Ltd | Method and system for augmented reality based smart classroom environment |
KR20140112207A (ko) | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템 |
US9283048B2 (en) | 2013-10-04 | 2016-03-15 | KB Medical SA | Apparatus and systems for precise guidance of surgical tools |
KR20160086629A (ko) * | 2015-01-12 | 2016-07-20 | 한국전자통신연구원 | 영상유도 수술에서 수술부위와 수술도구 위치정합 방법 및 장치 |
AU2016263106B2 (en) * | 2015-05-15 | 2020-01-16 | Mako Surgical Corp. | Systems and methods for providing guidance for a robotic medical procedure |
EP3373834A4 (en) * | 2015-11-12 | 2019-07-31 | Intuitive Surgical Operations Inc. | SURGICAL SYSTEM WITH TRAINING OR ASSISTANCE FUNCTION |
EP3397185A1 (en) * | 2015-12-29 | 2018-11-07 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
US10806532B2 (en) * | 2017-05-24 | 2020-10-20 | KindHeart, Inc. | Surgical simulation system using force sensing and optical tracking and robotic surgery system |
-
2019
- 2019-01-09 CA CA3088004A patent/CA3088004A1/en active Pending
- 2019-01-09 US US16/960,476 patent/US11925423B2/en active Active
- 2019-01-09 CN CN201980010958.XA patent/CN111670018A/zh active Pending
- 2019-01-09 EP EP19738007.4A patent/EP3737321A4/en active Pending
- 2019-01-09 JP JP2020538094A patent/JP2021510224A/ja not_active Withdrawn
- 2019-01-09 AU AU2019206392A patent/AU2019206392A1/en not_active Abandoned
- 2019-01-09 WO PCT/US2019/012821 patent/WO2019139935A1/en unknown
-
2024
- 2024-02-28 US US18/589,942 patent/US20240197419A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111670018A (zh) | 2020-09-15 |
US20240197419A1 (en) | 2024-06-20 |
WO2019139935A1 (en) | 2019-07-18 |
AU2019206392A1 (en) | 2020-07-23 |
US11925423B2 (en) | 2024-03-12 |
CA3088004A1 (en) | 2019-07-18 |
US20200337789A1 (en) | 2020-10-29 |
EP3737321A1 (en) | 2020-11-18 |
EP3737321A4 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021510224A (ja) | 患者および手術ロボットを配置するためのガイダンス | |
CN111655184B (zh) | 用于放置手术端口的引导 | |
US11580882B2 (en) | Virtual reality training, simulation, and collaboration in a robotic surgical system | |
US11944401B2 (en) | Emulation of robotic arms and control thereof in a virtual reality environment | |
US11013559B2 (en) | Virtual reality laparoscopic tools | |
US20220101745A1 (en) | Virtual reality system for simulating a robotic surgical environment | |
KR20160102464A (ko) | 의료 절차 훈련을 위한 시뮬레이터 시스템 | |
CN115315729A (zh) | 用于促进远程呈现或交互的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20220516 |