JP2021510110A - 外科用ポートの配置のためのガイダンス - Google Patents

外科用ポートの配置のためのガイダンス Download PDF

Info

Publication number
JP2021510110A
JP2021510110A JP2020538103A JP2020538103A JP2021510110A JP 2021510110 A JP2021510110 A JP 2021510110A JP 2020538103 A JP2020538103 A JP 2020538103A JP 2020538103 A JP2020538103 A JP 2020538103A JP 2021510110 A JP2021510110 A JP 2021510110A
Authority
JP
Japan
Prior art keywords
surgical
port
location
surgical port
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020538103A
Other languages
English (en)
Other versions
JPWO2019139931A5 (ja
Inventor
ドワイト メグラン,
ドワイト メグラン,
メイア ローゼンバーグ,
メイア ローゼンバーグ,
Original Assignee
コヴィディエン リミテッド パートナーシップ
コヴィディエン リミテッド パートナーシップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コヴィディエン リミテッド パートナーシップ, コヴィディエン リミテッド パートナーシップ filed Critical コヴィディエン リミテッド パートナーシップ
Publication of JP2021510110A publication Critical patent/JP2021510110A/ja
Publication of JPWO2019139931A5 publication Critical patent/JPWO2019139931A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3417Details of tips or shafts, e.g. grooves, expandable, bendable; Multiple coaxial sliding cannulas, e.g. for dilating
    • A61B17/3421Cannulas
    • A61B17/3423Access ports, e.g. toroid shape introducers for instruments or hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Medicinal Chemistry (AREA)
  • Computational Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)

Abstract

身体上の外科用ポートの配置を誘導するためのシステムは、動作環境の画像を捕捉し、捕捉された画像に基づいて画像データを生成するように構成された画像捕捉装置と、表示装置と、身体内の手術部位の場所に関する情報を取得し、画像捕捉装置から画像データを受信し、身体内の手術部位の場所と画像データとに基づいて、身体上に外科用ポートを配置するためのグラフィックによるガイダンスを生成し、表示装置に、生成されたグラフィックによるガイダンスを表示させるように構成されたコンピューティング装置と、を含む。【選択図】なし

Description

ロボット手術により、外科医は、開腹手術および/または腹腔鏡手術等の、手で行う手術技法では不可能であるかまたは効率が低い、様々な外科的処置を行うことが可能になる。しかしながら、外科医がロボットによる外科的処置用に外科用ロボットを快適に使用するためには、外科用ポートを正確に配置して、ロボット外科用ツールが手術部位にアクセスすることを確実にすることが必要とされる。外科用ポートを正しく配置することは、手術部位の場所、治療される病状のタイプ、患者の特性、および行われる外科的処置のタイプを含む、様々な要因に依存する。したがって、外科医が外科用ポートを配置するために最良の場所と、上記の要因に基づいてこれらの場所を調整する方法とを学習するために、多くの場合、広範な訓練および準備が必要とされる。以下に開示されるのは、外科用ポートを配置するためのガイダンスを提供するための改善されたシステム、方法、およびコンピュータ可読媒体である。
本開示は、患者の身体上に外科用ポートを配置するためのガイダンスの提供に関し、より具体的には、仮想または拡張現実視覚ガイダンスを生成および表示して、患者の身体上に外科用ポートを配置する計画中および配置中に、臨床医を誘導および/または支援するためのシステム、方法、およびコンピュータ可読媒体に関する。
本開示の実施形態に従って提供されるのは、身体上の外科用ポートの配置を誘導するためのシステムである。本開示の一態様では、本システムは、身体を含む動作環境の画像を捕捉し、捕捉された画像に基づいて画像データを生成するように構成された画像捕捉装置と、ユーザが装着する表示装置と、プロセッサおよび命令を記憶するメモリを含むコンピューティング装置と、を含み、命令は、プロセッサによって実行されると、コンピューティング装置に、身体内の手術部位の場所に関する情報を得ることと、画像捕捉装置から画像データを受信することと、身体内の手術部位の場所と画像データとに基づいて、外科用ポートを身体上に配置するためのグラフィックによるガイダンスを生成することと、生成されたグラフィックによるガイダンスを、表示装置に表示させることと、を行わせる。
本開示の別の態様では、命令は、プロセッサによって実行されると、さらにコンピューティング装置に、画像捕捉装置から受信された画像データに基づいて、外科用ポートが身体上に配置されたことを検出させ、内視鏡を外科用ポートから身体内に挿入するためのグラフィックによるガイダンスを生成させ、内視鏡が外科用ポートから挿入されたことを検出させる。
本開示のさらなる態様において、外科用ポートが身体上に配置されたことを検出することは、外科用ポートが身体上に配置されたことを検出するために、画像捕捉装置から受信された追加の画像データを分析することを含む。
本開示の別の態様では、内視鏡が外科用ポートを通して挿入されたことを検出することは、内視鏡が外科用ポートを通して挿入されたことを検出するために、画像捕捉装置から受信された追加の画像データを分析することを含む。
本開示のさらに別の態様では、外科用ポートは第1の外科用ポートであり、命令は、プロセッサによって実行されると、さらにコンピューティング装置に、身体内の手術部位の場所、および第1の外科用ポートが身体上に配置された検出された場所に基づいて、第2の外科用ポートを身体上に配置するためのグラフィックによるガイダンスを生成させ、生成されたグラフィックによるガイダンスを、表示装置に表示させる。
本開示のさらに別の態様では、生成されたグラフィックによるガイダンスは、身体上に表示された仮想外科用ポートを含み、命令は、プロセッサによって実行されると、さらにコンピューティング装置に、画像捕捉装置から受信された追加の画像データを分析して、ユーザの手の動きを検出させ、検出されたユーザの手の動きに基づいて、ユーザが身体上の仮想外科用ポートの姿勢を調整していることを判定させ、身体上の仮想外科用ポートの姿勢の判定された調整に基づいて、グラフィックによるガイダンスを更新させる。
本開示のさらなる態様では、命令は、プロセッサによって実行されると、身体上の仮想外科用ポートの姿勢の判定された調整が、所定の距離またはグラフィックによるガイダンスによって推奨されている姿勢からの配向の変化を上回るとき、さらにコンピューティング装置に警告を提供させる。
本開示の別の態様では、ユーザの手の動きを検出することは、ユーザの手によって行われるジェスチャを検出することを含む。
本開示のさらなる態様において、ユーザが身体上の仮想外科用ポートの姿勢を調整していると判定することは、ユーザの手によって行われた検出されたジェスチャにさらに基づく。
本開示の別の態様では、画像捕捉装置は、表示装置に結合されている。
本開示のさらに別の態様では、グラフィックによるガイダンスは、表示装置を介して表示されるテキスト命令を含む。
本開示のさらに別の態様では、グラフィックによるガイダンスは、外科用ポートの推奨された姿勢の拡張現実画像を含む。
本開示のさらなる態様において、外科用ポートの推奨される姿勢は、推奨される外科用ポートの配置の所定のモデルに基づいて決定される。
本開示の別の態様において、外科用ポートの推奨された姿勢は、所定の治療計画に基づいて決定される。
本開示のさらに別の態様において、外科用ポートの推奨された姿勢は、身体のスキャンに基づいて決定される。
本開示のさらに別の態様では、グラフィックによるガイダンスは、身体内の手術部位の拡張現実画像を含む。
本開示のさらなる態様において、コンピューティング装置は、表示装置に、身体内の手術部位の拡張現実画像を、身体上に重ね合わせるように表示させる。
本開示の別の態様において、手術部位の拡張現実画像は、身体内の少なくとも1つの器官の位置を含む。
本開示のさらなる態様において、身体内の少なくとも1つの器官の位置は、器官の位置の所定のモデルに基づく。
本開示の別の態様では、システムは、ベースと、第1のジョイントと、第1のジョイントに結合された第1アームと、第1のアームに結合された第2のジョイントと、第2のジョイントに結合された第2のアームと、を含む1つ以上のロボットアセンブリを含む外科用ロボットをさらに含み、ベースは、第2のジョイントに結合され、ベースは、第1のジョイント、第1のアーム、および第2のジョイントを介して第2のアームに結合される。
本開示のさらなる態様では、命令は、プロセッサによって実行されると、さらにコンピューティング装置に、身体内の手術部位の判定された位置に基づいて、外科用ロボットを配置するためのグラフィックによるガイダンスを生成させる。
本開示のさらに別の態様では、命令は、プロセッサによって実行されると、さらにコンピューティング装置に、身体上の外科用ポートの配置に基づいて、外科用ロボットの動作範囲を判定させ、表示装置に、外科用ロボットの動作範囲の指標を表示させる。
本開示のさらなる態様において、外科用ロボットの動作範囲は、外科用ロボットの特性に基づいて決定される。
本開示のなおさらなる態様において、外科用ロボットの特性は、外科用ロボットの構成、身体に対する外科用ロボットの姿勢、および外科用ロボットに結合されたツールのタイプのうちの1つ以上を含む。
本開示の別の態様では、画像捕捉装置は第1の画像捕捉装置であり、システムは、第2の画像捕捉装置をさらに含み、命令は、プロセッサによって実行されると、さらにコンピューティング装置に、第1および第2の画像捕捉装置から受信された画像データに基づいて、動作環境の3次元シーンを生成させる。
本開示のさらなる態様では、第1および第2の画像捕捉装置は、動作環境の周囲に配置される。
本開示の別の態様では、画像捕捉装置はコンピューティング装置に含まれる。
本開示のさらに別の態様では、コンピューティング装置は表示装置に含まれる。
本開示のさらに別の態様では、身体内の手術部位の場所に関する情報を得ることは、ユーザからの入力を介して手術部位の選択を受信することを含む。
本開示のさらに別の態様では、身体内の手術部位の場所に関する情報を得ることは、身体のスキャン中に取得された画像データに基づいて、手術部位の場所を判定することを含む。
本開示のさらに別の態様では、身体内の手術部位の場所に関する情報を得ることは、所定の治療計画に基づいて、手術部位の場所を判定することを含む。
本開示のさらに別の態様では、命令は、プロセッサによって実行されると、受信された画像データに基づいて、さらにコンピューティング装置に身体内の手術部位の位置を判定させる。
本開示のさらに別の態様では、身体は、マネキンの少なくとも一部である。
本開示のさらに別の態様では、身体は、患者の少なくとも一部である。
本開示の実施形態によれば、身体上の外科用ポートの配置を誘導するための方法が提供される。本開示の一態様では、本方法は、身体内の手術部位の場所に関する情報を得ることと、画像捕捉装置から、動作環境の画像に基づいて生成された画像データを受信することと、身体内の手術部位の位置と画像データとに基づいて、外科用ポートを身体上に配置するためのグラフィックによるガイダンスを生成することと、生成されたグラフィックによるガイダンスを表示することと、を含む。
本開示の実施形態によれば、命令を含む非一時的コンピュータ可読記憶媒体が提供され、命令は、コンピュータによって実行されると、コンピュータに、身体内の手術部位の場所に関する情報を得て、画像捕捉装置からの動作環境の画像に基づいて生成された画像データを受信し、身体内の手術部位の場所と画像データに基づいて外科用ポートを身体上に配置するためにガイダンスを生成し、表示装置に生成されたグラフィックによるガイダンスを表示させる。
本開示の上記態様および実施形態のいずれも、本開示の範囲から逸脱することなく組み合わせることができる。
本開示の様々な態様および特徴は、図面を参照して、本明細書に後述される。
本開示の実施形態による、外科用ポートを配置するためのガイダンスを提供するためのシステムの概略図である。 図1のシステムの一部を形成する例示的なコンピューティング装置のブロック図である。 本開示の実施形態による、外科用ポートを配置するためのガイダンスを提供するための例示的な方法のフローチャートを示す。 本開示の実施形態による、外科用ポートを配置するためのガイダンスを提供するための例示的な方法のフローチャートを示す。 本開示の実施形態による、図1のシステムの一部を形成するヘッドマウント表示装置によって表示され得る例示的なグラフィカルユーザインターフェースを示す。 本開示の実施形態による、図1のシステムの一部を形成するヘッドマウント表示装置によって表示され得る別の例示的なグラフィカルユーザインターフェースを示す。
本開示は、患者の身体(または、いくつかの例では、患者の身体または別の被験者の身体に基づいてモデル化されている、マネキン、仮想身体等の非人体)(以下、集合的に「身体」と称される)上に外科用ポートを配置するためのガイダンスを提供するためのシステム、方法、およびコンピュータ可読媒体を対象とする。より具体的には、本開示は、外科医、看護師、技士、および/または他の手術室スタッフ等のユーザ(以下、臨床医またはユーザと称される)に、外科用ロボットに結合された外科用ツールの、身体内の手術部位への好適なアクセスを確保するためにどのようにして、身体上のどこに外科用ポートを配置するかを指示することに関する。様々な形態の視覚的および/または聴覚的ガイダンスが、ヘッドマウントディスプレイ、例えば、拡張現実ヘッドギアおよび/または仮想現実ヘッドギア等の1つ以上の表示装置によって表示および/または発せられ得る。いくつかの実施形態では、表示装置は、外科用ロボットの1つ以上のロボットアームおよび/または外科的環境の周囲の他のマウントまたはアセンブリに結合された1つ以上のプロジェクタまたは他の発光体であり得、表示装置は、ガイダンスを表示するように構成され、および/または身体の1つ以上の部分を照らすように構成される。ガイダンスは、臨床医に身体上の特定の場所に外科用ポートを配置するように指示し、臨床医が外科用ポートの場所を調整することを可能にする1つ以上のコマンドを含み得る。したがって、本明細書に開示されるシステム、方法、およびコンピュータ可読媒体は、ロボット手術の訓練中および/または実際のロボットによる外科的処置中に使用され、臨床医がロボット手術の準備をすることを支援することができる。
図1を参照すると、本開示の実施形態による、外科用ポートを配置するためのガイダンスを提供するためのシステム100が示されている。システム100は、身体Bを支持することが可能であるテーブル110と、ヘッドマウント表示装置(HMD)120と、1つ以上の画像捕捉装置125a、125b、125c、および125dと、1つ以上の外科用ポート130a、130b、130c、および130dと、外科用ロボットアセンブリ150と、腹腔鏡140と、コンピューティング装置200と、を含み得る。画像捕捉装置125a、125b、125c、および125dは、ビデオカメラ、スチルカメラ、立体カメラ、3次元深度カメラ、LIDARセンサ、および/または類似のもの等の当業者に周知の任意の画像捕捉装置であってもよく、動作環境の周囲に位置付けられ得る。本明細書で使用される場合、「動作環境」という用語は、ロボット手術が行われる設定、部屋、またはシーンを指す。したがって、動作環境は、テーブル110と、HMD120と、1つ以上の画像捕捉装置125a、125b、125c、および125dと、を含む。いくつかの実施形態では、動作環境は、テーブル110上の身体B、1つ以上の外科用ポート130a、130b、130c、および130d、外科用ロボットアセンブリ150、ならびに/または腹腔鏡140をさらに含む。他の実施形態では、システム100は、訓練および/または計画処置で使用され得、身体B、外科用ポート130a、130b、130c、および130d、外科用ロボットアセンブリ150、ならびに/または腹腔鏡140の一部もしくは全部は、動作環境内に存在しない場合もある。このような訓練および/または計画処置の間、身体Bは、以下でさらに説明されるように、仮想または非人体であり得る。
捕捉装置125a、125b、125c、および125dの1つ以上の画像、例えば、図1に示されるような画像捕捉装置125dは、HMD120に含まれるか、またはHMD120に結合されてもよい。加えて、または代替的に、画像捕捉装置125a、125b、125c、および125dは、無線接続であれ有線接続であれ、コンピューティング装置200に結合され得るか、または他の方法で接続され得る。画像捕捉装置125a、125b、125c、および125dは、以下、集合的に画像捕捉装置125と称される。外科用ポート130a、130b、130c、および/または130dは、トロカール等の外科用ツールを身体Bに挿入するために使用可能な任意のポートまたは装置であり得る。外科用ポート130a、130b、130c、および130dは、以下、集合的に外科用ポート130と称される。
外科用ロボットアセンブリ150は、ベース151と、ベース151に結合された第1のジョイント152と、第1のジョイント152に結合された第1のロボットアーム155と、第1のロボットアーム155に結合された第2のジョイント153と、第2のジョイント153に結合された第2のロボットアーム154と、第2のアーム154に結合された器具駆動ユニット156と、を含み得る。腹腔鏡140は、器具駆動ユニット156を介して外科用ロボットアセンブリ150に取り付けられ得る。実施形態において、外科用ロボットアセンブリ150は、同時に使用され得、かつ一緒に外科用ロボットを形成し得る。図1には単一の外科用ロボットアセンブリ150が示されているが、複数の外科用ロボットアセンブリ150が外科的訓練環境に含まれてもよく、当業者には、以下に説明する方法が、本開示の範囲から逸脱することなく、各々が少なくとも1つのベース151と、ロボットアーム154および155と、ジョイント152および153と、器具駆動ユニット156と、を含む単一および/または複数の外科用ロボットアセンブリ150を有する外科用ロボットに適用され得ることが認識されよう。
当業者には、システム100が、本開示の範囲から逸脱することなく、HMD120に加えて、またはHMD120の代わりに、他の表示装置も含み得ることが認識されよう。例えば、1つ以上のプロジェクタまたは他の発光装置は、ロボットアーム154および/または155、他の機器、照明、または手術環境の周りのマウント等に結合されてもよい。加えて、または代替的に、タブレットコンピュータ、スマートフォン等の様々な他の拡張現実有効化装置もシステム100に含まれ得る。したがって、本明細書では、例示的な実施形態としてHMD120が使用されるが、本開示は、表示装置としてHMD120のみを有することに限定されることを意図していない。
身体Bは、外科的処置を受けている患者の身体等の人体、マネキン等の非人体、物理的なモックアップ、もしくは他のシミュレートされた身体、および/または仮想身体であってもよく、これは、場合によっては、患者または被験者の人体に基づいてモデル化される。例えば、身体Bが仮想身体である実施形態では、身体Bは、特定の患者および/または被験者のパラメータに基づいて生成され得、かつ外科処置中および/または訓練処置中にロードされるためにコンピューティング装置200に記憶され得る。身体Bが仮想身体である実施形態では、身体Bはテーブル110上に物理的に存在しないが、以下でさらに説明するように、HMD120を介して拡張および/または仮想現実画像として表示される。さらに、身体Bが仮想身体である実施形態では、テーブル110はまた、コンピューティング装置200および/またはHMD120によって生成され、HMD120を介して表示される仮想テーブルであってもよい。したがって、本開示のシステムおよび方法は、訓練ならびに実際の外科的目的のために使用され得る。タブレットまたは他のハンドヘルドコンピューティング装置等の異なるタイプの表示装置が使用される実施形態では、身体Bおよび/またはシステム100の他の構成要素は、「ウィンドウ付き拡張現実」を使用して表示され得、すなわち、テーブル110が表示装置によって表示されるビュー内にあるとき、表示装置は、身体Bをテーブル110上に表示し得る。さらに、当業者には、身体Bおよび/またはシステム100の他の構成要素を表示するために仮想および/または拡張現実を使用する様々な他の実施形態が、本開示の範囲から逸脱することなく、本明細書に記載の実施形態に加えて、またはその代わりに使用されてもよいことが認識されよう。
コンピューティング装置200は、当業者に周知のロボット手術の訓練中に使用するように構成可能な任意のコンピューティング装置であってよい。例えば、コンピューティング装置200は、デスクトップコンピュータ、ラップトップコンピュータ、サーバおよび端末構成、および/または外科用ロボットアセンブリ150を含む外科用ロボットのための制御コンピュータ等であってもよい。いくつかの実施形態では、コンピューティング装置200は、HMD120に含まれ得る。以下でさらに説明するように、システム100は、身体B上に外科用ポートを配置するための方法に関する訓練等の、ロボット手術の訓練中に使用することができる。
次に図2を参照すると、本開示の実施形態による、図1のシステム100の一部を形成するコンピューティング装置200の概略図が示されている。コンピューティング装置200は、メモリ202と、プロセッサ204と、入力インターフェース206と、通信インターフェース208と、出力インターフェース210と、を含む。メモリ202は、データベース240およびアプリケーション280を格納する。アプリケーション280は、以下で説明するように、プロセッサ204によって実行されると、コンピューティング装置200に様々な機能を行わせる命令を含み得る。アプリケーション280はさらに、プロセッサ204によって実行されると、コンピューティング装置200に、例えば、図4Aおよび図4Bに示されるような例示的なGUI400等の1つ以上のGUI(図2には図示せず)を生成させる、グラフィカルユーザインターフェース(GUI)命令285を含む。データベース240は、1人以上の患者の身体の様々なスキャンおよび/もしくはモデル、ならびに/または外科的処置のための治療計画を格納し得る。例えば、所定のおよび/または患者に特化した治療計画は、手術部位の場所および手術部位で行われる様々な治療に基づき得る。
メモリ202は、プロセッサ204によって実行可能であり、かつコンピューティング装置200の動作を制御する、データおよび/またはソフトウェアを格納するための任意の非一時的コンピュータ可読記憶媒体を含み得る。実施形態において、メモリ202は、フラッシュメモリチップ等の、1つ以上のソリッドステート記憶装置を含み得る。1つ以上のソリッドステート記憶装置の代替として、またはそれに加えて、メモリ202は、大容量記憶コントローラ(図2には図示せず)および通信バス(図2には図示せず)を介してプロセッサ204に接続された1つ以上の大容量記憶装置を含んでもよい。本明細書に含まれるコンピュータ可読媒体の説明は、ソリッドステート記憶装置に言及しているが、当業者には、コンピュータ可読記憶媒体が、プロセッサ204によってアクセス可能である任意の利用可能な媒体であり得ることが理解されるべきである。すなわち、コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータ等の情報を記憶するための任意の方法または技術で実装された非一時的、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体を含み得る。例えば、コンピュータ可読記憶媒体は、RAM、ROM、EPROM、EEPROM、フラッシュメモリもしくは他のソリッドステートメモリ技術、CD−ROM、DVD、ブルーレイもしくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置もしくは他の磁気記憶装置、または所望の情報を記憶するために使用することができ、かつコンピューティング装置200によってアクセス可能な任意の他の媒体を含み得る。
入力インターフェース206は、マウス、キーボード、もしくは他のハンドヘルドコントローラ、フットペダル、タッチスクリーン、音声インターフェース、および/またはユーザがコンピューティング装置200と対話することができる他の任意の装置もしくはインターフェースであり得る。通信インターフェース208は、有線ネットワークおよび/または無線ネットワークから構成されるローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、無線モバイルネットワーク、ブルートゥース(登録商標)ネットワーク、および/またはインターネット等の、ネットワークに接続するように構成され得る。出力インターフェース210は、コンピューティング装置200によって画像またはデータを出力するために使用可能な画面または他の表示装置であってもよい。
図3Aおよび図3Bを参照すると、本開示の実施形態による、外科用ポートを配置するためのガイダンスを提供するための例示的な方法300のフローチャートが示されている。いくつかの実施形態では、方法300のステップの一部またはすべては、外科的処置の開始前に、手術室等の外科的環境で実行され得る。他の実施形態では、方法300のステップの一部またはすべては、カリキュラムが教示される訓練施設等の教育環境で実行されてもよい。以下に説明される例示的な実施形態は、単に例示目的で提供され、限定として解釈されるべきではなく、当業者には、他の多くの実施形態も本開示の範囲内で企図されることが認識されよう。
ステップS302で開始し、1つ以上の画像捕捉装置125は、動作環境の画像を捕捉する。上記のように、動作環境は、テーブル110および外科用ロボットアセンブリ150を含む。いくつかの実施形態では、動作環境は、テーブル110上の身体Bをさらに含み得る。次に、画像取込装置125は、ステップS304において、ステップS302で捕捉された画像に基づいて動作環境の画像データを生成する。さらに、画像捕捉装置125は、動作環境の画像を連続的に捕捉することができるため、ステップS302およびS304は方法300の開始時に示されているが、画像を捕捉し、捕捉された画像に基づいて動作環境の画像データを生成することは、方法300全体にわたって行われる連続的なアクションであり得る。このように、以下で説明するステップの一部またはすべての間に、追加の画像が捕捉され、動作環境の追加の画像データが生成され、画像および/または画像データがコンピューティング装置200に提供され得る。
その後、ステップS306では、ステップS304で生成された画像データがコンピューティング装置200に提供される。いくつかの実施形態では、画像捕捉装置125は、動作環境の画像データを生成せず、代わりに、捕捉された画像をコンピューティング装置200に提供し、次にコンピューティング装置200は、捕捉された画像に基づいて動作環境の画像データを生成する。そのような実施形態では、ステップS306でコンピューティング装置200に提供されるのは捕捉された画像であり、動作環境の画像データではない。次に、コンピューティング装置200は、画像データを処理して、動作環境の3次元(3D)シーンを生成する。動作環境の3Dシーンは、画像データ、他のソースから受信されたデータ、および/またはユーザによって提供された入力に基づいている。
次に、コンピューティング装置200は、ステップS308において、身体B内部の手術部位に関する情報を取得する。手術部位に関する情報は、入力インターフェース206等を介して、ユーザによって提供され得る。いくつかの実施形態では、手術部位に関する情報は、外科的処置の開始前に事前構成されている。手術部位に関する情報は、外科的処置が行われる身体B内の場所、外科的処置に関与する器官および/もしくは他の構造の位置および/もしくはタイプ、ならびに/または行われる外科的処置のタイプを含み得る。例えば、手術部位に関する情報は、外科的処置が患者の肺の一部の除去を含むことを示し得る。
その後、ステップS310において、コンピューティング装置200は、身体B内の手術部位の位置を判定する。この判定は、ステップS308で受信された手術部位に関する情報、身体Bの放射線画像データ、および/またはステップS306で受信された画像データに基づくことができる。例えば、処置の開始前に取得された、身体Bのコンピュータ断層撮影および/または磁気共鳴画像データ等の放射線画像データは、ステップS306で受信された画像データ内で検出された身体Bの観察された姿勢に一致するようにロードおよびワープされるか、または変形され得る(放射線画像データが取得された場合、身体Bの姿勢と整合しない可能性が高い)。加えて、または代替的に、統計的手法では、以下でさらに説明するように、器官の位置の様々なモデルを使用して、身体B内の器官および他の構造の場所を推定し得る。判定はさらに、治療計画に基づき得る。例えば、ステップS308を参照して上述した例では、コンピューティング装置200は、画像データを処理して、画像データ内の身体Bを特定し、次いで、手術部位の位置、例えば患者の肺を、テーブル110上の身体Bの姿勢に基づいて特定し得る。本明細書で使用される場合、「姿勢」という用語は、物体の位置および配向として定義される。例えば、身体Bの姿勢は、テーブル110上の身体Bの位置、テーブル110に対する身体Bの配向、および/または動作環境、ならびに動作環境内の他の物体を指す。同様に、テーブル110および外科用ロボットアセンブリ150等のような、動作環境における他の物体の姿勢も判定され得る。
患者の身体内の手術部位の位置を特定することは、器官の場所のモデルおよび患者の身体内の他の構造の場所に基づき得る。器官の場所のモデルは、様々な患者から受信された器官の場所に関連するデータポイントに基づく一般的なモデルであってもよく、または器官の場所のモデルは、治療されている患者の1つ以上のスキャンおよび/または他の放射線画像に基づいて生成されたモデルであってもよい。
次に、コンピューティング装置200は、ステップS312において、第1の外科用ポート130を身体Bに配置するためのガイダンスを生成する。ガイダンスは、ステップS310で判断された身体B内の手術部位の位置、およびステップS306で生成された動作環境の3Dシーンに基づいて生成される。ガイダンスはさらに、特定の手術部位および/または特定のタイプの手術のための推奨される外科用ポート配置場所のモデルに基づくことができる。加えて、ガイダンスは、所定の治療計画に含まれる推奨される外科用ポート配置場所に基づいてもよい。例えば、推奨される外科用ポートの配置は、外科用ポートを通して挿入される外科用ツールの精巧なワークスペースに基づいて決定され得、すなわち、推奨される外科用ポート配置場所は、外科用ポートを通って挿入される外科用ツールの精巧なワークスペースが集合的に、手術部位全体、または少なくともその所定の部分を含むように決定され得る。
実施形態では、外科用ツールの精巧なワークスペースは、外科用ロボットアセンブリ150および/またはロボットアーム154、155の双方向の動作範囲に基づいて決定される。外科用ロボットアセンブリ150の双方向の動作範囲の決定は、外科用ロボットアセンブリ150の構成、身体Bに対する外科用ロボットアセンブリ150の姿勢、および/または外科用ロボットアセンブリ150に結合された外科用ツール具のタイプを含む、外科用ロボットアセンブリ150の特性に基づき得る。身体Bの周囲の外科用ロボットアセンブリ150の配置および/または姿勢は、外科用ツールの精巧なワークスペースを決定するときに考慮に入れてもよく、したがって、推奨される外科用ポートの配置場所は、外科用ロボットアセンブリ150の配置および/または姿勢に基づいて決定され得る。またさらには、ガイダンスは、患者の身体のスキャンに基づいて決定された推奨される外科用ポート配置場所に基づいてもよい。ガイダンスは、グラフィックによるガイダンスであり得、身体B内の手術部位の位置を示す1つ以上の拡張現実画像(図4Aおよび図4Bに示され、以下で説明される)と、第1の外科用ポート130が身体B上のどこに配置されるべきかを指示する仮想外科用ポートと、を含み得る。他の実施形態では、グラフィックによるガイダンスは、1つ以上の表示装置(例えば、プロジェクタまたは発光装置)によって患者の身体上に投影された画像を含み得る。ガイダンスはさらに、矢印、ポインタ等の視覚的インジケータ、ならびにユーザに外科用ポート130を配置する場所を指示するテキストおよび聴覚的コマンド(図4Aおよび図4Bに示され、それらを参照してさらに説明される)を含み得る。次に、コンピューティング装置200は、ステップS314において、ステップS312で生成されたガイダンスを表示する(図4Aに示される)。実施形態では、コンピューティング装置200は、HMD120にガイダンスを表示させ、および/または他の表示装置にガイダンスを身体B上に投影させ得る。例えば、コンピューティング装置200は、HMD120に、外科用ポート410a、410b、410c、410d、410e、手術部位420、および/または1つ以上の外科用ポート410を通して挿入された外科用ツールの精巧なワークスペース430の仮想表現を、図4Aおよび図4Bに示されるように、身体B上を覆うものとして、および/または身体B上に重ね合わせて表示させ得る。いくつかの実施形態では、コンピューティング装置200は、少なくとも1つの外科用ポート130を通して挿入された内視鏡からの予想されるビューの仮想レンダリングを生成し得る。仮想レンダリングは、手術部位および/または身体Bの前述のモデルに基づいて生成され得る。仮想レンダリングは、ガイダンスとともに表示され得る。
次に、ステップS316において、コンピューティング装置200は、ユーザが動いたかどうか、特に、ユーザの手が動いたかどうかを判定する。判定は、画像捕捉装置125からコンピューティング装置200によって受信された追加の画像データに基づくことができる。コンピューティング装置200は、追加の画像データを処理および分析して、ユーザを特定し、ユーザの手が動いたかどうかを検出することができる。ユーザの手が動いていないと判定された場合(ステップS316における「いいえ」)、処理は、ステップS326にスキップして進む。代替的に、ユーザの手が動いたと判定された場合(ステップS316における「はい」)、ステップS318に進む。
ステップS318において、コンピューティング装置200は、ユーザの手の動きが、ユーザがガイダンスの一部として表示された仮想外科用ポートの姿勢を調整したことを示しているかどうかを判定する。例えば、コンピューティング装置200は、ステップS316中に受信された追加の画像データを処理および分析して、ユーザの手によって行われるジェスチャを検出することができる。様々なジェスチャ、例えば、つまむジェスチャ、広げるジェスチャ、つつくジェスチャ、および/または移動するジェスチャを行い得る。様々なジェスチャは、ユーザが行った異なるアクションを示し得、例えば、HMD120によって表示されるような、ユーザの手が特定の仮想外科用ポートに向けられている間のつまむジェスチャは、ユーザが特定の仮想外科用ポートを選択しているか、または「ピックアップ」していることを示し得る。同様に、HMD120によって表示されるように、ユーザの手が特定の仮想外科用ポートに向けられている間に実行される広げるジェスチャは、ユーザが特定の仮想外科用ポートを選択解除しているか、または「ドロップ」していることを示し得る。同様に、特定の仮想外科用ポートが選択されている間のユーザの手の動きは、ユーザが特定の仮想外科用ポートをユーザの手が動いた方向に動かしていることを示し得る。いくつかの実施形態では、ユーザは、音声コマンドに基づいて、および/または視線追跡によって仮想ポートを移動させることができる。
ユーザの手の動きが、ユーザが仮想外科用ポートの姿勢を調整したことを示さないか、またはユーザが仮想外科用ポートの姿勢を調整するために音声および/もしくは視線追跡コマンドを与えていないと判定されると(ステップS318で「いいえ」)、処理はステップS326にスキップして進む。代替的に、ユーザの手の動きが、ユーザが仮想外科用ポートの姿勢を調整したことを示すか、またはユーザが仮想外科用ポートの姿勢を調整するために音声および/または視線追跡コマンドを与えたと判定されると(ステップS318で「はい」)、処理はステップS320に進み、コンピューティング装置200は、調整に基づいてガイダンスを更新する。例えば、コンピューティング装置200は、ステップS318で判定されたように、仮想外科用ポートの姿勢を、ステップS312で生成されたガイダンスで推奨される姿勢から、ユーザが仮想外科用ポートを動かした姿勢に調整し得る。
その後、ステップS322において、コンピューティング装置200は、仮想外科用ポートの調整が、ステップS312で生成されたガイダンスで推奨される姿勢からの所定の距離または配向の変化より大きいかどうかを判定する。所定の距離および配向は、身体B内の手術部位の位置および/または実行されている外科的処置のタイプに基づき得る。例えば、結腸直腸外科的処置は、外科用ポートのより正確な配置を必要としない場合があるため、外科用ポートを配置する際にユーザにより大きな柔軟性を与えるが、一方で脊椎および/または神経外科的処置は、外科用ポートのより正確な配置を必要とする場合がある。仮想外科用ポートの調整が所定の距離または配向の変化よりも大きいと判定された場合(ステップS322で「はい」)、処理はステップS324に進み、ここでユーザに警告が提供され、仮想外科用ポートの姿勢が、推奨される姿勢から所定の距離を超えて調整されていることをユーザに示す。その後、またはステップS322で仮想外科用ポートの調整が所定の距離または配向の変化より大きくないと判断された場合(ステップS322で「いいえ」)、処理はステップS314に戻り、ステップS320で更新されたガイダンスが表示される。
ステップS326において、コンピューティング装置200は、第1の外科用ポート130が身体B上に配置されているかどうかを判定する。例えば、ステップS302に関して上述したように、コンピューティング装置200は、画像捕捉装置125から追加の画像データを受信し、追加の画像データを処理および分析して、第1の外科用ポート130が身体B上に配置されているかどうかを判定することができる。第1の外科用ポート130が身体B上に配置されていないと判定されると(ステップS326で「いいえ」)、処理はステップS314に戻る。代替的に、第1の外科用ポート130が身体B上に配置されていると判断されると(ステップS326で「はい」)、処理はステップS328に進み、身体B上に配置される追加の外科用ポート130があるかどうかが判定される。例えば、コンピューティング装置200は、所定の治療計画および/または外科用ポート配置場所のモデルに基づいて、追加の外科用ポート130が身体B上に配置されるべきかどうかを判定し得る。また、コンピューティング装置200は、追加の外科用ポート130を身体B上に配置すべきかどうかを示すユーザからの入力を受信し得る。
身体B上に配置される追加の外科用ポート130があると判定されると(ステップS328で「はい」)、処理はステップS330に進み、コンピューティング装置200は、身体B上に別の外科用ポート130を配置するためのガイダンスを生成する。ガイダンスは、ステップS310で判定された身体B内の手術部位の位置、ステップS306で生成された動作環境の3Dシーン、および/または身体B上に配置された第1の外科用ポート130の姿勢に基づいて生成され得る。例えば、ガイダンスは、身体B内の手術部位の位置を示す1つ以上の拡張現実画像、および追加の外科用ポート130を身体B上のどこに配置すべきかを指示する仮想外科用ポートを含み得る。その後、処理はステップS314に戻り、ここでガイダンスが表示される。
代替的に、ステップS328において、身体B上に配置される追加の外科用ポート130がないと判定されると(ステップS328で「いいえ」)、処理はステップS332に進み、コンピューティング装置200は、少なくとも1つの外科用ポート130を介して身体B内に内視鏡140を挿入するためのガイダンスを生成する。ガイダンスは、身体B内の手術部位の位置、身体B上に外科用ポート130が配置された場所、および/またはステップS306で生成された動作環境の3Dシーンに基づいて生成され得る。ガイダンスは、グラフィックによるガイダンスであってもよく、身体B内の手術部位の位置を示す1つ以上の拡張現実画像、身体B上の外科用ポート130、および内視鏡140が挿入されるべき外科用ポート130の指示を含み得る。ガイダンスはさらに、矢印、ポインタ等の視覚的インジケータ、ならびにテキストおよび聴覚コマンドを含むことができる。いくつかの実施形態では、内視鏡140は、第1の外科用ポート130が身体上に配置された後に挿入され、したがって、そのような実施形態では、ステップS332、S334、およびS336は、ステップS328の前に実行され得る。
その後、ステップS334において、コンピューティング装置200は、ステップS332で生成されたガイダンスを表示する。例えば、コンピューティング装置200は、HMD120にガイダンスを表示させ得る。次に、ステップS336において、コンピューティング装置200は、内視鏡140が外科用ポート130を介して身体B内に挿入されているかどうかを判定する。例えば、コンピューティング装置200は、ステップS302に関して上述したように、画像捕捉装置125から追加の画像データを受信し得、追加の画像データを処理および分析して、内視鏡140が外科用ポート130を介して身体B内に挿入されているかどうかを判定し得る。内視鏡140が挿入されていないと判定されると(ステップS336で「いいえ」)、処理はステップS334に戻る。代替的に、内視鏡140が挿入されたと判断された場合(ステップS336で「はい」)、処理は、ステップS338に進む。
ステップS338において、コンピューティング装置200は、外科用ロボットアセンブリ150を配置するためのガイダンスを生成する。例えば、コンピューティング装置200は、外科用ポート130が配置された場所、および身体B内の手術部位の位置に基づいて、身体Bの周囲に外科用ロボットアセンブリ150を配置するための推奨された姿勢を判定し得る。拡張現実および/または仮想現実表示装置を使用した外科用ロボットの配置のためのガイダンスの生成は、2018年1月10日にCovidien LPによって提出された共有の同時係属中の米国特許出願第US62/615,495号、発明の名称GUIDANCE FOR POSITIONING A PATIENT AND SURGICAL ROBOTにさらに記載され、その内容全体は参照により本明細書に組み込まれる。
その後、ステップS340において、コンピューティング装置200は、ステップS330で生成されたガイダンスを表示する。例えば、コンピューティング装置200は、HMD120にガイダンスを表示させることができる。その後、処理は終了する。
図3の方法300に関する上記の説明は、コンピューティング装置200によって行われる機能に言及しているが、当業者には、そのような機能が、アプリケーション280等の1つ以上のアプリケーションの実行に基づいて、ならびに/または専用ハードウェアおよび/もしくはコンピューティング装置200に含まれる他のソフトウェアに基づいて、コンピューティング装置200によって行われてもよいことが理解されよう。したがって、コンピューティング装置200によって行われるものとして説明されているが、方法300の説明は、ハードウェアの実施形態に限定されるものとして解釈されるべきではない。
ここで図4Aおよび図4Bを参照すると、本開示の実施形態による、HMD120および/または1つ以上の他の表示装置によって表示され得る例示的なグラフィカルユーザインターフェース(GUI)400が示されている。GUI400は、図3Aおよび図3Bの方法300に関して上述した処置等の外科的処置中の様々な時点で、HMD120および/または他の表示装置によって表示され得る。図4Aに示されている実施形態では、テーブル110および外科用ロボットアセンブリ150は、ユーザに示されている動作環境内の物理的物体である。身体Bはテーブル110に横たわって示されている。仮想外科用ポート410a、410b、410c、410d、および410eと手術部位420の拡張現実画像は、身体B上を覆うことができる。GUI400は、身体B上の仮想外科用ポート410a、410b、410c、410d、および410eの位置によって示されるように、外科用ポート130を配置するようにユーザに指示するガイダンスをさらに含む。外科用ポート130に挿入された外科用ツールの双方向の動作範囲のインジケータ430の拡張現実画像は、身体B上をさらに覆ってもよい。GUI400はまた、テキスト命令440は、ユーザにテキストコマンドを表示することができる。
ユーザが仮想外科用ポート410a、410b、410c、410d、および410eのうちの1つ以上の姿勢を調整することを選択した場合、GUI400は、移動された仮想外科用ポートの新しい姿勢を示すように更新され得る。例えば、図4Bに示されるように、更新されたGUI400は、仮想外科用ポート410aが移動され、その移動により仮想外科用ポート410aが手術部位へのアクセスのための推奨配置範囲から外れたことを示す。そのような実施形態では、テキスト命令440は、仮想外科用ポート410aが、ガイダンスによって推奨される姿勢から所定の距離または配向の変化を超えて調整されたことを示す警告をユーザに提供し得る。
当業者が理解するように、本開示に記載されたシステム、方法、およびコンピュータ可読媒体は、外科用ロボットに結合された外科用ツールの、身体内の手術部位への好適なアクセスを確保するためにどのようにして、かつ身体上のどこに外科用ポートを配置するかを臨床医に指示する様々な態様を説明している。様々な形式の視覚的および/または聴覚的ガイダンスが、臨床医に身体上の特定の場所に外科用ポートを配置することを指示し、かつ臨床医が外科用ポートの場所を調整できるようにする1つ以上のコマンドなどを、ヘッドマウントディスプレイおよび/またはプロジェクタまたはハンドヘルド表示装置を含む1つ以上の装置によって表示および/または発され得る。したがって、本明細書で開示されるシステム、方法、およびコンピュータ可読媒体は、ロボットによる外科的処置の訓練および/または準備の改善を提供する。
装置、そのような装置を組み込んだシステム、およびそれらを使用する方法の詳細な実施形態が本明細書に記載されてきた。しかしながら、これらの詳細な実施形態は、本開示の単なる実施例であり、様々な形態で実施され得る。したがって、本明細書に開示された具体的な構造的および機能的詳細は、限定するものと解釈されるべきではなく、単に請求項の根拠として、および当業者が本開示を適切に詳細な構造で様々に用いることを可能にするための、代表的な根拠として解釈されるべきである。

Claims (96)

  1. 身体上の外科用ポートの配置を誘導するためのシステムであって、
    画像捕捉装置であって、
    身体を含む動作環境の画像を捕捉することと、
    前記捕捉された画像に基づいて画像データを生成することと、を行うように構成された、画像捕捉装置と、
    表示装置と、
    プロセッサおよび命令を記憶するメモリを含むコンピューティング装置と、を備え、前記命令は、前記プロセッサによって実行されると、前記コンピューティング装置に、
    前記身体内の手術部位の場所に関する情報を得ることと、
    前記画像捕捉装置から前記画像データを受信することと、
    前記身体内の前記手術部位の前記場所と前記画像データとに基づいて、外科用ポートを前記身体上に配置するためのグラフィックによるガイダンスを生成することと、
    前記生成されたグラフィックによるガイダンスを、前記表示装置上に表示させることと、を行わせる、システム。
  2. 前記命令が、前記プロセッサによって実行されると、前記コンピューティング装置に、
    前記画像捕捉装置から受信された前記画像データに基づいて、前記外科用ポートが前記身体上に配置されたことを検出することと、
    前記外科用ポートを通して、内視鏡を前記身体内に挿入するためのグラフィックによるガイダンスを生成することと、
    前記内視鏡が前記外科用ポートを通して挿入されたことを検出することと、をさらに行わせる、請求項1に記載のシステム。
  3. 前記外科用ポートが前記身体上に配置されたことを検出することが、前記画像捕捉装置から受信された追加の画像データを分析して、前記外科用ポートが前記身体上に配置されたことを検出することを含む、請求項2に記載のシステム。
  4. 前記内視鏡が前記外科用ポートを通して挿入されたことを検出することが、前記画像捕捉装置から受信された追加の画像データを分析して、前記内視鏡が前記外科用ポートを通して挿入されたことを検出することを含む、請求項2に記載のシステム。
  5. 前記外科用ポートが、第1の外科用ポートであり、前記命令が、前記プロセッサによって実行されると、前記コンピューティング装置に、
    前記身体内の前記手術部位の前記場所、および前記第1の外科用ポートが前記身体上に配置された検出された場所に基づいて、第2の外科用ポートを前記身体上に配置するためのグラフィックによるガイダンスを生成することと、
    前記生成されたグラフィックによるガイダンスを、前記表示装置上に表示させることと、をさらに行わせる、請求項2に記載のシステム。
  6. 前記生成されたグラフィックによるガイダンスが、前記身体上に表示された仮想外科用ポートを含み、前記命令が、前記プロセッサによって実行されると、前記コンピューティング装置に、
    前記画像捕捉装置から受信された追加の画像データを分析して、ユーザの手の動きを検出することと、
    前記ユーザの手の前記検出された動きに基づいて、前記ユーザが前記身体上の前記仮想外科用ポートの姿勢を調整していることを判定することと、
    前記身体上の前記仮想外科用ポートの前記姿勢の前記判定された調整に基づいて、前記グラフィックによるガイダンスを更新することと、をさらに行わせる、請求項1に記載のシステム。
  7. 前記命令が、前記プロセッサによって実行されると、前記身体上の前記仮想外科用ポートの前記姿勢の前記判定された調整が、所定の距離または前記グラフィックによるガイダンスによって推奨される前記姿勢からの配向の変化を上回るとき、さらに前記コンピューティング装置に警告を提供させる、請求項6に記載のシステム。
  8. 前記ユーザの手の動きを検出することが、前記ユーザの手によって行われるジェスチャを検出することを含む、請求項6に記載のシステム。
  9. 前記ユーザが前記身体上の前記仮想外科用ポートの前記姿勢を調整していると判定することが、前記ユーザの手によって行われる前記検出されたジェスチャにさらに基づく、請求項8に記載のシステム。
  10. 前記画像捕捉装置が、前記表示装置に結合されている、請求項1に記載のシステム。
  11. 前記グラフィックによるガイダンスが、前記表示装置を介して表示されるテキストによる命令を含む、請求項1に記載のシステム。
  12. 前記グラフィックによるガイダンスが、前記外科用ポートの推奨される姿勢の拡張現実画像を含む、請求項1に記載のシステム。
  13. 前記外科用ポートの前記推奨される姿勢が、推奨される外科用ポート配置の所定のモデルに基づいて判定される、請求項12に記載のシステム。
  14. 前記外科用ポートの前記推奨される姿勢が、所定の治療計画に基づいて判定される、請求項12に記載のシステム。
  15. 前記外科用ポートの前記推奨される姿勢が、前記身体のスキャンに基づいて判定される、請求項12に記載のシステム。
  16. 前記グラフィックによるガイダンスが、前記身体内の前記手術部位の位置の拡張現実画像を含む、請求項1に記載のシステム。
  17. 前記コンピューティング装置が、前記表示装置に、前記身体内の前記手術部位の位置の前記拡張現実画像を、前記身体上に重ね合わせるように表示させる、請求項16に記載のシステム。
  18. 前記手術部位の前記拡張現実画像が、前記身体内の少なくとも1つの器官の位置を含む、請求項16に記載のシステム。
  19. 前記身体内の前記少なくとも1つの器官の位置が、器官の位置の所定のモデルに基づく、請求項18に記載のシステム。
  20. ベースと、
    第1のジョイントと、
    前記第1のジョイントに結合された第1のアームと、
    前記第1のアームに結合された第2のジョイントと、
    前記第2のジョイントに結合された第2のアームと、を含む1つ以上のロボットアセンブリを含む外科用ロボットをさらに備え、
    前記ベースが、前記第1のジョイント、第1のアーム、および第2のジョイントを介して、前記第2のアームに結合される、請求項1に記載のシステム。
  21. 前記命令が、前記プロセッサによって実行されると、さらに前記コンピューティング装置に、前記身体内の前記手術部位の判定された位置に基づいて、前記外科用ロボットを配置するためのグラフィックによるガイダンスを生成させる、請求項20に記載のシステム。
  22. 前記命令が、前記プロセッサによって実行されると、さらに前記コンピューティング装置に、
    前記身体上の前記外科用ポートの配置に基づいて、前記外科用ロボットの動作範囲を判定させ、
    前記表示装置に、前記外科用ロボットの前記動作範囲の指標を表示させる、請求項21に記載のシステム。
  23. 前記外科用ロボットの前記動作範囲が、前記外科用ロボットの特性に基づいて決定される、請求項22に記載のシステム。
  24. 前記外科用ロボットの特性が、
    前記外科用ロボットの構成と、
    前記身体に対する前記外科用ロボットの姿勢と、
    前記外科用ロボットに結合されたツールのタイプと、のうちの1つ以上を含む、請求項23に記載のシステム。
  25. 前記画像捕捉装置が、第1の画像捕捉装置であり、前記システムが、
    第2の画像捕捉装置をさらに含み、
    前記命令が、前記プロセッサによって実行されると、さらに前記コンピューティング装置に、前記第1および第2の画像捕捉装置から受信された画像データに基づいて、前記動作環境の3次元シーンを生成させる、請求項1に記載のシステム。
  26. 前記第1および第2の画像捕捉装置が、前記動作環境の周囲に位置付けられる、請求項25に記載のシステム。
  27. 前記画像捕捉装置が、前記コンピューティング装置に含まれる、請求項1に記載のシステム。
  28. 前記コンピューティング装置が、前記表示装置に含まれる、請求項1に記載のシステム。
  29. 前記身体内の前記手術部位の場所に関する情報を得ることが、ユーザからの入力を介して前記手術部位の選択を受信することを含む、請求項1に記載のシステム。
  30. 前記身体内の前記手術部位の場所に関する情報を得ることが、前記身体のスキャン中に取得された画像データに基づいて、前記手術部位の前記場所を判定することを含む、請求項1に記載のシステム。
  31. 前記身体内の前記手術部位の場所に関する情報を得ることが、所定の治療計画に基づいて、前記手術部位の前記場所を判定することを含む、請求項1に記載のシステム。
  32. 前記命令が、前記プロセッサによって実行されると、さらに前記コンピューティング装置に、前記受信された画像データに基づいて、前記身体内の前記手術部位の位置を判定させる、請求項1に記載のシステム。
  33. 前記身体が、マネキンの少なくとも一部である、請求項1に記載のシステム。
  34. 前記身体が、患者の少なくとも一部である、請求項1に記載のシステム。
  35. 身体上の外科用ポートの配置を誘導するための方法であって、
    前記身体内の手術部位の場所に関する情報を得ることと、
    画像捕捉装置から、動作環境の画像に基づいて生成された画像データを受信することと、
    前記身体内の前記手術部位の前記場所と前記画像データとに基づいて、外科用ポートを前記身体上に配置するためのグラフィックによるガイダンスを生成することと、
    生成されたグラフィックによるガイダンスを表示することと、を含む、方法。
  36. 前記画像捕捉装置から受信された前記画像データに基づいて、前記外科用ポートが前記身体上に配置されたことを検出することと、
    前記外科用ポートを通して、内視鏡を前記身体内に挿入するためのグラフィックによるガイダンスを生成することと、
    前記内視鏡が前記外科用ポートを通して挿入されたことを検出することと、をさらに含む、請求項35に記載の方法。
  37. 前記外科用ポートが前記身体上に配置されたことを検出することが、前記画像捕捉装置から受信された追加の画像データを分析して、前記外科用ポートが前記身体上に配置されたことを検出することを含む、請求項36に記載の方法。
  38. 前記内視鏡が前記外科用ポートを通して挿入されたことを検出することが、前記画像捕捉装置から受信された追加の画像データを分析して、前記内視鏡が前記外科用ポートを通して挿入されたことを検出することを含む、請求項36に記載の方法。
  39. 前記外科用ポートが、第1の外科用ポートであり、前記方法が、
    前記身体内の前記手術部位の前記場所、および前記第1の外科用ポートが前記身体上に配置された検出された場所に基づいて、第2の外科用ポートを前記身体上に配置するためのグラフィックによるガイダンスを生成することと、
    前記生成されたグラフィックによるガイダンスを表示することと、をさらに含む、請求項35に記載の方法。
  40. 前記生成されたグラフィックによるガイダンスが、前記身体上に表示された仮想外科用ポートを含み、前記方法が、
    前記画像捕捉装置から受信された追加の画像データを分析して、ユーザの手の動きを検出することと、
    前記検出された前記ユーザの手の動きに基づいて、前記ユーザが前記身体上の前記仮想外科用ポートの姿勢を調整していることを判定することと、
    前記身体上の前記仮想外科用ポートの前記姿勢の前記判定された調整に基づいて、グラフィックによるガイダンスを更新することと、をさらに含む、請求項35に記載の方法。
  41. 前記身体上の前記仮想外科用ポートの前記姿勢の前記判定された調整が、所定の距離または前記グラフィックによるガイダンスによって推奨される前記姿勢からの配向の変化を上回るとき、警告を提供することをさらに含む、請求項40に記載の方法。
  42. 前記ユーザの手の動きを検出することが、前記ユーザの手によって実行されるジェスチャを検出することを含む、請求項40に記載の方法。
  43. 前記ユーザが前記身体上の前記仮想外科用ポートの前記姿勢を調整していると判定することが、前記ユーザの手によって行われる前記検出されたジェスチャにさらに基づく、請求項42に記載の方法。
  44. 前記画像捕捉装置が、ヘッドマウントディスプレイに結合される、請求項35に記載の方法。
  45. 前記グラフィックによるガイダンスが、ヘッドマウントディスプレイを介して表示されるテキストによる指示を含む、請求項35に記載の方法。
  46. 前記グラフィックによるガイダンスが、前記外科用ポートの推奨された姿勢の拡張現実画像を含む、請求項35に記載の方法。
  47. 前記外科用ポートの前記推奨された姿勢が、推奨された外科用ポート配置の所定のモデルに基づいて決定される、請求項46に記載の方法。
  48. 前記外科用ポートの前記推奨された姿勢が、所定の治療計画に基づいて決定される、請求項46に記載の方法。
  49. 前記外科用ポートの前記推奨された姿勢が、前記身体のスキャンに基づいて決定される、請求項46に記載の方法。
  50. 前記グラフィックによるガイダンスが、前記身体内の前記手術部位の位置の拡張現実画像を含む、請求項35に記載の方法。
  51. 前記身体内の前記手術部位の前記位置の前記拡張現実画像を、前記身体上に重ね合わせるように表示することをさらに含む、請求項50に記載の方法。
  52. 前記手術部位の前記拡張現実画像は、前記身体内の少なくとも1つの器官の位置を含む、請求項50に記載の方法。
  53. 前記身体内の前記少なくとも1つの器官の位置が、器官の位置の所定のモデルに基づく、請求項52に記載の方法。
  54. 前記身体内の前記手術部位の前記判定された位置に基づいて、外科用ロボットを配置するためのグラフィックによるガイダンスを生成することをさらに含む、請求項35に記載の方法。
  55. 前記身体上の前記外科用ポートの前記配置に基づいて、前記外科用ロボットの動作範囲を決定することと、
    前記外科用ロボットの前記動作範囲の指標を表示することと、をさらに含む、請求項54に記載の方法。
  56. 前記外科用ロボットの前記動作範囲が、前記外科用ロボットの特性に基づいて決定される、請求項55に記載の方法。
  57. 前記外科用ロボットの前記特性が、
    前記外科用ロボットの構成と、
    前記身体に対する前記外科用ロボットの姿勢と、
    前記外科用ロボットに結合されたツールのタイプと、のうちの1つ以上を含む、請求項56に記載の方法。
  58. 前記画像捕捉装置が、複数の画像捕捉装置であり、前記方法が、前記複数の画像捕捉装置から受信された画像データに基づいて、前記動作環境の3次元シーンを生成することをさらに含む、請求項35に記載の方法。
  59. 前記複数の画像捕捉装置が、前記動作環境の周囲に位置付けられる、請求項58に記載の方法。
  60. 前記身体内の前記手術部位の場所に関する情報を得ることが、ユーザからの入力を介して前記手術部位の選択を受信することを含む、請求項35に記載の方法。
  61. 前記身体内の前記手術部位の場所に関する情報を得ることが、前記身体のスキャン中に取得された画像データに基づいて、前記手術部位の前記場所を決定することを含む、請求項35に記載の方法。
  62. 前記身体内の前記手術部位の場所に関する情報を得ることが、所定の治療計画に基づいて、前記手術部位の前記場所を決定することを含む、請求項35に記載の方法。
  63. 前記受信された画像データに基づいて、前記身体内の前記手術部位の位置を決定することをさらに含む、請求項35に記載の方法。
  64. 前記身体が、マネキンの少なくとも一部である、請求項35に記載の方法。
  65. 前記身体が、患者の少なくとも一部である、請求項35に記載の方法。
  66. 命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令が、コンピュータによって実行されると、前記コンピュータに、
    前記身体内の手術部位の場所に関する情報を得ることと、
    画像捕捉装置から、動作環境の画像に基づいて生成された画像データを受信することと、
    前記身体内の前記手術部位の前記場所と前記画像データとに基づいて、外科用ポートを前記身体上に配置するためのガイダンスを生成することと、
    前記生成されたグラフィックによるガイダンスを、表示装置上に表示させることと、を行わせる、非一時的コンピュータ可読記憶媒体。
  67. 前記命令が、前記コンピュータによって実行されると、前記コンピュータに、
    前記画像捕捉装置から受信された前記画像データに基づいて、前記外科用ポートが前記身体上に配置されたことを検出することと、
    前記外科用ポートを通して、内視鏡を前記身体内に挿入するためのグラフィックによるガイダンスを生成することと、
    前記内視鏡が前記外科用ポートを通して挿入されたことを検出することと、をさらに行わせる、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  68. 前記外科用ポートが前記身体上に配置されたことを検出することが、前記画像捕捉装置から受信された追加の画像データを分析して、前記外科用ポートが前記身体上に配置されたことを検出することを含む、請求項67に記載の非一時的コンピュータ可読記憶媒体。
  69. 前記内視鏡が前記外科用ポートを通して挿入されたことを検出することが、前記画像捕捉装置から受信された追加の画像データを分析して、前記内視鏡が前記外科用ポートを通して挿入されたことを検出することを含む、請求項67に記載の非一時的コンピュータ可読記憶媒体。
  70. 前記外科用ポートが、第1の外科用ポートであり、前記命令が、前記コンピュータによって実行されると、さらに前記コンピュータに、
    前記身体内の前記手術部位の前記場所、および前記第1の外科用ポートが前記身体上に配置された検出された場所に基づいて、第2の外科用ポートを前記身体上に配置するためのグラフィックによるガイダンスを生成させ、
    前記生成されたグラフィックによるガイダンスを、前記表示装置上に表示させる、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  71. 前記生成されたグラフィックによるガイダンスが、前記身体上に表示された仮想外科用ポートを含み、前記命令が、前記コンピュータによって実行されると、前記コンピュータに、
    前記画像捕捉装置から受信された追加の画像データを分析して、ユーザの手の動きを検出することと、
    前記検出された前記ユーザの手の動きに基づいて、前記ユーザが前記身体上の前記仮想外科用ポートの姿勢を調整していることを判定することと、
    前記身体上の前記仮想外科用ポートの前記姿勢の前記判定された調整に基づいて、前記グラフィックによるガイダンスを更新することと、をさらに行わせる、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  72. 前記命令が、前記コンピュータによって実行されると、前記身体上の前記仮想外科用ポートの前記姿勢の前記判定された調整が、所定の距離または前記グラフィックによるガイダンスによって推奨される前記姿勢からの配向の変化を上回るとき、さらに前記コンピュータに警告を提供させる、請求項71に記載の非一時的コンピュータ可読記憶媒体。
  73. 前記ユーザの手の動きを検出することが、前記ユーザの手によって行われたジェスチャを検出することを含む、請求項71に記載の非一時的コンピュータ可読記憶媒体。
  74. 前記ユーザが前記身体上の前記仮想外科用ポートの前記姿勢を調整していると判定することが、前記ユーザの手によって行われる前記検出されたジェスチャにさらに基づく、請求項73に記載の非一時的コンピュータ可読記憶媒体。
  75. 前記画像捕捉装置が、前記表示装置に結合される、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  76. 前記グラフィックによるガイダンスが、前記表示装置を介して表示されるテキストによる命令を含む、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  77. 前記グラフィックによるガイダンスが、前記外科用ポートの推奨された姿勢の拡張現実画像を含む、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  78. 前記外科用ポートの前記推奨された姿勢が、推奨された外科用ポート配置の所定のモデルに基づいて決定される、請求項77に記載の非一時的コンピュータ可読記憶媒体。
  79. 前記外科用ポートの前記推奨された姿勢が、所定の治療計画に基づいて決定される、請求項77に記載の非一時的コンピュータ可読記憶媒体。
  80. 前記外科用ポートの前記推奨された姿勢が、前記身体のスキャンに基づいて決定される、請求項77に記載の非一時的コンピュータ可読記憶媒体。
  81. 前記グラフィックによるガイダンスが、前記身体内の前記手術部位の位置の拡張現実画像を含む、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  82. 前記命令が、前記コンピュータによって実行されると、さらに前記コンピュータに、前記表示装置に、前記身体内の前記手術部位の前記位置の前記拡張現実画像を、前記身体上に重ね合わせるように表示させる、請求項81に記載の非一時的コンピュータ可読記憶媒体。
  83. 前記手術部位の前記拡張現実画像が、前記身体内の少なくとも1つの器官の位置を含む、請求項82に記載の非一時的コンピュータ可読記憶媒体。
  84. 前記身体内の前記少なくとも1つの器官の前記位置が、器官の位置の所定のモデルに基づく、請求項83に記載の非一時的コンピュータ可読記憶媒体。
  85. 前記命令が、前記コンピュータによって実行されると、さらに前記コンピュータに、前記身体内の前記手術部位の決定された位置に基づいて、前記外科用ロボットを配置するためのグラフィックによるガイダンスを生成させる、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  86. 前記命令が、前記コンピュータによって実行されると、前記コンピュータに、
    前記身体上の前記外科用ポートの前記配置に基づいて、前記外科用ロボットの動作範囲を決定することと、
    前記外科用ロボットの前記動作範囲の指標を表示することと、をさらに行わせる、請求項85に記載の非一時的コンピュータ可読記憶媒体。
  87. 前記外科用ロボットの前記動作範囲は、前記外科用ロボットの特性に基づいて決定される、請求項86に記載の非一時的コンピュータ可読記憶媒体。
  88. 前記外科用ロボットの前記特性が、
    前記外科用ロボットの構成と、
    前記身体に対する前記外科用ロボットの姿勢と、
    前記外科用ロボットに結合されたツールのタイプと、のうちの1つ以上を含む、請求項87に記載の非一時的コンピュータ可読記憶媒体。
  89. 前記画像捕捉装置が、複数の画像捕捉装置であり、さらに前記命令が、前記コンピュータによって実行されると、前記コンピュータに、前記複数の画像捕捉装置から受信された画像データに基づいて、前記動作環境の3次元シーンを生成させる、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  90. 前記複数の画像捕捉装置が、前記動作環境の周囲に位置付けられる、請求項89に記載の非一時的コンピュータ可読記憶媒体。
  91. 前記身体内の前記手術部位の場所に関する情報を得ることが、ユーザからの入力を介して前記手術部位の選択を受信することを含む、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  92. 前記身体内の前記手術部位の場所に関する情報を得ることが、前記身体のスキャン中に取得された画像データに基づいて、前記手術部位の前記場所を決定することを含む、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  93. 前記身体内の前記手術部位の場所に関する情報を得ることが、所定の治療計画に基づいて、前記手術部位の前記場所を決定することを含む、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  94. 前記命令が、前記コンピュータによって実行されると、さらに前記コンピュータに、前記受信された画像データに基づいて、前記身体内の前記手術部位の位置を決定させる、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  95. 前記身体が、マネキンの少なくとも一部である、請求項66に記載の非一時的コンピュータ可読記憶媒体。
  96. 前記身体が、患者の少なくとも一部である、請求項66記載の非一時的コンピュータ可読記憶媒体。
JP2020538103A 2018-01-10 2019-01-09 外科用ポートの配置のためのガイダンス Pending JP2021510110A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862615481P 2018-01-10 2018-01-10
US62/615,481 2018-01-10
PCT/US2019/012815 WO2019139931A1 (en) 2018-01-10 2019-01-09 Guidance for placement of surgical ports

Publications (2)

Publication Number Publication Date
JP2021510110A true JP2021510110A (ja) 2021-04-15
JPWO2019139931A5 JPWO2019139931A5 (ja) 2022-01-18

Family

ID=67218701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020538103A Pending JP2021510110A (ja) 2018-01-10 2019-01-09 外科用ポートの配置のためのガイダンス

Country Status (5)

Country Link
US (2) US11806085B2 (ja)
EP (1) EP3737322A4 (ja)
JP (1) JP2021510110A (ja)
CN (1) CN111655184B (ja)
WO (1) WO2019139931A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019245852A1 (en) 2018-06-19 2019-12-26 Tornier, Inc. Virtual checklists for orthopedic surgery
US20200015924A1 (en) 2018-07-16 2020-01-16 Ethicon Llc Robotic light projection tools
WO2020220208A1 (en) * 2019-04-29 2020-11-05 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for object positioning and image-guided surgery
WO2021034679A1 (en) * 2019-08-16 2021-02-25 Intuitive Surgical Operations, Inc. Systems and methods for performance of external body wall data and internal depth data-based performance of operations associated with a computer-assisted surgical system
WO2021133483A1 (en) * 2019-12-23 2021-07-01 Covidien Lp System for guiding surgical procedures
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems
US12053223B2 (en) 2019-12-30 2024-08-06 Cilag Gmbh International Adaptive surgical system control according to surgical smoke particulate characteristics
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
EP3866111A1 (en) * 2020-02-17 2021-08-18 Koninklijke Philips N.V. Latency compensation for image processing devices
JP7469120B2 (ja) * 2020-04-09 2024-04-16 株式会社メディカロイド ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
US11769302B2 (en) * 2020-06-05 2023-09-26 Verb Surgical Inc. Remote surgical mentoring
WO2022011538A1 (en) * 2020-07-14 2022-01-20 Covidien Lp Systems and methods for positioning access ports
NL2027671B1 (en) * 2021-02-26 2022-09-26 Eindhoven Medical Robotics B V Augmented reality system to simulate an operation on a patient
CA3212211A1 (en) * 2021-03-31 2022-10-06 David Paul Noonan Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
US12042241B2 (en) 2021-03-31 2024-07-23 Moon Surgical Sas Co-manipulation surgical system having automated preset robot arm configurations
US11948226B2 (en) 2021-05-28 2024-04-02 Covidien Lp Systems and methods for clinical workspace simulation
US11986248B2 (en) * 2021-07-29 2024-05-21 Hutom Co., Ltd. Apparatus and method for matching the real surgical image with the 3D-based virtual simulated surgical image based on POI definition and phase recognition
WO2024006729A1 (en) * 2022-06-27 2024-01-04 Covidien Lp Assisted port placement for minimally invasive or robotic assisted surgery
US11986165B1 (en) 2023-01-09 2024-05-21 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force
WO2024157113A1 (en) * 2023-01-25 2024-08-02 Covidien Lp Surgical robotic system and method for assisted access port placement

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030109780A1 (en) * 2001-06-07 2003-06-12 Inria Roquencourt Methods and apparatus for surgical planning
US20140148816A1 (en) * 2012-11-26 2014-05-29 Michael W. McDONALD Surgery port placement system and related methods
JP2014117499A (ja) * 2012-12-18 2014-06-30 Fujifilm Corp トロカーポート位置決定支援装置、プログラムおよび方法
JP2014525765A (ja) * 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ 内視鏡手術におけるガイド下注入のためのシステム及び方法
JP2015504689A (ja) * 2011-12-03 2015-02-16 コーニンクレッカ フィリップス エヌ ヴェ 外科手術用ポートの位置決め
US20150366628A1 (en) * 2014-06-18 2015-12-24 Covidien Lp Augmented surgical reality environment system
WO2016133644A1 (en) * 2015-02-20 2016-08-25 Covidien Lp Operating room and surgical site awareness
WO2017151904A1 (en) * 2016-03-04 2017-09-08 Covidien Lp Methods and systems for anatomical image registration

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3027710A (en) 1960-10-10 1962-04-03 Stephen P Maytner Methods and apparatus for suppressing jet noise
US7567833B2 (en) 2004-03-08 2009-07-28 Stryker Leibinger Gmbh & Co. Kg Enhanced illumination device and method
US8027710B1 (en) * 2005-01-28 2011-09-27 Patrick Dannan Imaging system for endoscopic surgery
EP2493387A4 (en) * 2009-10-30 2017-07-19 The Johns Hopkins University Visual tracking and annotation of clinically important anatomical landmarks for surgical interventions
US8900131B2 (en) * 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US20130250081A1 (en) * 2012-03-21 2013-09-26 Covidien Lp System and method for determining camera angles by using virtual planes derived from actual images
US10433911B2 (en) * 2013-09-18 2019-10-08 iMIRGE Medical INC. Optical targeting and visualization of trajectories
US10307079B2 (en) * 2014-01-27 2019-06-04 Edda Technology, Inc. Method and system for surgical instrument guidance and tracking with position and orientation correction
AU2015320707B2 (en) * 2014-09-24 2020-07-02 Depuy Ireland Unlimited Company Surgical planning and method
CN104758066B (zh) * 2015-05-06 2017-05-10 中国科学院深圳先进技术研究院 用于手术导航的设备及手术机器人
US10716525B2 (en) * 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
DE102015226669B4 (de) * 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
CN112370159A (zh) * 2016-02-26 2021-02-19 思想外科有限公司 用于指导用户定位机器人的系统
AU2017257887B2 (en) * 2016-04-27 2019-12-19 Biomet Manufacturing, Llc. Surgical system having assisted navigation
CN206548612U (zh) * 2016-09-28 2017-10-13 李健 一种医用智能手术显微系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030109780A1 (en) * 2001-06-07 2003-06-12 Inria Roquencourt Methods and apparatus for surgical planning
JP2014525765A (ja) * 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ 内視鏡手術におけるガイド下注入のためのシステム及び方法
JP2015504689A (ja) * 2011-12-03 2015-02-16 コーニンクレッカ フィリップス エヌ ヴェ 外科手術用ポートの位置決め
US20140148816A1 (en) * 2012-11-26 2014-05-29 Michael W. McDONALD Surgery port placement system and related methods
JP2014117499A (ja) * 2012-12-18 2014-06-30 Fujifilm Corp トロカーポート位置決定支援装置、プログラムおよび方法
US20150366628A1 (en) * 2014-06-18 2015-12-24 Covidien Lp Augmented surgical reality environment system
WO2016133644A1 (en) * 2015-02-20 2016-08-25 Covidien Lp Operating room and surgical site awareness
JP2018511359A (ja) * 2015-02-20 2018-04-26 コヴィディエン リミテッド パートナーシップ 手術室及び手術部位認識
WO2017151904A1 (en) * 2016-03-04 2017-09-08 Covidien Lp Methods and systems for anatomical image registration

Also Published As

Publication number Publication date
US20240033014A1 (en) 2024-02-01
WO2019139931A1 (en) 2019-07-18
EP3737322A4 (en) 2021-09-01
CN111655184B (zh) 2024-01-02
EP3737322A1 (en) 2020-11-18
US11806085B2 (en) 2023-11-07
CN111655184A (zh) 2020-09-11
US20200330166A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
CN111655184B (zh) 用于放置手术端口的引导
US11925423B2 (en) Guidance for positioning a patient and surgical robot
US11580882B2 (en) Virtual reality training, simulation, and collaboration in a robotic surgical system
US20210022812A1 (en) Surgical Navigation Inside A Body
US20240207001A1 (en) Emulation of robotic arms and control thereof in a virtual reality environment
US20200261159A1 (en) Virtual reality laparoscopic tools
US20210205027A1 (en) Context-awareness systems and methods for a computer-assisted surgical system
KR20160102464A (ko) 의료 절차 훈련을 위한 시뮬레이터 시스템
US20230093342A1 (en) Method and system for facilitating remote presentation or interaction
AU2020316076B2 (en) Positioning a camera for perspective sharing of a surgical site
US11969218B2 (en) Augmented reality surgery set-up for robotic surgical procedures
US20240268892A1 (en) Virtual Reality Surgical Systems And Methods Including Virtual Navigation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230901