JP7323672B2 - 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム - Google Patents

脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム Download PDF

Info

Publication number
JP7323672B2
JP7323672B2 JP2022067700A JP2022067700A JP7323672B2 JP 7323672 B2 JP7323672 B2 JP 7323672B2 JP 2022067700 A JP2022067700 A JP 2022067700A JP 2022067700 A JP2022067700 A JP 2022067700A JP 7323672 B2 JP7323672 B2 JP 7323672B2
Authority
JP
Japan
Prior art keywords
camera
representation
location
user
fiducials
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022067700A
Other languages
English (en)
Other versions
JP2022165410A (ja
Inventor
レジェール ダグラス
ジョンソン ノーバート
シュミエタ ゲルド
キャロウェイ トーマス
ウイスニウスキー ダナ
アール デール
フィッシャー ライアン
Original Assignee
グローバス メディカル インコーポレイティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グローバス メディカル インコーポレイティッド filed Critical グローバス メディカル インコーポレイティッド
Publication of JP2022165410A publication Critical patent/JP2022165410A/ja
Application granted granted Critical
Publication of JP7323672B2 publication Critical patent/JP7323672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Description

(関連出願)
本出願は、2021年4月19日に出願された米国仮特許出願第63/176,424号の利益を主張し、その開示は参照によりその全体が本明細書に組み込まれる。
(発明の分野)
本開示は、手術中の機器及び動作のコンピュータ支援ナビゲーションに関する。
外科手術室は、多様な範囲の医療機器を包含することができ、これには、コンピュータ支援外科用ナビゲーションシステム、医療用撮像デバイス(例えば、コンピュータ断層撮影(computerized tomography、CT)スキャナ、蛍光透視撮像など)、外科用ロボットなどが含まれ得る。
コンピュータ支援外科用ナビゲーションシステムは、患者の解剖学的構造の医療画像に対する外科用ツールの現在の姿勢のコンピュータ化された視覚化を外科医に提供することができる。コンピュータ支援外科用ナビゲーション用のカメラ追跡システムは、通常、患者に取り付けられた患者基準アレイ(「動的基準ベース」(dynamic reference base、DRB))に対して、外科手術中に外科医によって位置付けされている、外科用ツール上の基準アレイの姿勢を追跡するためにカメラのセットを使用する。基準アレイは、カメラ追跡システムが、患者の医療画像によって撮像された解剖学的構造に対して、かつ患者に対して外科用ツールの姿勢を判定することを許容する。それにより、外科医は、患者の外科的処置中に外科用ツールをナビゲートするために、姿勢のリアルタイムの視覚的フィードバックを使用することができる。
コンピュータ支援外科用ナビゲーションシステムを使用する多くの外科ワークフローは、外科的処置中にCTスキャン又は磁気共鳴撮像スキャンなどの画像スキャンを必要とする。垂直走査スライス(軸方向、矢状、及び冠状)を使用して、オペレータが外科用器具の相対的な姿勢に沿って患者の解剖学的構造を視覚化することを可能にすることができる。外科ワークフローは、外科手術環境の時間制約及び他の圧力の下で、外科医及び他の外科チームメンバにとって困難であり得る。外科手術チームの仕事量を低減し、かつプロセス及びベストプラクティスを確実にするための改善された外科ワークフロー及びコンピュータ実装動作に従う。
本開示のいくつかの実施形態は、外科手術中のコンピュータ支援ナビゲーションのための外科用システムを対象にしている。外科用システムは、患者の標的解剖学的構造の三次元(three-dimensional、3D)放射線表現及び位置合わせ固定物の基準物のセットを取得するように動作可能な少なくとも1つのプロセッサを含む。動作により、3D放射線表現内の基準物のセットの場所を、カメラ追跡システムによって追跡される3D撮像空間に位置合わせすることが試みられる。セットの基準物のうちの1つが3D撮像空間に正常に位置合わせされなかった場所を有すると判定することに基づいて、動作により、基準物が3D撮像空間に正常に位置合わせされていないことを示すグラフィックオーバーレイとともに3D放射線表現の少なくとも1つのビューが表示され、基準物が3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信し、ユーザ供給場所情報に基づいて基準物の場所が3D撮像空間に位置合わせされる。
いくつかの更なる実施形態では、3D放射線表現内の基準物のセットの位置をカメラ追跡システムによって追跡される3D撮像空間に位置合わせすることを試みることは、カメラ追跡システムの少なくとも1つのカメラから、患者に固定された基準アレイの光学画像を取得することを含む。基準アレイは、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカのセットを含む。動作により、光学マーカのセットのパターンの場所を3D放射線表現内の基準物のセットのパターンの場所に位置合わせすることが試みられ、位置合わせ固定物の基準物のうちのいずれにも正常に位置合わせされていない基準アレイの光学マーカのうちのいずれかが識別される。
いくつかの更なる実施形態では、動作は、標的解剖学的構造の3D放射線表現のビュー上にオーバーレイとして仮想インプラントデバイスを表示することを含む。動作により、標的解剖学的構造内への仮想インプラントデバイスの埋め込み軌道を表す仮想インプラントデバイスの軌道のグラフィック表示が表示される。動作により、3D放射線表現のビューに表示された仮想インプラントデバイスの軌道のグラフィック表示の姿勢が更新され、外科用システムのユーザインターフェースを通じて受信したステアリング入力が追跡される。動作により、仮想インプラントデバイスの計画された軌道として、軌道のグラフィック表示の姿勢のうちユーザが指定した1つを記憶する。
いくつかの更なる実施形態では、患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの3D放射線表現を取得する前に、動作は、カメラ追跡システムの少なくとも1つのカメラから、患者に固定された基準アレイの光学画像及び放射線撮像デバイスに取り付けられた位置合わせ固定物の光学画像を取得することを含む。基準アレイは、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカの第1のセットを含み、位置合わせ固定物は、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカの第2のセットを含む。動作により、患者の標的解剖学的構造の蛍光透視画像及び位置合わせ固定物の基準物のセットが取得される。動作により、第1のセットにおける定義された数の光学マーカが、3D撮像空間においてカメラ追跡システムのうちの少なくとも1つのカメラによって検出されたことに基づいて第1の条件が満たされているかどうかが判定される。動作により、第2のセットにおける定義された数の光学マーカが、3D撮像空間においてカメラ追跡システムのうちの少なくとも1つのカメラによって検出されたことに基づいて第2の条件が満たされているかどうかが判定される。動作により、位置合わせ固定物の定義された数の基準物のセットが蛍光透視画像において見えることに基づいて第3の条件が満たされているかどうかが判定される。第1の条件、第2の条件、及び第3の条件のうちの1つが満たされない場合、動作により、第1の条件、第2の条件、及び第3の条件のうちの1つが満たされないという表示が表示され、患者の標的解剖学的構造の3D放射線表現と位置合わせ固定物の基準物のセットとの放射線撮像プロセスによる捕捉が妨げられる。対照的に、第1の条件、第2の条件、及び第3の条件の各々が満たされる場合、動作により、患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの3D放射線表現の放射線撮像プロセスによる捕捉が可能になる。
本発明の主題の実施形態による更に他の外科用システム、方法、及びコンピュータプログラム製品は、以下の図面及び詳細な説明を検討すると、当業者には明らかであるか、又は明らかになるであろう。すべてのそのような外科システム、方法、及びコンピュータプログラム製品が、本明細書内に含まれ、本発明の主題の範囲内にあり、添付の特許請求の範囲によって保護されることが意図される。更に、本明細書に開示されるすべての実施形態は、別々に実装され得るか、又は任意の方法及び/又は組み合わせで組み合わされ得ることが意図される。
本開示の更なる理解を提供するために含まれ、かつ本出願に組み込まれる添付の図面は、本発明の概念の特定の非限定的な実施形態を例示する。
いくつかの実施形態による、ExcelsiusHub構成要素を示す。 いくつかの実施形態による、処置セットアップ中の構成タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、処置セットアップ中のワークフロータブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、処置セットアップ中の検証タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、検証ディボットを使用した器具検証を示す。 いくつかの実施形態による、器具検証中の例示的なユーザインターフェースを示す。 いくつかの実施形態による、動的基準ベース(DRB)を患者取り付け器具に固定するためのプロセスを示す。 いくつかの実施形態による、クランプドライバを使用してDRBノブを締め付けるためのプロセスを示す。 いくつかの実施形態による、DRB及び監視マーカの配置を示す。 いくつかの実施形態による、除去ツールでクアットロスパイクを除去するためのプロセスを示す。 いくつかの実施形態による、位置合わせ固定物上に旋回アームのスターバーストを固定するためのプロセスを示す。 いくつかの実施形態による、位置合わせ固定物を患者取り付け器具支柱に固定するためのプロセスを示す。 いくつかの実施形態による、完全な術中CT位置合わせアセンブリ及び解放ボタンを示す。 いくつかの実施形態による、術中CT撮像ワークフロー中の画像タブの例示的なユーザインターフェースを示す。 いくつかの実施形態によれば、術中CT撮像ワークフロー中の手動位置合わせ画面の例示的なユーザインターフェースを示す。 いくつかの実施形態による、術中CT撮像ワークフロー中の計画タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、術中CT撮像ワークフロー中のナビゲートタブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、術前CT撮像ワークフロー中の画像タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、術前CT撮像ワークフロー中の計画タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、術前CT撮像ワークフロー中のナビゲートタブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、画像増倍器に取り付けられた蛍光透視位置合わせ固定物を示す。 いくつかの実施形態による、術前CT撮像ワークフロー中の画像取得の例示的なユーザインターフェースを示す。 いくつかの実施形態による、術前CT撮像ワークフロー中のレベル選択後の例示的なユーザインターフェースを示す。 いくつかの実施形態による、術前CT撮像ワークフロー中の正常な位置合わせ後の例示的なユーザインターフェースを示す。 いくつかの実施形態による、術前CT撮像ワークフロー中のリアルタイムの器具/インプラント軌道及びナビゲートされた器具の例示的なユーザインターフェースを示す。 いくつかの実施形態による、蛍光透視撮像ワークフロー中の画像タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、蛍光透視撮像ワークフロー中の画像取得の例示的なユーザインターフェースを示す。 いくつかの自紙形態による、蛍光透視撮像ワークフロー中の計画タブの例示的なユーザインターフェースを示す。 いくつかの実施形態による、蛍光透視撮像ワークフロー中のナビゲートタブの例示的なユーザインターフェースを示す。 ナビゲートされた外科手術のためのカメラ追跡システム及びロボット支援のための外科用ロボットシステムを含み、いくつかの実施形態に従って構成されている手術室内での外科的処置の間、任意選択で拡張現実(extended reality、XR)ヘッドセットを着用している人員の俯瞰図である。 カメラ追跡システム及びナビゲーションシステムを含み、任意選択で、各々がいくつかの実施形態に従って動作可能である外科用ロボット及びXRヘッドセットを更に含む外科用システムのブロック図を示す。 いくつかの実施形態による、外科用システムによって実行され得る動作を示す。 いくつかの実施形態による、外科用システムによって実行され得る動作を示す。 いくつかの実施形態による、外科用システムによって実行され得る動作を示す。
以下の考察は、当業者が本開示の実施形態を作製及び使用することを可能にするために提示されるものである。図示された実施形態に対する様々な修正は、当業者には、非常に明らかであり、本明細書の原理は、本開示の実施形態から逸脱することなく、他の実施形態及び用途に適用され得る。したがって、実施形態は、示される実施形態に限定されることを意図するものではなく、本明細書に開示される原理及び特徴と一致する最も広い範囲を与えられるべきである。以下の詳細な説明は、図面を参照して読まれるべきであり、異なる図の同様の要素は、同様の参照番号を有する。図は必ずしも縮尺通りではなく、選択された実施形態を示し、実施形態の範囲を限定することを意図するものではない。当業者は、本明細書で提供される実施例が、多くの有用な代替物を有し、実施形態の範囲内にあることを認識するであろう。
システムの概要
Globus Medical、Inc.(以下、「Globus Medical」又は「Globus」)によるExcelsiusHubは、放射線患者画像を使用してリアルタイムの外科的ナビゲーション及び視覚化を可能にし、インプラント計画に基づいて、適合する外科用器具を正確な場所及び軌道に誘導するか、又はフリーハンドのナビゲーションを支援するための視覚化を提供する。ソフトウェアは、外科手術前又は手術中に取得された患者固有のCT画像、又は外科手術中に取得された透視画像を再フォーマットし、好ましい視点に基づいて画面上にそれらを表示する。動作前に、外科医は、CT画像に捕捉された患者の解剖学的構造に対して器具及び他の軌道を作成、記憶、アクセス、及びシミュレートすることができる。手術中、システムは、使用中の器具を認識し、インプラントを一貫した精度で配置するためのフリーハンドのナビゲーションによってユーザを補助する。ExcelsiusHubは、患者の解剖学的構造内又はその上の外科用器具の位置を追跡し、これらの画像上の器具の位置を連続的に更新する。外科手術は、様々なGlobus Medicalの特殊外科用器具を使用して、外科医によって実行される。
様々な実施形態は、Excelsiusシステム製品及び他のGlobus Medical製品に対する操作拡張の文脈で説明されているが、これら及び他の実施形態はそれに限定されず、任意の外科的処置ナビゲーションシステムとともに使用することができる。
デバイスの説明
ExcelsiusHubは、放射線患者画像(例えば、術前CT、術中CT及び/又は蛍光透視法)、患者動的基準ベース、及び高度なカメラ追跡システムを使用して、リアルタイムの外科的視覚化を可能にする外科的処置ナビゲーションシステムである。システムは、仮想患者(患者画像上の点)と物理的患者(患者の解剖学的構造上の対応する点)との間の位置合わせに基づいてマッピングされる。この位置合わせが作成されると、ソフトウェアは、患者画像上の追跡された器具の相対位置を表示する。この視覚化は、インプラントの配置及び他の外科的処置のための外科医の計画及びアプローチを誘導するのに役立ち得る。位置合わせと結合された患者のスキャンは、フリーハンドのナビゲーションのために独立してシステムを使用するときに外科医にガイダンス支援を提供し、又はExcelsiusGPSロボットシステムとともに使用されるときに、ロボットガイダンスを提供し、エンドエフェクタを整列させることができる。手術中は、カメラ追跡システムを使用して、ロボットアーム上のエンドエフェクタを含む、適合する器具の位置を患者の解剖学的構造内又はその上で追跡し、光学追跡を利用して患者画像上の器具位置を連続的に更新する。システムソフトウェアは、ナビゲーション機能、データ記憶、ネットワーク接続、ユーザ管理、症例管理、及び安全機能を担うことができる。ExcelsiusHub外科用器具は、典型的には、手動で操作することができる非滅菌の再利用可能な器具である。
ExcelsiusHubフリーハンド器具は、位置合わせ器具、患者基準器具、及びインプラント特有の外科用器具を含む。システムはまた、能動的に追跡されたエンドエフェクタを含む、ExcelsiusGPSロボットシステムとともに使用することができる。位置合わせ器具は、患者の解剖学的構造及び外科用器具及びインプラントを追跡するために使用される反射マーカのアレイを組み込んでいる。構成要素は、検証プローブ、監視マーカ、外科用器具アレイ、術中CT位置合わせ固定物、蛍光透視位置合わせ固定物、及び動的基準ベース(DRB)を含む。患者基準器具は、安全であると見なされ、DRBの剛性固定点を提供する任意の適切な剛性解剖学的構造にクランプ又は駆動される。外科的器具は、インプラント部位を準備するか、又はデバイスをインプラントするために使用され、突き錐、ドリル、ドライバ、タップ、及びプローブを含む。
使用のための表示
ExcelsiusHubは、開放又は経皮的処置で解剖学的構造を正確に位置させるため、かつ外科手術中に適合する外科用器具又はインプラントを正確に位置付けするための補助として使用することができる。ExcelsiusHubは、定位手術の使用が適切であり得、脊椎や骨盤などの硬い解剖学的構造への参照が、CT、X線、及び/又はMRIベースの解剖学モデルに対して識別できる、任意の病状に適応される。ExcelsiusHubは、術前CT、術中CT、及び/又は術中蛍光透視処置を支持する。
更なるシステムの概要
ExcelsiusHub可視化システムは、既に認可されている後方固定及び椎体間インプラントの配置のためのスタンドアロンナビゲーション及びガイダンスを提供する。ExcelsiusHubは、ExcelsiusGPSロボットシステムで動作して、カメラ及び追跡システム機能を提供することができる。ExcelsiusHubはまた、術中モバイルCTシステムのユニバーサルビューイングステーション及び位置合わせ動作を提供することができる。Excelsiusを有効にする技術は、ExcelsiusHubを通してサポート及び通信が可能であり、手術室に所望の一体構成要素を提供することができる。
ハードウェア
図1に示すように、いくつかの実施形態によると、カメラ追跡システム200は、カメラアームアセンブリ100、ディスプレイアセンブリ120、及びハウジングベースアセンブリ130の3つのサブアセンブリに分割することができる。カメラアームアセンブリ100は、離間したステレオカメラ102及び関節運動アーム104を含む。ハウジングベースアセンブリ130は、少なくとも1つのプロセッサ及びメモリを有する処理プラットフォームと、入力及び/又は出力ユーザインターフェースと、他のシステム構成要素と有線(例えば、コネクタパネル107)及び/又は無線接続を通して通信するように構成されている通信回路と、を含む。処理プラットフォームとともに動作するカメラ102は、器具、患者(例えば、動的基準ベース(DRB))、手術ロボットなど上でのマーカ、例えば、反射マーカの姿勢を検出するように構成されている。
器具
ナビゲートされた器具
ExcelsiusHubは、前から存在するすべてのGlobusにナビゲートされ、配列された器具類と連動する。これには、Globusスクリュー及び拡張器を配置するためのドリル、突き錐、プローブ、タップ、及びドライバ、Globus椎体間をナビゲートして配置するための椎間板準備器具(キュレット、Cobbエレベータ、やすり、スクレーパなど)、トライアル、挿入器が含まれる。各器具は、カメラによって認識される固有のアレイパターンによって識別される。
患者の取り付け及び位置合わせ器具
ExcelsiusHubは、既存の患者固定器具及び現在のDRBとともに使用され得る。
位置合わせ固定物
ExcelsiusHubは、既存の術中位置合わせ固定物及び蛍光透視位置合わせとともに使用され得る。
システムソフトウェア
ExcelsiusHubで動作するソフトウェアは、ExcelsiusGPSロボットシステムで利用可能な既存の脊椎ソフトウェアを含み得る。システムソフトウェアは、すべてのナビゲーション機能、データ記憶、ネットワーク接続、ユーザ管理、症例管理、及び安全機能を担うことができる。
用途
脊椎の外科的処置は、ExcelsiusHubシステムによって支持される。構成タブは、処置タイプを表示する。どちらのハードウェアでもソフトウェアが同じであるため、脊椎の処置ステップは、ExcelsiusGPSロボットシステムで見たものと同じである。
脊椎の処置
ExcelsiusHubシステムによってサポートされる様々な脊椎の外科的処置脊椎の外科的処置を以下の表に列挙する。
Figure 0007323672000001

ExcelsiusHubシステムと互換性があるGlobus脊椎インプラントシステムには、以下の表に列挙されているものが含まれる。
Figure 0007323672000002

処置のセットアップ
構成タブ
症例を選択した後、モニタに構成タブを表示する。いくつかの実施形態による、例示的なユーザインターフェースを図2に示す。構成タブを使用して、登録された外科医、撮像モダリティ、及び処置タイプのリスト中から外科医を選択する。撮像モダリティは、術中CT、蛍光透視法、及び術前CTを含み得る。右矢印をクリックして、次のタブに進む。
ワークフロータブ
ワークフロータブを使用して、所望の操作順序(例えば、最初に椎体間)で処置(例えば、椎体間、又はスクリュー)の所望のステージを選択する。各ステージについて、撮像モダリティ、椎体間インプラントシステム、及び、頸部、胸部、腰部、及び仙腸関節部を含み得る解剖学的モデル上の所望の椎体間レベルを選択する。「ステージを追加する」ボタンをクリックすることにより、ステージをワークフローに追加する。「器具を検証する」をクリックして、次のタブへ進む。いくつかの実施形態による、例示的なユーザインターフェースを図3に示す。
検証タブ
検証タブは、ワークフロータブで選択された器具の可視性、場所、検証ステータスを含むナビゲーション詳細を表示する。検証は、1つ以上の器具が、例えば、取り扱い中に破損する可能性があるかどうかを示すために使用される。アレイを有するすべての器具は、使用前に、必要に応じて、検証アダプタ、器具、インプラント、拡張器のいずれかを用いて検証すべきである。
いくつかの実施形態による、例示的なユーザインターフェースを図4に示す。検証タブは、識別された器具のセットをリストアップしたカメラビュー及び器具ステータスを示す。
カメラビューは、例えば、器具の場所を示す色の円を表示するなど、カメラの視点からリアルタイムで動作可能に更新され得る。対応する器具がカメラ102に見えていることを示すために、中実の着色された円を表示することができ、中空の円は、カメラ102に見えていないことを示す。着色された円のサイズは、物理カメラ102からの距離を示すためにサイズを変更するように動的に更新され得る。一実施形態では、円のサイズは、器具がカメラ102に近づくと大きくなり、器具がカメラ102から遠ざかると小さくなるように適合されている。いくつかの実施形態に従って、カメラ102から理想的な距離は、約2メートル又は6フィートであり得る。
器具ステータスは、各器具及びその検証ステータスをリストアップし、対応する色の円は各器具を識別する。いくつかの実施形態による、検証ステータス記号を図4に示す。
器具の検証
図5を参照すると、いくつかの実施形態によると、器具の先端を、別の機器、例えば、位置合わせされた器具のアレイ上又は外科用ロボットシステムの位置合わせされたロボットアート上の既知の場所に提供された検証ドット内に配置することによって、又は検証されるべき検証アダプタを器具上の既知の場所に提供された検証ディボット内に配置することによって、各器具を検証することができる。ディボットは、器具の検証に使用するためのナビゲートされた器具のアレイ上の定義された場所において形成することができる。ExcelsiusGPSロボットシステムを使用する場合、ディボットはまた、エンドエフェクタの上面又はカメラ102によって追跡され得る他の既知の場所に位置させることができる。次に、両方の器具がカメラ102に見え、安定して保持されていることを確実にする。次に、ポップアップ画面が、検証進捗の動作を示すために、検証タブ上に表示される。
図6に示すように、いくつかの実施形態により、検証が完了すると、検証ステータスが画面に示され、先端エラーがmm単位で表示される。検証が失敗した場合、対応する表示600が表示され、例えば、赤い十字の円が表示され、検証が正常に完了するまで検証操作を繰り返すことができる。対照的に、正常に行われた検証は、別の表示された表示601、例えば、緑色の円によって示される。すべての器具が正常に検証されると、ユーザは右矢印をクリックして次のタブに進むことができる。
患者取り付け器具
患者取り付け器具は、手術部位に隣接する硬性の骨解剖学的構造に固定される。ユーザは、所望の器具を選択する。患者取り付け器具は、いくつかの実施形態によると、精度を維持するために、手術部位の中心から185mm以下に配置されるべきである。骨クランプは、棘突起、腸骨稜、長骨、又は安全にクランプされ得る任意の硬性の骨構造などの解剖学的構造上にクランプされる。クアットロスパイクは、腸骨稜又は長骨に挿入される。ロッド取り付け具は、既存の脊椎ロッド、例えば、直径4.5mm~6.35mmに固定される。様々な患者取り付け器具の例示的な推奨される解剖学的場所は、いくつかの実施形態によると、以下の表に記載されている。
Figure 0007323672000003

動的基準ベースの挿入
ユーザは、図7に示すように、いくつかの実施形態によれば、患者取り付け器具の上方で、動的基準ベース(DRB)上の圧縮クランプを位置付けし、ノブを締め付ける。必要に応じて、図8に示すように、いくつかの実施形態によれば、クランプドライバを使用して、DRBノブを更に締め付けることができる。ユーザは、カメラ102の方向に、DRB上の反射マーカを位置付けする。外科的処置を妨げないように、患者基準器具の初期配置に注意すべきである。ナビゲーション後、患者取り付け器具が取り外される。
監視マーカ
監視マーカは、カメラ追跡システムがカメラ102を使用してDRBとの相対距離を追跡できるように、例えば、処置中にDRBの不要なシフトを識別するために、硬性の骨解剖学的構造に挿入される。図9は、いくつかの実施形態によれば、監視マーカ902から離間したDRB900の配置を示す。
監視マーカは、腸骨稜又は長骨に挿入されてもよく、又は骨クランプを使用して棘突起に取り付けられてもよい。ユーザは、クランプが堅固に固定されていることを検証する。いくつかの実施形態では、監視マーカは、動的基準ベースから185mm以下に配置されるべきである。様々な監視マーカの例示的な推奨される解剖学的場所は、いくつかの実施形態によれば、以下の表に記載されている。
Figure 0007323672000004

ユーザは、使い捨て反射マーカを監視マーカ902のマーカ支柱に取り付ける。[0082]ユーザは、反射マーカ球体904上に嵌合するように設計された嵌入キャップを、監視マーカ902上に取り付ける。ユーザは、監視マーカ902を手術部位の近くの硬性の骨解剖学的構造に挿入し、マレットで穏やかに衝撃を与えることができる。ユーザは、嵌入キャップを取り外す。ユーザは、除去ツールを使用する前に、反射マーカ904を取り外す。マーカとともに骨クランプを使用するために、ユーザは、使い捨てマーカを骨クランプの先端に取り付ける。ユーザは、クランプドライバを使用して骨クランプを固定することができる。次いで、ユーザは、クランプが堅固に固定されていることを検証する。
除去
クアットロスパイク及び監視マーカは、手動で、又は除去ツールを使用して、骨解剖学的構造から取り外される。図10に示されるように、いくつかの実施形態によれば、骨クランプは、クランプドライバでクランプを緩め、除去ツールを取り付け、骨クランプを持ち上げることによって取り外される。
術中CT撮像ワークフロー
術中CT位置合わせ固定物のセットアップ
図11に示すように、いくつかの実施形態によると、旋回アームスターバースト1100は、位置合わせ固定物1110の位置合わせ固定物支柱1102のスターバースト支柱の上方に配置され、固定するように90°回転される。位置合わせ固定物1110は、図12に示されるように、いくつかの実施形態によれば、患者取り付け器具支柱1202上に位置付けされ、圧縮クランプ1200ノブが締め付けられる。必要に応じて、クランプドライバを使用して、圧縮クランプ1200上のノブを更に締め付けることができる。完成したアセンブリを、いくつかの実施形態による図13に示す。旋回アームを解放するために、固定物上の解放ボタン1300が押され、旋回アーム90°が回転して引き上げられる。術中CT位置合わせ固定物は、6つの自由度を有し、3つの関節のうちの1つを調整することによって、手術部位上で安定し、ホバリングするように動かすことができる。固定物に埋め込まれた金属基準物のみが、3Dスキャン(反射マーカではない)内にある必要がある。術中CT位置合わせ固定物は、画像取得と解剖学的ランドマークチェックを実行する間に移動しないことが、動作上有用又は必要である場合がある。
画像のロード
いくつかの実施形態によれば、図14に示す画像タブの選択により、CTスキャン画像をロードするために必要なステップが表示される。画像は、例えば、USBドライブ、ハードドライブ、及び/又はネットワークデバイスからロードされ得る。イーサネット(登録商標)を介して画像が転送される場合、転送が完了したときに、ハードドライブ上に自動的に現れ得る。
USBドライブ上の画像を見るために、USBドライブを、コネクタパネル107上のUSBポートに挿入する。画像のロードをトリガするために、ハードドライブ又はUSBドライブアイコンを選択し、その後、所望の患者画像を選択することができる。右の矢印を選択して、患者の画像をロードし、次のタブに進むことができる。
手動位置合わせ
自動位置合わせは、画像をロードするときに実行することができる。しかしながら、自動位置合わせ動作が失敗したか、そうでなければ利用されない場合、図15に示すように、いくつかの実施形態によれば、手動位置合わせを許容にするために手動位置合わせ画面を表示することができる。位置合わせ画面の左パネル上の画像は、術中CTの描写を伴う完全なスキャンである。
固定物のいくつかの実施形態では、位置合わせ固定物及び7つの基準物は、画像の下に見えるべきである。位置合わせされていない基準物は、オペレータによって調整される必要がある。画面上で、まだ位置合わせされていない基準物が選択され、その画像が右に表示される。着色された円1500は、表示された基準物マーカを囲むとユーザが判定するまで、ユーザによって画面上で移動される。右パネル下部における図15に示す3つの小さなボックス1510は、基準物のx、y、z方向を示し、いずれも青色の丸が中央にくるまで調整することが必要である。図15の例示的な実施形態では、位置合わせされた基準物1500は、単色で塗りつぶされた中心を用いて表示され、システムに見えない別の基準物1504は、塗りつぶされていない中心を用いて表示され、システムから一部見える更に別の基準物1502は、一部塗りつぶされた中心を用いて表示される。
術中位置合わせ固定物の3Dモデルを見ることにより、7つすべての基準物が適切に識別されることを確実にする。右側のパネルの削除アイコンを選択することによって、基準物を削除することができる。右の矢印をクリックして、次のステップに進む前に、基準物が適切に識別されたことを確認する。
次に、実行され得る対応する動作について、図32に照らして説明する。図32は、いくつかの実施形態による外科用システムによって実行され得る動作を示す。外科用システムは、カメラ追跡システム10及び/又はナビゲーションシステム3604などのコンピュータプラットフォーム3600の構成要素に存在し得る少なくとも1つのプロセッサを含む。図32を参照すると、動作は、患者の標的解剖学的構造の三次元(3D)放射線表現、例えば、CTスキャン及び/又は透視スキャン固定物と、例えば、図9の900及び/又は図21の2100の位置合わせの基準物のセットを取得すること3200を含む。動作により、3D放射線表現内の基準物のセットの場所を、カメラ追跡システム、例えば、図31のシステム10によって追跡される3D撮像空間に位置合わせすることが試みられる3202。位置合わせは、3D放射線表現内の基準物の姿勢(例えば、場所及び配向)セットを、3D撮像空間内で検出された光学マーカの姿勢に相関させることを試みることを含み得る。セットの基準物のうちの1つが3D撮像空間に正常に位置合わせされなかった場所を有すると判定すること3204に基づいて、動作により、基準物が3D撮像空間に正常に位置合わせされていないことを示すグラフィックオーバーレイとともに3D放射線表現の少なくとも1つのビューが表示され3206、基準物が3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信し3208、ユーザ供給場所情報に基づいて基準物の場所が3D撮像空間に位置合わせされる3210。
基準物が3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信する3208ための動作は、3D放射線表現及び/又は3D撮像空間内の基準物の3つの直交ビューを表示し、3つの直交ビュー内の初期場所上にオーバーレイされたグラフィックオブジェクトを表示することを含み得る。動作により、ユーザインターフェースを通したユーザからの入力に応答して、3つの直交ビュー内のグラフィックオブジェクトが表示されている場所が移動され、3つの直交ビュー内のグラフィックオブジェクトが表示されている場所に基づいて、3D放射線表現及び/又は3D撮像空間における基準物の場所が判定される。基準物の場所を3D撮像空間に位置合わせするための動作は、3D放射線表現内の基準物の判定された場所に基づく。
受信3208するための動作は、3つの直交ビュー内の初期場所にオーバーレイされたグラフィックオブジェクトを表示することができ、位置合わせ固定物テンプレートによって定義される基準物の相対場所に基づいて、基準物の予測場所に対応する初期場所を判定することを含み得る。
3208を受信するための動作は、3つの直交ビュー内のグラフィックオブジェクトが表示されている場所を移動させて、外科用システムのユーザインターフェースを通して受信された方向の入力を追跡することを更に含み得る。
3202を試みて、3D放射線表現内の基準物のセットの場所をカメラ追跡システムによって追跡される3D撮像空間に位置合わせする動作は、カメラ追跡システムの少なくとも1つのカメラから、患者に固定された基準アレイの光学画像を取得することを含み得る。基準アレイは、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカのセットを含む。基準アレイはまた、位置合わせ固定物に接続され得る。次いで、動作により、光学マーカのセットのパターンの場所を3D放射線表現内の基準物のセットのパターンの場所に位置合わせすることが試みられ、位置合わせ固定物の基準物のうちのいずれにも正常に位置合わせされていない基準アレイの光学マーカのうちのいずれかが識別され得る。
ランドマークチェック
位置合わせが完了した後、位置合わせが正常に計算されたことを確実にするために、ランドマークチェックを実行することができる。検証プローブを使用して、解剖学的ランドマーク又は基準物を位置合わせ固定物上でタッチして、対応する場所がシステムモニタ上に示されていることの検証をトリガする。このプロセスは、他の、例えば、2~3つの他のランドマークを使用して繰り返すことができる。
外科用システムによって実行され得る対応する動作は、ツールが、ユーザによって、3D画像空間に正常に位置合わせされた基準物のうちの1つに向かって移動されている間、カメラ追跡システムのカメラから映像に捕捉されたツールの場所を追跡することを含み得、3D撮像空間内の追跡された場所に従ってツールの更新された表現を表示する。動作により、ツールの追跡された場所のうちの指定された1つと、3D画像空間に位置合わせされた基準物のうちの1つの場所との比較に基づいて、3D画像空間に正常に位置合わせされた基準物のうちの1つの位置合わせ精度が確認される。
位置合わせ固定物の取り外し
次いで、患者取り付け器具が動かないことを確実にしながら、術中CT位置合わせ固定物を取り外すことができる。
計画タブ
計画タブは、ユーザが、いくつかの実施形態による図16の例示的なユーザインターフェースに示されるような、患者画像上ですべてのスクリュー挿入軌道(例えば、1600)及び椎間体配置(例えば、1610)を計画することを許容する。インプラントは、事前計画タブで行われた選択に基づいて、システムに(例えば、定義された特性で)予めロードされ、画面の右側に表示される。
インプラントを計画ページ上に追加するために、ユーザは、所望のスライスにおいて画像上の適切なインプラントラベルをドラッグアンドドロップすることができる。アクティブ状態の計画は、定義された色で示されている。アクティブ状態のスクリュー計画の詳細は、画面の右下に示され、スクリュー系統群、直径、及び長さが含まれる。右の矢印を選択すると、すべてのスクリューについて計画が完了した時点で次のタブに進むことができる。
画像上でインプラントをドロップすると、インプラント計画機能を使用して、例えば、タッチスクリーン上でインプラント画像をドラッグすることによって、インプラントの場所を調整する。ユーザは、画面の右パネル上の特定のインプラントサイズ(幅、長さ、高さ、前弯)を選択するか、又は別様に定義する。
次に、実行され得る対応する動作について、図33に照らして説明する。図33は、いくつかの実施形態による外科用システムによって実行され得る動作を示す。図33を参照すると、動作により、標的解剖学的構造の3D放射線表現のビューから仮想インプラントデバイスがオーバーレイとして表示され3300、標的解剖学的構造内への仮想インプラントデバイスの埋め込み軌道を表す仮想インプラントデバイスの軌道のグラフィック表示が表示される3302。動作により、3D放射線表現のビューに表示された仮想インプラントデバイスの軌道のグラフィック表示の姿勢が更新され3304、外科用システムのユーザインターフェースを通じて受信したステアリング入力が追跡される。動作により、仮想インプラントデバイスの計画された軌道として、軌道のグラフィック表示の姿勢のうちユーザが指定した1つを記憶する3306。
動作は、インプラント計画のためにユーザによって選択可能なインプラントデバイスのセットを表示することと、ユーザインターフェースを通してユーザによって選択されるユーザ選択可能インプラントデバイスのセットのうちの1つのテンプレートに基づいて仮想インプラントデバイスのグラフィック表現を生成することと、を更に含み得る。
ナビゲートタブ
ナビゲートタブにより、ユーザは、患者の解剖学的構造に対するナビゲートされた器具軌道及び計画された軌道を視覚化することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図17に示す。所望のインプラントラベルを画面の右側に選択することができる。
リアルタイム器具/インプラント軌道1700a、1700b(実際の計画)は、患者画像上、例えば、直交画像スライスビュー内で、計画されたスクリューとともに表示され、ユーザは所望の軌道を確認することが許容される。リアルタイム軌道が容認できない場合、ユーザは、計画タブに戻って別の軌道を選択することができる。リアルタイム軌道が容認できる場合、ユーザは、器具の現在の軌道に従って、所望の深さにスクリューを挿入する。
ナビゲートされた器具は、それらが計画された位置に前進するに従って表示される。器具をナビゲートする間、ユーザは、モニタ及び手術部位を繰り返し観察して、触覚フィードバックとナビゲーションフィードバックとの間の一貫性を確実にする。
外科用システムによる対応する動作は、標的解剖学的構造の3D放射線表現のビュー上のオーバーレイとして、仮想インプラントデバイスの計画軌道を表示することを含み得る。動作により、カメラ追跡システムの少なくとも1つのカメラから、仮想インプラントデバイスに対応する実インプラントデバイスに固定された基準アレイの光学画像が取得され、基準アレイが、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカのセットを含む。動作により、実インプラントデバイスが患者の標的解剖学的構造に対してユーザによって位置付けられている間、光学画像内の基準アレイの姿勢に基づいて、3D撮像空間内の実インプラントデバイスの姿勢が追跡される。動作により、3D撮像空間内の追跡された姿勢に従って、仮想インプラントデバイスの計画軌道に対する実インプラントデバイスの更新されたグラフィック表現が表示される。
術前CT撮像ワークフロー
画像タブ
画像のロード
画像タブは、CTスキャン画像をロードするために必要なステップを示す。いくつかの実施形態による、例示的なユーザインターフェースを図18に示す。画像は、例えば、USBドライブ、ハードドライブ、又はネットワーク化されたデバイスからロードされ得る。イーサネット(登録商標)を通して画像が転送される場合、転送が完了したときに、ハードドライブ上に自動的に現れ得る。
USBドライブ上の画像を見るために、USBドライブを、コネクタパネル上のUSBポートに挿入する。画像をロードするために、ユーザは、ハードドライブ又はUSBドライブアイコンを選択し、所望の患者画像を選択する。右の矢印を選択して、患者の画像をロードし、次のタブに進むことができる。
計画タブ
計画タブにより、ユーザが、患者画像上のすべてのスクリュー軌道及び椎体間配置を計画することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図19に示す。インプラントは、事前計画タブで行われた選択に基づいて、スクリーンの右側に予めロードされている(例えば、システムに事前定義された特性)。
インプラントを計画ページ上に追加するために、ユーザは、所望のスライスにおいて画像上の適切なインプラントラベルをドラッグアンドドロップすることができる。アクティブ状態の計画は、定義された色で示されている。アクティブ状態のスクリュー計画の詳細は、画面の右下に示され、スクリュー系統群、直径、及び長さが含まれる。右の矢印を選択すると、すべてのスクリューについて計画が完了した時点で次のタブに進むことができる。
画像上でインプラントをドロップすると、インプラント計画機能を実行して、例えば、タッチスクリーン上でインプラント画像をドラッグすることによって、インプラントの場所を調整する。特定のインプラントサイズ(幅、長さ、高さ、前弯)は、画面の右パネルで選択されるか、又は定義される。
ナビゲートタブ
ナビゲートタブにより、ユーザは、インプラント計画に従って、患者の解剖学的構造に対するナビゲートされた器具及び軌道の整列を視覚化することができる。
位置合わせのセットアップ
例えば、図20に示されるように、いくつかの実施形態によれば、別の表示画面は、術前CT画像を位置合わせするために蛍光透視画像の捕捉が可能になる前に、完了すべき3つのステップを強調表示する。ステップは、DRBを挿入し、Cアーム撮像デバイスのCアームを位置付けし、監視マーカをカメラナビゲーションシステムで位置合わせすることができる。アニメーションを使用して、ステップを視覚的に描写することができる。
図21に示されるように、いくつかの実施形態によれば、蛍光透視位置合わせ固定物2100は、クランプを締まるまで時計回りに回すことによって、Cアーム上の画像増強管2110に取り付けられる。光学マーカがカメラ102に面するように、固定物2100を配向する前に、固定物2100上に新しい光学マーカを設置する。動画捕捉ケーブルは、Cアームビューイングステーションに接続されている。動画捕捉USBケーブルは、ExcelsiusHubコネクタパネル107上のUSBポートのうちの1つに挿入される。
ユーザは、Cアームが所定の位置に置かれた後、動的基準ベースがカメラ102に見えることを確実にすることができる。
監視マーカは、例えば、監視マーカ902上の反射球体904に器具を近づけるが、触れないようにすることで、カメラ追跡システムで位置合わせされる。次いで、ボックスは、アクティブ化されたときに定義された色で表示される。
右の矢印を選択して、次のタブに進むことができる。
位置合わせ
動作は、術中蛍光透視画像を、計画した各レベルについて、前後方向(anteroposterior、AP)と横方向に1枚ずつ取得する。同じ画像を、複数のレベルについて使用することができる。
いくつかの実施形態では、動作により、画像の取得を可能にする前に、次の3つの条件、1)DRBをカメラ102によって見ることができる、2)蛍光透視位置合わせ固定物をカメラ102によって見ることができる、及び3)有効な蛍光透視画像が捕捉されていることが検証される。
いくつかの実施形態による、例示的なユーザインターフェースを図22に示す。画面の左側の3つの画像の各々は、画像捕捉の準備ができたときに定義された色に変わる。3つの条件すべてが満たされると、術中蛍光透視画像が取得され、次いで、捕捉ボタンが選択されて、画像をシステムに転送する。両方の画像が正常に捕捉されると、画面の右側の脊椎レベルは、チェックマークを表示する。右の矢印を選択して、次のタブに進むことができる。
いくつかの実施形態による、例示的なユーザインターフェースを図23に示す。計画されたスクリューは、蛍光透視画像上にドラッグアンドドロップされ得る。表示されたグラフィックオブジェクト、例えば、円2300a及び/又は2300bは、ユーザインターフェースを通したユーザ入力を介して、椎体内にスクリューを大まかに位置付けするように制御することができる。ユーザ入力は、ディスプレイ上の所望の場所をユーザタッチ選択又はクリックし、かつ/又はキーボードを通してステアリングコマンドを提供することに対応し得る。スクリュー胴部は、スクリューの頭部及び尾部が所望の方向で、かつ左/右が正しく配向された状態で正しく位置付けされることが確認される。確認が完了した時点で位置合わせボタンを選択することで、位置合わせを許容することができる。
位置合わせが正常に行われた場合、チェックマークはアクティブレベルの隣に表示される。いくつかの実施形態による、例示的なユーザインターフェースを図24に示す。右矢印は、位置合わせが完了したときに選択される。
次に、実行され得る対応する動作について、図34に照らして説明する。図34は、いくつかの実施形態による外科用システムによって実行され得る動作を示す。図34を参照すると、患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの3D放射線表現を取得する前に、動作は、カメラ追跡システムの少なくとも1つのカメラから、患者に固定された基準アレイ(例えば、図9のDRB900)の光学画像及び放射線撮像デバイスに取り付けられた位置合わせ固定物(例えば、図21の固定物2100)の光学画像を取得すること3400を含み、基準アレイは、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカの第1のセットを含み、位置合わせ固定物は、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカの第2のセットを含む。動作により、患者の標的解剖学的構造の蛍光透視画像及び位置合わせ固定物の基準物のセットを取得する3402。動作により、第1のセットにおける定義された数の光学マーカが、3D撮像空間においてカメラ追跡システムのうちの少なくとも1つのカメラによって検出されたことに基づいて、第1の条件が満たされているかどうかが判定される3404。動作により、第2のセットにおける定義された数の光学マーカが、3D撮像空間においてカメラ追跡システムのうちの少なくとも1つのカメラによって検出されたことに基づいて、第2の条件が満たされているかどうかが判定される3406。動作により、位置合わせ固定物の定義された数の基準物のセットが蛍光透視画像において見えることに基づいて、第3の条件が満たされているかどうかが判定される3408。3つの条件のうちのいずれかが満たされていないかどうか判定3410を行う。第1の条件、第2の条件、及び第3の条件のうちの1つが満たされない場合、動作により、第1の条件、第2の条件、及び第3の条件のうちの1つが満たされないという表示が表示され3412、患者の標的解剖学的構造の3D放射線表現と位置合わせ固定物の基準物のセットとの放射線撮像プロセスによる捕捉が妨げられる。対照的に、第1の条件、第2の条件、及び第3の条件の各々が満たされる場合、動作により、患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの3D放射線表現の放射線撮像プロセスによる捕捉3414が可能になる。
動作により、第1の条件、第2の条件、及び第3の条件の各々が満たされていると判定することに基づいて、患者の標的解剖学的構造の複数の定義された場所における前後及び横方向の透視画像の捕捉が引き起こされ得る。次いで、動作により、患者の標的解剖学的構造の複数の定義された場所における捕捉された前後及び横方向の透視画像に基づいて、患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの3D放射線表現が計算され得る。
ランドマークチェック
位置合わせが完了した後、位置合わせが正常に計算されたことを動作上確実にするために、ランドマークチェック又は検証を実行することができる。検証プローブを使用して、解剖学的ランドマークに触れ、対応する場所がシステムモニタ上に示されていることを検証する。このプロセスは、例えば、2~3つのランドマークを使用して繰り返すことができる。
ナビゲーション
図25を参照すると、ユーザは、画面の右側で所望のインプラントラベルを選択する。リアルタイム器具/インプラント軌道(実際の計画)は、計画されたスクリューとともに患者画像上に表示されるように更新され、ユーザが所望の軌道を確認することが許容される。リアルタイム軌道が容認できない場合、ユーザは、計画タブに戻って別の軌道を選択することができる。リアルタイム軌道が容認できる場合、ユーザは、器具の現在の軌道に従って、所望の深さにスクリューを挿入する。
ナビゲートされた器具は、それらが計画された位置に前進するに従って表示される。器具をナビゲートする間、ユーザは、モニタ及び手術部位を繰り返し観察して、触覚フィードバックとナビゲーションフィードバックとの間の一貫性を確実にすることができる。
外科用システムによる対応する動作は、標的解剖学的構造の3D放射線表現のビュー上のオーバーレイとして、仮想インプラントデバイスの計画軌道を表示することを含み得る。動作により、カメラ追跡システムの少なくとも1つのカメラから、仮想インプラントデバイスに対応する実インプラントデバイスに固定された基準アレイの光学画像が取得され、基準アレイが、3D撮像空間においてカメラ追跡システムの少なくとも1つのカメラによって検出可能な光学マーカのセットを含む。動作により、実インプラントデバイスが患者の標的解剖学的構造に対してユーザによって位置付けられている間、光学画像内の基準アレイの姿勢に基づいて、3D撮像空間内の実インプラントデバイスの姿勢が追跡される。動作により、3D撮像空間内の追跡された姿勢に従って、仮想インプラントデバイスの計画軌道に対する実インプラントデバイスの更新されたグラフィック表現が表示される。
位置合わせ固定物の取り外し
蛍光透視位置合わせ固定物を慎重に取り外す。患者の取り付け器具が移動しないことを確実にする。
蛍光透視撮像ワークフロー
画像タブ
位置合わせのセットアップ
図20の画面に実質的に対応し得る、図26に示される1つの画面は、図20について上述したように、蛍光透視画像が患者を位置合わせするために捕捉され得る前に、完了すべき3つのステップを強調表示する。
図21に示されるように、いくつかの実施形態によれば、蛍光透視位置合わせ固定物は、クランプを締まるまで時計回りに回すことによって、Cアーム上の画像増強管に取り付けられ得る。光学マーカがカメラに面するように、固定物を配向する前に、固定物に新しい光学マーカを設置する。
ユーザは、Cアームが所定の位置に置かれた後、動的基準ベースがカメラ102にまだ見えることを確実にする。監視マーカは、監視マーカ上の反射球体に器具を近づけるが、触れないようにすることで、位置合わせされ得る。ボックスは、アクティブ化されたときに定義された色に変わる。右の矢印を選択して、次のタブに進むことができる。
画像取得
術中蛍光透視画像は、AP及び横方向で1つずつ取得される。
いくつかの実施形態では、動作により、画像の取得を可能にする前に、次の3つの条件、1)DRBがカメラ102で見ることができる、2)蛍光透視位置合わせ固定物がカメラ102によって見ることができる、及び3)有効な蛍光透視画像が捕捉されていることが検証される。
いくつかの実施形態による、例示的なユーザインターフェースを図27に示す。画面の左側の3つの画像の各々は、画像捕捉の準備ができたときに定義された色に変わる。3つの条件すべてが満たされると、術中蛍光透視画像が取得され、次いで、捕捉ボタンが選択されて、画像をシステムに転送する。両方の画像が正常に捕捉されると、画面の右側のレベルは、チェックマークを表示する。適切な画像がロードされ、選択されると、右の矢印を選択して先に進むことができる。
ランドマークチェック
位置合わせが完了した後、位置合わせが正常に計算されたことを動作上確実にするために、ランドマークチェック又は検証を実行することができる。ナビゲートされた検証プローブを使用して、解剖学的ランドマークに触れ、対応する場所がシステムモニタ上に示されていることを検証する。このプロセスは、例えば、2~3つのランドマークを使用して繰り返すことができる。
位置合わせ固定物の取り外し
次いで、患者取り付け器具が動かないことを確実にしながら、蛍光透視位置合わせ固定物が取り外される。
計画タブ
計画タブにより、ユーザが、患者画像上のすべてのスクリュー軌道及び椎体間配置を計画することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図28に示す。インプラントは、事前計画タブで行われた選択に基づいて、スクリーンの右側に予めロードされている。
インプラントを計画ページ上に追加するために、ユーザは、所望のスライスにおいて画像上の適切なインプラントラベルをドラッグアンドドロップすることができる。アクティブ状態の計画は、定義された色で示されている。アクティブ状態のスクリュー計画の詳細は、画面の右下に示され、スクリュー系統群、直径、及び長さが含まれる。ユーザは、すべてのスクリューについて計画が完了すると、次のタブに進むように右矢印で選択(例えば、クリック)することができる。
画像上でインプラントをドロップすると、インプラント計画機能を使用して、例えば、タッチスクリーン上でインプラント画像をドラッグすることによって、インプラントの場所を調整する。画面の右パネル上の特定のインプラントサイズ(幅、長さ、高さ、前弯)を選択する。代替的に又は追加的に、計画システムのソフトウェアは、ドロップされたインプラントが、画像内の解剖学的構造に対して1つ以上の定義された規則を満たすように、インプラントの場所の自動調整を実行することができる。
ナビゲートタブ
ナビゲートタブにより、ユーザは、患者の解剖学的構造に対するナビゲートされた器具軌道及び計画された軌道を視覚化することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図29に示す。
ユーザは、画面の右側で所望のインプラントラベルを選択する。リアルタイム器具/インプラント軌道(実際の計画)は、例えば、グラフィックオブジェクト2900a及び2900bとして、計画されたスクリューとともに患者画像上に表示されるように更新され、ユーザが所望の軌道を確認することが許容される。リアルタイム軌道が容認できない場合、ユーザは、計画タブに戻って別の軌道を選択することができる。リアルタイム軌道が容認できる場合、ユーザは、器具の現在の軌道に従って、所望の深さにスクリューを挿入する。
ナビゲートされた器具は、それらが計画された位置に前進するに従って表示される。器具をナビゲートする間、モニタ及び手術部位を繰り返し観察して、触覚フィードバックとナビゲーションフィードバックとの間の一貫性を確実にする。
例示的な手術室機器のレイアウト及び動作
図30は、ナビゲートされた外科手術のためのカメラ追跡システム10を含み、かつ任意選択でロボット支援のための外科用ロボットシステムを含み、各々がいくつかの実施形態に従って構成されている、手術室内での外科的処置の間、任意選択で拡張現実(XR)ヘッドセット3150a~3150bを着用している人員の俯瞰図である。
図30を参照すると、ロボットシステム3000は、例えば、外科用ロボット3102、1つ以上のロボットアーム104、例えば、関節操作アームに取り付けるように構成されているエンドエフェクタ3112、及び1つ以上の追跡マーカを含むことができるエンドエフェクタ基準アレイを含み得る。ロボットシステム3000は、1つ以上のディスプレイを更に含み得る。DRB900は、複数の追跡マーカを含み、患者3130(例えば、患者3130の骨に)に直接固定されるように適合されている。別の基準アレイ3170は、器具等の上に取り付けられるか、又は形成される。カメラ追跡システム10は、追跡カメラ102を所望の位置に移動、配向、及び支持するための任意の適切な構成を有し得、基準アレイの姿勢を追跡するように動作可能なコンピュータを包含し得る。
追跡カメラ102は、例えば、追跡カメラ102の視点から見ることができる所与の測定体積における、患者3130として取り付けられた様々な基準アレイのためのアクティブ及びパッシブ状態の追跡マーカ(例えば、DRB900)、エンドエフェクタ3112(エンドエフェクタアレイ)、器具(例えば、器具アレイ3170)、外科医3120及び/又は外科助手3126などによって着用される拡張現実(XR)ヘッドセット基準3150a~3150bを識別することができる、1つ以上の赤外線カメラ(例えば、二焦点又は立体写真測量カメラ)などの任意の適切なカメラ又は複数のカメラを含み得る。追跡カメラ102は、ユーザ(外科医)及び/又はロボットシステム3000によって操作されたロボットアーム140上に取り付けられた、又は形成されたマーカを追跡することができる。追跡カメラ102は、三次元における基準アレイの姿勢を識別及び判定するために、所与の測定体積をスキャンし、基準アレイから発せられるか、又は反射される光を検出することができる。例えば、アクティブ状態の基準アレイは、電気信号(例えば、赤外線発光ダイオード(light emitting diode、LED))によってアクティブ化される赤外線発光マーカを含み得、パッシブ状態の基準アレイは、例えば、追跡カメラ102又は他の適切なデバイス上の照明器によって発せられる赤外光を反射する(例えば、入射光の方向への入射IR放射を反射する)再帰反射マーカを含み得る。
XRヘッドセット3150a及び3150b(XRヘッドセット150とも呼ばれる)は各々、それらのカメラ視野(field-of-view、FOV)3152及び3154内の基準アレイの姿勢をそれぞれ追跡することができる追跡カメラを含むことができる。したがって、図30に示されるように、様々な物体に取り付けられた基準アレイの姿勢は、XRヘッドセット3150a及び3150bのFOV3152及び3154、及び/又は追跡カメラ102のFOV3600内にある間、追跡することができる。
XRヘッドセットは、コンピュータで生成されたXR画像で実世界シーンを増強するように構成され得る。XRヘッドセットは、ユーザによる複合的な視認のために、コンピュータで生成されたXR画像を、実世界シーンからの光を透過させることを許容するシースルー表示画面上に表示することによって、拡張現実(augmented reality、AR)視認環境を提供するように構成されてもよい。代替的に、XRヘッドセットは、ユーザが表示画面上にコンピュータで生成されたAR画像を見ている間に、実世界シーンからの光がユーザによって直接見られるのを防止するか、又は実質的に防止することによって、仮想現実(virtual reality、VR)視認環境を提供するように構成されてもよい。XRヘッドセットは、AR及びVR視認環境の両方を提供するように構成することができる。したがって、XRヘッドセットという用語は、ARヘッドセット又はVRヘッドセットと称され得る。
図30は、手術室環境内のカメラ追跡システム10及び(存在する場合)外科的ロボットシステム3000の配置のための潜在的な構成を示す。コンピュータ支援のナビゲートされた外科手術は、XRヘッドセット3150a及び3150b、ディスプレイ110、及び/又はディスプレイ3034を制御するカメラ追跡システム10によって提供されて、外科的処置ナビゲーション情報を表示することができる。手術室に外科手術ロボットシステム3000を含めることは、コンピュータ支援のナビゲートされた外科手術に対して任意選択である。
カメラ追跡システム10は、カメラ追跡システム10からの追跡情報及び他の情報を、他の追跡情報及び1つ以上のXRヘッドセット3150a及び3150bからの情報、例えば、慣性追跡情報及び光学追跡情報並びに(任意選択の)マイクロフォン情報とともに使用することができる。XRヘッドセット3150a及び3150bは、視覚情報を表示するように動作し、着用者に音声情報を再生することができる。この情報は、ローカルソース(例えば、外科用ロボット3102及び/又は他の手術室機器)、リモートソース(例えば、患者医療画像サーバ)、及び/又は他の電子機器からのものであり得る。XRヘッドセット3150a及び3150bは、6つの自由度(6 degrees-of-freedom、6DOF)で器具、患者基準、及び/又はロボットエンドエフェクタの姿勢を追跡するために使用することができ、着用者の手を追跡することができる。XRヘッドセット3150a及び3150bはまた、手の姿勢及びジェスチャを追跡して、XRヘッドセット3150a及び3150bを通して表示される「仮想」ボタン及びインターフェースとのジェスチャベースの相互作用を可能にするように動作することができ、様々な定義されたコマンドの動作がトリガされるときに手又は指のポインティング又はジェスチャを解釈することができる。更に、XRヘッドセット3150a及び3150bは、デジタルルーペと呼ばれる1~10倍の倍率のデジタルカラーカメラセンサを有し得る。
「アウトサイドイン」マシンビジョンナビゲーションバー(追跡カメラ102)は、モノクロ及び/又はカラーのカメラを使用して、関節操作アームの姿勢を追跡することができる。マシンビジョンナビゲーションバーは、一般に、XRヘッドセット3150a及び3150bが装着者の頭部上に位置付けされている状態で動く傾向があるため、頻繁に又は素早く動かないため、環境のビューがより安定している。患者基準アレイ900は、一般に、重力に対して安定したピッチ及びロールで患者に堅固に取り付けられている。この局所的な精密な患者基準物900は、エンドエフェクタ3112上の基準アレイ、器具基準アレイ3170、及びXRヘッドセット3150a及び3150b上の基準アレイなど、他の追跡されたアレイに対する基準フレームの共通基準として機能することができる。
いくつかの実施形態では、XRヘッドセット3150a及び3150bのうちの1つ以上は、ローカル又はリモート情報を表示するが、含まれるセンサがより少なく、したがって、より軽量である最小限のXRヘッドセットである。
ロボットシステム3000は、患者3130の近く又はその隣に位置付けされ得る。追跡カメラ102は、ロボットシステム3000から分離され、患者3130の足元に位置付けされ得る。この場所により、追跡カメラ102は、術野208に対する直接的な視線を有することが許容される。ロボットシステム3000及び追跡カメラ102は、任意の好適な位置に位置することが企図される。図示の構成では、外科医3120は、ロボット3102の向かい側に位置付けされてもよいが、エンドエフェクタ3112(及び関節操作アーム)及びディスプレイ110を操作することが可能である。外科助手3126は、エンドエフェクタ3112及びディスプレイ110の両方へアクセスできるように、外科医3120の向かいに再び位置付けされ得る。必要に応じて、外科医3120及び助手3126の場所を逆にすることができる。麻酔医3122及び看護師又は手術着を着た技術者124の従来の領域は、ロボット3102及びカメラ102の位置によって妨げられることなく残る。麻酔医3122は、ディスプレイ3034を含むことができる麻酔機器を操作することができる。
エンドエフェクタ3112は、ロボットアーム104に解放可能に結合され得、エンドエフェクタ3112の動きは、カメラ追跡システム10からの入力に基づいて少なくとも1つのモータによって制御され得る。いくつかの実施形態では、エンドエフェクタ3112は、関節操作アーム104に接続可能であり得、患者3130上で外科的処置を実行するために使用される外科用器具、ツール、又はインプラントを受容し、配向するように構成されているガイドチューブ114を含み得る。
本明細書で使用される場合、「エンドエフェクタ」という用語は、「エンドエフェクチュエータ」及び「エフェクチュエータ要素」という用語と互換的に使用される。「器具」という用語は、非限定的に使用され、「ツール」及び「インプラント」と互換的に使用され、一般に、本明細書に開示される実施形態による外科的処置中に使用できる任意のタイプのデバイスを指すことができる。例示的な器具、ツール、及びインプラントには、限定されないが、関節操作アーム、ドリル、スクリュードライバ、のこぎり、拡張器、開創器、プローブ、インプラント挿入器、及びスクリュー、スペーサ、椎体間固定デバイス、プレート、ロッドなどのインプラントデバイスが含まれる。いくつかの実施形態では、エンドエフェクタ3112は、所望の方法で外科用器具の動きをもたらすための任意の構造から構成され得る。
外科用ロボット3102は、エンドエフェクタ3112の並進及び配向を制御するように動作可能である。ロボット3102は、例えば、x、y、及びz軸に沿ってコンピュータ制御下でエンドエフェクタ3112を動かすように動作可能であり得る。エンドエフェクタ3112は、x、y、及びz軸、及びZフレーム軸(エンドエフェクタ3112に関連するオイラー角(例えば、ロール、ピッチ、及び/又はヨー)のうちの1つ以上が選択的にコンピュータ制御され得るように)のうちの1つ以上の周りでコンピュータ制御下において選択的に回転するように構成され得る。いくつかの実施形態では、エンドエフェクタ3112の並進及び配向の選択的制御は、例えば、回転軸のみを含む6自由度ロボットアームを利用する従来のロボットと比較して、著しく改善された精度を有する医療処置の実行を可能にすることができる。例えば、外科用ロボットシステム3000は、患者3130上で動作するために使用され得、ロボットアーム104は、患者3130の身体の上に位置付けされ得、エンドエフェクタ3112は、患者3130の身体に向かってz軸に対して選択的に角度付けされている。
いくつかの例示的な実施形態では、XRヘッドセット3150a及び3150bは、外科用器具の姿勢の更新されたグラフィック表示を動的に表示するように制御することができるので、ユーザは、処置中に外科器具の姿勢を常に認識することができる。
本明細書で使用される場合、「姿勢」という用語は、別の物体及び/又は定義された座標系に対する1つの物体(例えば、動的基準アレイ、エンドエフェクタ、外科用器具、解剖学的構造など)の位置及び/又は回転角を指す。したがって、姿勢は、1つの物体の別の物体及び/又は定義された座標系に対する多次元位置のみに基づいて、物体の別の物体及び/又は定義された座標系に対する多次元回転角度に基づいて、又は別の物体に対する、及び/又は多次元位置と多次元回転角度の組み合わせに基づいて定義され得る。したがって、「姿勢」という用語は、位置、回転角度、又はそれらの組み合わせを指すために使用される。
いくつかの更なる実施形態では、外科用ロボット3102は、ロボットアーム104によるガイダンスを用いて外科医によって動かされる関節操作アームの経路を補正するように構成され得る。いくつかの例示的な実施形態では、外科用ロボット3102は、エンドエフェクタ3112の動きの停止、修正、及び/又は手動制御を実行するように構成され得る。したがって、使用中、例示的な実施形態では、外科医又は他のユーザは、システム3000を動作させることができ、エンドエフェクタ3112の自律運動を停止、修正、又は手動で制御する選択肢を有する。
基準アレイは、ロボットアーム104、エンドエフェクタ3112、患者3130、及び/又は外科的器具上に形成されるか、又はそれに接続され得る。カメラ追跡システム10は、例えば、6自由度(例えば、3つの直交軸に沿った位置及び軸の周りの回転)の基準アレイの姿勢を追跡することができる。いくつかの実施形態では、複数の追跡マーカを含む基準アレイは、ロボットアーム104上及び/又はエンドエフェクタ3112上などのロボット3102の外面に(例えば、形成されるか、又は接続されて)提供され得る。1つ以上の追跡マーカを含む患者基準アレイ900は、患者3130上に更に提供され得る(例えば、形成された、又は接続されている)。1つ以上の追跡マーカを含む器具基準アレイ3170は、外科用器具(例えば、ねじ回し、拡張器、インプラント挿入器など)上に提供され得る。基準アレイは、マークされたオブジェクト(例えば、エンドエフェクタ3112、患者3130、及び外科用器具)の各々をカメラ追跡システム10によって追跡することを可能にし、追跡された姿勢を使用して、外科的処置の実行のためにユーザにナビゲーションガイダンスを提供することができ、かつ/又はエンドエフェクタ3112を誘導するための外科用ロボット3102の動きを制御するために使用することができる。
例示的な外科用システム:
図31は、カメラ追跡システム10及びナビゲーションシステム3604を含み、任意選択で、各々がいくつかの実施形態に従って動作可能である外科用ロボット3102、撮像デバイス3620及びXRヘッドセット3150を更に含む外科用システムのブロック図を示す。
撮像デバイス3620は、Cアーム撮像デバイス、Oアーム撮像デバイス、及び/又は患者画像データベースを含み得る。コンピュータプラットフォーム3600は、少なくとも1つのプロセッサを含み、少なくとも1つのメモリは、動作を実行するために、少なくとも1つのプロセッサによって実行可能なプログラム命令を記憶する。コンピュータプラットフォーム3600は、カメラ追跡システム10及び/又はナビゲーションシステム3604の動作を実行し得る。XRヘッドセット3150は、ナビゲートされた外科的処置を実行するための改善されたヒトインターフェースを提供する。XRヘッドセット3150は、例えば、コンピュータプラットフォーム3600を介して、カメラ追跡情報及び外科的処置ナビゲーション情報の表示、ハンドジェスチャベースのコマンドの識別などのうちの任意の1つ以上を制限なく含む機能性を提供するように構成することができる。表示デバイス3112は、動画プロジェクタ、フラットパネルディスプレイなどを含み得る。ユーザは、シースルーの表示画面を通して見られる特定の実世界オブジェクトに固定されたオーバーレイとして、XRのグラフィックオブジェクトを見ることができる。XRヘッドセット3150は、追加的に又は代替的に、表示デバイス3112上に、1つ以上のXRヘッドセット3150及び他のカメラに取り付けられたカメラ、及び/又は撮像デバイス3620から取得された医療画像から動画ストリームを表示するように構成され得る。
XRヘッドセット3150の電気部品は、複数のカメラ3122、マイクロフォン3121、ジェスチャセンサ3108、姿勢センサ(例えば、慣性測定ユニット(inertial measurement unit、IMU))3116、表示デバイス3112、及び無線/有線通信インターフェース3124を含むことができる。XRヘッドセット3150のカメラ3122は、可視光捕捉カメラ、近赤外線捕捉カメラ、又は両方の組み合わせであり得る。
カメラ3122は、カメラ3122の視野内で実行されるユーザのハンドジェスチャを追跡することによって、ジェスチャセンサ3108として動作するように構成され得る。代替的に、ジェスチャセンサ3108は、ジェスチャセンサ3108に近接して実行されるハンドジェスチャを感知し、かつ/又は物理的接触、例えば、センサ3108又はその筐体上でのタップを感知する近接センサ及び/又はタッチセンサであり得る。姿勢センサ3116、例えばIMUは、多軸加速度計、傾斜センサ、及び/又は1つ以上の定義された座標軸に沿ってXRヘッドセット3150の回転及び/又は加速度を感知することができる別のセンサを含み得る。これらの電気部品の一部又は全部は、頭部装着型構成要素筐体に収納されていてもよく、又は腰若しくは肩など他の場所に装着するように構成されている別の筐体に収納されていてもよい。
上で説明したように、外科用システムは、ナビゲーションシステム3604及び/又はXRヘッドセットコントローラ3110の機能性も提供し得るコンピュータプラットフォーム3600の一部であり得るカメラ追跡システム10を含む。外科用システムは、撮像デバイス及び/又は外科用ロボット3102を含み得る。ナビゲーションシステム3604は、例えば、解剖学上の器具を使用して外科的処置を実行する場所を定義する外科手術計画機能からの外科手術計画に基づいて、かつカメラ追跡システム10によって判定された解剖学の姿勢に基づいて、患者の解剖学的構造に対して(例えば、DRB900に対して)器具を、かつ/又はエンドエフェクタを動かして位置付けするための視覚ナビゲーションガイダンスをオペレータに提供するように構成することが可能である。ナビゲーションシステム3604は、器具の目標姿勢、患者の解剖学的構造の現在の姿勢、かつ器具及び/又は手術ロボット3102のエンドエフェクタの現在の姿勢に基づいて、ステアリング情報を生成するように更に構成されてもよく、ステアリング情報は、XRヘッドセット3150及び/又は別のディスプレイを通して情報を表示して、外科手術計画を実行するために器具及び/又は外科的ロボット3102のエンドエフェクタをどこに移動すべきかを示すのに使用される。
XRヘッドセット3150の電気部品は、有線/無線インターフェース3124を通してコンピュータプラットフォーム3600の電気部品に動作可能に接続することができる。XRヘッドセット3150の電気部品は、様々な撮像デバイス3620、例えばCアーム撮像デバイス、I/Oアーム撮像デバイス、患者画像データベース、及び/又は有線/無線インターフェース3124を通した他の医療機器に、動作可能に、例えば、コンピュータプラットフォーム3600を通して、又は直接接続され得る。
外科用システムは、XRヘッドセット3150、コンピュータプラットフォーム3600、及び/又は有線ケーブル及び/又は無線通信リンクを介して接続された別のシステム構成要素に存在することができる少なくとも1つのXRヘッドセットコントローラ3110を更に含む。様々な機能は、XRヘッドセットコントローラ3110によって実行されるソフトウェアによって提供される。XRヘッドセットコントローラ3110は、カメラ追跡システム10及びナビゲーションコントローラ3604から情報を受信し、表示デバイス3112上に表示するための情報に基づいてXRオブジェクトを生成するように構成されている。
XRヘッドセットコントローラ3110は、カメラ3122、マイクロフォン3121、及び/又は姿勢センサ3116からのシグナリングを動作上処理するように構成され、ユーザが見るために表示デバイス3112上にXR画像を表示するように接続され得る。したがって、XRヘッドセット3150内の回路ブロックとして示されるXRヘッドセットコントローラ3110は、XRヘッドセット3150の他の例示された構成要素に動作上接続されているものとして理解されるべきであるが、必ずしも共通のハウジング内に存在するか、又は別様でユーザによって輸送可能であるとは限らない。例えば、XRヘッドセットコントローラ3110は、コンピュータプラットフォーム3600内に存在し得、これは、ひいては外科用ロボット3102、カメラ追跡システム10などのハウジング内に存在し得る。
更なる定義及び実施形態:
本開示の様々な実施形態の上記説明において、本開示の態様は、任意の新規かつ有用なプロセス、機械、製造、又は組成物、又はそれらの任意の新規かつ有用な改良を含む多数の特許可能なクラス又は文脈のいずれかにおいて本明細書に例示及び説明され得る。したがって、本開示の態様は、完全にハードウェア、完全にソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又はソフトウェアとハードウェアを組み合わせた実装で実施されてもよく、これらはすべて、本明細書において概して「回路」、「モジュール」、「構成要素」、又は「システム」と称され得る。更に、本開示の態様は、その上に具現化されたコンピュータ可読プログラムコードを有する1つ以上のコンピュータ可読媒体を含むコンピュータプログラム製品の形態を取り得る。
1つ以上のコンピュータ可読媒体の任意の組み合わせを使用することができる。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であり得る。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁気、又は半導体のシステム、装置、又はデバイス、若しくはこれらの任意の適切な組み合わせであってもよいが、これらに限定されるものではない。コンピュータ可読記憶媒体のより具体的な例(非包括的リスト)は、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(random access memory、RAM)、読み取り専用メモリ(read-only memory、ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、中継器を有する適切な光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(compact disc read-only memory、CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はこれらの任意の適切な組み合わせを含む。本文書に照らして、コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって、又はそれに関連して使用するためのプログラムを包含するか、又は記憶することができる任意の有形媒体であり得る。
コンピュータ可読信号媒体は、コンピュータ可読プログラムコードが具現化された伝搬データ信号を、例えば、ベースバンドで、又は搬送波の一部として含むことができる。そのような伝播信号は、電気磁気、光学、又はそれらの任意の好適な組み合わせを含むがこれらに限定されない様々な形態のいずれかを取ることができる。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置、又はデバイスによって、若しくはそれに関連してプログラムを通信、伝搬、又は輸送することができる任意のコンピュータ可読媒体であり得る。コンピュータ可読信号媒体上で具現化されたプログラムコードは、無線、有線、光ファイバケーブル、RFなど、又は前述の任意の適切な組み合わせを含むがこれらに限定されない任意の適切な媒体を用いて伝送することができる。
本開示の態様のための動作を実行するためのコンピュータプログラムコードは、Java(登録商標)、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Pythonなどのオブジェクト指向プログラミング言語、「C」プログラミング言語、Visual Basic、Fortran 2003、Perl、COBOL2002、PHP、ABAPなどの従来の手続き型プログラミング言語、Python、Ruby and Groovyなどの動的プログラミング言語、又は他のプログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで書かれてもよい。プログラムコードは、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、スタンドアロンのソフトウェアパッケージとして、ユーザのコンピュータ上で部分的に、かつリモートコンピュータ上で部分的に、若しくはリモートコンピュータ又はサーバ上で完全に実行することができる。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(local area network、LAN)又は広域ネットワーク(wide area network、WAN)を含む任意のタイプのネットワークを通してユーザのコンピュータに接続することができ、又は接続は外部コンピュータ(例えば、インターネットサービスプロバイダを使用してインターネットを通して)に対して、又はクラウドコンピューティング環境において、又はサービス型ソフトウェア(Software as a Service、SaaS)などのサービスとして提供することができる。
本開示の態様は、本開示の実施形態による方法、装置(システム)、及びコンピュータプログラム製品のフローチャート図及び/又はブロック図を参照して、本明細書で説明される。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図におけるブロックの組み合わせは、コンピュータプログラム命令によって実装することができることが理解されよう。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能データ処理装置のプロセッサに提供され、コンピュータ又は他のプログラム可能命令実行装置のプロセッサを介して実行される命令が、フローチャート及び/又はブロック図ブロック又はブロックで指定された機能/動作を実装するための機構を作成するように、機械を生成することができる。
これらのコンピュータプログラム命令はまた、コンピュータ可読媒体に格納されてもよく、実行されたときに、コンピュータ、他のプログラム可能データ処理装置、又は他の装置が特定の方法で機能するように指示することができるため、コンピュータ可読媒体に格納されている場合、命令は、実行されたときに、コンピュータにフローチャート及び/又はブロック図のブロック又は複数のブロック内で指定された機能/作用を実装させる命令を含む製品を生成する。コンピュータプログラム命令はまた、コンピュータ、他のプログラム可能命令実行装置、又は他のデバイスにロードされて、一連の動作ステップをコンピュータ、他のプログラム可能装置、又は他のデバイス上で実行させ、コンピュータ実装プロセスを生成することができるので、コンピュータ又は他のプログラム可能装置上で実行される命令は、フローチャート及び/又はブロック図のブロック又は複数のブロック内で指定された機能/作用を実装するためのプロセスを提供する。
本明細書で使用される用語は、特定の実施形態のみを説明する目的のためであり、本発明を限定することを意図するものではないことを理解されたい。別途定義されない限り、本明細書で使用されるすべての用語(技術用語及び科学用語を含む)は、本開示が属する技術分野の当業者によって一般に理解されるのと同じ意味を有する。一般的に使用される辞書で定義されるものなどの用語は、本明細書及び関連技術に照らしてそれらの意味と一致する意味を有すると解釈されるべきであり、本明細書で明示的にそのように定義されない限り、理想的又は過度に形式的な意味で解釈されるべきではないことが更に理解されるであろう。
図のフローチャート及びブロック図は、本開示の様々な態様によるシステム、方法、及びコンピュータプログラム製品の可能な実装のアーキテクチャ、機能、及び動作を示す。これに関して、フローチャート又はブロック図の各ブロックは、指定された論理機能を実装するための1つ以上の実行可能命令を含む、コードのモジュール、セグメント、又は部分を表すことができる。また、いくつかの代替の実装では、ブロックに記載された機能は、図に記載された順序から発生し得ることにも留意されたい。例えば、連続して示される2つのブロックは、実際には実質的に同時に実行され得るか、又はブロックは、関与する機能に応じて、逆の順序で実行され得る。ブロック図及び/又はフローチャート図の各ブロック、並びにブロック図及び/又はフローチャート図におけるブロックの組み合わせは、特定の機能又は作用を実行する専用ハードウェアベースのシステム、又は専用ハードウェアとコンピュータ命令との組み合わせによって実装することができることにも留意されたい。
本明細書で使用される用語は、特定の態様のみを説明する目的のためであり、本開示を限定することを意図するものではない。本明細書で使用される場合、単数形「a」、「an」、及び「the」は、文脈が別途明確に示されない限り、複数形も含むことが意図される。本明細書で使用される場合、「含む」及び/又は「含んでいる」という用語は、記載された特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を排除しないことが更に理解されるであろう。本明細書で使用される場合、「及び/又は」という用語は、関連する列挙された項目のうちの1つ以上のいずれか及びすべての組み合わせを含む。図面の説明を通して、同様の参照番号は、同様の要素を示す。
以下の特許請求の範囲における任意の手段又はステップ並びに機能要素の対応する構造、材料、作用、及び等価物は、特に請求される他の特許請求される要素と組み合わせて機能を実行するための任意の開示された構造、材料、又は作用を含むことが意図される。本開示の説明は、例示及び説明の目的で提示されており、網羅的であること、又は開示された形態の開示に限定されることを意図するものではない。本開示の範囲及び趣旨から逸脱することなく、多くの修正及び変形が当業者には明らかであろう。本明細書の開示の態様は、本開示の原理及び実際の用途を最もよく説明するために選択及び記載され、当業者は、企図される特定の使用に適した様々な修正を伴う本開示を理解することを可能にする。

Claims (7)

  1. 外科手術中のコンピュータ支援ナビゲーションのための外科用システムであって、
    患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの三次元(3D)放射線表現を取得することと、
    前記3D放射線表現内の前記基準物のセットの場所を、カメラ追跡システムによって追跡される3D撮像空間に位置合わせすることを試みることと、
    前記セットの前記基準物のうちの1つが、前記3D撮像空間に正常に位置合わせされなかった場所を有すると判定することに基づいて、
    前記基準物が前記3D撮像空間に正常に位置合わせされていないことを示すグラフィックオーバーレイとともに、前記3D放射線表現の少なくとも1つのビューを表示することと、
    前記基準物が前記3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信することと、
    前記ユーザ供給場所情報に基づいて、前記基準物の前記場所を前記3D撮像空間に位置合わせすることと、を行うように動作可能な少なくとも1つのプロセッサを備え、
    前記基準物が前記3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信するための動作が、
    前記3D放射線表現及び/又は前記3D撮像空間内の前記基準物の3つの直交ビューを表示することと、
    前記3つの直交ビュー内の初期場所にオーバーレイされたグラフィックオブジェクトを表示することと、
    ユーザインターフェースを通したユーザからの入力に応答して、前記3つの直交ビュー内の前記グラフィックオブジェクトが表示されている場所を移動させることと、
    前記3つの直交ビュー内の前記グラフィックオブジェクトが表示されている場所に基づいて、前記3D放射線表現及び/又は前記3D撮像空間内の前記基準物の場所を判定することと、を含み、
    前記基準物の前記場所を前記3D撮像空間に位置合わせするための前記動作が、前記3D放射線表現内の前記基準物の判定された前記場所に基づき
    前記3つの直交ビュー内の前記初期場所にオーバーレイされた前記グラフィックオブジェクトを表示するための前記動作が、
    位置合わせ固定物テンプレートによって定義される基準物の相対位置に基づいて、前記基準物の予測場所に対応するように前記初期場所を判定することと、を含む
    外科用システム。
  2. 前記少なくとも1つのプロセッサが、前記3つの直交ビュー内の前記グラフィックオブジェクトが表示されている前記場所を移動させて、前記外科用システムの前記ユーザインターフェースを通して受信された方向の入力を追跡するように更に動作可能である、請求項に記載の外科用システム。
  3. 前記少なくとも1つのプロセッサが、
    前記カメラ追跡システムのカメラから動画で捕捉されたツールの場所を、前記ツールが、3D画像空間に正常に位置合わせされた前記基準物のうちの1つに向かってユーザによって移動されている間、追跡することと、
    前記3D撮像空間内の追跡された前記場所に従って、前記ツールの更新された表現を表示することと、
    前記ツールの追跡された前記場所のうちの指定された1つと、前記3D画像空間に位置合わせされた前記基準物のうちの前記1つの前記場所との比較に基づいて、前記3D画像空間に正常に位置合わせされた前記基準物のうちの前記1つの位置合わせ精度を確認することと、行うように更に動作可能である、請求項1に記載の外科用システム。
  4. 前記3D放射線表現内の前記基準物のセットの場所を前記カメラ追跡システムによって追跡される前記3D撮像空間に位置合わせすることを試みるための動作が、
    前記カメラ追跡システムの少なくとも1つのカメラから、前記患者に固定された基準アレイの光学画像を取得することであって、前記基準アレイが、前記3D撮像空間において前記カメラ追跡システムの前記少なくとも1つのカメラによって検出可能な光学マーカのセットを含む、取得することと、
    前記光学マーカのセットのパターンの場所を、前記3D放射線表現内の前記基準物のセットのパターンの場所に位置合わせすることを試みることと、
    前記位置合わせ固定物の前記基準物のうちのいずれにも正常に位置合わせされていない前記基準アレイの前記光学マーカのうちのいずれかを識別することと、を含む、請求項1に記載の外科用システム。
  5. 前記動作が、
    仮想インプラントデバイスを、前記標的解剖学的構造の前記3D放射線表現のビュー上にオーバーレイとして表示することと、
    前記標的解剖学的構造内への前記仮想インプラントデバイスの埋め込み軌道を表す前記仮想インプラントデバイスの軌道のグラフィック表示を表示することと、
    前記外科用システムのユーザインターフェースを通して受信されたステアリング入力を追跡するために、前記3D放射線表現の前記ビュー内に表示される前記仮想インプラントデバイスの前記軌道の前記グラフィック表示の姿勢を更新することと、
    前記仮想インプラントデバイスの計画軌道として、前記軌道の前記グラフィック表示の前記姿勢のうちのユーザが指定した1つを記憶することと、を行うことを更に含む、請求項1に記載の外科用システム。
  6. 前記動作が、
    インプラント計画のためにユーザによって選択可能なインプラントデバイスのセットを表示することと、
    前記ユーザインターフェースを通してユーザによって選択されたユーザ選択可能インプラントデバイスのセットのうちの1つのテンプレートに基づいて、前記仮想インプラントデバイスのグラフィック表現を生成することと、を行うことを更に含む、請求項に記載の外科用システム。
  7. 前記動作が、
    前記標的解剖学的構造の前記3D放射線表現の前記ビュー上のオーバーレイとして、仮想インプラントデバイスの前記計画軌道を表示することと、
    前記カメラ追跡システムの少なくとも1つのカメラから、前記仮想インプラントデバイスに対応する実インプラントデバイスに固定された基準アレイの光学画像を取得することであって、前記基準アレイが、前記3D撮像空間において前記カメラ追跡システムの前記少なくとも1つのカメラによって検出可能な光学マーカのセットを含む、取得することと、
    前記実インプラントデバイスが前記患者の前記標的解剖学的構造に対してユーザによって位置付けられている間に、前記光学画像内の前記基準アレイの姿勢に基づいて、前記3D撮像空間内の前記実インプラントデバイスの姿勢を追跡することと、
    前記3D撮像空間内の追跡された前記姿勢に従って、前記仮想インプラントデバイスの前記計画軌道に対する前記実インプラントデバイスの更新されたグラフィック表現を表示することと、を行うことを更に含む、請求項に記載の外科用システム。
JP2022067700A 2021-04-19 2022-04-15 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム Active JP7323672B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163176424P 2021-04-19 2021-04-19
US63/176,424 2021-04-19
US17/656,522 US20230081244A1 (en) 2021-04-19 2022-03-25 Computer assisted surgical navigation system for spine procedures
US17/656,522 2022-03-25

Publications (2)

Publication Number Publication Date
JP2022165410A JP2022165410A (ja) 2022-10-31
JP7323672B2 true JP7323672B2 (ja) 2023-08-08

Family

ID=81324951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022067700A Active JP7323672B2 (ja) 2021-04-19 2022-04-15 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム

Country Status (4)

Country Link
US (1) US20230081244A1 (ja)
EP (1) EP4079247A1 (ja)
JP (1) JP7323672B2 (ja)
CN (1) CN115211962A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115831341B (zh) * 2023-01-10 2023-05-26 浙江伽奈维医疗科技有限公司 一种手术导航的自适应注册系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019022658A (ja) 2017-07-21 2019-02-14 グローバス メディカル インコーポレイティッド ロボット外科用プラットフォーム
JP2020096795A (ja) 2018-10-19 2020-06-25 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作
US20210045813A1 (en) 2019-08-14 2021-02-18 Warsaw Orthopedic, Inc. Systems, devices, and methods for surgical navigation with anatomical tracking

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2676627B1 (en) * 2012-04-18 2021-07-28 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US20170209225A1 (en) * 2017-04-10 2017-07-27 Danling Wu Stereotactic medical procedure using sequential references and system thereof
US11540767B2 (en) * 2017-07-03 2023-01-03 Globus Medical Inc. Intraoperative alignment assessment system and method
WO2019028021A1 (en) * 2017-07-31 2019-02-07 Children's National Medical Center SYSTEM AND METHOD OF LOCATION BASED ON ARTIFICIAL VISION AND HYBRID EQUIPMENT
WO2019040829A1 (en) * 2017-08-24 2019-02-28 Amdt Holdings, Inc. METHODS AND SYSTEMS FOR DETERMINING ADJUSTMENT REQUIREMENTS OF EXTERNAL FIXING DEVICES
KR20200109292A (ko) * 2017-08-25 2020-09-22 쇼우푸 첸 치열 교정 응용에서 최적화 방법
WO2020163324A1 (en) * 2019-02-05 2020-08-13 Smith & Nephew Inc. Methods for improved surgical planning using machine learning and devices thereof
US11553969B1 (en) * 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
WO2021062001A1 (en) * 2019-09-24 2021-04-01 Nuvasive, Inc. Systems and methods for facilitating robotic surgical procedures
CN114746043A (zh) * 2019-09-26 2022-07-12 史赛克公司 外科导航系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019022658A (ja) 2017-07-21 2019-02-14 グローバス メディカル インコーポレイティッド ロボット外科用プラットフォーム
JP2020096795A (ja) 2018-10-19 2020-06-25 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作
US20210045813A1 (en) 2019-08-14 2021-02-18 Warsaw Orthopedic, Inc. Systems, devices, and methods for surgical navigation with anatomical tracking

Also Published As

Publication number Publication date
EP4079247A1 (en) 2022-10-26
CN115211962A (zh) 2022-10-21
JP2022165410A (ja) 2022-10-31
US20230081244A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
JP7290924B2 (ja) ロボット外科用プラットフォーム
US20230355347A1 (en) Methods And Systems For Display Of Patient Data In Computer-Assisted Surgery
US20240050156A1 (en) Surgical Systems And Methods For Providing Surgical Guidance With A Head-Mounted Device
JP7204663B2 (ja) 慣性計測装置を使用して手術の正確度を向上させるためのシステム、装置、及び方法
EP3443924B1 (en) A graphical user interface for use in a surgical navigation system with a robot arm
US11357581B2 (en) Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product
EP3375400A2 (en) Robotic navigation of robotic surgical systems
EP3711700B1 (en) System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
EP0571827B1 (en) System and method for augmentation of endoscopic surgery
US20070016008A1 (en) Selective gesturing input to a surgical navigation system
US20210361357A1 (en) Robot surgical platform
JP2021129984A (ja) 予定の器具アタッチメントの仮想モデルの表示により物理的器具アタッチメントの正しい選択を確実にする
JP2021171657A (ja) 手術中の支援されたナビゲーションのための拡張現実ヘッドセットのカメラによって追跡された参照アレイを備えた手術器具の位置合わせ
JP2021194538A (ja) 基準シードを介した可視光での外科手術での対象の追跡および合成画像登録
JP7323672B2 (ja) 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム
JP7282816B2 (ja) ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン
EP3733112A1 (en) System for robotic trajectory guidance for navigated biopsy needle
US20220338937A1 (en) Device For Navigating A Medical Instrument Relative To A Patient Anatomy
JP7460714B2 (ja) 頭蓋外科手術計画システム、制御方法およびコンピュータプログラム製品
US20230368418A1 (en) Accuracy check and automatic calibration of tracked instruments
US20230165640A1 (en) Extended reality systems with three-dimensional visualizations of medical image scan slices
Gieseler et al. Design of smart tools to support preand intra-operative use of surgical navigation systems: Concepts of microcontroller-based display and actuator modules.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230727

R150 Certificate of patent or registration of utility model

Ref document number: 7323672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150