JP2021126521A - 患者の骨を画像化するための画像化デバイスの最適な3次元位置および配向を判定するシステムおよび方法 - Google Patents

患者の骨を画像化するための画像化デバイスの最適な3次元位置および配向を判定するシステムおよび方法 Download PDF

Info

Publication number
JP2021126521A
JP2021126521A JP2021023308A JP2021023308A JP2021126521A JP 2021126521 A JP2021126521 A JP 2021126521A JP 2021023308 A JP2021023308 A JP 2021023308A JP 2021023308 A JP2021023308 A JP 2021023308A JP 2021126521 A JP2021126521 A JP 2021126521A
Authority
JP
Japan
Prior art keywords
orientation
arm
imaging
imaging arm
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021023308A
Other languages
English (en)
Inventor
ジョンソン ノーバート
Johnson Norbert
ジョンソン ノーバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Globus Medical Inc
Original Assignee
Globus Medical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Globus Medical Inc filed Critical Globus Medical Inc
Publication of JP2021126521A publication Critical patent/JP2021126521A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4021Arrangements for generating radiation specially adapted for radiation diagnosis involving movement of the focal spot
    • A61B6/4028Arrangements for generating radiation specially adapted for radiation diagnosis involving movement of the focal spot resulting in acquisition of views from substantially different positions, e.g. EBCT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/545Control of apparatus or devices for radiation diagnosis involving automatic set-up of acquisition parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • A61B6/584Calibration using calibration phantoms determining position of components of the apparatus or device using images of the phantom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Dentistry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Manipulator (AREA)

Abstract

【課題】身体インプラントまたは椎体などの身体構造の画像を撮影するための画像化アームの最適な3次元位置および配向を判定する方法を提供する。【解決手段】関心対象の椎体のテスト画像が、最初にユーザによって撮影され、画像化デバイスによって受信される。テスト画像は通常、椎体のAPおよび横方向X線画像を含む。テスト画像から、椎体がセグメント化される。次いで、椎体の3次元モデルが、テスト画像内の対応する椎体に対して整合される。整合に基づいて、最適なAPおよび横方向X線画像を撮影するための画像化アームの3次元位置および配向が、整合された3次元モデルに基づいて判定される。本方法は、最適な画像を見つけるために手動でフルオロショットを繰り返し撮影する必要性を排除し、それにより、処置時間、X線曝露、および処置コストを低減する。【選択図】図27B

Description

関連出願の相互参照
本出願は、2020年2月17日に出願された米国仮出願第62/977,435号および2020年3月16日に出願された米国仮出願第62/990,064号の優先権を主張するものであり、これらの出願はいずれも、その全体が参照により本明細書に組み込まれる。
本開示は、外科用画像化システム、特に、ロボット支援手術のための2次元画像化デバイスの3次元位置および配向を判定するためのシステムに関する。
外科医は、脊椎の画像化を使用して、椎体間スペーサおよび椎弓根スクリューなどのインプラントの正確な配置を支援する。脊椎処置は、より大きな切開のために外科医が脊椎の良好な視認可能性を有する開腹手術、または非常に小さな切開のために外科医が脊椎の視認可能性を有しない低侵襲手術(MIS)である可能性がある。脊椎処置がロボット支援または少なくともナビゲーション支援MISに移行するにつれて、脊椎インプラントを正確に配置するために、より多くのX線画像が必要になる。今日、Cアームは、2次元(2D)X線画像(代替的に、および同義的に「フルオロ」画像と称する)を生成する、使用されている主要な外科用画像化システムである。典型的なフルオロ画像は、前後(AP)画像である(図19Aの1902を参照)。1つの2D画像では深度を判定できないため、AP画像から90度オフセットされた第2の画像が撮影される。これは、図19Bに見られるように、横方向画像1904と呼ばれる。
外科医がインプラントを解剖学的構造に整合させることができるように、Cアームを脊椎の椎体に適切に整合させることが重要である。図20は、腰椎の斜めの不適切に整合された横方向画像を示している。かかる画像の不整合があると、経験豊富な外科医でもインプラントを正確に配置することは非常に困難である。
最適な画像を撮影するために、放射線技師(RT)は、AP画像および横方向画像の各々に対してCアームまたは患者用ベッドを繰り返し位置付けする。各位置調整後、フルオロ画像が撮影され、検査される。経験豊富なRTの場合、良好なAPまたは横方向画像を取得するためのショット数は3つである。経験の浅いRTの場合、その数値は10を超える。各椎骨レベルには2つの画像(APと横方向)が必要なため、3つの椎骨レベルを含む脊椎の場合は、経験豊富なRTによって各レベルで少なくとも6つのフルオロショット(APに3ショット、横方向に3ショット)、総計18のフルオロショットが必要になる。経験の浅いRTの場合、同じ3つの椎骨処置のためのフルオロショットの総数は60を超える場合がある(APに10ショット、横方向に10ショット)。
理解されているように、典型的な脊椎処置は、患者、RT、および外科医を大量の放射線に曝露させる。さらに、手術中の多数のフルオロショットは、外科処置を遅くし、患者へのリスクを大幅に高め、コストを高くする。
したがって、脊椎手術に必要なフルオロショットの数を減らすためのシステムおよび方法を提供することが望ましいであろう。
このニーズおよび他のニーズを満たすために、画像化デバイスの画像化アームの最適な3次元位置および配向を判定するためのデバイス、システム、および方法が提供される。
本発明の一態様によれば、椎体の画像を撮影するための画像化アームの最適な3次元位置および配向を決定する方法。この方法によれば、椎体のテスト画像がユーザによって撮影され、画像化デバイスによって受信される。テスト画像は、椎体のX線画像と、第1のX線画像とは異なる角度での第2のX線画像とを含む。通常、2つの画像は互いに約90度で撮影される。テスト画像から、関心対象の椎体がユーザまたはコンピュータのいずれかによって識別される。次いで、椎体は、ユーザからの助けの有無にかかわらず、コンピュータによってセグメント化される。次いで、椎体の3次元モデルが、テスト画像内の対応する椎体に対して整合される。整合に基づいて、最適なAPおよび横方向X線画像を撮影するための画像化アームの3次元位置および配向が、整合された3次元モデルに基づいて判定される。
コンピュータに画像化デバイスの画像化アームの最適な位置および配向を判定させることにより、本方法は、最適な画像を見つけるために手動でフルオロショットを繰り返し撮影する必要性を排除する。
外科処置の間のロボットシステム、患者、外科医、および他の医療関係者の場所についての潜在的配置の頭上図である。 一実施形態に係る患者に対する外科用ロボットおよびカメラの位置付けを含むロボットシステムを例解する。 例示的な実施形態に従う外科用ロボットシステムを例解する。 例示的な実施形態に従う外科用ロボットの一部分を例解する。 例示的な実施形態に従う外科用ロボットのブロック図を例解する。 例示的な実施形態に従う外科用ロボットを例解する。 例示的な実施形態に従うエンドエフェクタを例解する。 例示的な実施形態に従うエンドエフェクタを例解する。 例示的な実施形態に従うエンドエフェクタを例解する。 一実施形態に係るエンドエフェクタの誘導管への外科用器具の挿入前および後の、外科用器具およびエンドエフェクタを例解する。 例示的な実施形態に従うエンドエフェクタおよびロボットアームの一部分を例解する。 例示的な実施形態に従うエンドエフェクタおよびロボットアームの一部分を例解する。 例示的な実施形態に従うエンドエフェクタおよびロボットアームの一部分を例解する。 例示的な実施形態に従う動的参照アレイ、画像化アレイ、および他の構成要素を例解する。 例示的な実施形態に従う位置合わせ方法を例解する。 例示的な実施形態に係る画像化デバイスの実施形態を示す。 例示的な実施形態に係る画像化デバイスの実施形態を示す。 例示的な実施形態に従うロボットアームおよびエンドエフェクタを含むロボットの一部分を例解する。 図13Aに示された、複数の追跡マーカが強固に取り付けられた、エンドエフェクタのクローズアップ図である。 一実施形態に係る複数の追跡マーカが強固に取り付けられたツールまたは器具である。 移動可能な追跡マーカが第1の構成にあるエンドエフェクタの代替版である。 移動可能な追跡マーカが第2の構成にある図14Aに示されたエンドエフェクタである。 図14Aからの第1の構成における追跡マーカのテンプレートを示す。 図14Bからの第2の構成における追跡マーカのテンプレートを示す。 単一追跡マーカのみが取り付けられたエンドエフェクタの代替版を示す。 器具が誘導管を通して配置された図15Aのエンドエフェクタを示す。 2つの異なる位置における器具を伴う図15Aのエンドエフェクタ、および器具が誘導管内または誘導管の外側に位置付けられているかを判定するための結果として生じる論理を示す。 2つの異なるフレームにおける誘導管内の器具を伴う図15Aのエンドエフェクタ、および誘導管上の単一追跡マーカに対するその相対距離を示す。 座標系に対して図15Aのエンドエフェクタを示す。 ロボットのエンドエフェクタを所望の対象軌道へとナビゲートして移動させるための方法のブロック図である。 それぞれ、収縮および拡張位置に固定され、かつ移動可能な追跡マーカを有する拡張可能なインプラントを挿入するための器具を描写する。 それぞれ、収縮および拡張位置に固定され、かつ移動可能な追跡マーカを有する拡張可能なインプラントを挿入するための器具を描写する。 それぞれ、挿入および角度付き位置に固定され、かつ移動可能な追跡マーカを有する関節インプラントを挿入するための器具を描写する。 それぞれ、挿入および角度付き位置に固定され、かつ移動可能な追跡マーカを有する関節インプラントを挿入するための器具を描写する。 脊椎の典型的なAPおよび横方向画像を示す。 脊椎の典型的なAPおよび横方向画像を示す。 背骨の不整合の横方向画像を示す。 本発明の一態様による、椎体の最適な画像を撮影するための画像化デバイスの画像化アームの3次元位置を判定する方法を示す。 本発明の一態様による追跡マーカを有する較正リングを示す。 本発明の一態様による、Cアームの3D位置および配向に関して自動位置決め機能を有するX線画像化デバイスの例。 本発明の一態様による、異なる椎骨レベルで利用可能な画像の選択を示すグラフィカルユーザインターフェースの例。 本発明の一態様による、隣接する椎骨レベルでの追加の利用可能な画像の選択を示すグラフィカルユーザインターフェースの例。 本発明の一態様による、Cアームを最適な位置に位置付けるようにユーザを案内するグラフィカルユーザインターフェースの例。 本発明の一態様による椎体のセグメント化を実行する方法の描出。 本発明の一態様による、選択された椎体の3DモデルをスキャンされたAPおよび横方向画像に整合させる方法を図式的に示す。 本発明の一態様による、選択された椎体の3DモデルをスキャンされたAPおよび横方向画像に整合させる方法を図式的に示す。
本開示は、その用途において、本明細書における説明に記載される、または図面において例解される、構成要素の構築および配設の詳細に制限されないことが理解されるものとする。本開示の教示は、他の実施形態において使用および実践されてもよく、種々の方式で実践または実行されてもよい。また、本明細書において使用される専門表現および専門用語が、説明目的のためであり、制限として見なされるべきではないことが理解されるものとする。本明細書における「含む(including)」、「備える(comprising)」、または「有する(having)」、およびこれらの変化形の使用は、その後に列記される項目、およびそれらの同等物、ならびに追加の項目を包含することが意味される。別途指定または制限されない限り、「装着された(mounted)」、「接続された(connected)」、「支持された(supported)」、および「連結された(coupled)」という用語、ならびにこれらの変化形は、広義に使用され、直接的および間接的双方の装着、接続、支持、および連結を包含する。さらに、「接続された(connected)」および「連結された(coupled)」は、物理的もしくは機械的接続または連結に制限されない。
以下の考察は、当業者が本開示の実施形態を作製および使用することを可能にするために提示される。例解される実施形態への種々の修正は、当業者に容易に明らかになり、本明細書における原理は、本開示の実施形態から逸脱することなく、他の実施形態および用途に適用され得る。このため、実施形態は、示される実施形態に制限されることを意図しないが、本明細書において開示される原理および特性と一致する最も広い範囲が与えられるものとする。以下の発明を実施するための形態は、異なる図面における同様の要素が同様の参照番号を有する図面を参照して読まれるものとする。図面は、必ずしも縮尺通りではなく、選択された実施形態を描写し、実施形態の範囲を制限することを意図しない。当業者は、本明細書において提供される実施例が、多くの有用な代替物を有し、実施形態の範囲内にあることを認識するであろう。
ここで、図面を参照すると、図1および2は、例示的な実施形態に従って外科用ロボットシステム100を例解する。外科用ロボットシステム100は、例えば、外科用ロボット102、1つ以上のロボットアーム104、基部106、表示器110、例えば、誘導管114を含む、エンドエフェクタ112、および1つ以上の追跡マーカ118を含んでもよい。外科用ロボットシステム100は、患者追跡デバイス116を含んでもよく、また、患者追跡デバイス116は、1つ以上の追跡マーカ118を含み、それは、患者210に(例えば、患者210の骨に)直接固設されるように適合される。外科用ロボットシステム100はまた、例えば、カメラスタンド202上に位置付けられた、カメラ200を利用してもよい。カメラスタンド202は、カメラ200を所望の位置に移動、配向、および支持するために、任意の好適な構成を有することができる。カメラ200は、任意の好適なカメラまたは複数のカメラ、例えば、カメラ200の視点から見ることができる所与の測定量においてアクティブおよびパッシブ追跡マーカ118を識別することができる、例えば、1つ以上の赤外カメラ(例えば、2焦点または立体写真測量カメラ)などを含んでもよい。カメラ200は、所与の測定量をスキャンしてもよく、3次元におけるマーカ118の位置を識別および判定するために、マーカ118から来る光を検出してもよい。例えば、アクティブマーカ118は、電気信号(例えば、赤外発光ダイオード(LED))によって作動される赤外発光マーカを含んでもよく、パッシブマーカ118は、例えば、カメラ200または他の好適なデバイス上の照明器によって発出される赤外光を反射するレトロな反射性マーカ(例えば、それらは、入射光の方向に入射するIR放射を反射する)を含んでもよい。
図1および2は、動作室環境における外科用ロボットシステム100の配置のための潜在的な構成を例解する。例えば、ロボット102は、患者210の近くまたは次に位置付けられてもよい。患者210の頭部の近くが描写されるが、ロボット102は、手術を受けている患者210のエリアに応じて、患者210の近くの任意の好適な場所に位置付けることができることが理解されるであろう。カメラ200は、ロボットシステム100から分離されてもよく、患者210の足に位置付けられてもよい。この場所は、カメラ200が、手術野208への直接的な視線を有することを可能にする。再度、カメラ200は、手術野208への見通し線を有する任意の好適な位置に位置してもよいことが意図される。示される構成において、外科医120は、ロボット102の向かいに位置付けられてもよいが、依然として、エンドエフェクタ112および表示器110を操作することができる。外科助手126は、さらにまた、エンドエフェクタ112および表示器110の双方にアクセス可能に、外科医120の向かいに位置付けられてもよい。所望される場合、外科医120および助手126の場所は、逆にされてもよい。麻酔医122および看護師または洗浄技師124のための伝統的なエリアは、ロボット102およびカメラ200の場所によって妨げられないままである。
ロボット102の他の構成要素に関して、表示器110は、外科用ロボット102に取り付けることができ、他の例示的な実施形態において、表示器110は、外科用ロボット102を伴う手術室内、または遠隔の場所のいずれかにおいて、外科用ロボット102から取り外すことができる。エンドエフェクタ112は、ロボットアーム104に連結されてもよく、少なくとも1つのモータによって制御されてもよい。例示的な実施形態において、エンドエフェクタ112は、患者210上で手術を実行するために使用される(本明細書においてさらに説明される)外科用器具608を受容および配向することができる、誘導管114を備えることができる。本明細書で使用される場合、「エンドエフェクタ」という用語は、「エンドエフェクタ」および「エフェクタ要素」という用語と同義的に使用される。一般に誘導管114で示されているが、エンドエフェクタ112は、手術での使用に好適な任意の好適な器具で置き換えられてもよいことが理解されよう。いくつかの実施形態において、エンドエフェクタ112は、所望の様態における外科用器具608の移動をもたらすために任意の既知の構造を備えることができる。
外科用ロボット102は、エンドエフェクタ112の並進および配向を制御することができる。ロボット102は、例えば、x、y、およびz軸に沿って、エンドエフェクタ112を動かすことができる。エンドエフェクタ112は、(エンドエフェクタ112と関連付けられるオイラー角(例えば、ロール、ピッチ、および/またはヨー)のうちの1つ以上を選択的に制御することができるように)x、y、およびz軸、ならびにZフレーム軸のうちの1つ以上の周囲の選択的回転のために構成することができる。いくつかの例示的な実施形態において、エンドエフェクタ112の並進および配向の選択的制御は、例えば、回転軸のみを備える6自由度のロボットアームを利用する従来のロボットと比較して、有意に改善された精度でもって医療処置の実行を可能にすることができる。例えば、外科用ロボットシステム100は、患者210を手術するために使用されてもよく、ロボットアーム104は、患者210の身体の上方に位置付けることができ、エンドエフェクタ112は、患者210の身体に向かってz軸に対して選択的に角度が付けられる。
一部の例示的な実施形態において、外科用器具608の位置は、外科用ロボット102が、処置中、常に外科用器具608の場所を認識することができるように、動的に更新することができる。結果として、いくつかの例示的な実施形態において、外科用ロボット102は、医師からのいかなる更なる支援も伴わずに(医師がそのように所望しない限り)素早く所望の位置に外科用器具608を移動させることができる。いくつかの更なる実施形態において、外科用ロボット102は、外科用器具608が、選択された、事前に計画された軌道から外れた場合、外科用器具608の経路を補正するように構成することができる。いくつかの例示的な実施形態において、外科用ロボット102は、エンドエフェクタ112および/または外科用器具608の移動の停止、修正、および/または手動制御を可能にするように構成することができる。このため、使用中、例示的な実施形態において、医師または他のユーザは、システム100を動作させることができ、エンドエフェクタ112および/または外科用器具608の自主的な移動を停止、修正、または手動で制御するオプションを有する。外科用ロボット102による外科用器具608の制御および移動を含む、外科用ロボットシステム100の更なる詳細は、その全体が参照により本明細書に組み込まれる、同時係属中の米国特許出願第13/924,505号において見出すことができる。
ロボット外科用システム100は、3次元においてロボットアーム104、エンドエフェクタ112、患者210、および/または外科用器具608の移動を追跡するように構成された1つ以上の追跡マーカ118を備えることができる。例示的な実施形態において、複数の追跡マーカ118は、例えば、制限することなく、ロボット102の基部106上、ロボットアーム104上、またはエンドエフェクタ112上などの、ロボット102の外表面に装着(または別様に固設)することができる。例示的な実施形態において、複数の追跡マーカ118のうちの少なくとも1つの追跡マーカ118は、エンドエフェクタ112に装着または別様に固設することができる。1つ以上の追跡マーカ118は、さらに患者210に装着(または別様に固設)することができる。例示的な実施形態において、複数の追跡マーカ118は、外科医、外科用ツール、またはロボット102の他のパーツによって遮られる可能性を低減するように、手術野208から離間して、患者210上に位置付けることができる。さらに、1つ以上の追跡マーカ118は、外科用ツール608(例えば、スクリュードライバ、拡張器、インプラント挿入器、または同様のもの)にさらに装着(または別様に固設)することができる。このため、追跡マーカ118は、マークされた物体(例えば、エンドエフェクタ112、患者210、および外科用ツール608)の各々が、ロボット102によって追跡されることを可能にする。例示的な実施形態において、システム100は、例えば、エンドエフェクタ112、(例えば、エンドエフェクタ112の管114内に位置付けられた)外科用器具608の、配向および場所、ならびに患者210の相対位置を計算するために、マークされた物体の各々から収集された追跡情報を使用することができる。
例示的な実施形態において、マーカ118のうちの1つ以上は、光学マーカであってもよい。いくつかの実施形態において、エンドエフェクタ112上の1つ以上の追跡マーカ118の位置付けは、エンドエフェクタ112の位置をチェックまたは検証する役割を果たすことによって、位置測定値の精度を最大化することができる。外科用ロボット102および外科用器具608の制御、移動、ならびに追跡を含む、外科用ロボットシステム100の更なる詳細は、その全体が参照により本明細書に組み込まれる、同時係属中の米国特許出願第13/924,505号において見出すことができる。
例示的な実施形態は、外科用器具608に連結された1つ以上のマーカ118を含む。例示的な実施形態において、例えば、患者210および外科用器具608に連結される、これらのマーカ118、ならびにロボット102のエンドエフェクタ112に連結されるマーカ118は、従来の赤外発光ダイオード(LED)または、例えば、Optotrak(登録商標)などの商業的に入手可能な赤外光追跡システムを使用して追跡されることが可能なOptotrak(登録商標)ダイオードを備えることができる。Optotrak(登録商標)は、Northern Digital Inc.,Waterloo,Ontario,Canadaの登録商標である。他の実施形態において、マーカ118は、商業的に入手可能な光学追跡システム、例えば、Polaris Spectraなどを使用して追跡されることが可能な従来の反射性球体を備えることができる。Polaris Spectraはまた、Northern Digital Inc.の登録商標である。例示的な実施形態において、エンドエフェクタ112に連結されたマーカ118は、オンおよびオフにされ得る赤外発光ダイオードを備えるアクティブマーカであり、患者210および外科用器具608に連結されるマーカ118は、パッシブ反射性球体を備える。
例示的な実施形態において、マーカ118から発出されたおよび/またはマーカ118によって反射された光は、カメラ200によって検出することができ、マークされた物体の場所および移動を監視するために使用することができる。代替の実施形態において、マーカ118は、無線周波数および/もしくは電磁リフレクタまたはトランシーバを備えることができ、カメラ200は、無線周波数および/もしくは電磁トランシーバを含むか、またはそれによって置き換えることができる。
外科用ロボットシステム100と同様に、図3は、本開示の例示的な実施形態と一致するドッキング型構成における、外科用ロボットシステム300およびカメラスタンド302を例解する。外科用ロボットシステム300は、表示器304、上部アーム306、下部アーム308、エンドエフェクタ310、垂直カラム312、キャスター314、キャビネット316、タブレット引き出し318、コネクタパネル320、制御パネル322、および情報のリング部324を含む、ロボット301を備えてもよい。カメラスタンド302は、カメラ326を備えてもよい。これらの構成要素は、図5に関してより多く、説明される。図3は、カメラスタンド302が、例えば、使用中でないときに、ロボット301と入れ子にされる、ドッキング型構成における外科用ロボットシステム300を例解する。カメラ326およびロボット301は、例えば、図1および2に示されるように、外科処置中に、互いに分離してもよく、任意の適切な場所に位置付けられてもよいことが、当業者によって理解されるであろう。
図4は、本開示の例示的な実施形態と一致する基部400を例解する。基部400は、外科用ロボットシステム300の一部分であってもよく、キャビネット316を備えてもよい。キャビネット316は、限定されるものではないが、バッテリ402、配電モジュール404、プラットホームインターフェースボードモジュール406、コンピュータ408、ハンドル412、およびタブレット引き出し414を含む、外科用ロボットシステム300のある構成要素を収容してもよい。これらの構成要素間の接続および関係は、図5に関してより詳細に説明される。
図5は、外科用ロボットシステム300の例示的な実施形態のある構成要素のブロック図を例解する。外科用ロボットシステム300は、プラットホームサブシステム502、コンピュータサブシステム504、動き制御サブシステム506、および追跡サブシステム532を備えてもよい。プラットホームサブシステム502は、バッテリ402、配電モジュール404、プラットホームインターフェースボードモジュール406、およびタブレット充電ステーション534をさらに備えてもよい。コンピュータサブシステム504は、コンピュータ408、表示器304、およびスピーカ536をさらに備えてもよい。動き制御サブシステム506は、ドライバ回路508、モータ510、512、514、516、518、安定器520、522、524、526、エンドエフェクタ310、およびコントローラ538をさらに備えてもよい。追跡サブシステム532は、位置センサ540およびカメラ変換器542をさらに備えてもよい。システム300はまた、フットペダル544およびタブレット546を備えてもよい。
入力電力は、電源548を介してシステム300に供給され、それは、配電モジュール404に提供されてもよい。配電モジュール404は、入力電力を受け取り、システム300の他のモジュール、構成要素、およびサブシステムに提供される異なる電力供給電圧を発生するように構成される。配電モジュール404は、異なる電圧供給をプラットホームインターフェースモジュール406に提供するように構成されてもよく、それは、例えば、コンピュータ408、表示器304、スピーカ536、ドライバ508などの他の構成要素に、例えば、電力モータ512、514、516、518およびエンドエフェクタ310、モータ510、リング部324、カメラ変換器542、ならびにシステム300のための他の構成要素、例えば、キャビネット316内の電気構成要素を冷却するための送風機に提供されてもよい。
配電モジュール404はまた、電力を他の構成要素、例えば、タブレット引き出し318内に位置し得るタブレット充電ステーション534などに提供してもよい。タブレット充電ステーション534は、テーブル546を充電するためにタブレット546と無線または有線通信してもよい。タブレット546は、本開示と一致するおよび本明細書に説明される、外科医によって使用されてもよい。
配電モジュール404はまた、バッテリ402に接続されてもよく、それは、万一、配電モジュール404が入力電力548から電力を受信しない場合、臨時電源として役割を果たす。他の時には、配電モジュール404は、必要な場合、バッテリ402を充電する役割を果たしてもよい。
プラットホームサブシステム502の他の構成要素はまた、コネクタパネル320、制御パネル322、およびリング部324を含んでもよい。コネクタパネル320は、異なるデバイスおよび構成要素をシステム300および/または関連付けられた構成要素ならびにモジュールに接続する役割を果たしてもよい。コネクタパネル320は、異なる構成要素からの線路または接続を受け入れる1つ以上のポートを含んでもよい。例えば、コネクタパネル320は、システム300を他の機器に接地し得る接地端子ポートと、フットペダル544をシステム300に接続するためのポートと、位置センサ540、カメラ変換器542、およびカメラスタンド302と関連付けられたカメラ326を備え得る追跡サブシステム532に接続するためのポートと、を有してもよい。[コネクタパネル320のポートは、スキャンされた画像を受信し、画像化デバイスに取り付けられた光学/ナビゲーションマーカに基づいてCアームの位置および配向を制御するための画像化デバイスにも接続することができる]コネクタパネル320はまた、コンピュータ408などの他の構成要素へのUSB、Ethernet、HDMI通信を可能にする他のポートを含み得る。
制御パネル322は、システム300の動作を制御する種々のボタンもしくは指示器を提供してもよく、および/またはシステム300に関する情報を提供してもよい。例えば、制御パネル322は、システム300の電源をオンまたはオフにするためのボタン、垂直カラム312を上げるまたは下げるためのボタン、およびキャスター314に係合してシステム300が物理的に移動することを係止するように設計され得る安定器520〜526を上げるまたは下げるためのボタンを含んでもよい。万一緊急の場合には、他のボタンがシステム300を停止してもよく、それは、全てのモータ電力をなくし得、全ての動きの発生を停止するために機械的制動を加え得る。制御パネル322はまた、ユーザにあるシステム状況を通知する指示器、例えば、線路電力指示器など、またはバッテリ402用の充電の状態を通知する指示器を有してもよい。
リング部324は、システム300のユーザに、システム300が不十分に動作している異なるモードおよび該ユーザへのある警告を通知するための視覚的指示器であってもよい。
コンピュータサブシステム504は、コンピュータ408、表示器304、およびスピーカ536を含む。コンピュータ504は、システム300を動作させるためのオペレーティングシステムおよびソフトウェアを含む。コンピュータ504は、情報をユーザに表示するために、他の構成要素(例えば、追跡サブシステム532、プラットホームサブシステム502、および/または動き制御サブシステム506)からの情報を受信および処理してもよい。さらに、コンピュータサブシステム504はまた、音声をユーザに提供するためにスピーカ536を含んでもよい。
追跡サブシステム532は、位置センサ504および変換器542を含んでもよい。追跡サブシステム532は、図3に関して説明されたようなカメラ326を含むカメラスタンド302に対応してもよい。位置センサ504は、カメラ326であってもよい。追跡サブシステムは、外科処置中にユーザによって使用されるシステム300および/または器具の異なる構成要素上に位置するあるマーカの場所を追跡してもよい。この追跡は、それぞれ、アクティブまたはパッシブ要素、例えば、LEDまたは反射性マーカなどの場所を追跡する赤外技術の使用を含む、本開示と一致する様態で行われてもよい。これらの種類のマーカを有する構造の場所、配向、および位置は、コンピュータ408に提供されてもよく、それは、表示器304上でユーザに示されてもよい。例えば、これらの種類のマーカを有し、(ナビゲーション空間として呼ばれ得る)この様態で追跡される外科用器具608が、患者の解剖学的構造の3次元画像に関連してユーザに示されてもよい。
動き制御サブシステム506は、垂直カラム312、上部アーム306、下部アーム308を物理的に移動させる、またはエンドエフェクタ310を回転させるように構成されてもよい。物理的移動は、1つ以上のモータ510〜518の使用を通じて行われてもよい。例えば、モータ510は、垂直カラム312を垂直に上げるまたは下げるように構成されてもよい。モータ512は、図3に示されるように垂直カラム312との係合点の周囲に、上部アーム308を横に移動させるように構成されてもよい。モータ514は、図3に示されるように上部アーム308との係合点の周囲に、下部アーム308を横に移動させるように構成されてもよい。モータ516および518は、一方がロールを制御し得、かつもう一方が傾きを制御し得るような様態で、エンドエフェクタ310を移動させるように構成されてもよく、それによって、エンドエフェクタ310が移動され得る複数の角度を提供する。これらの移動は、コントローラ538によって達成されてもよく、そのコントローラは、エンドエフェクタ310上に配置されたロードセルを通してこれらの移動を制御し得、ユーザが、これらのロードセルを係合することによって作動され得、所望の様態においてシステム300を移動させる。
さらに、システム300は、ユーザが、(タッチスクリーン入力デバイスであってもよい)表示器304上に、表示器304上の患者の解剖組織の3次元画像上に外科用器具または構成要素の場所を指示することを通じて、垂直カラム312、上部アーム306、および下部アーム308の自動移動を提供してもよい。ユーザは、フットペダル544を踏むことまたはいくつかの他の入力手段によって、この自動移動を開始してもよい。
図6は、例示的な実施形態と一致する外科用ロボットシステム600を例解する。外科用ロボットシステム600は、エンドエフェクタ602、ロボットアーム604、誘導管606、器具608、およびロボット基部610を備えてもよい。器具ツール608は、1つ以上の追跡マーカ(例えば、マーカ118など)を含む追跡アレイ612に取り付けられてもよく、関連付けられた軌道614を有してもよい。軌道614は、器具ツール608が、一度それが誘導管606を通して位置付けられるまたは誘導管606内に固設されると進むように構成される移動の経路、例えば、患者への器具ツール608の挿入の経路を表現してもよい。例示的な動作において、ロボット基部610は、外科用ロボットシステム600が、患者210上で動作している際に、ユーザ(例えば、外科医)を支援し得るように、ロボットアーム604およびエンドエフェクタ602と電子通信するように構成されてもよい。外科用ロボットシステム600は、前に説明された外科用ロボットシステム100および300と一致してもよい。
追跡アレイ612は、器具ツール608の場所および配向を監視するために、器具608上に装着されてもよい。追跡アレイ612は、器具608に取り付けられてもよく、追跡マーカ804を備えてもよい。図8に最も良く見られるように、追跡マーカ804は、例えば、発光ダイオードおよび/または他の種類の反射性マーカ(例えば、本明細書における他の箇所に説明されるようなマーカ118)であってもよい。追跡デバイスは、外科用ロボットシステムと関連付けられた1つ以上の見通し線デバイスであってもよい。例として、追跡デバイスは、外科用ロボットシステム100、300と関連付けられた1つ以上のカメラ200、326であってもよく、また、ロボットアーム604、ロボット基部610、エンドエフェクタ602、および/または患者210に対する器具608の画定された領域または相対的配向について追跡アレイ612を追跡してもよい。追跡デバイスは、カメラスタンド302および追跡サブシステム532と併せて説明された構造のものと一致してもよい。
図7A、7B、および7Cは、例示的な実施形態と一致するエンドエフェクタ602のそれぞれ、上面図、正面図、および側面図を例解する。エンドエフェクタ602は、1つ以上の追跡マーカ702を備えてもよい。追跡マーカ702は、発光ダイオードまたは他の種類のアクティブおよびパッシブマーカ、例えば、前に説明した追跡マーカ118などであってもよい。例示的な実施形態において、追跡マーカ702は、電気信号によって作動されるアクティブ赤外発光マーカ(例えば、赤外発光ダイオード(LED))である。このため、追跡マーカ702は、赤外マーカ702がカメラ200、326に対して視認可能であるように作動させてもよく、または赤外マーカ702がカメラ200、326に対して視認可能でないように非作動にしてもよい。このため、マーカ702がアクティブであるとき、エンドエフェクタ602は、システム100、300、600によって制御されてもよく、マーカ702が非作動にされるとき、エンドエフェクタ602は、適所に係止され、システム100、300、600によって移動されることができない可能性がある。
マーカ702は、マーカ702が、外科用ロボットシステム100、300、600と関連付けられた1つ以上のカメラ200、326または他の追跡デバイスによって視認可能であるような様態で、エンドエフェクタ602上または内に配置されてもよい。カメラ200、326または他の追跡デバイスは、追跡マーカ702の移動を追うことによって、エンドエフェクタ602を、それが異なる位置および視野角に移動する際に、追跡してもよい。マーカ702および/またはエンドエフェクタ602の場所は、外科用ロボットシステム100、300、600と関連付けられた表示器110、304、例えば、図2に示されるような表示器110および/または図3に示される表示器304上に示されてもよい。この表示器110、304は、ユーザが、エンドエフェクタ602が、ロボットアーム604、ロボット基部610、患者210、および/またはユーザに対する望ましい位置にあることを確保することを可能にし得る。
例えば、図7Aに示されるように、マーカ702は、追跡デバイスが、手術野208から離れて配置され、ロボット102、301の方に向くように、かつ、カメラ200、326が、追跡デバイス100、300、600に対するエンドエフェクタ602の共通配向の範囲を通してマーカ702のうちの少なくとも3つを見ることができるように、エンドエフェクタ602の表面の周囲に配置されてもよい。例えば、マーカ702の分配は、このようにして、エンドエフェクタ602が手術野208において並進および回転されるときに、エンドエフェクタ602が追跡デバイスによって監視されることを可能にする。
加えて、例示的な実施形態において、エンドエフェクタ602は、外部カメラ200、326がマーカ702を読み取る準備ができたときを検出することができる赤外(IR)受信機を装備してもよい。この検出の直後、エンドエフェクタ602は、次いで、マーカ702を照明してもよい。外部カメラ200、326がマーカ702を読み取る準備ができているというIR受信機による検出は、外部カメラ200、326に、発光ダイオードであり得るマーカ702のデューティーサイクルを同期させる必要性を信号で伝えてもよい。これはまた、全体としてロボットシステムによる低電力消費を可能にし得、それによって、マーカ702が、連続的に照明される代わりに、適時にのみ照明されるであろう。さらに、例示的な実施形態において、マーカ702は、他のナビゲーションツール、例えば、異なる種類の外科用器具608などとの干渉を防ぐために、電源をオフにしてもよい。
図8は、追跡アレイ612および追跡マーカ804を含む1つの種類の外科用器具608を描写する。追跡マーカ804は、限定されるものでないが、発光ダイオードまたは反射性球体を含む、本明細書に説明される任意の種類のものであってもよい。マーカ804は、外科用ロボットシステム100、300、600と関連付けられた追跡デバイスによって監視され、カメラ200、326の見通し線のうちの1つ以上であってもよい。カメラ200、326は、追跡アレイ612およびマーカ804の位置ならびに配向に基づいて、器具608の場所を追跡してもよい。ユーザ、例えば、外科医120などは、追跡アレイ612およびマーカ804が、追跡デバイスまたはカメラ200、326によって十分に認識され、器具608およびマーカ804を、例えば、例示的な外科用ロボットシステムの表示器110上に表示させるような様態で、器具608を配向させてもよい。
外科医120が、器具608をエンドエフェクタ602の誘導管606の中に配置し得、器具608を調節し得る様態が、図8において明らかである。エンドエフェクタ112、310、602の中空管または誘導管114、606は、外科用器具608の少なくとも一部分を受け入れるようにサイズ決定および構成される。誘導管114、606は、外科用器具608のための挿入および軌道が、患者210の体内または身体上で所望の解剖学的対象に到達することができるように、ロボットアーム104によって配向されるように構成される。外科用器具608は、略円筒形器具の少なくとも一部分を含んでもよい。スクリュードライバが外科用ツール608として例示されるが、任意の好適な外科用ツール608がエンドエフェクタ602によって位置付けられてもよいことが理解されるであろう。例として、外科用器具608は、誘導ワイヤ、カニューレ、レトラクタ、ドリル、リーマ、スクリュードライバ、挿入ツール、除去ツール、または同様のもののうちの1つ以上を含んでもよい。中空管114、606は円筒形構成を有するように一般的に示されるが、誘導管114、606は、外科用器具608に適応するためにおよび手術位置にアクセスするために所望された任意の好適な形状、サイズ、および構成を有してもよいことが当業者によって理解されるであろう。
図9A〜9Cは、例示的な実施形態と一致するエンドエフェクタ602およびロボットアーム604の一部分を例解する。エンドエフェクタ602は、本体1202およびクランプ1204をさらに備えてもよい。クランプ1204は、ハンドル1206、ボール1208、ばね1210、およびリップ部1212を備えてもよい。ロボットアーム604は、凹部1214、装着プレート1216、リップ部1218、および磁石1220をさらに備えてもよい。
エンドエフェクタ602は、1つ以上の連結を通して外科用ロボットシステムおよびロボットアーム604と機械的にインターフェースおよび/または係合してもよい。例えば、エンドエフェクタ602は、位置決め連結および/または補強連結を通してロボットアーム604と係合してもよい。これらの連結を通して、エンドエフェクタ602は、可撓性および無菌バリアの外側でロボットアーム604と締結してもよい。例示的な実施形態において、位置決め連結は、磁気運動学的マウントであってもよく、補強連結は、5つの棒状オーバーセンタクランピングリンク機構であってもよい。
位置決め連結に関して、ロボットアーム604は、装着プレート1216を備えてもよく、それは、非磁気材料、1つ以上の凹部1214、リップ部1218、および磁石1220であってもよい。磁石1220は、凹部1214の各々の下に装着される。クランプ1204の部分は、磁気材料を備えてもよく、1つ以上の磁石1220によって吸引されてもよい。クランプ1204およびロボットアーム604の磁気吸引を通して、ボール1208は、それぞれの凹部1214の中に着座されることになる。例えば、図9Bに示されるようなボール1208は、図9Aに示されるような凹部1214内に着座される。この着座は、磁気的に支援される運動学的連結と考えられ得る。磁石1220は、エンドエフェクタ602の配向に関わらず、エンドエフェクタ602の全重量を支持するのに十分強いように構成されてもよい。位置決め連結は、6自由度を固有に抑制する任意の様式の運動学的マウントであってもよい。
補強連結に関して、クランプ1204の部分が、固定接地リンクであるように構成されてもよく、そのように、クランプ1204は、5つの棒リンク機構としての役割を果たしてもよい。クランプハンドル1206を閉じることにより、リップ部1212およびリップ部1218が、エンドエフェクタ602およびロボットアーム604を固設する様態でクランプ1204に係合する際に、エンドエフェクタ602をロボットアーム604に締結し得る。クランプハンドル1206が閉じられると、ばね1210は、クランプ1204が係止位置にある間に伸長または加圧され得る。係止位置は、中心を過ぎたリンク機構を提供する位置であり得る。中心を過ぎた閉じ位置のため、リンク機構は、クランプ1204を解放するためにクランプハンドル1206に加えられる力がなければ開かない。このため、係止位置において、エンドエフェクタ602は、ロボットアーム604に強固に固設され得る。
ばね1210は、張力における曲がり梁であってもよい。ばね1210は、高剛性および高降伏ひずみを呈する材料、例えば、PEEK(ポリエーテルエーテルケトン)バージン材などから成ってもよい。エンドエフェクタ602およびロボットアーム604間のリンク機構は、エンドエフェクタ602およびロボットアーム604間に、2つの連結の締結を妨害せずに、無菌バリアを提供し得る。
補強連結は、複数のばね部材を用いるリンク機構であってもよい。補強連結は、カムまたは摩擦に基づく機構を用いて掛止めしてもよい。補強連結はまた、ロボットアーム604へのエンドエフェクタ102の締結を支持する十分に強力な電磁石であってもよい。補強連結は、エンドエフェクタ602およびロボットアーム604間の界面上を滑り、かつスクリュー機構、オーバーセンタリンク機構、またはカム機構を用いて締め付ける、エンドエフェクタ602および/またはロボットアーム604のいずれかから完全に分離したマルチピースカラーであってもよい。
図10および11を参照すると、外科処置の前または間に、ある位置合わせ処置が、ナビゲーション空間および画像空間の両方において、物体および患者210の対象の解剖学的構造を追跡するために行われてもよい。かかる位置合わせを行うために、位置合わせシステム1400は、図10に例解されるように使用されてもよい。
患者210の位置を追跡するために、患者追跡デバイス116は、患者210の硬い解剖学的構造に固設されるべき患者固定器具1402を含んでもよく、動的参照基部(DRB)1404は、患者固定器具1402に確実に取り付けられてもよい。例えば、患者固定器具1402は、動的参照基部1404の開口部1406に挿入されてもよい。動的参照基部1404は、追跡デバイス、例えば、追跡サブシステム532などが視認可能であるマーカ1408を含んでもよい。これらのマーカ1408は、本明細書で前に考察されたように、光学マーカまたは反射性球体、例えば、追跡マーカ118などであってもよい。
患者固定器具1402は、患者210の硬い解剖組織に取り付けられ、外科処置全体を通して取り付けられたままであってもよい。例示的な実施形態において、患者固定器具1402は、患者210の硬いエリア、例えば、外科処置を受ける対象の解剖学的構造から離れて位置する骨に取設される。対象の解剖学的構造を追跡するために、動的参照基部1404は、対象の解剖学的構造の場所を用いて動的参照基部1404を位置合わせするために、対象の解剖学的構造上またはその近くに一時的に配置される位置合わせ固定具の使用を通して対象の解剖学的構造と関連付けられる。
位置合わせ固定具1410は、枢動アーム1412の使用を通じて、患者固定器具1402に取り付けられる。枢動アーム1412は、位置合わせ固定具1410の開口部1414を通して患者固定器具1402を挿入することによって、患者固定器具1402に取り付けられる。枢動アーム1412は、例えば、枢動アーム1412の開口部1418を通してノブ1416を挿入することによって、位置合わせ固定具1410に取り付けられる。
枢動アーム1412を使用して、位置合わせ固定具1410は、対象の解剖学的構造の上に配置されてもよく、その場所は、位置合わせ固定具1410上の追跡マーカ1420および/または基準1422を使用して、画像空間およびナビゲーション空間において判定されてもよい。位置合わせ固定具1410は、ナビゲーション空間において視認可能であるマーカ1420の集合物を含んでもよい(例えば、マーカ1420は、追跡サブシステム532によって検出可能であってもよい)。追跡マーカ1420は、本明細書において前に説明されたように、赤外光において視認可能な光学マーカであってもよい。位置合わせ固定具1410はまた、画像化空間(例えば、3次元CT画像)において視認可能である基準1422、例えば、軸受ボールなどの集合物を含んでもよい。図11に関してより詳細に説明されるように、位置合わせ固定具1410を使用して、対象の解剖学的構造は、動的参照基部1404と関連付けられてもよく、それによって、ナビゲーション空間における物体の描写が、解剖学的構造の画像上に重ね合わされることを可能にする。対象の解剖学的構造から離れた位置に位置する動的参照基部1404は、参照点になり得、それによって、外科エリアからの位置合わせ固定具1410および/または枢動アーム1412の取外しを可能にする。
図11は、本開示と一致する位置合わせのための例示的な方法1500を提供する。方法1500は、ステップ1502において始まり、そのステップにおいて、対象の解剖学的構造のグラフィカル表現(または画像(複数可))が、システム100、300、600、例えば、コンピュータ408にインポートされてもよい。グラフィカル表現は、位置合わせ固定具1410および基準1420の検出可能な画像化パターンを含む、患者210の対象の解剖学的構造の3次元CTまたは蛍光透視スキャンであってもよい。
ステップ1504において、基準1420の画像化パターンが、画像化空間において検出および位置合わせされ、コンピュータ408内に記憶される。任意選択的に、このときに、ステップ1506において、位置合わせ固定具1410のグラフィカル表現が、対象の解剖学的構造の画像上に重ね合わされてもよい。
ステップ1508において、位置合わせ固定具1410のナビゲーションパターンは、マーカ1420を認識することによって検出および位置合わせされる。マーカ1420は、位置センサ540を介して追跡サブシステム532によって赤外光を通してナビゲーション空間において認識される光学マーカであってもよい。このため、対象の解剖学的構造の場所、配向、および他の情報は、ナビゲーション空間において位置合わせされる。したがって、位置合わせ固定具1410は、基準1422の使用による画像空間とマーカ1420の使用によるナビゲーション空間の両方において認識されてもよい。ステップ1510において、画像空間内の位置合わせ固定具1410の位置合わせが、ナビゲーション空間に転移される。この転移は、例えば、マーカ1420のナビゲーションパターンの位置と比較して、基準1422の画像化パターンの相対位置を使用することによって、行われる。
ステップ1512において、(画像空間を用いて位置合わせされた)位置合わせ固定具1410のナビゲーション空間の位置合わせが、患者固定器具1402に取り付けられた動的位置合わせアレイ1404のナビゲーション空間にさらに転移される。このため、位置合わせ固定具1410は、取り外されてもよく、動的参照基部1404は、ナビゲーション空間が画像空間と関連付けられるので、ナビゲーションおよび画像空間の両方において、対象の解剖学的構造を追跡するために使用されてもよい。
ステップ1514および1516において、ナビゲーション空間は、ナビゲーション空間において視認可能であるマーカ(例えば、光学マーカ804を用いる外科用器具608)を用いて、画像空間および物体上に重ね合わせてもよい。物体は、対象の解剖学的構造の画像上の外科用器具608のグラフィカル表現を通して追跡されてもよい。
図12A〜12Bは、患者210の手術前、手術中、手術後、および/またはリアルタイムの画像データを取得するためにロボットシステム100、300、600と併せて使用され得る画像化デバイス1304を例解する。任意の適切な主題が、画像化システム1304を使用して任意の適切な処置のために画像化されてもよい。画像化システム1304は、任意の画像化デバイス、例えば、画像化デバイス1306および/またはCアーム1308デバイスなどであってもよい。X線システムにおいて要求され得る患者210の頻繁な手動の再位置付けを必要とせずに、いくらかの異なる位置から患者210のX線写真を取ることが望ましいであろう。図12Aに例解されるように、画像化システム1304は、「C」形状の両遠位端1312において終端する細長いC形状部材を含むCアーム1308の形態にあってもよい。C形状部材1130は、X線源1314および画像受信器1316をさらに備えてもよい。アームのCアーム1308内の空間は、X線支持構造1318からの実質的な干渉なしで患者を診療するための余地を医師に提供し得る。図12Bに例解されるように、画像化システムは、支持構造画像化デバイス支持構造1328、例えば、車輪1332を有する車輪付移動可能カート1330などに取り付けられるガントリー筐体1324を有する画像化デバイス1306を含んでもよく、それは、例解されない、画像捕捉部分を取り囲んでもよい。画像捕捉部分は、X線源および/または発出部分ならびにX線受信および/または画像受信部分を含んでもよく、それらは、互いから約180度に配置されてもよく、画像捕捉部分の軌道に対してロータ(例解されない)上に装着されてもよい。画像捕捉部分は、画像取得の間に360度回転するように動作可能であってもよい。画像捕捉部分は、中心点および/または軸の周囲に回転してもよく、患者210の画像データが、多方向からまたは複数の平面において取得されることを可能にする。ある画像化システム1304が本明細書に例示されるが、任意の好適な画像化システムが、当業者によって選択されてもよいことが理解されるであろう。
次に、図13A〜13Cを参照して、外科用ロボットシステム100、300、600は、所望の外科エリアに対するエンドエフェクタ112、602、外科用器具608、および/または患者210(例えば、患者追跡デバイス116)の正確な位置付けに頼る。図13A〜13Cに示される実施形態では、追跡マーカ118、804が、器具608および/またはエンドエフェクタ112の一部分に強固に取り付けられる。
図13Aは、基部106、ロボットアーム104、およびエンドエフェクタ112を含むロボット102を有する外科用ロボットシステム100の一部分を描写する。例解されない他の要素、例えば、表示器、カメラなどがまた、本明細書に説明されるように存在してもよい。図13Bは、誘導管114を有するエンドエフェクタ112およびエンドエフェクタ112に強固に取り付けられた複数の追跡マーカ118のクローズアップ図を描写する。この実施形態では、複数の追跡マーカ118が、誘導管112に取り付けられる。図13Cは、複数の追跡マーカ804が器具608に強固に取り付けられた器具608(この場合において、プローブ608A)を描写する。本明細書のどこかに説明されるように、器具608は、任意の好適な外科用器具、例えば、限定されるものではないが、誘導ワイヤ、カニューレ、レトラクタ、ドリル、リーマ、スクリュードライバ、挿入ツール、除去ツール、または同様のものなどを含み得る。
3Dにおいて追跡されるべき器具608、エンドエフェクタ112、または他の物体を追跡するとき、追跡マーカ118、804のアレイは、ツール608またはエンドエフェクタ112の一部分に強固に取り付けられてもよい。好ましくは、追跡マーカ118、804は、マーカ118、804が邪魔にならない(例えば、外科手術、視認可能性などを妨げない)ように取り付けられる。マーカ118、804は、例えば、アレイ612と共に、追跡されるべき器具608、エンドエフェクタ112、または他の物体に取り付けられてもよい。通常、3つまたは4つのマーカ118、804が、アレイ612と共に使用される。アレイ612は、直線区分、横材を含んでもよく、マーカ118、804が互いに対して異なる相対位置および場所にあるように非対称的であってもよい。例えば、図13Cに示されるように、4つのマーカ追跡アレイ612を伴うプローブ608Aが示され、図13Bは、異なる4つのマーカ追跡アレイ612を伴うエンドエフェクタ112を描写する。
図13Cでは、追跡アレイ612がプローブ608Aのハンドル620として機能する。このため、4つのマーカ804が、プローブ608Aのハンドル620に取り付けられ、それは、シャフト622および先端部624の邪魔をしない。これらの4つのマーカ804の立体写真測量追跡は、器具608が剛体として追跡されること、ならびにプローブ608Aが追跡カメラ200、326の前であちこち移動される間に追跡システム100、300、600が、先端部624の位置およびシャフト622の配向を精密に判定することを可能にする。
3D(例えば、複数の剛体)で追跡されるべき1つ以上のツール608、エンドエフェクタ112、または他の物体の自動追跡を可能にするために、各ツール608、エンドエフェクタ112、または同様のもの上のマーカ118、804は、既知のマーカ間隔を用いて非対称的に配設される。非対称的な整合の理由は、どのマーカ118、804が剛体上の特定の場所に対応するかおよびマーカ118、804が前または後から見られる、すなわち、鏡映を作られるかどうかが明白であるためである。例えば、マーカ118、804がツール608上またはエンドエフェクタ112上で四角形に配設された場合、システム100、300、600は、どのマーカ118、804が四角形のどの角に対応したかが不明であろう。例えば、プローブ608Aの場合、どのマーカ804がシャフト622に最も近かったかが不明であろう。このため、どの方向へシャフト622がアレイ612から延在していたかが分からないであろう。したがって、各アレイ612、およびそれゆえ、追跡されるべき各ツール608、エンドエフェクタ112、または他の物体は、固有のマーカパターンを有するべきであり、それが、追跡されている他のツール608または他の物体と区別されることを可能にする。非対照的および固有のマーカパターンは、システム100、300、600が、個々のマーカ118、804を検出することを可能にし、次いで、記憶されたテンプレートに対するマーカ間隔をチェックして、それらがどのツール608、エンドエフェクタ112、または他の物体を表すかを判定する。検出されたマーカ118、804は、次いで、自動的に分類され得、各追跡された物体に正しい順序で割り当てられ得る。この情報なしでは、剛体計算は、ユーザが、検出されたマーカ118、804のどれが各剛体上のどの位置に対応したかを手動で特定しない限り、重要な幾何学的情報、例えば、ツール先端部624およびシャフト622の整合などを抽出するように実行することができない可能性がある。これらの概念は、3D光学追跡方法における当業者に一般に知られている。
次に、図14A〜14Dを参照して、移動可能な追跡マーカ918A〜918Dを用いるエンドエフェクタ912の代替版が示される。図14Aでは、移動可能な追跡マーカ918A〜918Dを用いるアレイが第1の構成において示され、図14Bでは、移動可能な追跡マーカ918A〜918Dが第2の構成において示され、それは、第1の構成に対して角度付けられる。図14Cは、例えば、図14Aの第1の構成において、カメラ200、326によって見られるような、追跡マーカ918A〜918Dのテンプレートを示す。図14Dは、例えば、図14Bの第2の構成において、カメラ200、326によって見られるような、追跡マーカ918A〜918Dのテンプレートを示す。
この実施形態では、4つのマーカアレイ追跡が意図され、マーカ918A〜918Dの全てが剛体に対して固定位置にあるとは限らず、代わりに、アレイマーカ918A〜918Dのうちの1つ以上が、例えば、試験中に、追跡されたマーカ918A〜918Dの自動検出および分類のためのプロセスを阻害せずに、追跡されている剛体についての更新情報を与えるように調節され得る。
任意のツール、例えば、ロボットシステム100、300、600のエンドエフェクタ912に接続された誘導管914などを追跡するとき、追跡アレイの主な目的は、カメラ座標系におけるエンドエフェクタ912の位置を更新することである。剛性システムを使用するとき、例えば、図13Bに示されるように、反射性マーカ118のアレイ612は、誘導管114から強固に延在する。追跡マーカ118は強固に接続されるので、カメラ座標系におけるマーカの場所の知識はまた、カメラ座標系における誘導管114の中心線、先端部、および尾部の正確な場所を提供する。典型的には、かかるアレイ612からのエンドエフェクタ112の位置についての情報および別の追跡されたソースからの対象軌道の場所についての情報が、誘導管114を軌道との整合に移動するおよび先端部を軌道ベクトルに沿って特定の場所に移動するロボット102の各軸について入力される必要がある要求された移動を計算するために使用される。
場合によっては、所望の軌道が、厄介なまたは到達できない場所にあるが、誘導管114が旋回されるならば、それは到達され得る。例えば、誘導管114が、ピッチ(手首の上げ下げ角度)軸の限界を超えて上向きに旋回され得る場合、ロボット102の基部106から離れたところを指す非常に急峻な軌道は、到達可能であり得るものの、誘導管114が、それを手首の端部に接続するプレートに平行に取り付けられる場合、到達不可能であろう。かかる軌道に到達するために、ロボット102の基部106が移動され得るか、または異なる誘導管取り付け具を伴う異なるエンドエフェクタ112が、作業中のエンドエフェクタと交換され得る。これらの解決策は両方とも、時間がかかり得、面倒であり得る。
図14Aおよび14Bに最も良く見られるように、アレイ908は、マーカ918A〜918Dのうちの1つ以上が固定位置になく、代わりに、マーカ918A〜918Dのうちの1つ以上が調節、旋回、枢動、または移動され得るように構成される場合、ロボット102は、検出および追跡プロセスを阻害せずに、追跡されている物体についての更新情報を提供することができる。例えば、マーカ918A〜918Dのうちの1つが適所に固定されてもよく、かつ他のマーカ918A〜918Dが移動可能であってもよい。マーカ918A〜918Dのうちの2つが適所に固定されてもよく、かつ他のマーカ918A〜918Dが移動可能であってもよい。マーカ918A〜918Dのうちの3つが適所に固定されてもよく、かつ他のマーカ918A〜918Dが移動可能であってもよい。または、マーカ918A〜918Dの全てが移動可能であってもよい。
図14Aおよび14Bに示される実施形態では、マーカ918A、918Bは、エンドエフェクタ912の基部906に直接的に強固に接続され、マーカ918C、918Dは、管914に強固に接続される。アレイ612と同様に、アレイ908は、マーカ918A〜918Dを追跡されるべきエンドエフェクタ912、器具608、または他の物体に取り付けるために提供されてもよい。しかしながら、この場合において、アレイ908は、複数の別個の構成要素から成る。例えば、マーカ918A、918Bは、第1のアレイ908Aを用いて基部906に接続してもよく、マーカ918C、918Dは、第2のアレイ908Bを用いて誘導管914に接続してもよい。マーカ918Aは、第1のアレイ908Aの第1の端部に取り付けられてもよく、マーカ918Bは、ある直線距離だけ隔てられ得、第1のアレイ908Aの第2の端部に取り付けられてもよい。第1のアレイ908は実質的に直線であるが、第2のアレイ908Bは、湾曲またはV形状構成を有し、根端に関して、誘導管914に接続され、一方の遠位端においてマーカ918Cおよび他方の遠位端においてマーカ918Dを有するV形状において、そこから遠位端へと分岐する。特定の構成が本明細書に例示されるが、異なる数および種類のアレイ908A、908Bならびに異なる配設、数、および種類のマーカ918A〜918Dを含む他の非対称的設計が意図されることが理解されるであろう。
誘導管914は、例えば、ヒンジ920または他のコネクタをわたって基部906へと、基部906に対して移動可能、旋回可能、または枢動可能であってもよい。このため、マーカ918C、918Dは、誘導管914が枢動、旋回、または移動するときに、マーカ918C、918Dもまた枢動、旋回、または移動するように移動可能である。図14Aに最も良く見られるように、誘導管914は、長手方向軸916を有し、それは、マーカ918A〜918Dが第1の構成を有するように、実質的に法線または垂直配向に整合される。次に、図14Bを参照して、マーカ918A〜918Dが第1の構成とは異なる第2の構成を有するように、長手方向軸916が、今度は、垂直配向に対して角度付けられるように、誘導管914が枢動、旋回、または移動される。
図14A〜14Dについて説明される実施形態とは対照的に、旋回部が誘導管914およびアーム104間に存在し(例えば、手首取り付け具)、4つのマーカ918A〜918Dの全てが、誘導管914に強固に取り付けられたままであり、この旋回部が、ユーザによって調節された場合、ロボットシステム100、300、600は、誘導管914の配向が変化したことを自動的に検出することができない。ロボットシステム100、300、600は、マーカアレイ908の位置を追跡し、誘導管914が前の配向において手首(ロボットアーム104)に取り付けられたことを想定して、不正確なロボット軸移動を計算する。1つ以上のマーカ918A〜918D(例えば、2つのマーカ918C、918D)を強固に管914上におよび旋回部にわたって1つ以上のマーカ918A〜918D(例えば、2つのマーカ918A、918B)を保持することによって、新しい位置の自動検出が可能になり、正確なロボットの移動が、ロボットアーム104の端部上の新しいツールまたはエンドエフェクタ112、912の検出に基づいて、計算される。
マーカ918A〜918Dのうちの1つ以上は、任意の好適な手段に従って移動され、枢動され、旋回されるように、または同様に構成される。例えば、マーカ918A〜918Dは、ヒンジ920、例えば、クランプ、ばね、レバー、スライド、トグル、もしくは同様のものなど、あるいはマーカ918A〜918Dを個々にもしくは組み合わせて移動する、アレイ908A、908Bを個々にもしくは組み合わせて移動する、別の部分に対してエンドエフェクタ912の任意の部分を移動する、または別の部分に対してツール608の任意の部分を移動するための任意の他の好適な機構によって移動されてもよい。
図14Aおよび14Bに示されるように、アレイ908および誘導管914は、誘導管914が異なる位置に配向されるように、単にクランプまたはヒンジ920を緩めて、アレイ908A、908Bの部分を他の部分908A、908Bに対して移動させて、ヒンジ920を再び締めることによって、再構成可能になり得る。例えば、2つのマーカ918C、918Dは、管914と強固に相互に接続されてもよく、2つのマーカ918A、918Bは、ヒンジ920をわたってロボットアーム104に取り付けるエンドエフェクタ912の基部906へと強固に相互に接続されてもよい。ヒンジ920は、クランプ、例えば、蝶ナットまたは同様のものなどの形態であってもよく、それは、緩められ得、再び締められ得、ユーザが、第1の構成(図14A)および第2の構成(図14B)の間で迅速に切り換えることを可能にする。
カメラ200、326は、例えば、図14Cおよび14Dにおいて識別されるテンプレートのうちの1つにおいて、マーカ918A〜918Dを検出する。アレイ908が第1の構成(図14A)にあり、かつ追跡カメラ200、326がマーカ918A〜918Dを検出する場合には、追跡されたマーカが、図14Cに示されるようなアレイテンプレート1に一致する。アレイ908が第2の構成(図14B)にあり、かつ追跡カメラ200、326が、同じマーカ918A〜918Dを検出する場合には、追跡されたマーカが、図14Dに示されるようなアレイテンプレート2に一致する。アレイテンプレート1およびアレイテンプレート2は、システム100、300、600によって2つの別個のツールとして認識され、各々、誘導管914、マーカ918A〜918D、およびロボットの取り付け具の間のそれ自体の固有に画定された空間的関係を有する。したがって、ユーザは、システム100、300、600に変化を通知せずに、エンドエフェクタ912の位置を第1および第2の構成の間で調節することができ、システム100、300、600は、ロボット102の移動を軌道上にとどめるように適切に調節することになる。
この実施形態では、マーカアレイが、システム100、300、600がアセンブリを2つの異なるツールまたは2つの異なるエンドエフェクタとして認識することを可能にする固有のテンプレートに一致する、2つのアセンブリ位置が存在する。これらの2つの位置(すなわち、それぞれ、図14Cおよび14Dに示されるアレイテンプレート1およびアレイテンプレート2)の間または外側の旋回部の任意の位置では、マーカ918A〜918Dは、どのテンプレートにも一致せず、システム100、300、600は、個々のマーカ918A〜918Dが、カメラ200、326によって検出されるにも関わらず、存在するどのアレイも検出せず、結果は、マーカ918A〜918Dがカメラ200、326の視野から一時的に遮られた場合と同じである。他のアレイテンプレートが、例えば、異なる器具608または他のエンドエフェクタ112、912などを識別する、他の構成のために存在してもよいことが理解されるであろう。
説明される実施形態では、2つの別個のアセンブリ位置が図14Aおよび14Bに示される。しかしながら、旋回接合、直線接合、旋回および直線接合の組み合わせ、穴あきボード、または他のアセンブリ上に複数の別個の位置が存在し得ることが理解されるであろう。その場合、固有のマーカテンプレートが、他に対してアレイの1つ以上のマーカ918A〜918Dの位置を調節することによって生成され、各別個の位置が、特定のテンプレートに一致し、異なる既知の属性を用いて固有のツール608またはエンドエフェクタ112、912を画定する。加えて、エンドエフェクタ912について例示したが、移動可能および固定されたマーカ918A〜918Dが、追跡されるべき任意の好適な器具608または他の物体と共に使用されてもよいことが理解されるであろう。
外部3D追跡システム100、300、600を使用して、(例えば、図13Aおよび13Bに描写されるように)ロボットのエンドエフェクタ112に取り付けられた3つ以上のマーカの剛体アレイ全体を追跡するとき、カメラ200、326の座標系においてロボット102の全ての区分の3D位置を直接的に追跡または計算することが可能である。追跡機に対する接合の幾何学的配向は、意図的に知られ、接合の直線または角度位置は、ロボット102の各モータのためのエンコーダから知られ、エンドエフェクタ112から基部116へと移動する部分の全ての3D位置を十分に画定する。同様に、追跡機がロボット102の基部106上に装着される場合(図示せず)、同様に、各モータのエンコーダから知られた接合幾何形態および接合位置に基づいて、基部106からエンドエフェクタ112までのロボット102の全ての区分の3D位置を追跡または計算することが可能である。
いくつかの状況では、エンドエフェクタ112に強固に取り付けられた3つ未満のマーカ118からロボット102の全ての区分の位置を追跡することが望ましいであろう。具体的には、ツール608が誘導管114に導入される場合、ロボット902の剛体全体の動きを追跡し、ただ1つの追加的なマーカ118が追跡されることが望ましいであろう。
次に、図15A〜15Eを参照して、単一追跡マーカ1018のみを有するエンドエフェクタ1012の代替版が示される。エンドエフェクタ1012は、本明細書に説明される他のエンドエフェクタと同様であってもよく、長手方向軸1016に沿って延在する誘導管1014を含んでもよい。単一追跡マーカ1018は、本明細書に説明される他の追跡マーカと同様に、誘導管1014に強固に取り付けられてもよい。この単一マーカ1018は、不足している自由度を追加して、剛体全体の追跡を可能にする目的に役立つことができ、ならびに/または、ロボットおよびカメラの位置付けに関する想定が有効であることを確実にするように、監視マーカとして働く目的を果たすことができる。
単一追跡マーカ1018は、任意の便利な方向に突出し、かつ外科医の視野を遮らないエンドエフェクタ1012の剛性延在部分としてロボットエンドエフェクタ1012に取り付けられてもよい。追跡マーカ1018は、誘導管1014またはエンドエフェクタ1012上の任意の他の好適な場所に取り付けられてもよい。誘導管1014に取り付けられるとき、追跡マーカ1018は、誘導管1014の第1および第2の端部間のある場所において位置付けられ得る。例えば、図15Aでは、単一追跡マーカ1018が、誘導管1014から前方へ延在し、かつ長手方向に誘導管1014の中点の上方および誘導管1014の入口の下方に位置付けられた細いシャフト1017の端部上に装着された反射性球体として示される。この位置は、マーカ1018がカメラ200、326によって一般に視認可能であることを可能にするものの、さらに、外科医120の視野を遮らないか、または手術室の近傍における他のツールもしくは物体と衝突しない。加えて、マーカ1018がこの位置にある誘導管1014は、誘導管1014に導入された任意のツール608上のマーカアレイが、誘導管1014上の単一マーカ1018が視認可能であるのと同時に視認可能とするために設計される。
図15Bに示されるように、ぴったりと収まるツールまたは器具608が誘導管1014内に配置されると、器具608は、6自由度のうちの4つに機械的に制限されることになる。すなわち、器具608は、誘導管1014の長手方向軸1016の周りを除くあらゆる方向に回転することができず、器具608は、誘導管1014の長手方向軸1016に沿う方向を除くあらゆる方向に転移することができない。換言すれば、器具608は、誘導管1014の中心線に沿って転移することおよびその中心線の周りに回転することのみができる。もう2つのパラメータ、例えば(1)誘導管1014の長手方向軸1016の周りの回転の角度、および(2)誘導管1014に沿う位置などが知られる場合には、カメラ座標系におけるエンドエフェクタ1012の位置が十分に画定されることになる。
次に、図15Cを参照すると、システム100、300、600は、ツール608が誘導管1014の内側に、その代わりに、誘導管1014の外側ではなくて、ただカメラ200、326の視野のどこかに実際に位置付けられるときに知ることができるはずである。ツール608は、長手方向軸または中心線616と、複数の追跡されたマーカ804を伴うアレイ612を有する。剛体計算が、ツール608上のアレイ612の追跡された位置に基づいて、ツール608の中心線616がカメラ座標系に位置する場所を判定するために使用されてもよい。
単一マーカ1018から誘導管1014の中心線または長手方向軸1016までの固定された法線(垂直)距離DFは、固定され、幾何学的に知られ、単一マーカ1018の位置は、追跡することができる。したがって、ツール中心線616から単一マーカ1018までの検出された距離Dが、誘導管中心線1016から単一マーカ1018までの既知の固定距離Dに一致するとき、ツール608が、誘導管1014内にある(ツール608および誘導管1014の中心線616、1016が一致する)か、またはこの距離Dが固定距離Dに一致する可能な位置の軌跡におけるある点にあることが判定され得る。例えば、図15Cでは、ツール中心線616から単一マーカ1018までの検出された法線距離Dが、2つの位置における透明なツール608によって表されたデータの両方のフレーム(追跡されたマーカ座標)において誘導管中心線1016から単一マーカ1018までの固定距離Dに一致し、このため、ツール608が誘導管1014内に位置するときを判定するために追加的な考察が必要であろう。
次に図15Dを参照すると、プログラム化された論理が、追跡データのフレームを探すために使用され得、それにおいて、ツール608が単一球体1018に対してある最小距離を超える分だけ空間内を移動して、ツール608が誘導管1014内を移動している条件を満たすにも関わらず、ツール中心線616から単一マーカ1018までの検出された距離Dは、正確な長さに固定されたままである。例えば、第1のフレームF1が、第1の位置にあるツール608を用いて検出されてもよく、第2のフレームF2が、(すなわち、第1の位置に対して直線的に移動した)第2の位置にあるツール608を用いて検出されてもよい。ツールアレイ612上のマーカ804は、第1のフレームF1から第2のフレームF2までの所与の量を超える(例えば、合計で5mmを超える)分だけ移動してもよい。この移動があるにも関わらず、ツール中心線ベクトルC’から単一マーカ1018までの検出された距離Dは、第1のフレームF1および第2のフレームF2において実質的に同一である。
論理学的に、外科医120またはユーザは、ツール608を誘導管1014内に配置して、それをわずかに回転することまたはそれを誘導管1014の中に下に摺動することができ、システム100、300、600は、5つのマーカ(ツール608上の4つのマーカ804に加えて誘導管1014上の単一マーカ1018)の追跡から、ツール608が誘導管1014内にあることを検出することができる。ツール608が誘導管1014内にあることを知ることで、空間におけるロボットエンドエフェクタ1012の位置および配向を画定する全ての6自由度が計算され得る。単一マーカ1018を用いないと、たとえツール608が誘導管1014内にあることが確実に知られたとしても、誘導管1014がツールの中心線ベクトルC’に沿って位置する場所およびどのように誘導管1014が中心線ベクトルC’に対して回転されるかは分からない。
図15Eに重点を置くと、単一マーカ1018の存在が、ツール608上の4つのマーカ804と共に追跡され、誘導管1014およびツール608の中心線ベクトルC’と、単一マーカ1018を通るおよび中心線ベクトルC’を通る法線ベクトルとを構築することが可能である。この法線ベクトルは、手首の遠位にあるロボットの前腕に対して既知の配向にある配向を有し(この例では、その区分に平行に配向され)、ある特定の固定位置において中心線ベクトルC’に交差する。便宜のために、図15Eに示されるように、3つの互いに直交するベクトルk’、j’、i’が構築され得、誘導管1014の剛体位置および配向を画定する。3つの互いに直交するベクトルのうちの1つk’は、中心線ベクトルC’から構築され、第2のベクトルj’は、単一マーカ1018を通る法線ベクトルから構築され、第3のベクトルi’は、第1および第2のベクトルk’、j’のベクトル外積である。これらのベクトルk’、j’、i’に対するロボットの接合位置は、全ての接合がゼロにあるときに知られおよび固定され、したがって、剛体計算は、ロボットがホーム位置にあるときのこれらのベクトルk’、j’、i’に対するロボットの任意の区分の場所を判定するために使用され得る。ロボット移動の間、(ツール608が誘導管1014内にある間の)ツールマーカ804の位置および単一マーカ1018の位置が追跡システムから検出され、かつ各接合の角度/直線位置がエンコーダから知られる場合には、ロボットの任意の区分の位置および配向が、判定され得る。
いくつかの実施形態では、誘導管1014に対してツール608の配向を固定することが有用であろう。例えば、エンドエフェクタ誘導管1014は、機械加工またはインプラントの位置付けを可能にするためにその軸1016の周りのある特定の位置において配向されてもよい。誘導管1014に挿入されたツール608に取り付けられたものの配向は、ツール608上の追跡されたマーカ804から分かるが、カメラ座標系における誘導管1014自体の回転配向は、誘導管1014上の追加的な追跡マーカ1018(または他の実施形態では複数の追跡マーカ)を用いないと分からない。このマーカ1018は、中心線ベクトルC’に対するマーカ1018の配向に基づいて−180°〜+180°までの「クロック位置」を本質的に提供する。このため、単一マーカ1018は、追加的な自由度を提供することができ、剛体全体の追跡を可能にし、ならびに/または監視マーカとして機能することができ、ロボットおよびカメラの位置付けが有効であることについての想定を確保する。
図16は、ロボット102のエンドエフェクタ1012(または、本明細書に説明される任意の他のエンドエフェクタ)を所望の対象軌道へとナビゲートして移動するための方法1100のブロック図である。ロボットエンドエフェクタ1012または誘導管1014上の単一マーカ1018の別の使用は、方法1100の一部として、ロボット102に取り付けられた全体の追跡アレイを用いずに、ロボット102の自動化された安全な移動を可能にすることである。この方法1100は、追跡カメラ200、326が、ロボット102に対して移動しない(すなわち、それらが固定位置にある)ときに機能し、追跡システムの座標系およびロボットの座標系が共に位置合わせされ、ロボット102は、誘導管1014の位置および配向が、各ロボット軸の符号化された位置のみに基づいて、ロボットのデカルト座標系において正確に判定され得るように較正される。
この方法1100のために、追跡機およびロボットの座標系は、共に位置合わせされる必要があり、追跡システムのデカルト座標系からロボットのデカルト座標系への座標変換が必要とされることを意味する。便宜のために、この座標変換は、ロボット工学の分野において周知である並進および回転の4×4行列であり得る。この変換は、Tcrと呼ばれ、「カメラからロボットへの変換」を意味する。一旦この変換が知られると、各追跡されたマーカについてのベクトル形態におけるx、y、z座標として受信される追跡データの任意の新しいフレームが、4×4行列を乗じられ得、結果として生じるx、y、z座標は、ロボットの座標系にある。Tcrを得るために、ロボット上の全体の追跡アレイは、それが、ロボットの座標系において既知である場所においてロボットに強固に取り付けられている間に追跡され、次いで、既知の剛体方法が、座標の変換を計算するために使用される。ロボット102の誘導管1014に挿入された任意のツール608は、追加的なマーカ1018もまた読み取られるときに強固に取り付けられたアレイと同じ剛体情報を提供することができることは明らかであろう。すなわち、ツール608は、固定位置および配向ではなく、単に、誘導管1014内の任意の位置におよび誘導管1014内の任意の回転において挿入される必要がある。このため、追跡アレイ612を用いる任意のツール608を誘導管1014に挿入して、ツールのアレイ612に加えて誘導管1014の単一マーカ1018を読み取ることによって、一方で、同時に、ロボットの座標系における誘導管1014の現在の場所を各軸上のエンコーダから判定することによって、Tcrを判定することが可能である。
ロボット102を対象軌道へとナビゲートして移動するための論理は、図16の方法1100に提供される。ループ1102に入る前に、変換Tcrが前に記憶されたことが想定される。このため、ループ1102に入る前に、ステップ1104において、ロボット基部106が固設された後、ロボットが静止している間に誘導管内に挿入されたツールの追跡データの1つ以上のフレームが記憶され、ステップ1106において、カメラ座標からロボット座標へのロボット誘導管位置の変換Tcrが、この静止データおよび前の較正データから計算される。カメラ200、326がロボット102に対して移動しない限り、Tcrは、有効のままであるべきである。カメラ200、326がロボット102に対して移動し、Tcrが再び取得される必要がある場合、システム100、300、600は、ユーザにツール608を誘導管1014に挿入することを促させ得、次いで、必要な計算を自動的に実行させ得る。
方法1100のフローチャートにおいて、収集されたデータの各フレームは、患者210上のDRB1404の追跡された位置、エンドエフェクタ1014上の単一マーカ1018の追跡された位置、および各ロボット軸の位置のスナップショットから成る。ロボットの軸の位置から、エンドエフェクタ1012上の単一マーカ1018の場所が計算される。この計算された位置は、追跡システムから記録されたようなマーカ1018の実際の位置と比較される。これらの値が合致する場合、ロボット102が既知の場所にあることが保証され得る。ロボット102の対象がロボットの座標系に関して提供され得るように、変換Tcrが、DRB1404の追跡された位置に適用される。次いで、ロボット102は、対象に到達するように移動することを命令され得る。
ステップ1104、1106の後、ループ1102は、追跡システムからDRB1404についての剛体情報を受信するステップ1108と、画像座標から追跡システム座標へと対象先端部および軌道を変換するステップ1110と、カメラ座標からロボット座標へと対象先端部および軌道を変換する(Tcrを適用する)ステップ1112と、を含む。ループ1102は、追跡システムからロボットについての単一逸脱マーカ位置を受信するステップ1114と、追跡システム座標からロボット座標へと単一逸脱マーカを変換する(記憶されたTcrを適用する)ステップ1116と、をさらに含む。ループ1102はまた、順運動学からロボット座標系における単一ロボットマーカ1018の現在の場所を判定するステップ1118を含む。ステップ1116および1118からの情報は、変換された追跡された位置からの逸脱マーカ座標が、所与の許容値よりも少ない計算された座標と合致するかどうかを判定するステップ1120のために使用される。合致する場合、ステップ1122に進み、ロボットの移動を計算して、対象x、y、zおよび軌道に適用する。合致しない場合、ステップ1124に進み、進行の前に、停止して、誘導管1014への全体のアレイ挿入を要求する。アレイが挿入された後、ステップ1126は、Tcrを再び計算し、次いで、ステップ1108、1114、および1118の繰り返しに進む。
この方法1100は、場所を検証するための単一マーカ1018の連続的な監視が省略される方法に勝る。単一マーカ1018を用いずに、依然として、Tcrを使用してエンドエフェクタ1012の位置を判定することおよびエンドエフェクタ1012を対象の場所に送ることが可能になるが、ロボット102が予想された場所に実際にあったかを検証することは可能ではない。例えば、カメラ200、326が落とされ、Tcrがもはや有効ではなくなった場合、ロボット102は、誤った場所へと移動することになる。この理由のために、単一マーカ1018は、安全性に関する価値を提供する。
ロボット102の所与の固定位置のために、理論的には追跡カメラ200、326を新しい場所へ移動することが可能であり、そこにおいて、単一の追跡されるマーカ1018は、アレイではなくて単一点であるので、移動されないままである。かかる場合において、システム100、300、600は、単一マーカ1018の計算および追跡された場所における合致が存在するので、誤りを検出しないことになる。しかしながら、一旦ロボットの軸が誘導管1012を新しい場所に移動させると、計算および追跡された位置が合致せず、安全性チェックが有効になる。
「監視マーカ」という用語は、例えば、DRB1404に対して固定された場所にある単一マーカに関して、使用され得る。この場合において、DRB1404が落とされるか、または別様に取り除かれる場合、監視マーカの相対的な場所が変化し、外科医120は、ナビゲーションに問題があり得ることを警告され得る。同様に、本明細書に説明される実施形態では、ロボットの誘導管1014上の単一マーカ1018を用いて、システム100、300、600は、カメラ200、326がロボット102に対して移動したかどうかを連続的にチェックすることができる。ロボットの座標系への追跡システムの座標系の位置合わせが、例えば、カメラ200、326が落とされることまたは誤動作することによって、あるいはロボットの誤動作によって失われた場合、システム100、300、600は、ユーザに警告することができ、補正がなされ得る。このため、この単一マーカ1018はまた、ロボット102のための監視マーカであると考えられ得る。
ロボット102上に永久的に装着された全てのアレイ(例えば、図7A〜7Cに示されるエンドエフェクタ602上の複数の追跡マーカ702)を用いると、ロボット監視マーカとしての単一マーカ1018のかかる機能は、必要とされないことは明らかであろう。なぜなら、カメラ200、326が、ロボット102に対して固定位置にあることを要求されないからであり、Tcrは、ロボット102の追跡された位置に基づいて各フレームにおいて更新される。全体のアレイの代わりに単一マーカ1018を使用する理由は、全体のアレイがよりかさばるおよび目障りであり、それによって、単一マーカ1018よりも外科医の視野および手術野208へのアクセスを遮り、全体のアレイへの見通し線は、単一マーカ1018への見通し線よりも簡単に遮られるからである。
次に、図17A〜17Bおよび18A〜18Bを参照すると、器具608、例えば、インプラント容器608B、608Cなどが描写され、それは、固定されたおよび移動可能な追跡マーカ804、806の両方を含む。インプラント容器608B、608Cは、ハンドル620およびハンドル620から延在する外部シャフト622を有してもよい。シャフト622は、図示されるように、ハンドル620に実質的に垂直に、または任意の他の好適な配向に位置付けられてもよい。内部シャフト626は、一端にノブ628を伴って、外部シャフト622まで延在してもよい。インプラント10、12は、他端において、当業者に既知の典型的な接続機構を使用してインプラント容器608B、608Cの先端部624において、シャフト622に接続する。ノブ628は、回転され得、例えば、インプラント10、12を拡張するかまたは関節式に連結する。本明細書に参照によって組み込まれる米国特許第8,709,086号および第8,491,659号は、拡張可能な融合デバイスおよび設置方法を説明する。
ツール608、例えば、インプラント容器608B、608Cなどを追跡するとき、追跡アレイ612は、アレイ612を構成する固定されたマーカ804および1つ以上の移動可能なマーカ806の組み合わせを含有してもよく、または別様にインプラント容器608B、608Cに取り付けられる。ナビゲーションアレイ612は、少なくとも1つ以上の(例えば、少なくとも2つの)固定位置マーカ804を含んでもよく、それらは、インプラント容器器具608B、608Cに対して既知の場所を用いて位置付けられる。これらの固定されたマーカ804は、器具の幾何形態に対してどの配向にも移動することができず、器具608が空間内にある場所を画定するのに有用である。加えて、アレイ612または器具自体に取り付けられ得る少なくとも1つのマーカ806が存在し、それは、固定されたマーカ804に対して事前に決められた境界内を移動すること(例えば、摺動する、回転することなど)ができる。システム100、300、600(例えば、ソフトウェア)は、移動可能なマーカ806の位置をインプラント10の特定の位置、配向、または他の属性(例えば、図17A〜17Bに示される拡張可能な椎体間スペーサの高さもしくは図18A〜18Bに示される関節椎体間スペーサの角度など)に相関させる。このため、システムおよび/またはユーザは、移動可能なマーカ806の場所に基づいて、インプラント10、12の高さまたは角度を判定することができる。
図17A〜17Bに示される実施形態では、4つの固定されたマーカ804が、インプラント容器608Bを画定するために使用され、第5の移動可能なマーカ806が、事前に決められた経路内で摺動することができ、インプラントの高さについてのフィードバック(例えば、収縮位置または拡張位置)を提供する。図17Aは、その最初の高さにおける拡張可能なスペーサ10を示し、図17Bは、移動可能なマーカ806が異なる位置に転移された拡張状態におけるスペーサ10を示す。この場合において、移動可能なマーカ806は、インプラント10が拡張されるときに、固定されたマーカ804の近くに移動するが、この移動は、逆にされてもよく、または別様に異なってもよいことが意図される。マーカ806の直線転移の量は、インプラント10の高さに対応する。2つの位置のみが示されるが、これを連続的な機能として有することが可能であろう。それによって、任意の所与の拡張高さが移動可能なマーカ806のある特定の位置に相関され得る。
次に、図18A〜18Bを参照して、4つの固定されたマーカ804が、インプラント容器608Cを画定するために使用され、第5の移動可能なマーカ806が、事前に決められた経路内で摺動するように構成され、インプラント関節角度についてのフィードバックを提供する。図18Aは、その最初の直線状態における関節スペーサ12を示し、図18Bは、移動可能なマーカ806が異なる位置に転移された状態で、あるオフセット角度において有節状態にあるスペーサ12を示す。マーカ806の直線転移の量は、インプラント12の関節角度に対応する。2つの位置のみが示されるが、これを連続的な機能として有することが可能であろう。それによって、任意の所与の関節角度が、移動可能なマーカ806のある特定の位置に相関され得る。
これらの実施形態では、移動可能なマーカ806は、連続的に摺動して、位置に基づいてインプラント10、12の属性についてのフィードバックを提供する。また、移動可能なマーカ806が、同様にインプラント属性についての更なる情報を提供することができるところにある必要があるという慎重な位置が存在し得ることも意図される。この場合において、全てのマーカ804、806の各慎重な構成は、ある特定の配向においてまたはある特定の高さにおいてインプラント容器608B、608Cおよびインプラント10、12の特定の幾何形態に相関させる。加えて、移動可能なマーカ806の任意の動きが、任意の他の種類のナビゲートされたインプラントの他の変数属性のために使用され得る。
移動可能なマーカ806の直線移動に関して描写および説明されたが、マーカ806の回転または他の移動が、インプラント10、12についての情報を提供するために有用であり得る適用が存在し得るので、移動可能なマーカ806は、摺動することだけに限定されるべきではない。1組の固定されたマーカ804および移動可能なマーカ806間の位置における相対的な変化が、インプラント10、12または他のデバイスについての関連した情報であり得る。加えて、拡張可能な関節インプラント10、12が例示されるが、ツール608は、他の医療デバイスおよび材料、例えば、スペーサ、ケージ、プレート、締結具、釘、ねじ、ロッド、ピン、ワイヤ構造体、縫合糸、固定用クリップ、ステープル、ステント、骨移植片、生物製剤、または同様のものなどと共に働くことができる。
ここで、椎体の最適な画像を撮影するための画像化デバイスの画像化アームの3次元位置を判定することに関連する本発明の一態様を、図19〜27を参照して説明する。
ほとんどの従来のシステムにはナビゲーション機能がなく、Cアームの位置付けは、ユーザに依存している。一部のシステムには、ユーザが以前に保存した位置に戻ることができるナビゲーション機能がいくつかある場合がある。言い換えれば、既存のシステムは、画像化システムが過去にあった可能性がある場所をユーザに知らせる機能を備えている可能性がある。対照的に、図19〜27で説明される本発明は、最適な画像を撮影するために画像化システムが将来どこにある必要があるかをユーザに知らせることを提案する。
図23は、本発明の一態様による、Cアーム2316の3D位置および配向に関して自動位置決め機能を有するX線画像化デバイス2300の例である。画像化デバイス2300は、X線源2312からのX線伝送を受信するためのセンサアレイ(図示せず)を含む検出器パネルアセンブリ2314を含む。画像化デバイス2300は、参照により本明細書に組み込まれる、本発明の出願人に譲渡された米国特許第1,044,8910号により完全に記載されている。画像化デバイス2300は、物理的I/Oケーブルによってコネクタパネル320を介して、またはWiFi、Bluetoothなどを含む周知の無線伝送方法を通して無線で外科用ロボットシステム300と通信することができる。
較正リングを必要としない画像化システム2300とは異なり、1308などの手動で操作されるCアームは、通常、図12Aに示されるように、検出器パネルアセンブリ1316に装着された較正リング2200を有するであろう。較正リング2200は、各々が平面を有する2つの離間したリング2210、2212を含む。各平面は、選択されたパターンで互いに離間した複数の放射線不透過性マーカ2206、2208を含む。複数の円周方向に離間した光学マーカ2202、2204の2つのセットもまた、リング2210、2212に装着されている。放射線不透過性マーカ2206、2208は、画像化デバイス1308の初期位置合わせ(すなわち、画像化空間からカメラ座標系への患者に対するCアームの位置および配向のマッピング)を実行するために使用され、それによって、追跡サブシステム532は、外科処置中にCアーム1308の位置および配向を追跡することができる。au自動ナビゲート画像化システム2300の場合、較正リングは不要であり、システムの追跡およびナビゲーションは、システムの全ての可動部分に位置付けられた光学マーカ2310またはエンコーダを用いて行うことができる。エンコーダは、使用中いつでもCアーム2316の相対的な位置および配向をマークするために使用することができる。
初期位置合わせが実行されると、追跡サブシステム532のカメラ326は、外科処置中に、光学マーカ2202、2204、および任意選択的にCアーム2316上のマーカ2310を介して、Cアーム2316の位置および配向を連続的に追跡することができる。
図21は、必要な画像が1セットのみとなるように、最適なAPおよび横方向画像を取得するために、各椎骨レベルに対する画像化デバイスの3次元(3D)位置および配向を判定する方法のフローチャートを示す。図21の処理ステップは、コンピュータ408内の画像制御モジュール409、画像化デバイス2300自体のプロセッサ、他の遠隔に位置するプロセッサ、またはそれらの組み合わせによって実行することができる。一実施形態では、画像制御モジュール409は、メモリ410に格納されたコンピュータ実行可能コードを含む。
ステップ2100において、ユーザ(通常、手術室のX線技師)は、手術台(図示せず)上に横臥している患者がCアーム2316の内側に位置するように、画像化デバイス2300を手術台の周辺に位置付ける。画像化デバイス2300が位置付けられると、関心対象の椎骨レベルが含まれている限り、Cアーム2316が正確にまたは最適に位置付けられているかどうかにかかわらず、ユーザによって一組のX線画像(1つのAP画像および1つの横方向画像)が撮影される。典型的なAP画像2602および横方向画像2604が図26に示されている。2つの画像が撮影されると、それらはコンピュータ408によって受信および保存される。
画像と共に、コンピュータ408はまた、2つの画像2602、2604の各々に対して、Cアームの3D位置および配向(例えば、画像パネル/増強器もしくはCアームのX線源、またはその両方の3D位置および配向)を受信および格納する。
ステップ2102において、関心対象の椎体は、後の分析のためにセグメント化される。セグメント化は、椎体などの体の部分の特定のポイントまたは特徴を識別するプロセスである。手動、半自動、または全自動にすることができる。セグメント化された椎体の図が図26に示されている。椎体の関連する点を識別するための半自動または全自動のセグメント化方法は、当該技術分野でよく知られている。例えば、「ITK−SNAP」(www.itksnap.netで入手可能)と呼ばれるオープンソースソフトウェアプログラムを使用すると、ユーザは各椎体をインタラクティブにセグメント化することができる。
ステップ2102はまた、セグメント化プロセスの一部として椎骨レベルを識別することができる。この識別プロセスは完全に手動で行うことができ、ユーザは各レベルを識別する必要がある。代替的に、識別プロセスは、半自動または完全自動にすることもできる。半自動の場合、ユーザは少なくとも1つのレベルを識別でき、残りのレベルは画像処理に基づいて自動的に適用される。例えば、ユーザが1つの椎体をL4であると識別すると(図26に示されるように)、コンピュータ408は、例えば、セグメント化された椎体の脊柱前弯角に基づいて、他の全てのレベルを自動的に識別する。二重チェックとして、コンピュータ408は、半自動または全自動プロセスのいずれかによって自動的に識別されたレベルが正しいことを確認するようにユーザに求めることができる。
ステップ2104において、コンピュータ408は、どの椎骨レベルが関心対象のものであるかを識別するようにユーザに求める。次いで、ユーザは、例えば、タッチスクリーン表示デバイス304上に表示されたレベル(例えば、L1〜L4までの4つのレベル)に触れることによって、グラフィカルユーザインターフェースを使用して、それらを識別する。
ステップ2106において、コンピュータ408は、データベースから、関心対象の椎体を含む脊椎の3Dモデル2702を取り出す。3Dモデルは、ほとんどの脊椎が通常は標準パターンに従うため、どの患者にも固有ではない統計モデルに基づいている場合もあれば、3Dスキャンからの問題となっている特定の患者に基づいている場合もある。代替的に、標準の3Dモデルは、画像2602、2604から導出された脊柱前弯および後弯角などの患者固有のデータによって強化することができる。次いで、取り出された椎体2702は、椎体のサイズがAPおよび横方向画像のものと同じになるようにスケーリングされる。スケーリングは、ステップ2102から得られたセグメント化情報に基づくことができる。
ステップ2106において、各関心対象の椎体に対して、コンピュータ408は、選択された椎体の取り出された3Dモデルの、APおよび側方画像2602、2604内の対応するセグメント化された椎骨体への整合を実行する。使用できる方法の1つは、例えば「フルオロCTマージ」である。フルオロCTマージの1つのアルゴリズムは、2015年5月28日に公開されたApplied Bionics and Biomechanics、第2015巻、記事ID 478062、9ページ、「Image−Assisted Navigation System for Spinal Surgery」と題する記事(http://dx.doi.org/10.1155/2015/478062からダウンロード)で見つけることができ、これは参照により本明細書に組み込まれる。基本的に、3D椎骨モデルの位置および配向(X、Y、Z、ヨー、ロールおよびピッチを含む)は、最適な整合が達成されるまで、コンピュータ408によって調整される。
図27Aおよび図27Bは、整合方法を図で示している。図27Bは、X線源2708からの横方向テスト画像2710を示している。横方向テスト画像2710およびX線源2706は、それぞれ、テスト画像が撮影されたときの画像化デバイス2300の検出器パネルアセンブリ2314およびX線源2312の検出器パネル2710に対応する。APテスト画像2710およびX線源2706は、それぞれ、テスト画像が撮影されたときの画像化デバイス2300の検出器パネル2710およびX線源2312に対応する。見て分かるように、モデルの椎体2702は、椎体がAPおよび横方向画像の対応する椎体と最も密接に整合するまでスケーリングおよび操作される。
ステップ2106は、ステップ2104で識別されるように、各関心対象の椎体に対して繰り返される。
次いで、ステップ2110において、ステップ2108で判定された椎体の最適な3D位置および配向に基づいて、コンピュータ408は、最適なCアーム2316の配向および位置(例えば、検出器パネル2314もしくはX線源2312、またはその両方のいずれかの3D位置および配向)を判定し、椎体を完全なAPおよび横方向の角度で中心に置くようにする。次いで、椎体に対して判定された最適なCアーム2316の配向および位置が、メモリ410に記憶される。
ステップ2110のこの最適なCアーム2316の配向および位置の決定は、図27Aで部分的に見ることができる。図27Aは、APおよび側面テスト画像2602、2604において対応する椎体と整合されたモデル椎体2702を示している。試験AP画像2602を示す左のスクリーンショット2720から容易に分かるように、Cアーム2316の最適な位置は、それを時計回りに約15度回転させ、椎骨レベルの約半分だけ下に移動させて、椎体を中心に置くことを含むであろう。横方向テスト画像2604を示す右のスクリーンショット2722から、Cアーム2316の最適な位置は、それを反時計回りに約10度回転させ、椎骨レベルの約半分だけ左に移動させて、画像における椎体を中心に置くことを含むであろう。
次いで、椎体の最適なCアーム2316の配向および位置がメモリに保存される。一実施形態では、2つの画像のうちの1つを撮影するための配向および位置情報が格納される。ついで、他の画像を撮影するには、Cアーム2316を90度回転させるだけでよい。代替の実施形態では、AP画像および横方向画像の両方を撮影するための配向および位置情報が格納される。処理されていない追加のレベルがある場合は、ステップ2106〜2110を繰り返すことができる。
ステップ2112において、コンピュータ408は、ディスプレイデバイス304におけるユーザ選択のための最適な画像化のために利用可能な椎骨レベルを表示し、その一例が図24Aに示されている。各レベルに対して、ディスプレイ304は、2つのユーザ入力ボタン2402および2404を表示する。これらのボタンは、画像化システム2300を理想的または最適な画像化位置に位置付けるために使用される。位置決めは、使用している画像機器に応じて、手動または自動のいずれかであり得る。ボタン2402はAP画像を撮影するためのものであり、ボックス2404は横方向画像を撮影するためのものである。ユーザは、マウス、タッチスクリーン、キーボードなどの入力デバイスで撮影する画像を選択することができる。一実施形態では、ユーザは、ディスプレイデバイス304のタッチセンシティブスクリーンを通して入力ボタンに触れることによって選択を行うことができる。
決定2114において、コンピュータ408は、画像化デバイス2300が自動位置決め機能を有するかどうかを判定する。自動位置決め機能により、コンピュータ408は、位置および配向コマンドを送信して、ステップ2110で判定されるように、画像化デバイス2300のCアーム2316を最適な3D位置および配向に移動および回転させることができる。
画像化デバイス2300がかかる能力を有すると判定された場合、制御はステップ2116に移る。ステップ2116において、コンピュータ408は、Cアーム2316の最適な3D位置および配向を画像化デバイスに送信する。
一実施形態では、コンピュータ408は、絶対位置および配向データを画像化デバイス2300に送信する。これは、画像化デバイス2300が手術室内におけるその正確な位置を知っている場合に可能である。別の実施形態では、コンピュータ408は、Cアーム2316を漸進的に移動および位置付ける移動命令を送信する。コンピュータ408は、画像化デバイス2300の最初の位置合わせから、患者に対するCアーム2316の相対的な位置を知っている。位置合わせデータおよびガントリー上の光学マーカ2310から、コンピュータ408は、患者に対するCアーム2316の相対的な位置および配向を追跡することができる。追跡データから、およびマーカが追跡されている間に、コンピュータは、最適なCアーム2316の位置および配向に到達するまで、一連の漸進的位置決めコマンドを画像化デバイス2300に発行することができる。
ステップ2114において、画像化デバイスがそのような自動位置決め機能(図12Aの画像化システム1304など)を有していないと判定された場合、制御はステップ2118に移る。ステップ2118において、コンピュータ408は、ディスプレイデバイス304上に、最適な位置に対するCアーム1308の位置の表示をグラフィック表示し、ユーザがCアーム1308を移動および配向させることを可能にする。Cアーム1308がユーザによって移動すると、ディスプレイデバイス304上のグラフィック表示は連続的に更新され、Cアーム1308がその最適な位置にどれだけ近いかをユーザに示す。Cアーム1308の位置は、較正リング2200上の光学マーカ2202、2204、またはCアーム上に位置付けられた他のいくつかの追跡可能なマーカによって追跡することができる。グラフィック表示の一例が図25に示されている。
左の画像は、Cアーム1308のxーyーz座標を示す。点線の円は、Cアーム1308の最適な位置を表す。点線の円の中心は最適なX−Y位置を表し、点線の円のサイズは最適なZ位置を表す。実線の円は、Cアーム1308の実際の位置を表す。ユーザがCアーム1308を移動させると、実線の円が移動し、そのサイズを変更して、最適な位置に対する実際の3D(XーYーZ)位置を示す。
右の画像は、Cアーム1308のヨー−ピッチーロール座標を示す。点線の円は、Cアーム1308の最適な配向を表す。点線の円の中心は最適なヨーーピッチ位置を表し、点線の円のサイズは最適なロール位置を表す。実線の円は、ヨー、ピッチ、ロールの観点からCアーム1308の実際の位置を表す。ユーザがCアーム1308を移動させると、実線の円が移動し、そのサイズを変更して、最適な位置に対する3D配向を示す。
両方の座標上の実線の円がそれぞれの点線の円と整合されると、画像化デバイス1304は適切な画像を撮影する準備ができている。例えば、L1−AP 2402がユーザによって選択された場合、画像化デバイス2300は、AP画像を撮影する。それは、画像化デバイス上の適切なボタンを作動させることによって行うことができ、またはコンピュータ408から指示を送信して行うことができる。
代替的に、椎骨レベルが選択されると、コンピュータ408は、ステップ2102〜2110を通じて判定された、保存された最適な位置および配向に基づいて、最適なAPおよび横方向画像の両方を撮影するように、画像化デバイス2300に指示を送ることができる。
一実施形態では、画像化デバイス2300によって撮影および格納された全ての画像に対して、コンピュータ408はまた、画像ならびにCアーム2316の位置および配向情報をメモリ410に格納する。これは、光学マーカ2310および2202〜2204を通して、またはCアーム2316の全ての軸および3D位置を制御するモータ内のエンコーダなどの画像化デバイスの内部位置決め要素を通して実現することができる。
画像が撮影されると、新たに取得した画像において、追加の椎骨レベルが利用可能になり得る。例えば、最適なL1画像が撮影されると、これらの画像はL4などの新しいレベルを含み得る。本発明の一態様では、コンピュータ408は、新たに取得された画像(APおよび横方向の両方)ならびにそれらの位置および配向をメモリ410に記憶し、次いで、ステップ2104で、新しいレベルが関心対象のものとして識別された場合、新しい椎骨レベルに対してステップ2102〜2112を繰り返す。
本発明の別の態様では、コンピュータ408は、すでに取得されている最適な3D位置および配向データを改良することができる。同じ例では、コンピュータ408は、新たに取得されたAPおよび横方向画像に基づいて、L2およびL3に対してステップ2102〜2112を繰り返すことができる。画像はL1に対する最適な3D位置および配向データに基づいて撮影されたため、L2およびL3に対してより最適に整合されたレベルも含み得る。したがって、L2およびL3に対して改良された3Dおよび配向位置は、以前よりもさらに正確になる可能性があろう。
ステップ2112において、古いレベル(例えば、L1〜L3)に対する入力ボタン2402、2404に加えて、コンピュータ408は、新しいレベルに対する入力ボタン2410、2412(例えば、L4に対するAPおよび横方向)のグラフィック表現をディスプレイデバイス304に表示する。
理解できるように、上記の方法は、各椎骨レベルに対して必要なフルオロショットは10個以上ではなく、2つ(APおよび横方向画像の1セット)のみであるので、手術室にX線画像化デバイスを位置付けるためのセットアップ時間を大幅に短縮する。この有利な特徴は、処置時間の大幅な短縮、患者および医療専門家の放射線曝露の大幅な低減、および処置に必要な時間が短縮されることによる処置のコスト低減を含む、多くの利点をもたらす。おそらくより重要なことに、本発明はより最適な画像を撮影することを可能にするので、それは医師がインプラントをより正確に配置することを可能にし、それは多くの手術においてより良い患者の転帰につながる。
本発明のいくつかの実施形態を、前述の明細書において開示してきたが、本発明が関連し、前述の説明および関連する図面において提示される教示の利益を有する、本発明の多くの修正および他の実施形態が着想されようことが理解される。このため、本発明が上で開示される具体的な実施形態に制限されないこと、ならびに多くの修正および他の実施形態が、添付の特許請求の範囲内に含まれることが意図されることが、理解される。例えば、本発明は腰椎に関して説明されてきたが、本発明は、任意の身体インプラント(インプラントの仮想3Dモデルを伴う)、任意の身体構造、または頸椎および胸椎を含む脊椎の他の領域、ならびに膝などのAPおよび横方向画像を必要とする他の任意の身体部分に適用可能である。さらに、一実施形態からの特徴を、本明細書に記載の異なる実施形態からの特徴と組み合わせまたは使用することができることが想定される。さらに、本明細書、ならびに以下の特許請求の範囲において、具体的な用語が採用されるが、それらは、一般的かつ説明的意味においてのみ使用され、説明される発明も、以下の特許請求の範囲も制限する目的で使用されない。本明細書において引用される各特許および公開物の全開示は、かかる各特許または公開物が本明細書において参照により個々に組み込まれるように、その全体が参照により組み込まれる。本発明の種々の特性および利点は、以下の特許請求の範囲において記載される。

Claims (22)

  1. 椎体の最適な画像を撮影するための画像化デバイスの画像化アームの3次元位置および配向を判定する方法であって、
    前記画像化デバイスから、テスト画像を受信することであって、テスト画像が、
    前記椎体の第1のX線画像と、
    前記第1のX線画像とは異なる角度での前記椎体の第2のX線画像と、を含む、受信することと、
    前記テスト画像に含まれる複数の椎体の中から前記椎体を識別することと、
    ストレージデバイスから前記椎体の3次元モデルを取り出すことと、
    前記取り出された3次元モデルを前記テスト画像に対して整合させることと、
    前記整合された3次元モデルに基づいて、最適なAPおよび横方向X線画像を撮影するための前記画像化アームの3次元位置および配向を判定することと、を含む、方法。
  2. 前記識別するステップが、前記テスト画像に含まれる複数の椎体を識別することを含み、
    各識別された椎体に対して、前記画像化アームの3次元位置および配向を3次元的に整合して判定するステップを繰り返す、請求項1に記載の方法。
  3. 前記識別するステップが、前記テスト画像内の前記椎体をセグメント化することを含み、
    前記3次元的に整合させるステップが、前記セグメント化された椎体に対して前記取り出された3次元モデルを3次元的に整合させることを含む、請求項1に記載の方法。
  4. 前記整合させるステップが、前記テスト画像に含まれる前記識別された椎体に対応するように、前記椎体の前記3次元モデルのサイズをスケーリングすることを含む、請求項1に記載の方法。
  5. 前記3次元的に整合させるステップが、フルオロCTマージを実行することを含む、請求項1に記載の方法。
  6. 前記画像化アームの前記判定された3次元位置および配向に基づいて、前記最適なAPおよび横方向X線画像を受信することと、
    前記受信した最適なAPおよび横方向X線画像に含まれる追加の椎体を識別することと、
    前記識別された追加の椎体の3次元モデルを前記ストレージデバイスから取り出すことと、
    前記取り出された3次元モデルを前記受信した最適なAPおよび横方向X線画像に対して3次元的に整合させることと、
    前記追加の椎体の前記整合された3次元モデルに基づいて、前記識別された追加の椎体の最適なAPおよび横方向X線画像を撮影するための前記画像化アームの前記3次元の位置および配向を判定することと、をさらに含む、請求項1に記載の方法。
  7. テスト画像を受信する前に、前記患者の3次元スキャンから前記3次元モデルを導出することをさらに含む、請求項1に記載の方法。
  8. ナビゲーションマーカを通して前記画像化アームの位置および配向を追跡することと、
    ディスプレイデバイスに、前記最適な3次元の位置および配向に対する前記画像化アームの整合の範囲のグラフィック表現を表示することと、をさらに含む、請求項1に記載の方法。
  9. 前記表示するステップが、
    座標系上の前記画像化アームの最適な位置および配向のグラフィック表現を表示することと、
    同じ座標系上の前記画像化アームの現在の位置および配向のグラフィック表現を表示することと、
    前記画像化アームが動かされるにつれて、前記画像化アームの前記現在の位置の前記グラフィック表現の位置を連続的に更新することと、を含む、請求項8に記載の方法。
  10. 前記連続的に表示するステップが、
    前記画像化アームの前記最適な位置の前記グラフィック表現として、座標系の中心に円を表示することと、
    前記画像化アームがX、Y、またはZ方向に移動するにつれて、前記画像化アームの前記現在の位置の前記グラフィック表現のサイズを変更することと、を含む、請求項9に記載の方法。
  11. 前記表示するステップが、画像化される前記識別された椎体に対して、前記画像化アームが、前記画像化アームの前記最適な3次元位置および配向にどれだけ密接に整合されているかのグラフィック表現を表示することを含む、請求項8に記載の方法。
  12. ナビゲーションマーカを通して前記画像化アームの前記位置を連続的に追跡することと、
    前記画像化アームの前記判定された3次元位置および配向に基づいて、前記画像化デバイスに指示を自動的に送信することと、をさらに含む、請求項1に記載の方法。
  13. 身体部分の最適な画像を撮影するための画像化デバイスの画像化アームの3次元位置および配向を判定する方法であって、
    前記画像化デバイスから、テスト画像を受信することであって、テスト画像が、
    前記身体部分の第1のX線画像と、
    前記第1のX線画像とは異なる角度での前記身体部分の第2のX線画像と、を含む、受信することと、
    ストレージデバイスから前記身体部分の3次元モデルを取り出すことと、
    前記取り出された3次元モデルを前記テスト画像に対して整合させることと、
    前記整合された3次元モデルに基づいて、最適なAPおよび横方向X線画像を撮影するための前記画像化アームの3次元位置および配向を判定することと、を含む、方法。
  14. 前記テスト画像内の前記身体部分をセグメント化することをさらに含み、前記3次元的に整合させるステップが、前記セグメント化された身体部分に対して前記取り出された3次元モデルを3次元的に整合させることを含む、請求項13に記載の方法。
  15. 前記整合させるステップが、前記テスト画像に含まれる前記身体部分に対応するように、前記身体部分の前記3次元モデルのサイズをスケーリングすることを含む、請求項13に記載の方法。
  16. 前記3次元的に整合させるステップが、フルオロCTマージを実行することを含む、請求項13に記載の方法。
  17. テスト画像を受信する前に、前記患者の3次元スキャンから前記3次元モデルを導出することをさらに含む、請求項13に記載の方法。
  18. ナビゲーションマーカを通して前記画像化アームの位置および配向を追跡することと、
    ディスプレイデバイスに、前記最適な3次元の位置および配向に対する前記画像化アームの整合の範囲のグラフィック表現を表示することと、をさらに含む、請求項13に記載の方法。
  19. 前記表示するステップが、
    座標系上の前記画像化アームの最適な位置および配向のグラフィック表現を表示することと、
    同じ座標系上の前記画像化アームの現在の位置および配向のグラフィック表現を表示することと、
    前記画像化アームが動かされるにつれて、前記画像化アームの前記現在の位置の前記グラフィック表現の位置を連続的に更新することと、を含む、請求項18に記載の方法。
  20. 前記連続的に表示するステップが、
    前記画像化アームの前記最適な位置の前記グラフィック表現として、座標系の中心に円を表示することと、
    前記画像化アームがX、Y、またはZ方向に移動するにつれて、前記画像化アームの前記現在の位置の前記グラフィック表現のサイズを変更することと、を含む、請求項19に記載の方法。
  21. 前記表示するステップが、画像化される身体部分に対して、前記画像化アームが、前記画像化アームの前記最適な3次元位置および配向にどれだけ密接に整合されているかのグラフィック表現を表示することを含む、請求項18に記載の方法。
  22. ナビゲーションマーカを通して前記画像化アームの前記位置を連続的に追跡することと、
    前記画像化アームの前記判定された3次元位置および配向に基づいて、前記画像化デバイスに指示を自動的に送信することと、をさらに含む、請求項13に記載の方法。
JP2021023308A 2020-02-17 2021-02-17 患者の骨を画像化するための画像化デバイスの最適な3次元位置および配向を判定するシステムおよび方法 Pending JP2021126521A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US202062977435P 2020-02-17 2020-02-17
US62/977,435 2020-02-17
US202062990064P 2020-03-16 2020-03-16
US62/990,064 2020-03-16
US17/088,853 US20210251591A1 (en) 2020-02-17 2020-11-04 System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones
US17/088,853 2020-11-04

Publications (1)

Publication Number Publication Date
JP2021126521A true JP2021126521A (ja) 2021-09-02

Family

ID=74666486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021023308A Pending JP2021126521A (ja) 2020-02-17 2021-02-17 患者の骨を画像化するための画像化デバイスの最適な3次元位置および配向を判定するシステムおよび方法

Country Status (4)

Country Link
US (1) US20210251591A1 (ja)
EP (1) EP3865069B1 (ja)
JP (1) JP2021126521A (ja)
CN (1) CN113262049A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023086544A1 (en) * 2021-11-11 2023-05-19 Vitality Robotics Inc. Robotic system and method for precise organ excision technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329729A (ja) * 2003-05-12 2004-11-25 Toshiba Corp X線診断装置及びx線撮影方法
JP2015535451A (ja) * 2012-11-23 2015-12-14 ディアース エンジニアリング ゲーエムベーハーDiers Engineering Gmbh 脊柱中の椎骨の空間位置および向きの判定
JP2018079304A (ja) * 2016-10-10 2018-05-24 グローバス メディカル インコーポレイティッド 2d−3d位置合わせの収束を改善するための方法及びシステム
JP2019500185A (ja) * 2015-12-14 2019-01-10 ニューヴェイジヴ,インコーポレイテッド 放射線照射を低減された手術中の3次元視覚化
JP2019202130A (ja) * 2018-05-10 2019-11-28 グローバス メディカル インコーポレイティッド 外科手術のロボットガイダンスに関連するシステムおよび方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6837892B2 (en) * 2000-07-24 2005-01-04 Mazor Surgical Technologies Ltd. Miniature bone-mounted surgical robot
US9782229B2 (en) * 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
US8165659B2 (en) * 2006-03-22 2012-04-24 Garrett Sheffer Modeling method and apparatus for use in surgical navigation
US20080183074A1 (en) * 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Method and apparatus for coordinated display of anatomical and neuromonitoring information
US8709086B2 (en) 2009-10-15 2014-04-29 Globus Medical, Inc. Expandable fusion device and method of installation thereof
DE102009051897A1 (de) * 2009-11-04 2011-05-05 Copf, Franz, Dr. Verfahren und Röntgensystem zum intraoperativen Aufnehmen eines 2D-Röntgenbildes
US8491659B2 (en) 2010-09-03 2013-07-23 Globus Medical, Inc. Expandable fusion device and method of installation thereof
DE102012004705A1 (de) * 2012-03-07 2013-09-12 Franz Copf Verfahren zur computergestützten Bestimmung der Lage eines auf einem Röntgenbild abgebildeten Wirbelsäulenabschnitts relativ zu einem Röntgengerät
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
JP7170631B2 (ja) * 2016-10-05 2022-11-14 ニューヴェイジヴ,インコーポレイテッド 外科ナビゲーションシステム及び関連する方法
JP7227168B2 (ja) * 2017-06-19 2023-02-21 モハメド・アール・マーフーズ 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329729A (ja) * 2003-05-12 2004-11-25 Toshiba Corp X線診断装置及びx線撮影方法
JP2015535451A (ja) * 2012-11-23 2015-12-14 ディアース エンジニアリング ゲーエムベーハーDiers Engineering Gmbh 脊柱中の椎骨の空間位置および向きの判定
JP2019500185A (ja) * 2015-12-14 2019-01-10 ニューヴェイジヴ,インコーポレイテッド 放射線照射を低減された手術中の3次元視覚化
JP2018079304A (ja) * 2016-10-10 2018-05-24 グローバス メディカル インコーポレイティッド 2d−3d位置合わせの収束を改善するための方法及びシステム
JP2019202130A (ja) * 2018-05-10 2019-11-28 グローバス メディカル インコーポレイティッド 外科手術のロボットガイダンスに関連するシステムおよび方法

Also Published As

Publication number Publication date
US20210251591A1 (en) 2021-08-19
EP3865069A1 (en) 2021-08-18
EP3865069B1 (en) 2024-01-17
CN113262049A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
JP6840815B2 (ja) 追跡マーカーを備えた手術用ロボットオートメーション
US11819283B2 (en) Systems and methods related to robotic guidance in surgery
JP7078355B2 (ja) 追跡マーカを用いた外科用ロボット自動化
US20190029765A1 (en) Surgical robotic systems providing transfer of registration and related methods and computer program products
US20180064497A1 (en) Surgical robotic automation with tracking markers
JP7019658B2 (ja) 追跡マーカーを備えた手術用ロボットオートメーション
JP2021171655A (ja) 蛍光透視イメージングシステムのための固定具ならびに関連するナビゲーションシステムおよび方法
EP3510927A1 (en) Surgical robotic systems with target trajectory deviation monitoring
JP6894466B2 (ja) 外科手術のロボットガイダンスに関連するシステムおよび方法
JP6970154B2 (ja) 追跡マーカーを備えた手術用ロボットオートメーション
JP7082090B2 (ja) 仮想インプラントを調整する方法および関連する手術用ナビゲーションシステム
US20230329798A1 (en) Methods for robotic assistance and navigation in spinal surgery and related systems
JP2021003552A (ja) 追跡マーカーを備えた外科手術ロボットオートメーション
JP6979049B2 (ja) 自然基準を使用した共登録を提供するロボットシステムおよび関連方法
US20240202926A1 (en) Auto segmentation using 2-d images taken during 3-d imaging spin
EP3586785A1 (en) Surgical robotic automation with tracking markers
EP3636394A1 (en) Robotic system for spinal fixation elements registration with tracking markers
JP2024012198A (ja) 画像内に放射線不透過性基準を使用しない手術ナビゲーション及びロボット誘導のための3d及び2d画像の位置合わせ
EP3865069B1 (en) System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones
JP2021041166A (ja) 追跡マーカを用いる外科用ロボット自動化

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230106

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230110

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230310

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230912