JP2019534734A - 誘導される処置システム - Google Patents

誘導される処置システム Download PDF

Info

Publication number
JP2019534734A
JP2019534734A JP2019515987A JP2019515987A JP2019534734A JP 2019534734 A JP2019534734 A JP 2019534734A JP 2019515987 A JP2019515987 A JP 2019515987A JP 2019515987 A JP2019515987 A JP 2019515987A JP 2019534734 A JP2019534734 A JP 2019534734A
Authority
JP
Japan
Prior art keywords
image
tracking
user
display device
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019515987A
Other languages
English (en)
Other versions
JP2019534734A5 (ja
Inventor
シェーウェ,ティモシー・ジェイ
パイテル,イバン
ストラカ,ニール・エフ
ウィルソン,ブライアン
Original Assignee
メドトロニック・ナビゲーション,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メドトロニック・ナビゲーション,インコーポレーテッド filed Critical メドトロニック・ナビゲーション,インコーポレーテッド
Publication of JP2019534734A publication Critical patent/JP2019534734A/ja
Publication of JP2019534734A5 publication Critical patent/JP2019534734A5/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/04Endoscopic instruments
    • A61B2010/045Needles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00434Neural system
    • A61B2018/00446Brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0475Special features of memory means, e.g. removable memory cards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Otolaryngology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Cardiology (AREA)
  • Plasma & Fusion (AREA)
  • Processing Or Creating Images (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

対象の隠れた部分の可視化を支援するために、対象の画像を使用するシステムが開示される。システムは、装着型ディスプレイを用いて画像を示し得る。画像は、拡張または複合現実方式で表示され得る。

Description

[0001]本対象の開示は、画像視認システムに関し、詳細には、画像が関連する実際の対象物に関連して表示された、またはその対象物に重畳された画像を、視認するためのシステムに関する。
[0002]本節は、必ずしも従来技術でない本開示に関する背景情報を提供する。
[0003]処置中、コンピュータ援用外科用(CAS)システムが、外科医などのユーザを支援するために使用され得る。処置は、脳における腫瘍切除および/または組織の除去などの外科的処置を含み得る。CASシステムは、外科用ナビゲーションシステムと呼ばれることもあり、患者の一部の画像をディスプレイ上に表示することを可能にする。たとえば、外科用ナビゲーションシステムは、米国コロラド州に事業所を有する、Medtronic Navigation,Inc.によって販売される、Stealth Station(登録商標) S7(登録商標)外科用ナビゲーションシステムを含み得る。外科用ナビゲーションシステムは、ユーザが、患者および画像における基準点を識別するなどの重ね合わせ技術を用いて、画像空間を実空間または患者空間に重ね合わせることを可能にする。重ね合わせは、患者から離れて配置された画面上に表示された画像に適用され得る。ディスプレイは、ブラウン管(CRT)モニタおよび/またはViewSonic Corporationによって販売されるビデオモニタなどのバックライトディスプレイを含むフラットパネルモニタなどのモニタであり得る。ディスプレイは患者から離して配置されるため、ユーザがディスプレイ上の画像と、患者とを同時に見ることは、少なくとも同一の実空間にいることを含めて、難しい場合がある。
[0004]本節は、本開示の全般的概要を提供し、その全体範囲の包括的開示またはその特徴の全てを提供するわけではない。
[0005]多様な実施形態によれば、外科用ナビゲーションシステムは、ホログラフのまたは拡張現実のディスプレイを備える。拡張現実ディスプレイは、本明細書で説明されるような、複合現実ディスプレイまたはデバイスを備え得る。複合現実(MR)デバイスは、選択された実空間で1人または複数のユーザによって、たとえば身につけるなどして装着され得る。MRデバイスにより、ユーザは、実空間と対象物を、実空間における実対象物上に関連して表示された、または重畳された生成画像(たとえばアイコン)と共に、視認することが可能になる。MRデバイスは、MRデバイスが実空間におけるMRデバイスの物理的位置を識別し、記憶しておくことを可能にするように構成された形態を、さらに含み得る。
[0006]MRデバイスは、実空間または対象空間上に重畳された画像を表示する構成で機能する、ディスプレイを含み得る。対象空間は、動的対象または静的対象を含み得る。たとえば、動的対象は、人の患者または動物の患者を含み得て、一方、静的対象は、機械的または電気的システムを含み得る。多様な実施形態において、人の対象は、外科的処置を経験することになり得て、MRデバイスは、患者上に重畳される患者の画像を、描写または表示するために使用され得る。静的対象の処置では、MRデバイスは、外部層または筐体によって覆われたシステムの内部構成要素の画像を、重畳するために使用され得る。
[0007]多様な実施形態において、MRデバイスは、本明細書で説明するように、現実世界の対象および形態と組み合わせて、ユーザに視認可能な画像を表示するように構成されたデバイスであり得る。ユーザが視認する画像を表示可能な例示のデバイスには、米国ワシントンに事業所を有する、Microsoft Corporationによる、Holo Lens(登録商標)、および米国カリフォルニアに事業所を有する、Meta CompanyによるMeta 2(登録商標)デジタルディスプレイ、ならびに他の適切な複合現実表示デバイスなどがある。通常、多様な拡張現実表示デバイスを含み得る、MRデバイスは、ユーザが直接視認可能なヘッドマウントディスプレイデバイスであり、実空間上に画像またはアイコンを重畳するために使用され得る。本明細書で説明されるように、MRデバイスは、選択される処置用に、選択されたアイコンおよび画像を表示するために使用され得る。
[0008]多様な実施形態において、MRデバイスはさらに、拡張現実システムと呼ばれ得るか、または拡張現実システムの要素を含み得る。複合現実システムでは、視認者は、現実世界または実空間(たとえば患者空間)の両方を視認し得て、さらに現実世界上に重畳された表示を視認し得る。たとえば、ユーザは、(1)透明なMRデバイスの表示部を通した現実世界、および(2)同様にユーザに視認され得る、表示部上に表示された不透明なまたは半透明な要素(たとえば投影または内蔵された液晶ディスプレイ)の両方を、視認し得る。多様な実施形態において、ユーザは、現実世界と表示された要素との両方を同時に視認し得る。複合現実システムは、本明細書でさらに説明するように、MRデバイスを通して視認されるとき、重ね合わせるあらかじめ取得された表示画像を、対象に重ね合わせることを可能にし得る。したがって、ユーザは、実空間と画像空間とを両方とも同時に視認し得て、画像空間で識別される多様な形態およびアイテムを、あたかもそれらが実空間に存在しているように視認するための、実空間に重ね合わされた画像空間を有し得る。
[0009]さらに、拡張または複合現実システムにより、ユーザは、実空間および/または画像空間上に重畳された、他の画像またはアイコンを視認することが可能になる。アイコンは、アイコンが拡張現実デバイスを用いて表示されるので、対象に関連して計画またはナビゲートされた機器の位置に基づき得る。
[0010]適用可能性のさらなる範囲が、本明細書に示す説明から明白になるであろう。本概要の説明および特定の例は、図解の目的にのみ意図され、本開示の範囲を制限することは意図されない。
[0011]本明細書で説明される図面は、全ての可能な実施態様でなく、選択された実施形態のみの例示を目的とし、本開示の範囲を制限することは意図されない。
[0012]MRデバイスを備える外科用ナビゲーションシステムの概略図である。 [0013]MRデバイスを用いて画像および実対象を視認するユーザの概略図である。 [0014]多様な実施形態による、MRデバイスを用いて実対象および画像を視認するユーザの斜視図である。 [0015]多様な実施形態による、MRデバイスを用いて実対象および画像を視認するユーザの斜視図である。 [0016]画像空間を実空間に重ね合わせる方法を示すフローチャートである。 [0017]多様な実施形態による、MRデバイスを用いて実対象および画像を視認するユーザの斜視図である。 [0018]多様な実施形態による、MRデバイスを用いて実対象および画像を視認するユーザの斜視図である。 [0019]多様な実施形態による、MRデバイスを用いて実対象および画像を視認するユーザの斜視図である。
[0020]対応する参照符号は、図面のいくつかの図の全体にわたって対応する部品を示す。
[0021]例示の実施形態をここで、添付図面を参照してより完全に説明することにする。
[0022]多様な実施形態によれば、手術する部屋すなわち手術室10は、外科医などのユーザ12によって、被験者14などの対象において、選択された処置を実行するために使用され得る。上述したように、しかしながら、対象14は、被験者である必要はなく、処置は、外科的処置である必要はない。多様な実施形態によれば、対象14は、筐体内部の電気的または機械的システムなどの静的物体であり得る。本明細書で説明するような、拡張または複合現実システムを含む、多様な構成要素は、処置を実行する対象14の内側のまたは対象14の筐体の内部の、多様な構成要素と共に、対象14の外側を視認するために使用され得る。
[0023]手術室10では、多様な構成要素が、処置の実行中にユーザ12を支援するために、設置され得る。多様な実施形態によれば、視認システムは、複合現実表示デバイスまたはシステム16を含み得る。複合現実表示デバイス16は、眼鏡またはゴーグルに類似するヘッドマウントデバイスなどの装着型複合現実表示デバイスであり得る。複合現実デバイス16はまた、ユーザ12の近傍にもしくは隣接して配置されたデバイスであり、かつ/またはユーザ12と共に移動可能であり得る。複合現実表示デバイス16は、対象14、およびMR画像18a(図2および2Aで示す)の画像のような他の情報および/または対象14の他の情報および/または対象14に関連する多様な部分に関するアイコン22の他の情報を視認するために、ユーザ12によって、使用され得る。さらに、外部のまたは複合現実でない表示デバイス20も、ディスプレイ20を用いた画像18として、画像を表示するために、さらに使用され得る。MR画像18aは、本明細書でさらに説明するように、ユーザ12によって視認されることになる、MRディスプレイ16を用いて視認可能であり得る。
[0024]本明細書で説明するように、視認可能な画像18、18aは、撮像システム25などの撮像システムを用いて取得される画像データに基づき得る。画像18、18aは、本明細書でさらに説明するように、対象に重ね合わせられ得て、撮像システム25からの画像データに基づき得ると理解される。本明細書で説明するように、画像18は通常、画像データに基づく画像を指し、MR画像18aの具体的な説明は、MRデバイス16を用いて視認される画像である。
[0025]撮像システム25は、本明細書で説明するように、画像18を生成するために、画像データ(たとえば、対象14を通過したX線の透過に基づいて)を取得する撮像システムを含み得る。他の画像データもまた、表示デバイス20によって視認する画像18、またはMRディスプレイ16を用いて視認するMR画像18aを生成するために使用され得ることもさらに理解される。さらに、1つまたは複数のアイコン22は、表示デバイス20およびMRディスプレイ16上に描写され得る。アイコン22は、多様な実施形態によれば、表示デバイス20上の画像18上に重畳され得る。さらに、アイコン22は、MRデバイス16を用いて表示され得、MR画像18a上に重畳され得るかつ/または対象14上に重畳され得る。本明細書で説明するように、アイコン22は、ユーザ12によって視認可能な複合現実画像として、MRデバイス16上に表示され得て、その結果アイコン22は、対象14上に直接配置されたように見える。
[0026]図1への参照を続けると、処置の実行を支援するために、ユーザ12は、撮像システム25を使用し、対象14の画像データを取得し、選択されたシステムが、処置の実行を支援するために、画像を生成または作成することを可能にし得る。モデル(3次元の(3D)画像などの)が、画像データを用いて生成され、MRディスプレイ16上のMR画像18aおよび/または表示デバイス20上の画像18として表示され得る。表示デバイス20は、物理的または音声入力デバイス(たとえば、キーボード、タッチスクリーン、音声制御)、通常非過渡的メモリシステムを含み得るメモリシステム30(たとえば、回転するハードディスク、ソリッドステートメモリデバイス、ランダムアクセスメモリ)、およびプロセッサ32などの、入力デバイス28を備えるプロセッサシステム26の一部であり得るかつ/またはそれに接続され得る。プロセッサ32は、処理システム26に組み込まれた1つまたは複数のプロセッサまたはマイクロプロセッサを備え得る。電線接続または無線伝達接続などの通信部分は、プロセッサシステム26の多様な構成要素(たとえば、画像18を表示もしくは描写するために表示デバイス20を駆動することを可能にするデータ通信用のプロセッサ32および表示デバイス20)間に、ならびに/または本明細書で説明するような手術室10内部の多様な他の構成要素間に配置されると理解される。
[0027]撮像システム25は、米国コロラド州ルイビルに事業所を有する、Medtronic Navigation,Inc.によって販売されているO−Arm(登録商標)撮像システムを含み得る。O−Arm(登録商標)撮像システムを含む撮像システム25、または参照により全てが本明細書に組み込まれる、米国特許第9,412,200号、7,188,998号、7,108,421号、7,106,825号、7,001,045号、および6,940,941号、ならびに米国特許出願公開第2012/0250822号、2012/0099772号、および2010/0290690号で説明されている撮像システムなどの、他の適切な撮像システムが、選択された処置中に使用され得る。
[0028]撮像システム25は、たとえばO−Arm(登録商標)撮像システムを備えるとき、制御パネルまたはシステム42を備える可搬カート40、ならびにソースユニット52および検出器54が配置された撮像ガントリ50を備え得る。制御システム42は、プロセッサ(たとえば上記のものなど)、メモリ、および多様なヒト入力システムなどの、多様な構成要素を備え得る。したがって、制御システム42は、対象14の画像データを取得するために、少なくともガントリ50、ソース52、および検出器54を動作させるために操作され得るか、または動作させるための指示を含み得る。さらに、制御システム42は、病院または他の看護施設などの内部で、撮像システム25をある位置から別の位置へ移動させるために、使用されかつ/または運転され得る。
[0029]ガントリ50は、O型形状または環状体形状であり得て、ガントリは実質的に環状であり、ソースユニット52および検出器54が動作し得る容積を形成する壁を備える。可搬カート40は、ある手術室から別の手術室に移動され得て、ガントリ50は、本明細書でさらに説明するように、カート40に関連して移動し得る。このことにより、撮像システム25は、対象14に対して可搬かつ可動であり得、それゆえ、資本支出または固定撮像システム専用の空間を必要とせずに、複数の場所で、複数の処置で、使用されることが可能になる。制御システム42は、汎用プロセッサまたは特定用途プロセッサなどのプロセッサおよびメモリシステム(たとえば、回転ディスクまたはソリッドステート不揮発性メモリなどの非一時的メモリ)を備え得る。たとえば、メモリシステムは、本明細書で説明するような、機能を実行し結果を決定するために、プロセッサによって実行される指示を含み得る。
[0030]ソースユニット52は、検出器54によって検出されることになる、患者14を通るX線を、放射することができるX線放射装置であり得る。ガントリ50は、患者14の身長方向の軸14Lに関連して動作し得て、ソース52および検出器54は、軸14Lの周りを回転し得る。患者14の正確な画像データを生成するために、患者14に関連してソース52および検出器54を動かすように、撮像装置25が精密に制御され得る。撮像装置25はまた、有線もしくは無線接続、または撮像システム25からプロセッサシステム26への物理的メディア移送手段を含み得る、接続70などの選択された接続を介して、プロセッサシステム26と接続され得る。したがって、撮像システム25を用いて収集された画像データは、本明細書で説明するような、ナビゲーション、ディスプレイ、再構成、などのための処理システム26に、移送され得る。
[0031]撮像システム25は、任意の適切な撮像システムであり得て、上で開示されたO−Arm(登録商標)撮像システムである必要はないと理解される。他の適切な撮像システムは、磁気共鳴画像法(MRI)、機能的MRI、拡散テンソル撮像法(DTI)、コンピュータ断層撮影(CT)スキャナ、陽電子放射断層撮影(PET)スキャン、ステレオカメラ、などを含み得る。任意の適切な撮像システムは、対象14の画像データを取得するために使用され得る。さらに、撮像システム25は、手術室10内に存在してもよいし、手術室10の外に配置され、処置がユーザ12によって実行中である場所から離れて、画像データを取得してもよい。したがって、画像データは、処置前のデータ、処置中の画像データ(すなわち、処置が完了する前に取得された)、または処置後の画像データであり得る。
[0032]ナビゲートされる処置では、光学的ローカライザ80および電磁的ローカライザ82の片方または両方を含む、ローカライザおよび/またはデジタイザが、場を生成するために使用され得て、かつ/または患者14に関連するナビゲーション領域内部で、信号を送受信し得る。患者14に関連してナビゲートされる空間またはナビゲーション領域は、画像18の画像空間に重ね合わされる、患者または実空間である。重ね合わせは、当技術分野で理解されているように、ナビゲーション領域内部で画定されるナビゲーション空間と、画像18によって画定される画像空間との重ね合わせを可能にする、相関付けに基づく。患者追跡装置すなわち動的基準座標系(DRF)90は、患者14の画像18への動的重ね合わせおよび重ね合わせの維持を可能にするために、患者14に接続され得る。
[0033]患者追跡デバイスまたは動的重ね合わせデバイス90および器具94は次に、ナビゲートされる処置を可能にするために、患者14に関連して追跡され得る。器具94は、光学的追跡デバイス100および/または電磁的追跡デバイス102などの追跡デバイスを含み得て、光学的ローカライザ80または電磁的ローカライザ82の片方または両方を用いた器具94の追跡を可能にし得る。通信システムは、器具94とプロセッサシステム26との間に配置され得て、ナビゲーション/プローブのインタフェースデバイス110を使用または経由し得る。また、1つまたは複数のローカライザ80、82は、ナビゲーション/プローブのインタフェースデバイス110を通して、プロセッサシステム26と通信し得る。プロセッサシステム26は、したがって、多様な追跡デバイス90、100、102に基づいて追跡される患者14および/または器具94の位置を組み込むために、ナビゲーションシステムとして他の追跡構成要素と協働して運転し得る。追跡位置は、画像18および/または患者14上の追跡位置として示され得る。通信は、有線、無線、物理的メディア伝達または動作、あるいは他の任意の適切な通信であり得ると理解される。それにもかかわらず、適切な通信システムは、それぞれのローカライザ80、82を備え得て、患者14に関連して器具94を追跡することを可能にし、器具94の追跡位置を、画像18および/または処置を実行する患者14に関連して示すことを可能にする。
[0034]当業者ならば、器具94は、任意の適切な器具、インプラント、またはプローブであり得ることを理解されよう。たとえば、器具94は、脳室または血管ステント、脊椎インプラント、神経ステントまたは刺激器具、切除デバイス、などを含み得る。器具94は、介入器具であり得る、またはインプラント可能なデバイスを含み得る、もしくはそれであり得る。器具94を追跡することで、患者14および/または重ね合わされた画像18(たとえば、器具を表すアイコンを表示すること)に関連する器具94の位置(x、y、z位置および向きを含む)を決定することかつ/または視認することが、患者14内部の器具94を直接視認することなしに、可能になる。
[0035]さらに、撮像システム25は、1つまたは複数のローカライザ80、82を用いて追跡され得る。たとえば、ガントリ50は、それぞれの光学的ローカライザ80または電磁的ローカライザ82を用いて追跡されることになる、光学的追跡デバイス120または電磁的追跡デバイス124を含み得る。したがって、撮像デバイス25は、器具94が追跡され得るように、患者14に関連して追跡され得て、画像18に関連する、患者14の初期重ね合わせ、自動重ね合わせ、または連続重ね合わせを可能にする。さらに、撮像システム25は、画像が取得され、患者14が同位置に留まるまたは画像取得後に追跡されるとき、その画像が患者14に重ね合わされることが可能である場合、撮像部(検出器などの)の位置を「知り」得る。器具94を重ね合わせ、追跡すると、アイコン22が、画像18および/または患者14に関連して、その上に重畳されることを含めて、表示され得る。
[0036]多様な実施形態において、本明細書で説明するような、重ね合わせおよびナビゲートされた処置は、参照により本明細書に組み込まれる、米国特許第8,238,631号で開示された処置を含み得る。追跡可能な器具および重ね合わせプロセスを含む、追跡システムは、米国特許第8,644,907号、米国特許第8,600,478号、米国特許第8,842,893号、米国特許第8,891,847号、米国特許出願公開第2013/0188848号、および米国特許出願公開第2014/0275989において、さらに公開され、全て参照により本明細書に組み込まれる。重ね合わせは、実空間または患者空間でのx、y、z位置の相関付けを行い、それらを画像空間におけるx、y、z位置(すなわち、画像内の画素または3D画素のx、y、z位置)と相関付けする。器具94の追跡される位置は次に、画像18上に重畳されるなど、ディスプレイ20上のアイコン22として示され得る。多様な実施形態において、しかしながら、重ね合わせにより、MR画像18aもまた、MRディスプレイ16を用いた複合現実視野内の患者14上に重畳されることが可能になる。したがって、ユーザ12は、図2および図2Aに示したように、MR画像18aおよび患者14の両方を見ることになる。さらに、アイコン22は、図2に示したように、MR画像18aと共にMRディスプレイ16を用いて表示されても、図3に示したように、MR画像18a(患者14上に重畳される)なしで表示されてもよい。
[0037]重ね合わせの前に、または重ね合わせの後にユーザ12によって選択される場合、MR画像18aは、対象14とは別個に視認され得る。たとえば、ユーザ12は、腫瘍切除などの処置を計画するために、対象14の画像を表示することを、システム26に指示し得る。対象14の存在なしで画像を視認するとき、ユーザ12は、画像内の腫瘍の全てまたは一部を識別し得る。処理システム26は、腫瘍の境界を識別するために、画像データをセグメント化し得る。ユーザ12および/または他のユーザはまた、単独でまたは計画システムと連携して、MRデバイス16などを用いて視認されるような、器具の軌道、進入位置、画像18および/または対象14の注釈などを定義または選択し得る。
[0038]計画の全ては、手術計画としてメモリ30に保存され得る。選択された時刻に、ユーザ12は、MRデバイス16を用いて、手術計画を読出し、手術計画(すなわち、軌道、腫瘍セグメンテーション、インプラント設計図および/またはサイズ、器具選択、処置位置など)の少なくとも一部を表示するようにプロセッサシステム26に指示し得る。手術計画は、他の画像を用いてまたは用いずに、対象14上に重畳されて表示され得る。さらに、本明細書で説明するように、多様な内部構造が、アイコン、MR画像18aのセグメント化された部分などとして、図示され得る。たとえば、対象14の内部にありユーザ12によって直接視認できないことがある、腫瘍を表すアイコン22b(図3)がMRデバイス16を用いて表示され得る。
[0039]図2および図2Aへの初期の参照を用いて、ユーザ12は、患者14が手術室10内に配置された後、MR画像18aを手術室10内の患者14に重ね合わせ得る。ユーザ12は、MRデバイス16を用いる場合、しかしながら、患者14が存在することなしに、画像を視認し得る。多様な計画および手順の確認は、ユーザ12が患者14の存在を伴う処置を開始する前に、実行され得る。予備計画は、後で読み出すためのメモリに保存され、計画された進入点、識別された疾患領域(たとえば、腫瘍)、器具軌道などを含み得る。
[0040]多様な実施形態において、MRデバイス16は、装着型MRデバイスであり、ユーザ12は、MRデバイス16を装着する。装着型MRデバイスである場合のMRデバイス16は、ヘッドマウント部または装着部150および透明または半透明な視野部またはディスプレイ152を含み得る。視認部152は、透明または半透明部分(たとえば、レンズまたはスクリーン)を含み得て、ユーザ12は、それを通して、患者14を含む実空間を視認し得る。視認部152は、MR画像18aおよび/または他の形体(たとえば、アイコン22)を表示するために不透明に作成されてよい液晶部を含む、透明または半透明な視認部を含み得る。透明または半透明である場合、視認部152により、ユーザ12が、対象14ならびに他の現実世界の対象物および形体を視認することが可能になる。視認部152は、処理システム26からの信号によって、駆動され得る。
[0041]視認部152は、しかしながら、画像がユーザ12の視野内に表示されることを可能にする、多様な形体(一方向視認スクリーンなど)をさらに含み得る。したがって、ユーザ12は、実患者14およびMR画像18aの両方を、実質的に同時に視認し得る。ユーザ12は、図2Aに示したように、患者14およびMR画像18aを視認し得る。図2は、やはりMRデバイス16を装着し、ユーザ12、患者14、およびMR画像18aを視認する、第2のユーザ(たとえば、手術室内の看護師)の表示を示し得る。図2Aは、患者14およびMR画像18aを視認するために、MRディスプレイ16を通して視認するユーザ12の視野を示し得る。図2Aに示したように、しかしながら、MR画像18aは、当初、MR画像18aがずれており、患者14上に重ならないため、患者14に重ね合わせられ得ない。重ね合わせ処理中、しかしながら、ユーザ12は、画像18によって画定される画像空間の患者14によって画定される患者空間への重ね合わせの実行を支援するように、MR画像18aを移動させるために、ユーザ12の手12a、12bを用いてMR画像18aを把持するように見え得る。DRF90は、患者14に取り付けられているように、直接患者14に取り付けられてもよいし、患者の頭部14hを手術室10内の手術台15に固定する、クランプ160に取り付けられてもよい。
[0042]重ね合わせ処理では、視覚的または音声的合図の一方または両方が、重ね合わせを支援するために、ユーザ12になされる。上で説明したように、MRディスプレイ16は、プロセッサシステム26からの情報を伝えるために、アイコンまたは他の表示(たとえば、数字、単語など)などのユーザ12への任意の適切な情報を表示し得る。上で説明したように、MRディスプレイ16は、ナビゲーション、およびMR画像18aなどの患者14に関連する情報の表示を支援するために、プロセッサシステム26と通信する。上述したように、画像データは、撮像デバイス25を用いて取得され、処理システム26へ伝送され、かつ/またはメモリ30もしくは他の適切なメモリに記憶され、読み出されMRディスプレイ16上に表示され得る。ナビゲーション情報などのさらなる情報は、プロセッサシステム26の処理に基づいて、MRディスプレイ16上にさらに表示され得る。
[0043]患者14に関連する処置のナビゲーションを実行または支援して、画像空間の患者空間への重ね合わせを実行するために、重ね合わせ処理は開始され得る。図2Aを継続して参照し、さらに図4を参照すると、重ね合わせフローチャート200が示されている。重ね合わせ処理は、フローチャートプロセス200の開始ブロック210で開始され得る。ユーザ12は、次にブロック214で重ね合わせ処理を開始する。重ね合わせ処理の開始は、ユーザ12が入力28を用いることを含み得る。上述したように入力28は、口頭での入力を含む任意の適切な入力を含み得る。したがって、ユーザ12は、口頭での命令(たとえば、「重ね合わせのナビゲーション開始」)を供給することによって、重ね合わせを開始し得る。プロセッサシステム26は、入力を受け取り、画像18の画像空間を患者14の患者空間に重ね合わせるために、指示の実行を開始し得る。
[0044]方法200では、プロセッサシステム26は、ブロック218で対象を視認するようにユーザに指示し得る。指示は、MRディスプレイ16上に表示されるか、または口頭または処理システム26からの聴覚的な出力を用いるなどして、別の方法でユーザ12に提供され得る。したがって、プロセッサシステム26は、スピーカ27(図1を参照のこと)など、ディスプレイ20またはディスプレイ16に加えての出力をさらに備え得ることが理解されよう。
[0045]指示された後、ユーザ12は、ユーザ12による使用のために適切に配置されたMRディスプレイ16を用いて、対象14を視認し得る。多様な実施形態において、MRディスプレイ16の適切な位置決めは、MRディスプレイ16を眼鏡と同様にユーザの頭部へ配置することであり得る。図1および2に示したように、MRディスプレイ16は、MRディスプレイ16の表示部152をユーザの視野内に固定する任意の適切な方法で、ユーザ12によって装着され得る。処理システム26は、次に、ブロック220で、MRディスプレイ16から3D表面スキャンを受け取ってよい。
[0046]ブロック220で受け取られた3D表面スキャンは、MRディスプレイ16のスキャン部または距離計測部221を用いてなされ得る。多様なスキャンシステムまたは距離計測システムは、実空間における対象14および他の対象物の部分の1つまたは複数の点(たとえば、x、y、およびzの3次元座標)を画定するために、対象の表面スキャンを取得するように構成された、レーザースキャナ(たとえば、ライダ)、レーダスキャナ、光学式スキャナ、超音波、ステレオカメラ、または他の距離計測システムを含み得る。図2を参照すると、距離計測部は、スキャン範囲223内の対象をスキャンし得る。たとえば、本明細書で述べるように、実空間または対象空間内の点を識別し、重ね合わせる画像18内の画素または3D画素と相関付けするために、レーザー(たとえば赤外線レーザー)は、対象14の表面をスキャンし得る。
[0047]患者14を視認中のユーザ12は、MRディスプレイ16を装着している間、MRディスプレイ16を適切な位置に配置し、その結果、MRディスプレイ16の3Dスキャンシステムは、患者14を的確にスキャンし得る。患者14のスキャン中に、患者14のポイントクラウドが作成され得る。たとえば、図2および図2Aに示したように、患者14の顔部14fの表面スキャンがなされ得る。顔部14fは、鼻先端14tのスキャン、患者の眼窩14oのスキャン、および患者14の他の解剖学上の特徴を含み得る。加えて、識別された解剖学上の特徴間の点もまた、ポイントクラウド内でスキャンされ得る。MRディスプレイ16によって3D表面スキャンとして受け取られたこれらの点は、処理システム26に伝送され得る。
[0048]ブロック220からの3D表面スキャンの受信開始の後にまたは実質的に同時に、あるいは受信後、処理システム26は、対象14近傍のMRデバイス16上に画像データの拡大された3D画像を表示する。図2Aへの参照へ戻ると、MR画像18aは、ユーザ12によってMRデバイス16を通して視認されるとき、対象14の近傍にまたは部分的に重畳して表示され得る。図2Aに示したように、MR画像18aは、患者14に関連して拡大され得る。たとえば、ブロック220からの表面スキャンデータは、実空間での患者14のサイズを識別し得る。したがって、MR画像18aは、患者14の1:1のスケールにて表示され得る。すなわち、MR画像18aは、撮像システム25を用いて取得される画像データに基づく3次元描画であり、ブロック220から受信された表面スキャンデータに基づいて患者14にあわせて拡大縮小され得る。MR画像18aは、したがって、対象14と整合された表面であり得る。それでも、MR画像18aは、ユーザ12が明らかに同じ空間内に患者14とMR画像18aとの両方を視認可能であるため、ユーザ12によってMRデバイス16を通して視認されると、複合現実空間内に表示され得る。
[0049]MR画像18aと患者14との両方を同一空間内で視認しているとき、ユーザ12は、続行し、患者14の位置と、MR画像18aの表示されたまたは投影された位置との両方を理解することができる。MR画像18aのみが、ユーザ12によってMRデバイス16を通して視認可能であり得ると理解されるが、ユーザ12は、MR画像18aが患者14と同一空間に存在するように知覚することが理解される。このことにより、ユーザ12は、対象14のみを視認し、本明細書で説明するような、画像データ、計画、および/または器具の追跡からの情報を理解かつ知覚することが可能になる。このことは、対象14と、対象14から離れて配置されるディスプレイ20とを視認することの代替となり得る。外科看護師などの他のユーザが、MRデバイス16に類似のまたは同一のデバイスを有し得て、MR画像18a、患者14、およびユーザ12をさらに知覚し得ることが、さらに理解される。また、画像18は、選択されれば、ディスプレイ20上に表示され得ることも理解されよう。
[0050]本明細書でMR画像18aと称される、複合現実内での3次元の描画の画像18を表示しているとき、ユーザ12は、MR画像18aを患者14に関連して視認することができる。さらに、ユーザ12は、他の現実世界の形体およびユーザ12の手12a、12bなどの対象物を視認することができる。したがって、ユーザ12は、MR画像18aを把持するように見え得る。MR画像18aを把持しようとしている、または把持しているように見えているとき、ユーザ12は、MR画像18aを移動させ得る。MR画像18aは、MRデバイス16から処理システム26への入力に基づいて、移動し得る。上述したように、MRデバイス16は、MRデバイス16に関連する現実世界の位置を識別し決定する特徴を含み得る。したがって、ユーザ12の手12aおよび12bは、現実世界空間内で識別され得て、処理システム26は、処理システム26への供給入力として、手12aおよび/または12bの位置を理解し得る。しかしながら、ユーザ12は、手12a、12bが処理システム26への入力であるかまたは入力を処理システム26に供給することを理解するために、システムを識別しまたはそれに命令し得ることが、理解されよう。たとえば、ユーザ12は、命令を、ユーザ入力28(たとえば、口頭または身体的入力)を通して供給し得る。たとえば、ユーザ12は、「手入力を受けて」などの口頭命令を供給し得て、その結果、プロセッサシステム26は、MR画像18aを操作している手12a、12bからの入力を識別し、受け取ることを理解する。
[0051]それでも、ユーザ12は、複合現実空間内で実質的に感覚的に、MR画像18aを移動させ得る。すなわち、ユーザ12は、あたかもMR画像18aが患者14などの現実世界の形体であるかのように、MR画像18aを把持し移動させるように見えることがある。ユーザ12は、したがって、現実世界空間におけるMR画像18aの移動および位置を感覚的に理解し得る。MR画像18aは、MR画像18aの操作が開始されることになる、MR画像18aに関連する手12a、12bの既知の位置を通して、プロセッサシステム26に詳細に識別させるためにタッチもされ得る、MR画像18a内に投影されるかまたは含まれる、ハンドル、タブ、などのような多様な形体を含み得る。ユーザの手12a、12bおよび/またはユーザ12によって操作される対象物は、入力をMRデバイス16および/または処理システム26に提供するために使用され得ることが理解されよう。さらに、距離測定システム221は、ユーザ12および手12a、12bを対象14に関連して追跡するように構成され得る。
[0052]したがって、ユーザ12は、多様な目的のために、MR画像18aを移動させ得る。たとえば、ユーザ12は、MR画像の異なる特徴を視認するために、MR画像18aを移動させ得る。上述したように、MR画像18aは、対象14の画像データなどの画像データの3次元の描画である。したがって、ユーザ12は、処置の計画、処置計画の確認、またはMR画像18aの患者14への重ね合わせなどの多様な処置を支援するために、多様な方法およびユーザ視点に関連した方向で、MR画像18aを視認しようとし得る。ユーザ12はまた、MR画像18aを、計画のために(たとえば、対象14における任意の侵襲的処置を実行する前に)、対象14から離れるように変動させ得る。
[0053]MR画像18aは次に、これも上述したように、重ね合わせを支援または開始するために、ユーザ12によるMR画像18aの操作によって、対象14上へと移動させられ得る。MR画像18aの対象14上への移動は、重ね合わせのための少なくとも大まかなまたは開始する点を識別することによって、MR画像18aの対象14上への移動または重ね合わせの開始を支援し得る。当業者によって一般に理解されるように、画像空間を画定する画像データの実空間または対象空間への重ね合わせは、画像空間および対象空間に存在する1つまたは複数の点を識別することによって開始され得る。MR画像18aを対象14上へまたはその近傍へ移動させることによって、対象14上の点と実質的に同様である、ユーザ12はMR画像18a内の多様な点を、識別することを支援し得る。たとえば、ユーザ12は、MR画像18aを操作し移動させ、MR画像18a内の鼻の点およびMR画像18a内の眼窩を患者14上の鼻先端14tおよび眼窩14o上へと、実質的に配置し得る。MR画像18aの移動は、ブロック230でユーザによって任意選択され得る。MR画像の移動は、MR画像18aの対象14によって画定される対象空間への重ね合わせに必要とされないことがある。さらに、MR画像18aは、重ね合わせ以外の目的のために、移動され得ることを理解されたい。したがって、ブロック230でのMR画像の移動は、任意選択であることが理解される。
[0054]プロセッサシステム26は、ブロック240で、MR画像18aを対象空間に重ね合わせ得る。MR画像18aの対象14によって画定される対象空間への重ね合わせは、画像空間を対象空間に重ね合わせる、多様な既存のアルゴリズムおよび処理に基づき得る。当技術分野において、一般に理解されるように、たとえば、ユーザまたはプロセッサシステムは、ローカライザ80、82を含む追跡システムを用いて追跡される器具94を用いるなどして、画像データ内の基準点を識別し、対象14上の同等または同一の点を定義し得る。重ね合わせ処理は次に、画像データ内の画素または3D画素に基づいてポイントクラウドを、および患者14と画像データとの間の表面マッチングを実行するために対象14上で識別される基準点を作成し、MR画像18a内の画素または3D画素の座標を、患者14によって画定されかつ関連した実空間内の3次元のx、y、およびz位置に写す剛体変換を含む変換を算出または生成し得る。変換は、回転および並進移動操作からなり、画像データのポイントクラウドを実空間内で定義されたポイントクラウドと整合させ得る。
[0055]患者14によって定められるポイントクラウドは、ブロック220で、受け取られた3D表面スキャンに基づき得る。MR画像18aを生成するために用いられる画像データは、画像空間およびポイントクラウドを、その内部の画素および3D画素の位置に基づいて定義する。したがって、ブロック220から受け取られた3D表面スキャンならびに画像データ内の画素および3D画素の決定された位置によって、MR画像18aの患者14への重ね合わせが可能になる。
[0056]図5への簡潔な参照により、ユーザ12によってMRデバイス16を通して知覚される視認により、ユーザ12は、ユーザの手12a、12bおよび1つまたは複数のアイコン22、ならびにさらに患者14に重ね合わせられ得るまたは重ね合わせられないこともあるMR画像18aおよび/またはMR画像18aに基づく部分を、視認することが可能になる。図5に示したように、画像データの患者14への重ね合わせにより、MRデバイス16を通して視認されるとき、患者14上に重ね合わせられ、患者14上に重畳される、実質的に不透明なMR画像18a’を視認することが可能になり得る。図5で詳細に示したように、不透明なMR画像18a’は、血管または他の選択された解剖学上の特徴の識別および図解を含み得る。重ね合わせにより、しかしながら、不透明なMR画像18a’または他の適切なMR画像を、MRデバイス16を用いたユーザ12の視野内の患者14上へ重畳することが可能になる。
[0057]さらに、重ね合わせは、DRF90および/または対象14に関連するDRF90の表面スキャンの識別または視認を含み得る。上述したように、ローカライザ80、82を含む追跡システムは、器具94などの器具を追跡するために使用され得る。したがって、MR画像18aの患者14への重ね合わせは、DRF90に関連する重ね合わせの識別または決定を含み得る。したがって、患者14に関連する器具94の追跡位置は、本明細書でさらに説明されるように、アイコン22を用いるなどして、MR画像18a上に表示され得る。
[0058]図4への参照に戻ると、ブロック240での重ね合わせ後、検証ステップが、重ね合わせを検証するために、ブロック250において任意選択で発生し得る。重ね合わせ精度の検証では、ホログラフィック可視化または他の可視化技術が使用され得る。たとえば、ポイントクラウド、ワイヤフレーム、テクスチャーマッピング、または他の画像が、MRデバイス16を用いて患者14上に投射され得る。ユーザ12は、MR画像18aなしに、患者14と、たとえば患者14上に重畳されたワイヤフレームとを視認し得る。ワイヤフレームは、鼻先端14tおよび眼窩14oの点などのいくつかの点を含み得て、点を相互接続する線を有し得る。複数の点は、患者14上に重畳された輪郭を含む表面を模擬するために、提供され得ると理解される。ユーザ12は、ブロック250での検証中、MRデバイス16を通して複合現実画像を視認し得るが、患者14上の完全な描画の3DのMR画像18aを視認できないことがある。ユーザ12は、患者14上に重畳され、MRデバイス16に対してブロック250で検証画像を視認して重ね合わせを検証し得る。
[0059]ユーザ12は次に、多様な入力を通して、ブロック260で重ね合わせを確認し得る。ユーザ12による重ね合わせの確認において、ブロック260では、ユーザ12は、器具94(または器具は、プローブもしくは非侵襲性器具であってもよい)を実空間内の患者14の多様な部分に移動させ得る。器具94を、患者14上を移動させているとき、プロセッサシステム26は、器具94の追跡位置情報を受け取り、アイコン22を作成または生成し得る。アイコン22は、MRデバイス16を用いて追跡位置に表示され得て、ユーザ12は、患者14およびアイコン22ならびに器具94も視認し得る。ユーザ12は、重ね合わせが適正または正確であることの視覚的な確認を受け取るために、アイコン22が器具94と同じ位置に存在することを視認または判定し得る。たとえば、ユーザ12は、アイコン22が器具94の上に実質的に重畳されており、患者14に関連する、ユーザ12が器具94を指し示す位置にあることを視認し得る。重ね合わせが、適正または正確でない場合(たとえば、視認される器具94とアイコン22との間の約0.5ミリメートル(mm)〜約3mmよりも大きい)、ユーザ12は、プロセッサシステムに重ね合わせをさらに改善するように指示し得る。
[0060]ブロック250での重ね合わせの検証およびブロック260での重ね合わせのユーザ確認の後、選択された場合、重ね合わせ処理は、ブロック270で終了され得る。上述したように、重ね合わせにより、MR画像18aが実質的に高精度な方法で患者14に関連して表示されることが可能になる。したがって、表示されたMR画像18a内の解剖学的および生理学的特徴は、ユーザ12によって、それらがMR画像18a内に存在する場合、患者14上の同じ解剖学的位置(たとえば、実際の現実世界の位置から約0.1mm〜約2mm以内)で、視認され得る。
[0061]上述したようにMR画像18aは、多様な特徴を含み得る。たとえば、MR画像18aは、対象14上に重畳された対象14の写真画像を含み得る。さらに、MR画像18aは、血管位置、裂溝位置、硬組織もしくは他の軟組織の位置および場所、または疾病の進行などの生理学的または解剖学上のデータを含み得る。たとえば、MR画像18aは、切除や生検等を行うべき腫瘍の識別を含み得る。多様な実施形態において、MR画像18aは、患者14の脳内の腫瘍の識別された位置および切除のために腫瘍に至る1つまたは複数の軌道を含み得る。したがって、MR画像18aの対象14への重ね合わせでは、MR画像18a内で識別される腫瘍の位置は、MRデバイス16を用いて患者14上でユーザ12のために識別され得る。
[0062]上述したように、図1の手術室10内で示されているシステムは、対象14での処置を実行するために使用され得る。しかしながら、対象14で実行される処置は、ヒトまたは他の生きている対象でない対象14を含む、非外科用または非医療用処置であり得ることが、理解される。それにもかかわらず、多様な実施形態では、対象14に実行される処置は、脳腫瘍を除去する処置を含むナビゲートされる処置であり得るか、または対象14の脳内の他の切除もしくは処置を実行し得る。特定の処置に関係なく、しかしながら、ユーザ12は、MRデバイス16を用いて複合現実の方法で、対象14を視認し得る。上述し、図2、2Aおよび3で図示し、図5および6でさらに図示するように、ユーザ12は、対象14を組み合わせてまたは加えて、MR画像18aを視認し得る。多様な実施形態において、MRデバイス16またはそれと同一のもしくは同等のものは、少なくともMR画像18aを視認するために、手術室10にいないユーザによって使用され得る。たとえば、上役の外科医は、ユーザ12が手術室10内で視認中の手術室10から離れた位置で、MR画像18aを視認し得る。処理システム26は、MR画像18aを、分離された処理システムおよび/または同一の処理システム26によって処理されることになる遠隔地に、遠隔地ユーザによって視認されることになる遠隔のMRディスプレイ上に表示するために、送出し得る。このようにして、遠隔地ユーザは、室内のユーザ12が進入点を選択すること、腫瘍を識別すること、外科手術経路もしくは軌道を点検すること、または他の適切なユーザ12への介助を支援し得る。
[0063]対象14に関連してMR画像18aを視認することは、上述したように、画像の対象14への重ね合わせに基づき得る。さらに、多様なアイコンの図解は、本明細書で説明するように、1つまたは複数のローカライザ80、82を含み得る追跡システムを用いた追跡器具のためであり得る。しかしながら、MRデバイス16に組み込まれた距離計測または他の位置決めシステムは、ユーザの手12a、12bを含む多様な部分を追跡するために使用され、追跡部分に関するアイコンまたは情報を表示し得ることが、さらに理解される。距離計測システム221は、追跡部分の位置を(追跡システムのローカライザによって追跡可能な追跡デバイスを使用してまたはそれなしに)、対象14および/またはMR画像18aに関連して決定し得る。さらに、MRデバイス16の距離計測システムまたは他の適切な位置決定システムは、唯一の追跡システムであり得、位置情報を処理システム26へ、対象14および/またはMRデバイス16を用いたMR画像18a上に表示するために、送出し得る。
[0064]図3、6、および6Aを参照すると、MRデバイス16を通して対象14を視認するユーザ12は、対象14に重ね合わせられる、MR画像18aに追加された多様なアイコンおよび画像をさらに視認し得る。重ね合わせ処理は、上述したように、全ての画像データを対象14に関連して重ね合わせるために使用され得る。上述したように、対象14は、DRF90を用いても追跡され得る。さらに、対象14は、上述したようなMRデバイス16に付随する多様な領域スキャン技術を用いたMRデバイス16に関連して、空間内で追跡または識別され、位置決めされ得る。
[0065]それゆえ、ユーザ12は、MRデバイス16を通して対象14を視認し、アイコン22を視認し得る。アイコン22は、同時に表示されるかまたはユーザ12によって選択されるような、1つまたは複数のアイコンとして、含まれ得る。たとえば、器具アイコン22aは、患者14上に重畳されて図示され得る。上述したように、器具アイコン22aは、MR画像18a上に重畳される、またはMR画像18aなしで実質的に直接患者14上に出現し得る。さらに、ユーザ12は、患者14およびユーザの手12aの外側で視認可能な器具94を含む現実世界を、MRデバイス16を通して、さらに視認し得る。ユーザ12は、器具94およびユーザの手12aに加えて、現実世界の他の部分をさらに視認し得ることが理解される。
[0066]器具アイコン22aなどの表示されたアイコン22は、器具94の目下の追跡位置または器具94の延長されるもしくは予想される経路のいずれかを示し得る。たとえば、図3に示したように、アイコン22aは、患者14の頭蓋骨もしくは脳内にある器具94の部分を示し得るか、または器具94がその時点で向けられている経路を示し得る。当業者によって理解されるように、器具94は、生検針を含み得て、その生検針は、針が移動することになる軌道を画定するステージに保持され得る。したがって、器具アイコン22aは、器具94の目下の軸に沿った直線に沿って移動させられる場合、器具94が取ることになる経路を示し得る。アイコン22aは、器具94の目下のまたは予想される位置を示す異なる部分(たとえば、異なる仕方で配色された部分)を含み得る。MRデバイス16は、MRデバイスによって表示されている異なる特徴を識別するために、多様な色を示し得る。
[0067]他のアイコンは、腫瘍アイコン22bを含み得る。腫瘍アイコン22bは、患者14の解剖学的部位を示すために使用され得る任意の適切なアイコンであってよい。図6Aを簡潔に参照すると、解剖学的アイコンは、血管または裂溝を示し得る他の解剖学的アイコン22eをさらに含み得る。したがって、画像データの多様な部分は、セグメント化され、画像データが患者14に重ね合わされた後、MRデバイス16を用いて患者14上に重畳されて表示され得ることが理解できる。
[0068]図6へのさらなる参照と共に図3への参照に戻ると、MRデバイス16は、患者14上に重畳され表示された進入点アイコン22c、および指示または方向を表すアイコン22dもさらに含み得る。上述したように、進入または目標アイコン22cは、患者14内部に侵入するための提案または計画された進入点であり得る。上述したように、選択された処置は、患者14内の腫瘍アイコン22bによって示される腫瘍除去または生検を含み得る。上役の外科医などの遠隔地ユーザは、対象14に関連して示されている進入点アイコンアイコン22cを移動させることまたは確認することを支援し得る。
[0069]方向を表すまたは指示するアイコン22dは、自動的に処理システム26によって、および/または選択されたもしくは所定の(たとえば、予備計画された)位置で器具94を配置しているときに室内のユーザ12を支援するために遠隔地ユーザによって、提供されるアイコンであり得る。上述したように、多様な処置は、対象14に関連する進入点、対象14に関連する器具の軌道、および他の適切な特徴などの多様な予備計画されたまたは所定の特徴を含めて予備計画することを含み得る。これらの特徴は、メモリシステム30またはプロセッサ32によってアクセス可能な任意の適切なメモリシステム内に保存され得る。したがって、上述したように追跡される器具94は、進入アイコン22cによって示される進入点に関連して追跡され得る。プロセッサシステム26は、器具94を追跡することによって、器具94を予備計画された経路上に配置するために移動させる方向を示すために、MRデバイス16を用いて方向を表すアイコン22dをユーザ12に提供し得る。方向を表すアイコン22dは、要件でないこともあり、器具94を予備計画された軌道または患者14に関連する他の位置に配置するために、動作方向を示すためだけに提供され得る。方向を表すアイコンは、MR画像18a上に重畳されてもよく、かつ/または、図6に示したように、MR画像18aなしで現実世界上に重畳されてもよい。それでも、MRデバイス16により、アイコンは、ユーザ12に対して表示され得て、一方、ユーザ12は、対象14をさらに視認できる。したがって、アイコンは、ユーザ12にリアルタイムの感覚的な表示および分析を提供し得る。
[0070]アイコン22およびMR画像18aなどの他の情報に加えて、さらなる画像データまたは他のデータが、MRディスプレイ16内で提供され得る。図6Aを参照すると、2次元すなわち非3次元の画像データが、ユーザ12の視野内に、しかし対象14から離れて表示され得る。図6Aに示したように、2次元画像18cは、多様な目的でユーザ12による視認のために表示され得る。上述したように、予備計画された処置は、軌道および進入点を含み得て、ユーザ12は、これらを2次元画像として視認し、一方、図6Aに示したように、患者14を、MRデバイス16を通してさらに視認し得る。したがって、ユーザ12は、図1に示したように、ディスプレイ20とは別個の患者14を視認しようとすることなしに、MRデバイス16を通して複数の種類のデータを実質的に同時に視認し得る。
[0071]実際の処置を実行することに加えて、上述したように、撮像システム25を用いて取得される画像データは、処理システム26を用いて、または所定の位置の対象14なしにMRディスプレイ16で視認するための他の適切な処理システムを用いて、処理され得る。たとえば、図6Aに示したように、2次元画像データ18cは、患者14とは別個に視認され得る。さらに、MR画像18aは、所定の位置の対象14なしに視認され得る。したがって、対象14の画像データは、任意の処置を行う前にまたは手術室10に入る前に、取得され得て、多様な計画、確認などの段階用に、MRデバイス16を用いて視認され得る。
[0072]また、処置の計画中および/または処置中、多様な異なる種類の画像データが表示され得る。上述したように、腫瘍を表す唯一のアイコンは、表示され得るが、画像データの多様な選択された部分は、セグメント化され、画像データの対象14への重ね合わせに基づいて、MRデバイス16を用いて、対象14に関連する適切な位置に表示され得る。たとえば、処置を計画または実行するにあたり、血管画像データまたは機能的画像データ(たとえば、機能的MRIデータおよびPETデータ)は、器具94を対象14内部に挿入することなどの処置中に、ユーザが器具94の軌道の近傍または中にある血管を視認することを可能にするために、表示され得る。
[0073]さらに、MR画像18aおよび多様なアイコン22を含む画像データが、手術処置中に使用され得る。図3に示したように、器具アイコン22aは、対象14内部の器具の位置を示すために使用され得る。器具アイコン22aは、器具94の選択された領域への、または腫瘍アイコン22b内などで識別される目標への前進を示すために使用され得る。したがって、ユーザは、対象14の腫瘍内部での器具94の配置を決定するために、器具アイコン22aおよび腫瘍アイコン22bを視認し得る。腫瘍の切除または除去、腫瘍の生検などのような多様な処置が発生し得る。たとえば、器具アイコン22aは、対象14内部の腫瘍の生検を取得するための腫瘍アイコン22bによって示される器具の位置を、腫瘍に関連して示すために使用され得る。アイコンは、ユーザ12が対象14をさらに視認している間に、MRデバイス16を通して視認され得る。
[0074]上述したMRデバイス16は、多様な種類の処置のために使用され得る。上述したように、ユーザ12は、手術段階および多様な予備計画または手術間の段階または部分の間を含む、選択された処置の間に、MRデバイス16を装着し得る。
[0075]多様な実施形態において、MRデバイス16は、通常人間によっておよび/または通常照明下のいずれによっても視認できない、特定の波長下でのみ可視的なまたは蛍光を発する多様な種類のマーカまたはバイオマーカを視認するために使用され得る。たとえば、蛍光は、対象14の選択された範囲(たとえば、腫瘍)内で収集されたALA−ppIXにより視認可能であり得る。開放手術中でさえ、腫瘍組織などの多様な組織を、周囲のまたは健全な組織と区別することは困難であり得る。多様な発光性材料が、処置の間または前のいずれかで、患者14に提供され得て、腫瘍などの対象14の一部分内に集合し得る。これらのマーカは、通常の照明条件下では、発光性または視認可能でないことがある。したがって、発光性マーカの視認を可能にするために、照明は、手術室においてオフにされ得る。照明が通常に戻された後、マーカは、ほとんど見えなくなり得る。
[0076]MRデバイス16は、組織の画像と発光性マーカとの両方を組み合わせて、通常の手術室の照明条件下であっても、ユーザ12が複合現実画像を視認可能にするために、初期に表示された発光性マーカに基づいて画像を表示し得る。たとえば、図3に示したように、腫瘍アイコン22bは、ユーザ12によって特殊な照明条件下で視認されるマーカを有する組織の図解であり得る。通常の照明条件下で、アイコン22bは、MRデバイス16によりユーザ12の視野内に維持される。そのため、ユーザ12は、通常の照明条件下であっても、アイコン22bの複合現実画像と、対象14の組織とを同時に視認できる。
[0077]多様な処置において、神経の完全性を監視することが、選択されまたは有効であり得る。Neural or Nerve Integrity Monitoring(神経系または神経完全性監視)(NIM(登録商標))監視システムは、米国ミネソタ州に事業所を有するMedtronic,Inc.によって販売されるMedtronic NIM−Eclipse(登録商標)Nerve Monitoring System(神経監視システム)を含み得る。多様な処置中、ユーザ12は、脳組織または脊椎神経を含む神経系要素を刺激し得て、対象14の神経反応の表示を視認または他の方法で受け取り得る。たとえば、選択された処置中、ユーザ12は、対象14の脳組織を視認し続け得る。ユーザ12は、脳の一部を刺激し、左脚など、対象14の選択された筋肉群が刺激されることを判定し得る。ユーザ12は、対象14での刺激反応を視認すると、脳の刺激された部分を患者14がいる位置で、MRデバイス16内で識別させ得る。たとえば、図6を参照すると、アイコン22cの進入点を識別するのではなく、アイコン22cは、選択された応答が発生したときに刺激された脳組織の部分を表し得る。アイコンの配色、形状などが、脳組織に供給された刺激に応答した特定の筋肉に関して、脳の領域に注釈をつけるために使用され得る。アイコンによる表示は、MRデバイス16の装着によりユーザ12の視野内に維持され得て、MRデバイス16は、患者の組織を識別し位置決めし終えている。このように、MRデバイス16は、ユーザに、多様な神経束または皮質領域によって刺激されるまたは制御される、解剖学的に特定の組織または領域に関する、脳内領域の表示を提供するために、使用され得る。
[0078]多様な他の実施形態では、MRデバイス16を含むナビゲーションシステムが、実質的に緊急のまたは緊急の状況を支援するために、使用され得る。たとえば、脳脊髄液(CSF)の排液が必要とされ得て、シャント設置があらかじめ定められ得る。シャント設置は、処置の実行のために対象14内の多様な組織を視認または識別することによって、さらに支援され得る。
[0079]上述したように、撮像システム25は、Medtronic,Inc.によって販売されるO−Arm(登録商標)Imaging System(撮像システム)を含み得る。O−Arm(登録商標)撮像システムは、参照により本明細書に組み込まれる、米国特許出願米国特許第9,412,200号で説明されているように、対象14に関連して自動的に重ね合わせられるまたはローカライズされる画像データを取得し得る。簡潔に述べれば、O−Arm(登録商標)撮像システムは、対象14に関連して実質的に正確な既知の位置で画像データを取得するように動作し得る。この画像データは、対象14に関連して視認するための、MR画像18aなどの画像を生成するために使用され得る。自動で登録されたまたは自動でローカライズされた画像データにより、MRデバイス16上に表示されたMR画像18aは、さらに自動的に、対象14に関連して重ね合わせられ得る。上述したように、MRデバイス16は、実空間での他の特徴に関連してそれ自体の位置を決定するために、3D表面スキャンまたは他の距離計測システム(たとえば、レーダ、ライダ、超音波、レーザー、ステレオカメラ)などの距離計測システムを備え得る。MRデバイス16がユーザ14によって装着されるとき、MRデバイス16は、撮像装置25またはその他の特徴および選択された量の対象物に関連してそれ自体の位置を決定するために使用され得る。したがって、撮像デバイス25を用いて取得される画像データが、対象14に自動的にローカライズされまたは重ね合わせられ、MRデバイス16が、対象に関連するそれ自体の位置を認識しているとき、ユーザ12によって視認されるための、MRデバイス16を用いて表示されるMR画像18aは、さらに対象14に重ね合わせられる。
[0080]距離計測システムを含むMRデバイス16はさらに、MRデバイス16の位置を、選択された量で配置された選択されたまたは特定のマーカに、処理システムを用いて決定することが可能であり得る。特定のマーカは、距離計測システムによって認識され、空間内の対象物の位置を識別し読み出すために使用され得る。たとえば、特定のマーカ(たとえば、反射性立方体)は、読み出し、MRデバイス16の方向を合わせるために、壁、天井などに、たとえ期間中に除去されても現在配置されている量へと、配置され得る。
[0081]処理システム26は、解剖学的な多様な部分を自動的に識別またはセグメント化するために使用され得る他の指示をさらに含み得る。たとえば、CSFの排液および/またはシャント設置用に、プロセッサシステム26は、脳組織近傍で脳組織を囲むCSFに解剖学的に基づいて、実質的に自動的に脳室をセグメント化し図解し得る。この方法でMRデバイス16は、MR画像18aを3次元のモデルとして図解または表示し、上述したように、対象14と実質的に1:1のスケールで、脳組織要素とセグメント化された領域との両方を示し得る。ユーザ12は、次に、MR画像18aを用いて、CSF排液で支援するために、対象14内のシャントを配置する処置を計画し得る。
[0082]たとえば、ユーザ12は、ローカライザ80、82を含む追跡システムを用いて追跡され得る器具94を配置し得る。画像データが撮像システム25と自動的に重ね合わされるので、器具94の位置は、ユーザ12によって装着されるMRデバイス16を用いて表示されるMR画像18a上に表示され得る。ユーザ12は、器具アイコン22aを、MR画像18a上に重畳された、対象14内部の器具の投射された位置として視認し得る。したがって、ユーザ12は、シャント設置を実行するために提案された位置および/または軌道の結果を迅速かつ効果的に理解し得る。その上、計画中、ユーザ12は、シャントの位置決めを実現するために、代替のまたは異なる位置および/または軌道を可視化することを試みて、器具94を移動させ得る。
[0083]ユーザ12は、次に、識別し、または処理システム26に命令して、選択されたまたは識別された軌道を保存し得て、上述したことと同様に、MR画像18a上にそれを表示し得る。たとえば、識別された後、器具アイコン22aは、軌道アイコン22tに変更され、シャントを配置する処置中にユーザ12によって視認されるMR画像18a上に表示され得る。ユーザ12は、次に、選択された軌道アイコン22tを使用して、穿頭孔の位置決めおよび形成、ならびに/または対象14内にシャントを配置するガイドの位置決めを、さらに決定し得る。穿頭孔が形成された後、次に、追跡される器具は、対象14内のシャントを配置するために使用され得て、器具の追跡位置は、MR画像18aを伴いまたは伴わずに、患者14上の器具アイコン22aを用いて識別され得る。シャントが選択されたシャント位置に到達すると、それが、器具94を追跡することにより自動的に識別され得て、メッセージが、器具94の追跡に基づいて、ユーザ12に提供され得る。ユーザ12は、シャントのために計画された位置を識別し得て、プロセッサシステム26は、シャントが計画された位置に到達したときを自動的に識別し得る。それに加えて、または別法として、ユーザ12は、MR画像18aを用いてまたは用いずに、対象14上の器具アイコン22aを視認することによって、追跡位置を視認し得て、ユーザ12は、シャントが適切に配置されたときを識別し得る。
[0084]それでも、撮像システム25を用いて取得される画像データは、撮像システム25により実質的に自動的にローカライズされ得て、MRデバイス16を用いて処置の計画および視認を可能にすることにより、シャントの効果的かつ迅速な位置決め、または他の選択された緊急の処置が可能になり得る。
[0085]実施例の実施形態は、本開示が完全になり、範囲を当業者に完全に伝えることになり得るように、提供される。多数の具体的な詳細は、特定の構成要素、デバイス、および方法の例のように記載され、本開示の実施形態の完全な理解を提供する。特定の詳細は利用される必要はなく、例示の実施形態は、多くの異なる形体で具現化されてよく、いずれも本開示の範囲を限定すると解釈されるべきでないことが、当業者には明らかになるであろう。いくつかの例示の実施形態では、周知の処理、周知のデバイス構造、および周知の技術は、詳細に説明されない。
[0086]本明細書で使用された専門用語は、具体的な例示の実施形態を説明する目的のためだけのものであり、限定することを意図するものではない。本明細書で使用したように、単数形の「a」、「an」、および「the」は、文脈が明確にそうでないことを示さない限り、複数形も同様に含めることを意図され得る。
[0087]本実施形態の前述の記述は、図解および説明を目的として提供された。網羅的であること、または本開示を限定することを意図するものではない。特定の実施形態の個々の構成要素または特徴は、全般的にその特定の実施形態に限定されず、しかしながら、たとえ明確に示しまたは説明されていなくても、適用可能な箇所では相互交換可能であり、選択された実施形態で使用され得る。同一のものが、多くの方法でさらに変更され得る。そのような変形形態は、本開示からの逸脱と見なされることにならず、全てのそのような変形例は、本開示の範囲内に含まれることが意図される。

Claims (24)

  1. 対象に関連して画像を視認するためのシステムであって、
    表示部および透明部を備える表示デバイスであって、前記表示デバイスを通して視認するユーザが、前記対象および前記対象に関連した前記画像を視認することが可能になるように構成された、表示デバイスと、
    ローカライザおよび追跡デバイスを備える追跡システムであって、前記ローカライザが前記追跡デバイスを現実3次元空間で追跡するように構成された、追跡システムと、
    前記追跡デバイスの追跡位置を決定するための命令を実行し、前記対象に関連して前記追跡デバイスの前記追跡位置を表すために、前記表示デバイスを用いてアイコンを表示するように構成された、処理システムとを備える、
    システム。
  2. 前記表示デバイスが、前記ユーザによって装着されるように構成された装着型デバイスに組み込まれており、
    前記表示デバイスの前記表示部が、前記処理システムによって駆動されるように構成された代替可能なディスプレイを含む、
    請求項1に記載のシステム。
  3. 非装着型ディスプレイをさらに備え、
    前記装着型デバイスが、前記ユーザにヘッドマウントされ、前記非装着型ディスプレイは、前記ユーザから離れて配置される、
    請求項2に記載のシステム。
  4. 前記装着型デバイスが、前記対象に関連して前記画像を3次元の画像として表示するように構成された、
    請求項2または3に記載のシステム。
  5. 前記3次元の画像が、前記対象と同一の空間に出現することが知覚されるように構成された複合現実画像である、
    請求項4に記載のシステム。
  6. 前記画像が、少なくとも、前記対象空間内の3次元座標と前記画像内の3次元座標との間で剛体変換を実行するために命令を実行する、前記処理システムによって、前記対象に重ね合わせられるように構成され、
    前記対象空間内の前記3次元座標が、前記装着型デバイスに関連して決定される、
    請求項2から5のいずれか一項に記載のシステム。
  7. 前記装着型デバイスが、距離計測デバイスを備え、
    前記距離計測デバイスが、前記対象の前記3次元座標を画定するために前記対象のポイントクラウドを取得するように構成された、
    請求項6に記載のシステム。
  8. 対象に関連して画像を視認するためのシステムであって、
    表示部および距離計測部を備える装着型複合現実表示デバイスであって、前記表示部は、前記装着型複合現実表示デバイスを装着したユーザが前記対象および前記対象に関連した前記画像を視認することが可能になるように構成された透明部を備え、前記距離計測部は、複数の対象空間3次元座標を前記装着型複合現実表示デバイスに関連して決定するように構成された、装着型複合現実表示デバイスと、
    画像3次元座標と前記複数の対象空間3次元座標とに基づいて、前記画像を前記対象に選択的に重ね合わせるために命令を実行するように構成された、処理システムとを備え、
    前記処理システムが、デバイス追跡可能部の追跡位置を決定するために命令を実行し、前記対象に関連して前記デバイス追跡可能部の前記追跡位置を表すために前記装着型複合現実表示デバイスを用いてアイコンを表示するようにさらに構成される、
    システム。
  9. 前記装着型複合現実表示デバイスの前記表示部が、前記画像を前記対象に重ね合わせる前にまたは後に、前記対象から離れて前記画像を表示する構成で動作可能である、
    請求項8に記載のシステム。
  10. 前記アイコンが、手術計画を準備するために動作可能であり、
    メモリシステムが、前記デバイス追跡可能部である器具の少なくとも軌道を含む前記手術計画を格納するように構成され、
    前記処理システムが、前記手術計画を読み出すように構成された、
    請求項8または9に記載のシステム。
  11. 前記距離計測部が、前記デバイス追跡可能部の前記追跡位置を決定するための前記デバイス追跡可能部を追跡するように構成された追跡システムである、
    請求項8から10のいずれか一項に記載のシステム。
  12. 音声入力をさらに備え、
    前記処理システムが、前記装着型複合現実表示デバイスの少なくとも前記表示部および前記距離計測部を操作するように構成され、
    前記音声入力が、少なくとも前記表示部を用いて前記画像を表示し前記画像を前記対象に重ね合わせるように命令するために、前記ユーザから口頭の指令を受け取るように構成された、
    請求項8から11のいずれか一項に記載のシステム。
  13. 表示部を備える遠隔地装着型複合現実表示デバイスをさらに備え、前記表示部は、前記遠隔地装着型複合現実表示デバイスを装着した遠隔地ユーザが、前記装着型複合現実表示デバイスを用いた前記ユーザによって視認されるような前記画像を視認するように構成された、
    請求項8から12のいずれか一項に記載のシステム。
  14. ローカライザおよび追跡デバイスを備える追跡システムであって、前記ローカライザが前記追跡デバイスを前記対象に関連して追跡するように構成された、追跡システムと、
    前記追跡デバイスを備える器具とをさらに備え、
    前記器具が、シャント、生検針、アブレーションカテーテル、切除器具、刺激プローブ、ナビゲーションプローブ、またはそれらの組合せのうちの少なくとも1つを備える、
    請求項8から13のいずれか一項に記載のシステム。
  15. 対象に関連して画像を視認する方法であって、
    表示部および距離計測部を備える装着型複合現実表示デバイスを装着するステップであって、前記表示部が、前記装着型複合現実表示デバイスを装着したユーザが前記対象および前記対象に関連した前記画像を視認することが可能になるように構成された透明部を備える、ステップと、
    前記距離計測部が、複数の対象空間3次元座標を前記装着型複合現実表示デバイスに関連して決定するように命令するステップと、
    画像3次元座標と前記複数の対象空間3次元座標とに基づいて、前記画像を前記対象に選択的に重ね合わせるために命令を実行するように処理システムに命令するステップと、
    前記対象に関連して前記画像を視認するステップとを含む、
    方法。
  16. 前記装着型複合現実表示デバイスを装着している間に、前記対象を視認するために、前記処理システムによって前記ユーザに指示するステップをさらに含む、
    請求項15に記載の方法。
  17. 追跡システムを用いて追跡デバイスを追跡するステップと、
    前記追跡デバイスの追跡位置を決定するために、前記処理システムを用いて命令を実行するステップと、
    前記対象に関連して前記追跡デバイスの前記追跡位置を表すために、前記装着型複合現実表示デバイスを用いてアイコンを表示するステップとをさらに含む、
    請求項15または16に記載の方法。
  18. 追跡システムを用いて追跡デバイスを追跡するステップと、
    前記追跡デバイスの追跡位置を決定するために、前記処理システムを用いて命令を実行するステップと、
    前記重ね合わされた画像上に重畳された前記追跡デバイスの前記追跡位置を表すために、前記装着型複合現実表示デバイスを用いてアイコンを表示するステップとをさらに含む、
    請求項15または16に記載の方法。
  19. 前記装着型複合現実表示デバイスを用いて前記画像を視認することによって、処置を計画するステップと、
    メモリシステムを用いて前記計画を保存するステップとをさらに含む、
    請求項15から18のいずれか一項に記載の方法。
  20. 前記計画を読み出すために、前記処理システムを操作するステップと、
    前記装着された装着型複合現実表示デバイスの前記表示部を用いてアイコンを表示するステップとをさらに含む、
    請求項19に記載の方法。
  21. 前記対象と前記アイコンとを両方同時に視認するステップをさらに含む、
    請求項20に記載の方法。
  22. 刺激器具の位置を追跡するステップと、
    前記刺激器具を用いて前記対象の一部分を刺激するステップと、
    前記刺激された部分に注釈をつけるために、前記装着型複合現実表示デバイスを用いて前記対象上に重畳されるアイコンを表示するステップとをさらに含む、
    請求項18に記載の方法。
  23. 前記装着型複合現実表示デバイスを装着している間に、前記対象の蛍光部を視認するステップと、
    前記装着型複合現実表示デバイスを用いて前記対象上に重畳された前記対象の前記蛍光部の表示を表示するステップとをさらに含む、
    請求項18に記載の方法。
  24. 前記対象の重ね合わされた画像を自動的に取得するステップと、
    前記対象の取得された自動的に重ね合わされた画像を、前記装着型複合現実表示デバイスを用いて視認するステップと、
    ステントの注入のための位置を計画するステップと、
    前記視認された自動的に重ね合わされた前記対象の画像上に重畳された前記ステントの追跡位置を表すために、前記装着型複合現実表示デバイスを用いてアイコンを表示するステップとをさらに含む、
    請求項15から23のいずれか一項に記載の方法。
JP2019515987A 2016-09-22 2017-09-20 誘導される処置システム Ceased JP2019534734A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/272,808 US11839433B2 (en) 2016-09-22 2016-09-22 System for guided procedures
US15/272,808 2016-09-22
PCT/US2017/052411 WO2018057564A1 (en) 2016-09-22 2017-09-20 System for guided procedures

Publications (2)

Publication Number Publication Date
JP2019534734A true JP2019534734A (ja) 2019-12-05
JP2019534734A5 JP2019534734A5 (ja) 2020-11-12

Family

ID=60002054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019515987A Ceased JP2019534734A (ja) 2016-09-22 2017-09-20 誘導される処置システム

Country Status (8)

Country Link
US (1) US11839433B2 (ja)
EP (1) EP3515352A1 (ja)
JP (1) JP2019534734A (ja)
KR (1) KR20190058528A (ja)
CN (1) CN109996511B (ja)
AU (1) AU2017332140A1 (ja)
CA (1) CA3037860A1 (ja)
WO (1) WO2018057564A1 (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
EP3165153A1 (en) * 2015-11-05 2017-05-10 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts System for fluorescence aided surgery
EP3545675A4 (en) 2016-11-24 2020-07-01 The University of Washington CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A3 (en) 2016-12-30 2024-05-29 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11417426B2 (en) 2017-02-24 2022-08-16 Masimo Corporation System for displaying medical monitoring data
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US11103311B2 (en) * 2017-03-10 2021-08-31 Biomet Manufacturing, Llc Augmented reality supported knee surgery
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
US10265138B2 (en) * 2017-09-18 2019-04-23 MediVis, Inc. Methods and systems for generating and using 3D images in surgical settings
US11944272B2 (en) 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure
KR102596429B1 (ko) 2017-12-10 2023-10-30 매직 립, 인코포레이티드 광학 도파관들 상의 반사―방지 코팅들
EP3729172A4 (en) 2017-12-20 2021-02-24 Magic Leap, Inc. INSERT FOR AUGMENTED REALITY VIEWING DEVICE
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
CN112136152A (zh) 2018-03-15 2020-12-25 奇跃公司 由观看设备的部件变形导致的图像校正
TWI678181B (zh) * 2018-04-30 2019-12-01 長庚大學 手術導引系統
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
ES2804910R2 (es) * 2018-05-30 2021-09-22 Macho Alvaro Zubizarreta Procedimiento para transferir una planificacion terapeutica a un dispositivo de realidad mixta
JP7319303B2 (ja) 2018-05-31 2023-08-01 マジック リープ, インコーポレイテッド レーダ頭部姿勢位置特定
CN108742898B (zh) * 2018-06-12 2021-06-01 中国人民解放军总医院 基于混合现实的口腔种植导航系统
WO2019238230A1 (en) * 2018-06-14 2019-12-19 Brainlab Ag Registration of an anatomical body part by detecting a finger pose
EP3810008A2 (en) 2018-06-19 2021-04-28 Tornier, Inc. Mixed reality-aided depth tracking in orthopedic surgical procedures
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
WO2020041615A1 (en) * 2018-08-22 2020-02-27 Magic Leap, Inc. Patient viewing system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
CN109464194A (zh) * 2018-12-29 2019-03-15 上海联影医疗科技有限公司 医学图像的显示方法、装置、医学设备及计算机存储介质
CN109512514A (zh) * 2018-12-07 2019-03-26 陈玩君 一种混合现实骨科微创手术导航系统及使用方法
CN109717957B (zh) * 2018-12-27 2021-05-11 北京维卓致远医疗科技发展有限责任公司 基于混合现实的控制系统
CN109806002B (zh) * 2019-01-14 2021-02-23 微创(上海)医疗机器人有限公司 一种手术机器人
JP2022523852A (ja) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
CN112168348A (zh) * 2019-07-03 2021-01-05 钜旺生技股份有限公司 用于手术的定位与导航系统及其运作方法
CN110420050B (zh) * 2019-07-18 2021-01-19 沈阳爱健网络科技有限公司 Ct引导下穿刺方法及相关装置
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
CN110464461A (zh) * 2019-08-29 2019-11-19 中国科学技术大学 一种基于mri引导的介入手术导航装置
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
US20210153969A1 (en) * 2019-11-25 2021-05-27 Ethicon, Inc. Method for precision planning, guidance, and placement of probes within a body
CN114980832A (zh) * 2019-12-10 2022-08-30 医疗视野Xr有限公司 用于规划和执行三维全息介入手术的系统和方法
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
KR102285008B1 (ko) * 2020-01-21 2021-08-03 박병준 마커를 이용한 의료 기구 자세 추적 시스템
US11167140B2 (en) 2020-01-24 2021-11-09 Medtronic Xomed, Inc. System and method for therapy
US11623086B2 (en) 2020-01-24 2023-04-11 Medtronic Xomed, Inc. System and method for therapy
US11167127B2 (en) 2020-01-24 2021-11-09 Medtronic Xomed, Inc. System and method for therapy
US11666755B2 (en) 2020-01-24 2023-06-06 Medtronic Xomed, Inc. System and method for therapy
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
KR102301863B1 (ko) * 2020-02-12 2021-09-16 큐렉소 주식회사 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
IT202000013501A1 (it) * 2020-06-08 2021-12-08 Univ Degli Studi Magna Graecia Di Catanzaro Dispositivo chirurgico ultra-mininvasivo
EP3944834A1 (en) * 2020-07-30 2022-02-02 Koninklijke Philips N.V. Navigation operation instructions
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
RU2754288C1 (ru) * 2020-10-06 2021-08-31 Владимир Михайлович Иванов Способ подготовки и выполнения хирургической операции на голове с использованием смешанной реальности
US11295460B1 (en) 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
US20220310258A1 (en) * 2021-03-23 2022-09-29 International Business Machines Corporation Personalized location recommendation for medical procedures
CN113509266A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 增强现实信息显示装置、方法、可读存储介质及设备
CN113100967B (zh) * 2021-04-09 2022-09-06 哈尔滨工业大学(深圳) 一种可穿戴的手术工具定位装置及定位方法
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
KR20230123197A (ko) * 2022-02-16 2023-08-23 고려대학교 산학협력단 혼합현실 기반의 초음파 영상 디스플레이 장치, 방법 및 시스템
WO2024049942A1 (en) * 2022-09-02 2024-03-07 Intuitive Surgical Operations, Inc. Techniques for updating a registration transform between an extended-reality system and a computer-assisted device
WO2024089502A1 (en) 2022-10-28 2024-05-02 Medtronic, Inc. System and method for illustrating a pose of an object
WO2024089503A1 (en) 2022-10-28 2024-05-02 Medtronic, Inc. System and method for illustrating a pose of an object
WO2024089504A1 (en) 2022-10-28 2024-05-02 Medtronic, Inc. System operable to determine a pose of an instrument

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム
JP2009018184A (ja) * 2001-02-13 2009-01-29 Mediguide Ltd 医療用撮像兼ナビゲーションシステム
JP2009524149A (ja) * 2006-01-17 2009-06-25 マコ サージカル コーポレーション ハプティックレンダリングのための装置および方法
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
JP2016503676A (ja) * 2012-12-13 2016-02-08 マコ サージカル コーポレーション 3次元トラッキングセンサを使用した位置決めおよびナビゲーション
JP2016512658A (ja) * 2012-12-26 2016-04-28 ビパール, エルエルシー 多重現実環境における役割切り替えのためのシステムおよび方法
US20160220324A1 (en) * 2014-12-05 2016-08-04 Camplex, Inc. Surgical visualizations systems and displays
US20160242623A1 (en) * 2015-02-20 2016-08-25 Cefla Societá Cooperativa Apparatus and method for visualizing data and images and for controlling a medical device through a wearable electronic device

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4395731A (en) * 1981-10-16 1983-07-26 Arnold Schoolman Television microscope surgical method and apparatus therefor
US6140980A (en) 1992-03-13 2000-10-31 Kopin Corporation Head-mounted display system
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US6891518B2 (en) 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
US6940941B2 (en) 2002-02-15 2005-09-06 Breakaway Imaging, Llc Breakable gantry apparatus for multidimensional x-ray based imaging
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
ATE304320T1 (de) 2002-03-13 2005-09-15 Breakaway Imaging Llc Systeme und verfahren für die quasi-gleichzeitige multiplanare röntgendarstellung
CN1643371B (zh) 2002-03-19 2011-07-06 麦德特尼克航空公司 带有跟随数轴x射线源移动的探测器的计算机x光断层摄影装置
EP1511423B1 (en) 2002-06-11 2007-08-15 Breakaway Imaging, Llc Cantilevered gantry apparatus for x-ray imaging
US6901941B2 (en) 2002-07-10 2005-06-07 Air Products And Chemicals, Inc. Vessel with optimized purge gas flow and method using same
AU2003262726A1 (en) 2002-08-21 2004-03-11 Breakaway Imaging, Llc Apparatus and method for reconstruction of volumetric images in a divergent scanning computed tomography system
US7835778B2 (en) * 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
JP4440893B2 (ja) 2004-03-26 2010-03-24 淳 高橋 三次元視覚指示機能を備えた三次元実体デジタル拡大鏡システム
US20050228270A1 (en) 2004-04-02 2005-10-13 Lloyd Charles F Method and system for geometric distortion free tracking of 3-dimensional objects from 2-dimensional measurements
US7376903B2 (en) 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US8060186B2 (en) * 2007-02-15 2011-11-15 Siemens Aktiengesellschaft System and method for intraoperative guidance of stent placement during endovascular interventions
US8600478B2 (en) 2007-02-19 2013-12-03 Medtronic Navigation, Inc. Automatic identification of instruments used with a surgical navigation system
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
JP5547200B2 (ja) 2008-10-01 2014-07-09 インスパイア・メディカル・システムズ・インコーポレイテッド 睡眠時無呼吸を治療する経静脈法
US9737235B2 (en) * 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
EP2416845B1 (en) 2009-03-31 2015-03-18 Inspire Medical Systems, Inc. Percutaneous access for systems of treating sleep-related disordered breathing
US8238631B2 (en) 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8842893B2 (en) 2010-04-30 2014-09-23 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US20120316486A1 (en) 2010-08-20 2012-12-13 Andrew Cheung Surgical Component Navigation Systems And Methods
US9769912B2 (en) * 2010-10-20 2017-09-19 Medtronic Navigation, Inc. Gated image acquisition and patient model construction
US8768029B2 (en) 2010-10-20 2014-07-01 Medtronic Navigation, Inc. Selected image acquisition technique to optimize patient model construction
US9807860B2 (en) 2010-10-20 2017-10-31 Medtronic Navigation, Inc. Gated image acquisition and patient model construction
US20120099768A1 (en) * 2010-10-20 2012-04-26 Medtronic Navigation, Inc. Method and Apparatus for Reconstructing Image Projections
US9545188B2 (en) * 2010-12-02 2017-01-17 Ultradent Products, Inc. System and method of viewing and tracking stereoscopic video images
US8562211B2 (en) * 2011-03-30 2013-10-22 Medtronic Navigation, Inc. System and method for off-center imaging
US9411057B2 (en) 2011-04-01 2016-08-09 Medtronic Navigation, Inc. X-ray imaging system and method
EP2755591B1 (en) 2011-09-16 2020-11-18 Auris Health, Inc. System for displaying an image of a patient anatomy on a movable display
US8891847B2 (en) 2012-01-23 2014-11-18 Medtronic Navigation, Inc. Automatic implant detection from image artifacts
WO2013116240A1 (en) * 2012-01-30 2013-08-08 Inneroptic Technology, Inc. Multiple medical device guidance
US20130267833A1 (en) 2012-04-09 2013-10-10 General Electric Company, A New York Corporation Automatic instrument detection for surgical navigation
JP6017198B2 (ja) 2012-06-28 2016-10-26 オリンパス株式会社 内視鏡装置およびプログラム
US20140221819A1 (en) 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
RU2621488C2 (ru) * 2013-02-14 2017-06-06 Сейко Эпсон Корпорейшн Укрепляемый на голове дисплей и способ управления для укрепляемого на голове дисплея
US9717442B2 (en) 2013-03-15 2017-08-01 Medtronic Navigation, Inc. Method and system for navigating an instrument
WO2015061793A1 (en) 2013-10-25 2015-04-30 The University Of Akron Multipurpose imaging and display system
US10849710B2 (en) * 2014-02-21 2020-12-01 The University Of Akron Imaging and display system for guiding medical interventions
DE102014206004A1 (de) 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
US10639104B1 (en) 2014-11-07 2020-05-05 Verily Life Sciences Llc Surgery guidance system
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
JP2016158911A (ja) 2015-03-03 2016-09-05 株式会社クレッセント 画像表示装置を使った外科手術方法及び、その外科手術に用いる装置
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
EP3280344A2 (en) * 2015-04-07 2018-02-14 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
CA2976516C (en) * 2015-07-27 2022-11-22 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
US9675319B1 (en) * 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
JP2017164007A (ja) 2016-03-14 2017-09-21 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
JP2019534717A (ja) 2016-08-16 2019-12-05 インサイト メディカル システムズ インコーポレイテッド 医療処置における感覚増強のためのシステム
US20180092698A1 (en) 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009018184A (ja) * 2001-02-13 2009-01-29 Mediguide Ltd 医療用撮像兼ナビゲーションシステム
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム
JP2009524149A (ja) * 2006-01-17 2009-06-25 マコ サージカル コーポレーション ハプティックレンダリングのための装置および方法
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
JP2016503676A (ja) * 2012-12-13 2016-02-08 マコ サージカル コーポレーション 3次元トラッキングセンサを使用した位置決めおよびナビゲーション
JP2016512658A (ja) * 2012-12-26 2016-04-28 ビパール, エルエルシー 多重現実環境における役割切り替えのためのシステムおよび方法
US20160220324A1 (en) * 2014-12-05 2016-08-04 Camplex, Inc. Surgical visualizations systems and displays
US20160242623A1 (en) * 2015-02-20 2016-08-25 Cefla Societá Cooperativa Apparatus and method for visualizing data and images and for controlling a medical device through a wearable electronic device

Also Published As

Publication number Publication date
EP3515352A1 (en) 2019-07-31
US20180078316A1 (en) 2018-03-22
AU2017332140A1 (en) 2019-04-18
CN109996511B (zh) 2022-06-28
WO2018057564A1 (en) 2018-03-29
US11839433B2 (en) 2023-12-12
KR20190058528A (ko) 2019-05-29
CA3037860A1 (en) 2018-03-29
CN109996511A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
JP2019534734A (ja) 誘導される処置システム
US11754971B2 (en) Method and system for displaying holographic images within a real object
US11944272B2 (en) System and method for assisting visualization during a procedure
US10390890B2 (en) Navigational feedback for intraoperative waypoint
KR20210104715A (ko) 광학 코드를 이용한 증강 현실 디스플레이
TWI741359B (zh) 與手術導航系統整合之混合實境系統
KR101531620B1 (ko) 뇌의 실영상에 nbs 기능 데이터를 오버레이하기 위한 방법 및 시스템
EP3170456A1 (en) Systems and methods for ultrasound image-guided ablation antenna placement
CN107530059A (zh) 微波消融计划与手术系统
JP2020522827A (ja) 外科ナビゲーションにおける拡張現実の使用
WO2013166111A2 (en) Videographic display of real-time medical treatment
US20230120638A1 (en) Augmented reality soft tissue biopsy and surgery system
Galloway et al. Overview and history of image-guided interventions
Adams et al. An optical navigator for brain surgery
Lange et al. Development of navigation systems for image-guided laparoscopic tumor resections in liver surgery
Lin et al. Robot-assisted minimally invasive brachytherapy for lung cancer
KR20160042297A (ko) 의료용 항법 장치
EP3917430B1 (en) Virtual trajectory planning
US20240122650A1 (en) Virtual trajectory planning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220421

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220825