JP7519354B2 - Using Optical Code in Augmented Reality Displays - Google Patents

Using Optical Code in Augmented Reality Displays Download PDF

Info

Publication number
JP7519354B2
JP7519354B2 JP2021526746A JP2021526746A JP7519354B2 JP 7519354 B2 JP7519354 B2 JP 7519354B2 JP 2021526746 A JP2021526746 A JP 2021526746A JP 2021526746 A JP2021526746 A JP 2021526746A JP 7519354 B2 JP7519354 B2 JP 7519354B2
Authority
JP
Japan
Prior art keywords
image
person
medical
patient
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021526746A
Other languages
Japanese (ja)
Other versions
JP2022507622A (en
Inventor
ウェンデル アーレン ギビー
スティーブン トッド クヴェトコ
Original Assignee
ノバラッド コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノバラッド コーポレーション filed Critical ノバラッド コーポレーション
Publication of JP2022507622A publication Critical patent/JP2022507622A/en
Application granted granted Critical
Publication of JP7519354B2 publication Critical patent/JP7519354B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4405Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Gynecology & Obstetrics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

複合現実又は拡張現実は、物理世界及び仮想コンピューティング世界からの画像を複合現実世界に組み合わせてもよいコンピューティング技術の領域である。複合現実では、物理世界及び仮想世界からの人々、場所、及びオブジェクトは、複合環境になる。VR(仮想現実)又はAR(拡張現実)ヘッドセットの使用と共に、既存の商用又はカスタムソフトウェアを介して複合現実体験が提供されてもよい。 Mixed reality or augmented reality is an area of computing technology that may combine images from the physical and virtual computing worlds into a mixed reality world. In mixed reality, people, places, and objects from the physical and virtual worlds become a composite environment. Mixed reality experiences may be delivered through existing commercial or custom software along with the use of VR (virtual reality) or AR (augmented reality) headsets.

拡張現実(AR)は、物理的な現実世界の環境のライブの直接ビュー又は間接ビューが、音声、ビデオ、グラフィック又は他のデータなどのコンピュータ生成の感覚入力によって拡張又は補足される複合現実の例である。拡張は、現実世界の場所が見られ、環境要素と関連して実行される。高度なAR技術(例えば、コンピュータビジョン及びオブジェクト認識の追加)の支援により、ユーザの周囲の現実世界に関する情報はインタラクティブになり、デジタル的に修正されてもよい。 Augmented reality (AR) is an example of mixed reality in which a live direct or indirect view of a physical, real-world environment is augmented or supplemented by computer-generated sensory input, such as audio, video, graphics, or other data. Augmentation is performed in which real-world locations are viewed and associated with environmental elements. With the aid of advanced AR techniques (e.g., the addition of computer vision and object recognition), information about the real world around the user becomes interactive and may be digitally modified.

ARシステム又はARヘッドセットが直面する問題は、オブジェクトの位置及び向きを高精度で識別することである。同様に、仮想要素の位置を現実世界環境のライブビューと位置合わせすることは困難であり得る。ARヘッドセットの位置合わせ解像度は、仮想オブジェクトを、見ている物理オブジェクトに位置合わせしてもよいが、位置合わせ解像度は、数センチメートル以内にしか位置合わせされないことがある。数センチメートル以内に位置合わせを提供することは、娯楽及びそれほど要求の厳しくない用途に有用であり得るが、ARシステムの位置決め及び位置合わせの解像度を高めることは、科学、工学、及び医学の分野において望ましいことがある。その結果、位置決め及び位置合わせプロセスは手動で行われてもよく、これは時間がかかり、煩雑であり、不正確であり得る。 A problem faced by AR systems or AR headsets is identifying the position and orientation of objects with high accuracy. Similarly, aligning the position of virtual elements with a live view of the real-world environment can be difficult. The alignment resolution of an AR headset may align virtual objects to the physical objects being viewed, but the alignment resolution may only be to within a few centimeters. While providing alignment to within a few centimeters may be useful for entertainment and less demanding applications, increasing the positioning and alignment resolution of AR systems may be desirable in the fields of science, engineering, and medicine. As a result, the positioning and alignment process may be performed manually, which can be time-consuming, cumbersome, and inaccurate.

患者及び医療用具に取り付けられた1つ又は複数の光学コードを使用して、医療用具及び患者の画像データを参照し、患者の実際のビューに位置合わせされ得る例示的な拡張現実(AR)環境を示す図である。FIG. 1 illustrates an exemplary augmented reality (AR) environment in which image data of the medical implement and the patient can be referenced and aligned to an actual view of the patient using one or more optical codes attached to the patient and medical implement.

患者に貼付された画像可視マーカを有する光学コードの一例を示す図である。FIG. 1 shows an example of an optical code having image visible markers affixed to a patient.

患者の身体及び医療用具の実際のビューのカメラによって取り込まれ得る視覚データの一例を示し、それぞれ光学コードが貼り付けられている。1 shows an example of visual data that may be captured by a camera of a real view of a patient's body and a medical tool, each labeled with an optical code.

医療処置中の医療用具の位置決め及び向きを案内するための注釈を有する拡張現実(AR)ディスプレイにおけるビューの一例を示す図である。FIG. 1 illustrates an example of a view in an augmented reality (AR) display with annotations to guide positioning and orientation of a medical tool during a medical procedure.

医療処置中に医療用具の使用又は案内情報を表示するために拡張現実ディスプレイデバイスに表示され得るビューの例を示す図である。1A-1C are diagrams illustrating examples of views that may be displayed on an augmented reality display device to display the use of medical tools or guidance information during a medical procedure.

透視画像の位置決め及び向き、並びに光学コードを使用した人の身体に対する画像データセットからの画像投影を可能にする拡張現実(AR)ディスプレイを使用する例を示す。An example is shown using an augmented reality (AR) display that allows positioning and orientation of perspective images, as well as image projection from an image dataset onto the human body using an optical code.

人の身体に対して移動可能であり、透視画像及び画像投影もまた移動及び/又は修正される透視デバイスの一例を示す。1 shows an example of a fluoroscopy device that is movable relative to a person's body, where the fluoroscopy image and image projection are also moved and/or modified.

透視デバイスを示しており、この透視デバイスは、人の身体に対して移動可能であり、透視デバイス用の冠状視野内に透視画像及び画像投影を生成して、拡張現実(AR)ヘッドセット又はARディスプレイを通して組み合わされた表示を可能にする。A fluoroscopy device is shown that is movable relative to a person's body and generates fluoroscopic images and image projections within a coronal field of view for the fluoroscopy device to enable combined viewing through an augmented reality (AR) headset or AR display.

拡張現実(AR)ヘッドセット又はARディスプレイを介して画像データセット及び超音波画像の組み合わされた表示を可能にするために、光学コードと組み合わせて使用される超音波トランスデューサを示す。1 illustrates an ultrasound transducer used in combination with an optical code to enable combined display of an image dataset and an ultrasound image via an augmented reality (AR) headset or display.

画像データセット及び患者の身体に関して医療用具を参照するために拡張現実ヘッドセットを使用する例示的な方法のフローチャートである。1 is a flow chart of an exemplary method of using an augmented reality headset to reference a medical tool with respect to an image dataset and a patient's body.

透視画像、画像データセットからの画像投影、及び光学コードを使用する人の身体を位置合わせするために拡張現実(AR)ディスプレイを使用する方法を示す。We show a method of using an augmented reality (AR) display to align a person's body using a fluoroscopic image, an image projection from an image dataset, and an optical code.

医療用具が画像データセット及び患者の身体に対して参照されることを可能にするために、医療用具上で光学コードを使用する際に使用され得る例示的なシステムを示す図である。FIG. 1 illustrates an exemplary system that may be used in using an optical code on a medical implement to enable the medical implement to be referenced to an image dataset and a patient's body.

本技術を処理するコンピューティングシステムの一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a computing system for processing the present techniques.

拡張現実(AR)ヘッドセットを使用して、医療処置中にARヘッドセットのカメラの視野内にある医療用具上で1つ又は複数の光学コードを識別できるようにする技術が提供される。医療用具は、1つ又は複数の光学コード及び人の身体上の画像可視マーカを使用して、人の身体と位置合わせされた画像データセットを参照することができる。画像データセットは、非光学撮像モダリティ(例えば、MRI(磁気共鳴画像法)、CT(コンピュータ断層撮影)スキャン、X線などを使用する)を使用する人の身体の一部分の以前に取得された画像であってもよい。画像データセットは、人の身体上に位置する少なくとも1つの光学コードからの固定距離である画像可視マーカを使用して、人の身体に位置合わせすることができる。例えば、画像可視マーカ及び光学コード(例えば、AprilTag又は2D光バーコード)の両方を1つの材料片(例えば、互いに同じ場所に配置されているか、又は互いに固定されて近接している)に取り付けて、画像データセットと人の身体との位置合わせを容易にしてもよい。画像可視マーカは、ARヘッドセットにとって光学的に可視ではない場合がある、取り込まれた放射線画像又は画像データセットなどの非可視撮像モダリティで見ることができるマーカである。画像データセットは、非光学撮像モダリティで人体の構造を取り込む機械によって取り込まれた画像を使用して、画像可視マーカの表現で取り込まれてもよい。画像データセット内の画像可視マーカの表現は、(後に更に詳細に説明するように)人の身体に貼付された1つ又は複数の光学コードに対する画像可視マーカの既知の固定位置を使用して、患者の身体と位置合わせすることができる。例えば、画像可視マーカは、放射線不透過性マーカ、MRIビーズ、超音波用のエコー源性構造などであってもよい。 Techniques are provided that allow an augmented reality (AR) headset to be used to identify one or more optical codes on a medical implement that is within the field of view of the AR headset's camera during a medical procedure. The medical implement can reference an image dataset that is aligned with the person's body using one or more optical codes and image visible markers on the person's body. The image dataset may be a previously acquired image of a portion of the person's body using a non-optical imaging modality (e.g., using MRI (magnetic resonance imaging), CT (computed tomography) scan, X-ray, etc.). The image dataset can be aligned with the person's body using image visible markers that are a fixed distance from at least one optical code located on the person's body. For example, both the image visible markers and the optical code (e.g., AprilTag or 2D optical barcode) may be attached to a piece of material (e.g., co-located with each other or fixed and close to each other) to facilitate alignment of the image dataset with the person's body. Image visible markers are markers that can be seen in a non-visible imaging modality, such as a captured radiographic image or image dataset, that may not be optically visible to the AR headset. The image dataset may be captured with a representation of the image visible markers using images captured by a machine that captures the structure of the human body in a non-optical imaging modality. The representation of the image visible markers in the image dataset can be aligned with the patient's body using a known fixed position of the image visible markers relative to one or more optical codes affixed to the person's body (as described in more detail below). For example, the image visible markers may be radiopaque markers, MRI beads, echogenic structures for ultrasound, etc.

医療用具を画像データセットに参照することはまた、人の身体及び画像データセットに対する医療用具の位置及び向きを識別することを含んでもよい。したがって、医療専門家は、ARヘッドセットを介して実際の患者を見ながら、医療用具上の光学コードを使用して医療用具を参照するような画像データセットを使用して、患者の仮想内部を見る。医療用具を含む視覚画像データは、ARヘッドセットの可視光カメラを使用して取り込むことができる。医療用具に視認可能に表示される1つ又は複数の光学コードもまた走査されてもよい。例えば、医療用具の位置及び向きは、1つ又は複数の光学コード(例えば、APRILコード又は2D(2次元)バーコード)を走査することによって決定されてもよい。医療用具は、医療器具、トロカール、カテーテル、整形外科用ハードウェア、外科用インプラント、クランプ、電気焼灼ブレード又はシステム、手術室オブジェクト、機器オブジェクト、治療オブジェクト、医療処置オブジェクト、治療オブジェクト、挿入可能な用具、植込み可能なオブジェクト、医療デバイスなどであり得る。 Referencing the medical implement to the image dataset may also include identifying the position and orientation of the medical implement relative to the person's body and the image dataset. Thus, the medical professional views the virtual interior of the patient using the image dataset, while viewing the actual patient through the AR headset, and references the medical implement using an optical code on the medical implement. Visual image data including the medical implement may be captured using a visible light camera in the AR headset. One or more optical codes visibly displayed on the medical implement may also be scanned. For example, the position and orientation of the medical implement may be determined by scanning one or more optical codes (e.g., an APRIL code or a 2D (two-dimensional) bar code). The medical implement may be a medical instrument, a trocar, a catheter, an orthopedic hardware, a surgical implant, a clamp, an electrocautery blade or system, an operating room object, an equipment object, a treatment object, a medical procedure object, a treatment object, an insertable implement, an implantable object, a medical device, etc.

ARヘッドセットを使用して、患者の身体及び画像データセットに対する医療用具の位置決め及び向きを案内するために、画像データセットに視覚的インジケータ、注釈、又は仮想ツールが統合されてもよい。医療用具又は仮想ツールはまた、医療用具又は仮想ツールを強調表示するためにARヘッドセットを使用して医療用具又は仮想ツールに近接して又はオーバーレイとして表示されるグラフィックインジケータ(例えば、コンピュータ生成されたグラフィック又はシンボル)を有してもよく、又はグラフィックインジケータは、医療用具が医療処置に関連付けられているかどうかを表すことができる。医療処置における医療用具の使用を説明する指示情報である医療情報も取得することができる。更に、医療用具の輪郭は、開始点として、医療用具上の1つ又は複数の光学コードを使用して検出することができる。自動検出及び位置合わせの使用は、医療用具及び画像データセットと患者の実際のビューとの時間がかかり面倒な手動位置合わせを回避又は低減してもよい。 Using the AR headset, visual indicators, annotations, or virtual tools may be integrated into the image dataset to guide the positioning and orientation of the medical tool relative to the patient's body and the image dataset. The medical tool or virtual tool may also have a graphic indicator (e.g., a computer-generated graphic or symbol) that is displayed in proximity to or as an overlay on the medical tool or virtual tool using the AR headset to highlight the medical tool or virtual tool, or the graphic indicator may indicate whether the medical tool is associated with a medical procedure. Medical information, which is instructional information describing the use of the medical tool in a medical procedure, may also be obtained. Furthermore, the contour of the medical tool may be detected using one or more optical codes on the medical tool as a starting point. The use of automatic detection and alignment may avoid or reduce time-consuming and tedious manual alignment of the medical tool and image dataset with the actual view of the patient.

本技術の別の構成では、拡張現実(AR)ヘッドセット又はARディスプレイは、人の身体に対して画像データセットからの透視画像及び画像投影を位置合わせして表示することができる。画像投影としての透視画像の位置及び向きは、人の身体に対して移動可能な透視デバイスの位置及び向きによって定義されてもよい。これに関連して、人の身体に対して移動可能な撮像デバイスの説明は、撮像装置の向きを変更するか、又はエミッタ、検出器、トランスデューサ、及び/又は撮像装置の撮像構成要素を人の身体に対して移動させる、撮像装置の移動度を含む。透視デバイス上の1つ又は複数の光学コードを使用して、人又は患者の身体に対する透視デバイスの位置及び向きを決定することができる。透視画像及び画像投影は、人の身体の一部分を透視撮像した状態で表示されてもよい。この位置合わせ及び表示は、人の身体上の1つ又は複数の光学コード及び画像可視マーカ、並びに透視デバイス上の1つ又は複数の光学コードを使用することができる。人の身体上の光学コード及び透視デバイス上の光学コードは、ARヘッドセットのカメラによって取り込まれた視覚画像データで識別することができる。 In another configuration of the present technology, an augmented reality (AR) headset or AR display can align and display fluoroscopic images and image projections from an image dataset with respect to the person's body. The position and orientation of the fluoroscopic images as image projections may be defined by the position and orientation of a movable fluoroscopic device with respect to the person's body. In this context, the description of an imaging device that is movable with respect to the person's body includes mobility of the imaging device that changes the orientation of the imaging device or moves the emitter, detector, transducer, and/or imaging components of the imaging device with respect to the person's body. One or more optical codes on the fluoroscopic device can be used to determine the position and orientation of the fluoroscopic device with respect to the person's or patient's body. The fluoroscopic images and image projections may be displayed with a fluoroscopic image of a portion of the person's body. This alignment and display can use one or more optical codes and image visible markers on the person's body and one or more optical codes on the fluoroscopic device. The optical codes on the person's body and the optical codes on the fluoroscopic device can be identified in visual image data captured by the camera of the AR headset.

人の身体上の光学コードのうちの少なくとも1つは、画像可視マーカに対して固定位置を有し得る。これにより、ARディスプレイ(例えば、ARヘッドセット)を通して見たときに、画像可視マーカと人の身体上の1つ又は複数の光学コードとの間の固定距離を使用して、画像データセット(例えば、放射線画像)を人の身体に位置合わせすることができる。画像投影は、透視デバイスの位置及び向きに基づいて画像データセットから作成されてもよい。透視デバイスからの透視画像は、画像可視マーカ(例えば、放射線不透過性オブジェクト)及び/又は透視デバイスの位置及び向きを定義する1つ又は複数の光学コードに基づいて、人の身体及び画像投影と位置合わせされてもよい。更に、透視画像は、X線ビームが人の身体を通過している人の身体に対する位置にARヘッドセットで仮想的に表示されてもよく、透視画像は、X線ビームで撮像されている人の身体の一部分を重ね合わせるように位置合わせされてもよい。画像投影は、透視画像と平行に配向されてもよく、X線ビームの経路の少なくとも一部に仮想的にあるようにARヘッドセットに表示されてもよい。位置合わせされた画像は、患者の現実世界又は現実のビューと共に、ARヘッドセットを使用して表示されてもよく、又は位置合わせされた画像は、別個のARディスプレイ(例えば、別個のディスプレイ画面)に表示されてもよい。このプロセスは、ライブ透視画像、画像データセット(例えば、拡張現実画像又は画像投影)、及び人の実際のビューを結合、配置、及び配向して、それにより、透視画像(例えば、人の体内の放射線不透過性オブジェクトの誘導)及び画像データセット(例えば、より良好な組織コントラストなど)の有用な態様が医療処置中に組み合わされることを可能にする。 At least one of the optical codes on the person's body may have a fixed position relative to the image visible markers. This allows the image data set (e.g., radiographic image) to be registered to the person's body when viewed through an AR display (e.g., an AR headset) using a fixed distance between the image visible markers and one or more optical codes on the person's body. The image projection may be created from the image data set based on the position and orientation of the fluoroscopy device. The fluoroscopic image from the fluoroscopy device may be registered with the person's body and the image projection based on the image visible markers (e.g., radiopaque objects) and/or one or more optical codes that define the position and orientation of the fluoroscopy device. Furthermore, the fluoroscopic image may be virtually displayed in the AR headset at a position relative to the person's body where the x-ray beam is passing through the person's body, and the fluoroscopic image may be registered to overlay a portion of the person's body being imaged with the x-ray beam. The image projection may be oriented parallel to the fluoroscopic image and may be displayed in the AR headset as being virtually in at least a portion of the path of the x-ray beam. The registered image may be displayed using an AR headset along with the real-world or actual view of the patient, or the registered image may be displayed on a separate AR display (e.g., a separate display screen). This process combines, aligns, and orients the live fluoroscopic image, the image dataset (e.g., augmented reality image or image projection), and the actual view of the person, thereby allowing useful aspects of the fluoroscopic image (e.g., navigation of radiopaque objects within the person's body) and the image dataset (e.g., better tissue contrast, etc.) to be combined during a medical procedure.

透視画像を使用する別の構成では、透視デバイスの1つ又は複数の光学コードを使用して、人の身体に対する透視デバイスの位置及び向きの変化を検出することができる。次いで、透視デバイスの位置及び向きの変化によって定義されるように、画像投影及び透視画像位置及び向きが修正されてもよい。例えば、画像データセットの投影の動きは、透視デバイスの向き及び位置の変化に基づいて、透視画像と一致するように共局在化又は同期されてもよい。透視デバイスのズームはまた、人の身体上の放射線不透過性オブジェクトを使用して検出されてもよく、放射線不透過性オブジェクトのサイズは、ARディスプレイ上で見たときの画像投影のサイズを調整するために使用されてもよい。グラフィックインジケータ、仮想ツール、又は仮想標的システムもまた、画像データセットに含まれ、ARディスプレイを使用して人の身体及び画像データセットに対する透視可能なオブジェクト(例えば、トロカール又は針)の位置決め及び向きを案内するために蛍光透視画像に共局在化され得る。 In another configuration using fluoroscopic images, one or more optical codes of the fluoroscopic device can be used to detect changes in the position and orientation of the fluoroscopic device relative to the person's body. The image projection and fluoroscopic image position and orientation may then be modified as defined by the changes in the position and orientation of the fluoroscopic device. For example, the movement of the projection of the image data set may be co-localized or synchronized to match the fluoroscopic image based on the changes in the orientation and position of the fluoroscopic device. The zoom of the fluoroscopic device may also be detected using a radiopaque object on the person's body, and the size of the radiopaque object may be used to adjust the size of the image projection when viewed on the AR display. Graphic indicators, virtual tools, or virtual target systems may also be included in the image data set and co-localized to the fluoroscopic image to guide the positioning and orientation of a fluoroscopic object (e.g., a trocar or needle) relative to the person's body and the image data set using the AR display.

別の構成では、カメラ又はARヘッドセットによって検出又は取り込まれた光学コードを使用して、正しい医療処置が正しい患者に対して実行されていることを確認することができる。更に、医療処置における人又は患者に関連する情報もまた、光学コードを使用して取得されてもよく、ARシステムを使用して医療専門家に表示され得る。光学コードはまた、患者の識別情報を確認するのに役立つことができる。確認はまた、身体及び医療用具の1つ又は複数の光学コードを使用して、身体の正しい部分及び正しい医療用具が医療処置内にあることを判定するために実行されてもよい。 In another configuration, an optical code detected or captured by a camera or AR headset can be used to verify that the correct medical procedure is being performed on the correct patient. Additionally, information related to the person or patient in the medical procedure may also be obtained using the optical code and displayed to the medical professional using the AR system. The optical code can also help verify the patient's identity. Verification may also be performed using one or more optical codes on the body and medical implement to determine that the correct part of the body and the correct medical implement are in the medical procedure.

図1は、患者106又は人の画像データセットが、患者106に貼付された光学コード200を使用して、患者106の実際のビューと位置合わせされ得る例示的な拡張現実(AR)環境100を示す。環境100は、物理的空間102(例えば、手術室、実験室など)、ユーザ104、患者106、患者上の複数の光学コード200、光学コード198を有する医療用具118、及びコンピュータネットワーク110を介してサーバ112と通信するARヘッドセット108を含むことができる。仮想ユーザインタフェース114及び仮想カーソル122も破線で示されており、これらの仮想要素がARヘッドセット108によって生成され、ARヘッドセット108を介してユーザ104が見ることができることを示している。 1 illustrates an exemplary augmented reality (AR) environment 100 in which an image dataset of a patient 106 or person may be aligned with an actual view of the patient 106 using an optical code 200 affixed to the patient 106. The environment 100 may include a physical space 102 (e.g., an operating room, a laboratory, etc.), a user 104, a patient 106, a number of optical codes 200 on the patient, a medical tool 118 having an optical code 198, and an AR headset 108 in communication with a server 112 via a computer network 110. A virtual user interface 114 and a virtual cursor 122 are also shown in dashed lines to indicate that these virtual elements are generated by the AR headset 108 and are visible to the user 104 through the AR headset 108.

ARヘッドセット108は、画像データセットを用いて患者106の実際のビューを拡張することができるARコンピューティングシステムとすることができる。例えば、ARヘッドセット108はユーザ104によって使用され、骨106b(図1に示す)、筋肉、臓器、又は流体を含むがこれらに限定されない患者106の1つ又は複数の3D画像データセットのビュー又は放射線画像で患者106の実際のビューを拡張してもよい。ARヘッドセット108は、画像データセット(又は画像データセットの投影)を動的に再構築することを可能にすることができる。したがって、ユーザ104が患者106の周りを移動するとき、ARヘッドセット108のセンサは、患者106に対するユーザ104の位置を決定し、画像データセットを使用して表示される患者の内部解剖学的組織は、ユーザが患者に対して異なる向きを選択するときに動的に再構築することができる。例えば、ユーザ104は、患者106の周りを歩いてもよい。次いで、ARヘッドセット108は、患者106の1つ又は複数の取得された放射線画像又は画像データセット(MRI、CTスキャンなど)によって患者106の実際のビューを拡張してもよく、その結果、患者106及び患者106の画像データセットの両方が、任意の角度(例えば、投影された画像又は画像データセットからのスライスも表示することができる。)からユーザ104によって見ることができる。ARヘッドセット108は、Microsoft HOLOLENS、Meta Company META 2、Epson MOVERIO、Garmin VARIA VISION、又は他のARヘッドセットの修正バージョンであってもよい。 The AR headset 108 may be an AR computing system capable of augmenting a real view of the patient 106 with an image dataset. For example, the AR headset 108 may be used by the user 104 to augment a real view of the patient 106 with one or more 3D image dataset views or radiological images of the patient 106, including but not limited to bones 106b (shown in FIG. 1), muscles, organs, or fluids. The AR headset 108 may allow the image dataset (or a projection of the image dataset) to be dynamically reconstructed. Thus, as the user 104 moves around the patient 106, sensors in the AR headset 108 determine the position of the user 104 relative to the patient 106, and the patient's internal anatomy, displayed using the image dataset, may be dynamically reconstructed as the user selects different orientations relative to the patient. For example, the user 104 may walk around the patient 106. The AR headset 108 may then augment the actual view of the patient 106 with one or more acquired radiological images or image datasets (MRI, CT scan, etc.) of the patient 106, so that both the patient 106 and the image dataset of the patient 106 can be viewed by the user 104 from any angle (e.g., projected images or slices from the image dataset can also be displayed). The AR headset 108 may be a modified version of Microsoft HOLOLENS, Meta Company META 2, Epson MOVERIO, Garmin VARIA VISION, or other AR headset.

光学コード200は、患者106の画像データの生成(例えば、MRI、CTスキャン、X線などの取り込み)に先立って患者106に貼り付けられ、その後、患者106がARヘッドセット108を介してユーザ104によって見られている間、患者106に貼り付けられたままであり得る。次いで、光学コード200及び画像可視マーカをARヘッドセット108によって使用して、患者106の画像データセットを患者106の実際のビューと自動的に位置合わせすることができる。更に、画像データを自動的に取得するために画像データの取り込み中に使用されるのと同じ光学コード200を使用することにより、ARヘッドセット108によって取得される画像データが、ARヘッドセット108を通して見られている実際の患者106と一致することを保証することができる。 The optical code 200 may be affixed to the patient 106 prior to generation of image data (e.g., acquisition of an MRI, CT scan, X-ray, etc.) of the patient 106, and then remain affixed to the patient 106 while the patient 106 is viewed by the user 104 via the AR headset 108. The optical code 200 and image visible markers may then be used by the AR headset 108 to automatically align an image dataset of the patient 106 with an actual view of the patient 106. Furthermore, by using the same optical code 200 used during image data capture to automatically capture image data, it may be ensured that the image data captured by the AR headset 108 is consistent with the actual patient 106 being viewed through the AR headset 108.

ARヘッドセット108は、患者の表面をマッピング又は検出することができ、同様に医療用具118の表面をマッピングすることができるセンサ技術を有し、この検出された表面マッピングデータは、画像データセットに共登録することができる。医療用具118は、環境100内で頻繁に移動することができ、医療用具118のリアルタイム位置は、光学コードを使用して3D空間102内で追跡することができ、医療用具118は、画像データセット116又は患者106の身体に参照されてもよい。ユーザ104が医療用具118の一部を患者106の体内に挿入すると、ARヘッドセット108は、画像データセット116に投影された医療用具118の仮想挿入部分を表示して、患者106の内側の解剖学的組織に医療用具118を描写することができる。このようにして、医療用具118の実際の挿入部分がユーザ104の実際のビューから隠されている場合でも、医療用具118の仮想挿入部分は、ユーザ104の実際のビューに投影され、画像データセットに参照されてもよい。医療用具118は、医療用具118に取り付けられた1つ又は複数の光学コードを使用して追跡することができ、次いで、画像データセット116及び人又は患者106の身体を参照して医療用具118の継続的に更新される位置を確立するために、ARヘッドセットによって1つ又は複数の光学コードを検出することができる。いくつかの実施形態では、医療用具118は、ユーザ104が患者106に挿入したい任意のものであってもよい。例えば、医療用具118は、針、トロカール、メス(図1に示す)、スコープ、ドリル、プローブ、クランプ、インプラント、別の医療器具を含むことができるが、これらに限定されない。 The AR headset 108 has sensor technology that can map or detect the surface of the patient, and can also map the surface of the medical tool 118, and this detected surface mapping data can be co-registered to the image dataset. The medical tool 118 can be moved frequently within the environment 100, and the real-time position of the medical tool 118 can be tracked in the 3D space 102 using an optical code, and the medical tool 118 can be referenced to the image dataset 116 or the body of the patient 106. When the user 104 inserts a portion of the medical tool 118 into the body of the patient 106, the AR headset 108 can display a virtual insertion portion of the medical tool 118 projected onto the image dataset 116 to depict the medical tool 118 in the inner anatomy of the patient 106. In this way, even if the actual insertion portion of the medical tool 118 is hidden from the actual view of the user 104, the virtual insertion portion of the medical tool 118 can be projected into the actual view of the user 104 and referenced to the image dataset. The medical implement 118 can be tracked using one or more optical codes attached to the medical implement 118, which can then be detected by the AR headset to establish a continuously updated position of the medical implement 118 with reference to the image dataset 116 and the body of the person or patient 106. In some embodiments, the medical implement 118 can be anything that the user 104 wants to insert into the patient 106. For example, the medical implement 118 can include, but is not limited to, a needle, a trocar, a scalpel (as shown in FIG. 1), a scope, a drill, a probe, a clamp, an implant, or another medical instrument.

仮想ユーザインタフェース114は、ARヘッドセット108によって生成することができ、患者106の画像データセット116から患者106の投影された内側解剖学的組織の表示を変更するためのオプションを含むことができる。仮想ユーザインタフェース114は、ユーザ104にとって有用であり得る他の情報を含むことができる。例えば、仮想ユーザインタフェース114は、光学コードで識別されている患者又は医療用具118(例えば、医療器具、インプラントなど)に関する情報を含んでもよい。別の例では、仮想ユーザインタフェース114は、患者106の医療チャート又は他の医療データを含むことができる。いくつかの構成では、画像データ116又は取り込まれた人の放射線データは、画像データ116のボリュームを使用してARヘッドセット108によって表示され、画像データから患者106の放射線学的に取り込まれた解剖学的組織(例えば、骨106b、組織、血管、流体など)を表示することができる。この画像データは、画像データの軸方向スライス、冠状スライス、矢状スライス、又は傾斜スライスを含むことができる。スライスは、深さ並びに高さ及び幅(例えば、ボクセルの1つ又は複数の層)を有する2次元(2D)スライス、3次元(3D)スライス、及び/又は4次元(4D)スライス(画像の時系列を有する3D画像)であってもよい。ユーザ104は、ハンドジェスチャ、音声コマンド、眼球運動、リモコン(例えば、finger clicker)、3Dマウス、VR棒(VR wand)、指センサ、触覚技術、又は他の制御方法を使用して仮想ユーザインタフェース114を制御することができる。 The virtual user interface 114 may be generated by the AR headset 108 and may include options for modifying the display of the projected internal anatomy of the patient 106 from the image data set 116 of the patient 106. The virtual user interface 114 may include other information that may be useful to the user 104. For example, the virtual user interface 114 may include information about the patient or medical implement 118 (e.g., medical instruments, implants, etc.) that are identified with an optical code. In another example, the virtual user interface 114 may include a medical chart or other medical data of the patient 106. In some configurations, the image data 116 or captured radiological data of the person may be displayed by the AR headset 108 using a volume of the image data 116 to display the radiologically captured anatomy of the patient 106 (e.g., bone 106b, tissue, vessels, fluid, etc.) from the image data. The image data may include axial, coronal, sagittal, or oblique slices of the image data. A slice may be a two-dimensional (2D) slice having a depth as well as a height and width (e.g., one or more layers of voxels), a three-dimensional (3D) slice, and/or a four-dimensional (4D) slice (a 3D image with a time series of images). The user 104 may control the virtual user interface 114 using hand gestures, voice commands, eye movements, a remote control (e.g., a finger clicker), a 3D mouse, a VR wand, finger sensors, haptic technology, or other control methods.

一構成例では、ARヘッドセット108をそれぞれ装着している複数のユーザが同時に存在して、患者106の画像データを用いて拡張された患者106を見ることができる。例えば、医療処置中に使用される複数のARヘッドセット108が存在し得る。一方のARヘッドセット108は、ARヘッドセットの両方に表示されている放射線画像を調整及び操作するために第1の医療専門家によって使用されてもよく、第2のヘッドセットは、患者に対する医療処置の実行を支援するために第2の医療専門家によって使用されてもよい。加えて、1人の医療専門家は、他の医療専門家の要求で放射線画像をオン又はオフにすることができる場合がある。 In one configuration, multiple users may be present at the same time, each wearing an AR headset 108, to view the patient 106 augmented with image data of the patient 106. For example, there may be multiple AR headsets 108 used during a medical procedure. One AR headset 108 may be used by a first medical professional to adjust and manipulate the radiological image displayed on both AR headsets, and a second headset may be used by a second medical professional to assist in performing the medical procedure on the patient. Additionally, one medical professional may be able to turn the radiological image on or off at the request of the other medical professional.

図2は、図1の患者106に固定された図1の光学コード200を示す。図1及び図2の両方を参照すると、光学コード200は、ARヘッドセット108に組み込まれた光学センサなどの光学センサに知覚可能であり得る。いくつかの実施形態では、光学コード200は、AprilTag、線形バーコード、マトリックス2次元(2D)バーコード、クイックレスポンス(QR)コード、又はそれらの何らかの組み合わせであってもよい。AprilTagは、拡張現実及びカメラ較正に有用な視覚的基準システムであり得る2次元バーコードの一種である。AprilTagsは、カメラ、センサ、又はARヘッドセットに対するタグの3D位置、向き、及び識別情報を計算するために使用され得る。 2 illustrates the optical code 200 of FIG. 1 secured to the patient 106 of FIG. 1. With reference to both FIG. 1 and FIG. 2, the optical code 200 may be perceptible to an optical sensor, such as an optical sensor built into the AR headset 108. In some embodiments, the optical code 200 may be an AprilTag, a linear barcode, a matrix two-dimensional (2D) barcode, a quick response (QR) code, or some combination thereof. AprilTag is a type of two-dimensional barcode that may be a visual reference system useful for augmented reality and camera calibration. AprilTags may be used to calculate the 3D position, orientation, and identity of the tag relative to a camera, sensor, or AR headset.

光学コード200は、患者106の医療データに光学コード200でアクセスできるように、患者106の医療データにリンクされてもよい。例えば、光学コード200を使用して、ARシステムを使用する患者の医療処置で使用される画像データセットを自動的に検索することができる。 The optical code 200 may be linked to medical data of the patient 106 such that the medical data of the patient 106 may be accessed by the optical code 200. For example, the optical code 200 may be used to automatically retrieve image data sets used in a medical procedure of the patient using an AR system.

光学コード200は、非光学撮像モダリティに知覚可能なマーカ206又は画像可視マーカに更に関連付けられてもよい。非光学撮像モダリティの例としては、MRIモダリティ、コンピュータ断層撮影(CT)スキャンモダリティ、X線モダリティ、陽電子放出断層撮影(PET)モダリティ、超音波モダリティ、蛍光モダリティ、赤外線サーモグラフィ(IRT)モダリティ、3Dマンモグラフィ、又は単光子放出コンピュータ断層撮影(SPECT)スキャンモダリティを挙げることができるが、これらに限定されない。別の例では、非光学画像又は画像データセットは、上に列挙した2つ以上の形態の非光学撮像モダリティの組み合わせを含む画像又は画像データセットであってもよい(例えば、互いに組み合わされた2つ以上の画像、2つ以上の非光学画像の組み合わされたセグメント、MRI画像と融合されたCT画像など)。別個のモダリティ内の各画像データセットは、個々の画像データセット内に画像可視コードを有することができ、これにより、PET画像、CT画像、MRI画像、透視画像などを、ARシステムビュー内の人の身体上の光学コードと共に位置合わせ及び参照することができる。非光学撮像モダリティに知覚可能な材料からマーカ206を形成することにより、非光学撮像モダリティを使用して取り込まれた患者106の画像データセットにマーカ206又は画像可視マーカを表示することができる。マーカ206の例には、金属球、液体球、放射線不透過性プラスチック、金属含浸ゴム、金属ストリップ、常磁性材料、及び金属インクの部分が含まれるが、これらに限定されない。 The optical code 200 may further be associated with a marker 206 perceptible to a non-optical imaging modality or an image visible marker. Examples of non-optical imaging modalities include, but are not limited to, an MRI modality, a computed tomography (CT) scanning modality, an X-ray modality, a positron emission tomography (PET) modality, an ultrasound modality, a fluorescence modality, an infrared thermography (IRT) modality, a 3D mammography, or a single photon emission computed tomography (SPECT) scanning modality. In another example, the non-optical image or image data set may be an image or image data set that includes a combination of two or more forms of non-optical imaging modalities listed above (e.g., two or more images combined with each other, combined segments of two or more non-optical images, a CT image fused with an MRI image, etc.). Each image data set in a separate modality can have an image visible code in the individual image data set, allowing PET images, CT images, MRI images, fluoroscopic images, etc. to be registered and referenced with the optical code on the person's body in the AR system view. By forming the markers 206 from a material perceptible to the non-optical imaging modality, the markers 206 or image visible markers can be displayed in the image data set of the patient 106 captured using the non-optical imaging modality. Examples of markers 206 include, but are not limited to, metal spheres, liquid spheres, radiopaque plastic, metal impregnated rubber, metal strips, paramagnetic materials, and pieces of metallic ink.

マーカ206又は画像可視マーカは、パターンで配置されてもよく、光学コード200の位置に対して固定位置を有してもよい。例えば、図2に開示された実施形態では、光学コード200は、材料202(例えば、絆創膏、紙、プラスチック、金属箔など)上に印刷されてもよく、マーカ206は、材料202(例えば、材料202に埋め込まれており、包帯のいずれの表面上にも見えない)に貼り付けられてもよい。この実施形態では、マーカ206は、包帯202内に固定パターンで配置されることによって、光学コード200の位置に対して固定位置を有するパターンで配置されてもよい。あるいは、マーカ206は、光学コード200自体の中に埋め込まれてもよく、例えば、マーカ206は、光学コード200が材料202上に少なくとも一部が印刷されるインクの中に埋め込まれ、インクは、放射線不透過性であり、X線に対して透明ではないインク粒子など、非光学撮像モダリティに対して知覚可能な材料を含む。これらの実施形態では、光学コード200自体は、光学コード及びマーカのパターンの両方として機能することができる。更に、マーカ206は、光学コード200を患者106の皮膚106aに直接(少なくとも一時的に)貼り付けるか又は印刷することによって配置することができる。マーカ206を、光学コード200の位置に対して固定位置を有するパターンに配置することによって、この固定位置を使用して、マーカ206自体がARヘッドセット108のセンサに見えないか又は知覚できない場合であっても、光学コード200の可視位置に対するマーカ206又は画像可視マーカのパターンの位置を計算し、又は可視マーカを撮像することができる。 The markers 206 or image visible markers may be arranged in a pattern or may have a fixed position relative to the position of the optical code 200. For example, in the embodiment disclosed in FIG. 2, the optical code 200 may be printed on the material 202 (e.g., bandage, paper, plastic, metal foil, etc.) and the markers 206 may be affixed to the material 202 (e.g., embedded in the material 202 and not visible on any surface of the dressing). In this embodiment, the markers 206 may be arranged in a pattern having a fixed position relative to the position of the optical code 200 by being arranged in a fixed pattern within the dressing 202. Alternatively, the markers 206 may be embedded within the optical code 200 itself, for example, the markers 206 are embedded in the ink in which the optical code 200 is at least partially printed on the material 202, the ink comprising a material that is radiopaque and perceptible to non-optical imaging modalities, such as ink particles that are not transparent to x-rays. In these embodiments, the optical code 200 itself can function as both the optical code and the pattern of markers. Additionally, the markers 206 can be placed by (at least temporarily) attaching or printing the optical code 200 directly to the skin 106a of the patient 106. By placing the markers 206 in a pattern that has a fixed position relative to the position of the optical code 200, the fixed position can be used to calculate the position of the markers 206 or the pattern of image visible markers relative to the visible position of the optical code 200, or to image the visible markers, even if the markers 206 themselves are invisible or imperceptible to the sensors of the AR headset 108.

光学コード200及びマーカ206が固定パターンで患者106に取り付けられると、(マーカ206が知覚可能である)非光学撮像モダリティを使用して、患者106及びマーカ206の画像データを取り込むことができる。特に、画像データは、患者106の内部解剖学的組織(例えば、骨106b、筋肉、器官、又は流体など)を含むと共に、患者106の内部解剖学的組織の位置に対して固定位置にマーカ206のパターンを含むことができる。言い換えれば、患者106の内部解剖学的組織が患者106の画像データに現れるだけでなく、マーカ206もまた固定パターンで患者106の画像データセットに現れ、マーカ206のこの固定パターンの位置は、患者106の内部解剖学的組織の位置に対して固定位置で画像データセットに現れる。一例では、非光学撮像モダリティがCTスキャンモダリティである場合、CTスキャン画像は、患者106の骨106b、臓器、及び軟部組織、並びに患者106の骨106b、臓器、及び軟部組織の位置に対して固定位置に配置されたマーカ206を表示することができる。 Once the optical code 200 and markers 206 are attached to the patient 106 in a fixed pattern, a non-optical imaging modality (in which the markers 206 are perceptible) can be used to capture image data of the patient 106 and the markers 206. In particular, the image data can include the internal anatomical tissue of the patient 106 (e.g., bones 106b, muscles, organs, or fluids, etc.) and the pattern of the markers 206 in a fixed position relative to the position of the internal anatomical tissue of the patient 106. In other words, not only does the internal anatomical tissue of the patient 106 appear in the image data of the patient 106, but the markers 206 also appear in the image data set of the patient 106 in a fixed pattern, and the position of this fixed pattern of the markers 206 appears in the image data set in a fixed position relative to the position of the internal anatomical tissue of the patient 106. In one example, when the non-optical imaging modality is a CT scan modality, the CT scan image can display the bones 106b, organs, and soft tissues of the patient 106, as well as the markers 206 positioned in fixed positions relative to the positions of the bones 106b, organs, and soft tissues of the patient 106.

更に、患者106は、例えば、病院の医療撮像室から病院の手術室に移動されてもよい。次いで、ユーザ104(医療専門家など)は、ARヘッドセット108を使用して、人又は患者の身体上の光学コード200の位置を判断することができる。次に、ARヘッドセット108は、光学コードに基づいて患者106の画像データを自動的に取り出すことができる。 Furthermore, the patient 106 may be moved, for example, from a medical imaging room at a hospital to an operating room at the hospital. The user 104 (e.g., a medical professional) can then use the AR headset 108 to determine the location of the optical code 200 on the person's or patient's body. The AR headset 108 can then automatically retrieve image data of the patient 106 based on the optical code.

3D空間102内の光学コード200を検出した後、ARヘッドセット108は、3D空間102内かつ互いに対するマーカ206のパターンの位置を自動的に計算することができる。この自動計算は、3D空間102内の光学コード200の検知された位置に基づくことができ、光学コード200の位置に対するマーカ206のパターンの既知の固定位置に基づくこともできる。(例えば、マーカ206が材料の中又は下に埋め込まれていることに起因して)マーカ206がARヘッドセット108に知覚できない場合であっても、ARヘッドセット108は、光学コード200の位置と、光学コード200の位置に対するマーカ206のパターンの固定位置とに基づいて、マーカ206のパターンの位置を自動的に計算することができる。この例では、これらの固定位置は、ARヘッドセット108がマーカ206の位置を直接感知していない場合であっても、ARヘッドセット108が互いに対して3D空間102内のマーカ206のパターンの位置を自動的に計算することを可能にすることができる。 After detecting the optical code 200 in the 3D space 102, the AR headset 108 can automatically calculate the position of the pattern of markers 206 in the 3D space 102 and relative to each other. This automatic calculation can be based on the sensed position of the optical code 200 in the 3D space 102, and can also be based on known fixed positions of the pattern of markers 206 relative to the position of the optical code 200. Even if the markers 206 are not perceptible to the AR headset 108 (e.g., due to the markers 206 being embedded in or under a material), the AR headset 108 can automatically calculate the position of the pattern of markers 206 based on the position of the optical code 200 and the fixed positions of the pattern of markers 206 relative to the position of the optical code 200. In this example, these fixed positions can allow the AR headset 108 to automatically calculate the position of the pattern of markers 206 in the 3D space 102 relative to each other, even if the AR headset 108 does not directly sense the positions of the markers 206.

3D空間102内のマーカ206又は画像可視マーカのパターンの位置を計算した後、ARヘッドセット108は、3D空間102内のマーカ206のパターンの計算された位置を画像データセット内のマーカ206のパターンの位置と位置合わせすることによって、3D空間102内の患者106の内部解剖学的組織の位置を位置合わせすることができる。位置合わせは、3D空間102内のマーカ206のパターンの計算された位置と、患者106の内部解剖学的組織の位置に対するマーカ206に設定された画像データセットの固定位置とに基づいて実行することができる。次いで、この位置合わせは、ARヘッドセット108が、患者106の実際のビューに投影された画像データから患者106の内部解剖学的組織をリアルタイムで表示することを可能にすることができる。 After calculating the position of the markers 206 or the pattern of image visible markers in the 3D space 102, the AR headset 108 can register the position of the internal anatomy of the patient 106 in the 3D space 102 by aligning the calculated position of the pattern of markers 206 in the 3D space 102 with the position of the pattern of markers 206 in the image dataset. The registration can be performed based on the calculated position of the pattern of markers 206 in the 3D space 102 and the fixed position of the image dataset set for the markers 206 relative to the position of the internal anatomy of the patient 106. This registration can then enable the AR headset 108 to display the internal anatomy of the patient 106 in real time from the image data projected onto the actual view of the patient 106.

したがって、光学コード200、及びマーカ206の関連するパターンは、患者106の画像データを患者106の実際のビューと自動的に位置合わせするためにARヘッドセット108によって使用され得る。更に、画像データの取り込み中に取得された画像データを自動的に読み出すために、1つ又は複数の光学コード200(例えば、AprilTag及び2Dバーコード、又は光学コードの別の組み合わせ)を用いることができ、ARヘッドセット108によって読み出された画像データが、ARヘッドセット108を通して見ている実際の患者106と一致することを保証することができる。 Thus, the optical code 200 and associated pattern of markers 206 may be used by the AR headset 108 to automatically align image data of the patient 106 with an actual view of the patient 106. Additionally, one or more optical codes 200 (e.g., AprilTag and 2D barcodes, or another combination of optical codes) may be used to automatically read out image data acquired during image data capture, ensuring that the image data read out by the AR headset 108 matches the actual patient 106 as viewed through the AR headset 108.

更なる例では、患者106の画像データと3D空間102内の患者106の実際のビューとの正確な位置合わせを更に確実にするために、複数の光学コード200を患者106に同時に取り付けることができる。また、図2に開示された5つのマーカ206のパターンは、3つのマーカのパターン又は7つのマーカのパターンなどの別のパターンに置き換えられてもよく、各光学コードは異なるパターンを有してもよい。更に、マーカ206は患者106の外層に固定されているので、マーカ206はすべてが一平面内にあるとは限らず、代わりに患者106の外層の任意の曲率に適合することができる。これらの実施形態では、光学コード200の位置に対するマーカ206のパターンの固定位置は、患者106の外層上の任意の曲率を説明するために、光学コード200及びマーカ206を患者106に固定した後に確立されてもよい。 In a further example, multiple optical codes 200 can be attached to the patient 106 simultaneously to further ensure accurate alignment of the image data of the patient 106 with the actual view of the patient 106 in the 3D space 102. Also, the pattern of five markers 206 disclosed in FIG. 2 may be replaced with another pattern, such as a pattern of three markers or a pattern of seven markers, and each optical code may have a different pattern. Furthermore, because the markers 206 are fixed to the outer layer of the patient 106, the markers 206 do not all lie in one plane, but instead can conform to any curvature of the outer layer of the patient 106. In these embodiments, the fixed position of the pattern of markers 206 relative to the position of the optical code 200 may be established after fixing the optical code 200 and markers 206 to the patient 106 to account for any curvature on the outer layer of the patient 106.

図3は、ARヘッドセット又はARシステムのカメラによって取り込まれ得る視覚画像を示す。視覚画像は、患者300の身体及び医療用具314を含むことができ、それぞれに光学コードが貼付される。光学コードを使用して、視覚画像内の医療用具312の位置及び向きを識別することができ、光学コードを開始点として使用して、医療用具312の輪郭又は形状を識別することができる。更に、人300の身体上の光学コード310を使用して、オーバーレイ又は表示用の追加の仮想オブジェクトとして使用される患者(例えば、患者データベース内の患者記録)又は(例えば、オブジェクトデータベース内の)仮想オブジェクトの追加情報にアクセスすることができる。 FIG. 3 shows a visual image that may be captured by a camera of an AR headset or AR system. The visual image may include a patient 300's body and a medical implement 314, each with an optical code affixed to it. The optical code may be used to identify the location and orientation of the medical implement 312 in the visual image, and the optical code may be used as a starting point to identify the contour or shape of the medical implement 312. Additionally, the optical code 310 on the person 300's body may be used to access additional information about the patient (e.g., a patient record in a patient database) or the virtual object (e.g., in an object database) that may be used as an overlay or additional virtual object for display.

一構成では、医療用具312上で複数の光学コード314を使用して、医療用具の位置及び向きを決定することができる。例えば、光学コード314は、医療用具の複数の別個の面又は表面に貼り付けられてもよい。これらの複数の光学コードの各々は、医療用具の特定の面、態様、又は向きを識別するように符号化されてもよい。複数の光学コードはまた、医療用具と関連付ける所望の3D(3次元)仮想画像を識別する際に使用されてもよい。例えば、強調表示グラフィック又は仮想オブジェクト(例えば、仮想医療器具)を医療用具のオーバーレイとして選択することができる。 In one configuration, multiple optical codes 314 may be used on the medical implement 312 to determine the position and orientation of the medical implement. For example, optical codes 314 may be affixed to multiple separate faces or surfaces of the medical implement. Each of these multiple optical codes may be coded to identify a particular face, aspect, or orientation of the medical implement. The multiple optical codes may also be used in identifying a desired 3D (three dimensional) virtual image to associate with the medical implement. For example, a highlight graphic or virtual object (e.g., a virtual medical instrument) may be selected as an overlay for the medical implement.

患者300及び医療用具314に取り付けられた光学コード310、314が、視覚画像内の患者の身体及び医療用具314の位置及び向きを識別するために使用されると、この位置及び向き情報は、各光学コードについて追跡され、処置における医療用具及び患者の位置及び向きを判断するときに使用され得る。光学コード310は、処置中に患者の視覚画像を取り込むプロセス中に取り込むことができる。結果として、光学コード310を使用して、(例えば、ARヘッドセットなどにおける)拡張現実ディスプレイ内の患者の以前に取り込まれた放射線画像に対して医療用具314を参照することができる。 When the optical codes 310, 314 attached to the patient 300 and medical implement 314 are used to identify the position and orientation of the patient's body and medical implement 314 in the visual image, this position and orientation information can be tracked for each optical code and used when determining the position and orientation of the medical implement and the patient in the procedure. The optical codes 310 can be captured during the process of capturing visual images of the patient during the procedure. As a result, the optical codes 310 can be used to reference the medical implement 314 against a previously captured radiological image of the patient in an augmented reality display (e.g., in an AR headset, etc.).

更に、医療用具の光学コード314を使用して、特定の種類の医療用具312(例えば、医療器具又は整形外科用インプラント)を識別することができる。医療用具の位置及び向きが識別されると314、医療用具の位置は、上述した画像データセット及び患者の身体に対して決定され得る。医療用具314の位置をよりよく説明するために、ARシステムは、医療用具のサイズ、形状、及び輪郭を記述する情報、並びに任意の他の関連情報にアクセスすることができる。 Additionally, the optical code 314 of the medical implement can be used to identify the particular type of medical implement 312 (e.g., a medical instrument or an orthopedic implant). Once the position and orientation of the medical implement is identified 314, the position of the medical implement can be determined relative to the image data set and the patient's body as described above. To better describe the position of the medical implement 314, the AR system can access information describing the size, shape, and contours of the medical implement, as well as any other relevant information.

一例では、医療用具312に関連する追加情報も取得することができる。例えば、医療器具の使用に関する情報が取得され、ARヘッドセットに表示されてもよい。これは、医療器具を患者の身体と最適に位置合わせする方法に関する情報、インプラントを骨に挿入するためのチップ、電子医療センサの設定、又は医療用具の他の案内情報を含むことができる。 In one example, additional information related to the medical tool 312 may also be obtained. For example, information regarding the use of the medical tool may be obtained and displayed in the AR headset. This may include information on how to best align the medical tool with the patient's body, tips for inserting implants into the bone, settings for electronic medical sensors, or other guidance information for the medical tool.

更に、ARシステムは、どの医療用具312が特定の医療処置に関連付けられているかを識別する記録を有することができる。この情報を光学コードと組み合わせて使用することにより、拡張現実システムは、特定の医療用具312が現在の医療処置に正しく関連付けられているか、又は現在の医療処置で正しく使用されているかどうかを判定することができる。例えば、医療用具312が患者に埋め込まれる医療処置では、拡張現実システムに関連するデータストアにアクセスして、正しいインプラントが患者に埋め込まれ、正しいツールが使用されていることを保証することができる。光学コード、処置データ、及び患者データのこの組み合わせを使用して、正しい患者が手術されているかどうか、正しい身体部分が手術されているかどうか、身体の正しい側のためのインプラントが使用されているかどうか、又は正しいインプラントサイズが使用されているかどうかをチェックすることができる。処置の前に医療用具312に光学コードを使用することにより、正しい医療用具312が手術室にあるという信頼性を高めることができる。別の例では、ARシステムは、所与の医療用具312が処置において認可されていることを確認する、又は誤った医療用具312若しくは器具が存在することをユーザに警告する光学インジケータを表示することができる。 Additionally, the AR system may have records identifying which medical implements 312 are associated with a particular medical procedure. Using this information in combination with the optical code, the augmented reality system may determine whether a particular medical implement 312 is correctly associated with or used in a current medical procedure. For example, in a medical procedure in which a medical implement 312 is implanted in a patient, a data store associated with the augmented reality system may be accessed to ensure that the correct implant is implanted in the patient and the correct tool is used. This combination of optical codes, procedure data, and patient data may be used to check whether the correct patient is being operated on, whether the correct body part is being operated on, whether an implant for the correct side of the body is being used, or whether the correct implant size is being used. Using optical codes on the medical implements 312 prior to a procedure may increase confidence that the correct medical implements 312 are in the operating room. In another example, the AR system may display an optical indicator that confirms that a given medical implement 312 is authorized for the procedure or that alerts the user that an incorrect medical implement 312 or instrument is present.

図4は、医療処置中に医療用具312に関連する追加情報を識別することを示す。上述したように、ARシステムは、患者300、医療用具312、及び/又は実行されている医療処置に関連する情報にアクセスするために光学コード314を使用することができる。ARシステムは、処置中にユーザを支援するために、ARヘッドセットを介して医療用具の使用に関連する情報を表示することができる。一例では、この情報は、医療器具の適切な使用を説明することができる。例えば、ARシステムが医療器具312上の光学コード314を取り込む場合、光学コード314内の値は、データベースからその機器の情報を取得するための検索値として使用することができる。そのような情報は、ARヘッドセットに表示することができる医療器具312を使用するための計画された医療処置ステップを更に含むことができる。 4 illustrates identifying additional information related to the medical implement 312 during a medical procedure. As discussed above, the AR system can use the optical code 314 to access information related to the patient 300, the medical implement 312, and/or the medical procedure being performed. The AR system can display information related to the use of the medical implement via the AR headset to assist the user during the procedure. In one example, this information can describe the proper use of the medical implement. For example, if the AR system captures the optical code 314 on the medical implement 312, the value in the optical code 314 can be used as a lookup value to retrieve information for that device from a database. Such information can further include planned medical procedure steps for using the medical implement 312, which can be displayed in the AR headset.

医療専門家は、医療処置の特定の態様を事前に計画することができる。例えば、切開部又は組織を切断する経路の位置及び向きは、注釈を使用して事前に計画することができる。これらの計画は、拡張現実システムに関連付けられたデータベースに入力することができる。必要に応じて、ユーザは、ARヘッドセット内のユーザに関連する事前に計画された医療処置情報を表示するように拡張現実システムに命令することができる。この場合、ユーザ又はシステムは、医療器具612の位置決めを記述するための所定の注釈400、402を有することができる。医療処置のための医療器具のための事前に計画された経路又は位置合わせ点、線若しくは平面を示すために、仮想誘導システムがARヘッドセットによって表示され得る。結果として、拡張現実ディスプレイは、医療用具312を円形釈400、402に移動させる指示と共に、ガイダンス注釈404を表示することができる。医療専門家がARヘッドセット内のグラフィックを使用して視覚的に描写された適切な位置及び向き(例えば、3次元内)に医療器具の位置及び向きを移動させると、適切な位置及び向きが満たされたことを示すために、グラフィックインジケータ、仮想ツール、又は仮想標的システムが表示され得る。医療用具312の位置決め及び向きは、3次元又は2次元で案内されてもよい。一例では、医療器具が位置合わせされていないときに赤色インジケータが表示されてもよく、医療器具が位置合わせされているときに緑色インジケータがARヘッドセットを介して表示されてもよい。したがって、注釈は、医療用具が定義された位置、ターゲット、エントリポイント、又は標的オブジェクトの近くに移動すると、修正、アニメーション化、及び/又は色を変更することができる。 The medical professional can pre-plan certain aspects of the medical procedure. For example, the location and orientation of the incision or the path to cut the tissue can be pre-planned using annotations. These plans can be entered into a database associated with the augmented reality system. If desired, the user can instruct the augmented reality system to display pre-planned medical procedure information relevant to the user in the AR headset. In this case, the user or system can have pre-defined annotations 400, 402 to describe the positioning of the medical instrument 612. A virtual guidance system can be displayed by the AR headset to indicate the pre-planned path or alignment points, lines or planes for the medical instrument for the medical procedure. As a result, the augmented reality display can display guidance annotations 404 with instructions to move the medical instrument 312 to the circular interpretations 400, 402. Once the medical professional moves the position and orientation of the medical instrument to the proper position and orientation (e.g., in three dimensions) visually depicted using the graphics in the AR headset, a graphic indicator, virtual tool, or virtual target system can be displayed to indicate that the proper position and orientation has been met. The positioning and orientation of the medical tool 312 may be guided in three or two dimensions. In one example, a red indicator may be displayed when the medical tool is not aligned and a green indicator may be displayed via the AR headset when the medical tool is aligned. Thus, the annotations may be modified, animated, and/or change color as the medical tool moves near a defined location, target, entry point, or target object.

同様に、仮想器具又は仮想ツールを表示して、可視器具と仮想器具との位置合わせを可能にすることができる。例えば、グラフィック又は仮想器具は、ARヘッドセットを使用して表示又は投影されてもよい。可視器具又は現実世界の器具が仮想器具又は仮想ツールと位置合わせされると、ARシステムは、可視器具が仮想器具と位置合わせされることを示すメッセージ又はグラフィックを表示することができる。更に、仮想器具のこの位置合わせはまた、以前に取得された画像データセット又は処置中に取得された画像データセット(例えば、処置中に得られたCTスキャン又はMRI画像)内の見ることができる解剖学的構造との位置合わせを可能にし得る。 Similarly, a virtual instrument or tool may be displayed to allow alignment of the visible instrument with the virtual instrument. For example, a graphic or virtual instrument may be displayed or projected using an AR headset. Once the visible instrument or real-world instrument is aligned with the virtual instrument or tool, the AR system may display a message or graphic indicating that the visible instrument is aligned with the virtual instrument. Furthermore, this alignment of the virtual instrument may also allow alignment with visible anatomical structures in a previously acquired image dataset or an image dataset acquired during a procedure (e.g., a CT scan or MRI images obtained during a procedure).

図5は、切開点504が患者の身体の特定の部分上のオーバーレイ又は仮想オブジェクトとしてARディスプレイに表示されることを示している。ユーザは、この仮想切開点を使用して、人300の身体に対する医療器具の初期配置及び/又は手術開始時の画像データセットを案内することができる。同様に、医療器具の位置及び向きを検出する能力はまた、切開の深さ又は角度、クランプの適切な配置などを誘導することによって医療専門家を支援する能力を含むことができる。更に、システムは、所与の医療用具を保持するための正しい角度又は向きの命令を表示することができる。例えば、ARディスプレイは、患者の身体の一部分の位置及び向きに基づいて、現在の医療処置における器具の正しい動きのためのグラフィックインジケータ、仮想ツール、又は仮想標的システムをARディスプレイに提示することができる。例えば、システムは、線の視覚的表示を表示することができ、それに沿って、人の個々の身体に合わせてカスタマイズされた切開が行われる。同様に、システムは、器具の現在の深さを推定し、医療器具が患者の身体及び/又は画像データセットに対して移動されることを示すことができる。処置中、拡張現実システムは、1つ又は複数の光学コード(例えば、患者310又は医療用具312のいずれかの光学コード)を使用して、医療専門家を案内するためにARディスプレイ内の計画情報にアクセスし、位置合わせし、表示することができる。 5 shows that the incision point 504 is displayed on the AR display as an overlay or virtual object on a particular part of the patient's body. The user can use this virtual incision point to guide the initial placement of the medical instrument relative to the body of the person 300 and/or the image dataset at the beginning of the procedure. Similarly, the ability to detect the position and orientation of the medical instrument can also include the ability to assist the medical professional by guiding the depth or angle of the incision, the proper placement of clamps, etc. Furthermore, the system can display instructions for the correct angle or orientation to hold a given medical instrument. For example, the AR display can present a graphic indicator, virtual tool, or virtual target system for the correct movement of the instrument in the current medical procedure based on the position and orientation of a portion of the patient's body. For example, the system can display a visual representation of a line along which an incision customized to the person's individual body is made. Similarly, the system can estimate the current depth of the instrument and indicate that the medical instrument is to be moved relative to the patient's body and/or the image dataset. During the procedure, the augmented reality system can use one or more optical codes (e.g., optical codes of either the patient 310 or the medical tool 312) to access, align, and display planning information within the AR display to guide the medical professional.

医療準備構成では、本開示に記載されているように、光学コードの使用は、医療処置のために患者を準備している医療専門家が、患者の身体又は解剖学的組織の、皮膚を準備すべき一部分、又は医療処置の前に他の医療準備を行うべき一部分を識別するようにグラフィカルに指示されることを可能にし得る。例えば、ARヘッドセットが患者の身体上の1つ又は複数の光学コードを識別した後、医療専門家が医療準備を行うのを支援するために、グラフィック線、グラフィック形状、又は仮想ツールをARヘッドセットに表示することができる。これにより、医療専門家は、患者を正しい解剖学的位置に位置決め、向き、及び準備し、正しい切開点を準備し、及び/又は患者の解剖学的組織の正しい部分に準備するように導かれ得る。例えば、患者の正しい椎骨又は股関節の位置を特定することは困難な場合があり、この技術はそのようなガイダンスを提供する。このガイダンスは、外科手術室における外科技術者の全体的なスループットを改善することができる。 In the medical preparation configuration, the use of optical codes, as described in this disclosure, may enable a medical professional preparing a patient for a medical procedure to be graphically instructed to identify portions of the patient's body or anatomical tissue where skin should be prepped or other medical preparation should be performed prior to the medical procedure. For example, after the AR headset identifies one or more optical codes on the patient's body, graphic lines, shapes, or virtual tools may be displayed in the AR headset to assist the medical professional in performing the medical preparation. This may guide the medical professional to position, orient, and prepare the patient in the correct anatomical location, prepare the correct incision points, and/or prepare the correct portion of the patient's anatomical tissue. For example, it may be difficult to identify the correct vertebrae or hip location of a patient, and this technology provides such guidance. This guidance may improve the overall throughput of surgical technicians in a surgical suite.

図6は、拡張現実(AR)システムを使用して、人606aの身体に対して位置合わせされた画像データセットからの透視画像654及び画像投影656を表示するための技術602を示す。透視デバイス660は、患者を通してX線ビーム(例えば、連続X線)を送信して、医療専門家が見ることができる患者の透視撮像の一連の透視画像又はライブビデオを取得することができる。透視デバイス660はまた、人の身体に対して移動可能であってもよい。透視画像654及び画像投影656aは、透視デバイス660及び/又は画像可視マーカによって定義された位置及び/又は向きを有することができる。ARシステム又はARヘッドセット608にリンクされたカメラ又は光学センサ(例えば、可視光センサ又はIRセンサ)は、手術台603上の人の身体の一部の視覚画像データ、及び人の身体に対して移動可能な透視デバイス660を取り込むことができる。人606aの身体上の1つ又は複数の光学コード及び透視デバイス652、658上の1つ又は複数の光学コードは、光学コード認識及び走査技術又は他の光学コード認識技術を使用して視覚画像データから識別及び走査することができる。 6 illustrates a technique 602 for displaying fluoroscopic images 654 and image projections 656 from an image dataset aligned with respect to the body of a person 606a using an augmented reality (AR) system. A fluoroscopic device 660 can transmit an X-ray beam (e.g., continuous X-rays) through the patient to obtain a series of fluoroscopic images or live video of the fluoroscopic imaging of the patient that can be viewed by a medical professional. The fluoroscopic device 660 may also be movable with respect to the person's body. The fluoroscopic images 654 and image projections 656a can have positions and/or orientations defined by the fluoroscopic device 660 and/or image visible markers. A camera or optical sensor (e.g., visible light sensor or IR sensor) linked to the AR system or AR headset 608 can capture visual image data of a portion of the person's body on the operating table 603, and the fluoroscopic device 660 that is movable with respect to the person's body. The one or more optical codes on the body of the person 606a and the one or more optical codes on the vision devices 652, 658 can be identified and scanned from the visual image data using optical code recognition and scanning techniques or other optical code recognition techniques.

画像投影656は、透視画像654に(例えば、平行、斜め、又は別の固定された向きに)関連付けられた画像データセットが取り込まれている部分を表示するように選択され得る。画像投影はまた、静脈、神経又は骨などの人の身体の特定の解剖学的組織タイプを表示することができる。透視画像654は、単層投影(例えば、2次元(2D)投影)であってもよい。位置合わせ、位置決め、及び向きは、人の身体上の光学コード620及び画像可視マーカ、画像投影上の画像可視マーカの表現、透視画像654に取り込まれた画像可視マーカ、及び透視デバイス(例えば、Cアーム装置、カテーテル検査室、血管造影検査室、又は可動エミッタ及び検出器を備えた透視デバイス)上の光学コード652、658を使用して実行することができる。 The image projection 656 may be selected to display the portion of the image data set associated with the fluoroscopic image 654 (e.g., parallel, oblique, or in another fixed orientation) that is captured. The image projection may also display a particular anatomical tissue type of the person's body, such as a vein, nerve, or bone. The fluoroscopic image 654 may be a monolayer projection (e.g., a two-dimensional (2D) projection). Registration, positioning, and orientation may be performed using the optical code 620 and image visible markers on the person's body, a representation of the image visible markers on the image projection, the image visible markers captured in the fluoroscopic image 654, and the optical codes 652, 658 on the fluoroscopic device (e.g., a C-arm apparatus, a catheterization lab, an angiography lab, or a fluoroscopic device with a movable emitter and detector).

人の身体上の光学コード620のうちの少なくとも1つは、(先に詳述したように)画像可視マーカに対して固定位置を有することができる。これにより、画像データセット(例えば、取り込まれた放射線画像)を、人の身体上の1つ又は複数の光学コードを参照して、画像可視マーカの固定位置を使用して人606の身体と位置合わせすることができる。人の身体は布607で覆われてもよいが、身体の内部解剖学的組織650は、画像データセットを使用して仮想的に見ることができる。 At least one of the optical codes 620 on the person's body can have a fixed position relative to the image visible markers (as described in detail above). This allows the image data set (e.g. a captured radiological image) to be aligned with the body of the person 606 using the fixed positions of the image visible markers with reference to one or more optical codes on the person's body. The person's body may be covered with a cloth 607, but the body's internal anatomical structure 650 can be virtually viewed using the image data set.

画像投影656は、透視デバイス660の位置及び向きに基づいて画像データセットから作成されてもよい。画像投影656は、冠状投影、傾斜投影、又は透視デバイス660の向きと一致する別の投影の向きであってもよい。画像投影は、画像データセットの多平面再構築(MPR)である単一の平面図又は「スラブ」を定義するために画像データセットから投影される(例えば、多層投影)。画像投影は、任意の選択された厚さであってもよく、適切なビューにおける組織のMIP(最大値投影)であってもよい。 Image projections 656 may be created from the image dataset based on the position and orientation of the fluoroscopy device 660. The image projections 656 may be coronal projections, oblique projections, or another projection orientation consistent with the orientation of the fluoroscopy device 660. The image projections are projected from the image dataset to define a single planar view or "slab" that is a multiplanar reconstruction (MPR) of the image dataset (e.g., multi-layer projections). The image projections may be of any selected thickness and may be MIPs (maximum intensity projections) of tissue in the appropriate views.

人606aの身体に対する透視デバイス660の位置及び向きは、透視デバイス660上の1つ又は複数の光学コード652、658を使用して決定することができる。透視デバイス660からの透視画像654は、人の身体、及び画像可視マーカ及び/又は人606aの身体上の光学コードに基づいて設定された画像データセットと位置合わせされ得る。更に、透視画像654は、人606の身体に対する透視デバイス660の位置及び向きを使用して位置決め及び配向することができる。 The position and orientation of the fluoroscopy device 660 relative to the body of the person 606a can be determined using one or more optical codes 652, 658 on the fluoroscopy device 660. The fluoroscopy image 654 from the fluoroscopy device 660 can be registered with the person's body and an image data set established based on the image visible markers and/or optical codes on the body of the person 606a. Additionally, the fluoroscopy image 654 can be positioned and oriented using the position and orientation of the fluoroscopy device 660 relative to the body of the person 606.

放射線不透過性マーカを画像可視マーカとして使用して、透視画像654を患者606aの身体と整列させることができる。いくつかの状況では、放射線不透過性マーカは、画像データセットを位置合わせするために使用される同じ画像可視マーカであってもよく、又は放射線不透過性マーカは、別個の光学コードを有し得る完全に別個の放射線不透過性マーカ(例えば、リード矩形(lead rectangle))であってもよい。例えば、放射線不透過性マーカは、透視画像654を人の身体と位置合わせするために使用される第1のタイプの撮像モダリティマーカであってもよく、第2の撮像モダリティマーカ(例えば、MRI型マーカ又は超音波マーカ)は、画像データセットを人の身体と位置合わせするために使用されてもよい。位置合わせされたデータセット画像、画像投影、及び透視画像はまた、ARヘッドセット608を使用して、又は患者の現実世界のビューと共に別個のARディスプレイ662上に表示されてもよい。したがって、拡張現実画像は、人606aの身体に対して実行されるライブ透視介入又は診断手順に組み合わせることができる。 The radiopaque markers can be used as image visible markers to align the fluoroscopic images 654 with the body of the patient 606a. In some circumstances, the radiopaque markers can be the same image visible markers used to register the image datasets, or the radiopaque markers can be completely separate radiopaque markers (e.g., lead rectangles) that may have separate optical codes. For example, the radiopaque markers can be a first type of imaging modality marker used to register the fluoroscopic images 654 with the person's body, and a second imaging modality marker (e.g., an MRI-type marker or an ultrasound marker) can be used to register the image datasets with the person's body. The registered dataset images, image projections, and fluoroscopic images can also be displayed using the AR headset 608 or on a separate AR display 662 along with a real-world view of the patient. Thus, augmented reality images can be combined with a live fluoroscopic intervention or diagnostic procedure performed on the body of the person 606a.

前述したように、複数の有用なビューを、透視デバイス及びARシステムを使用している医療専門家に提供することができる。1つのビューは、透視画像が光学コードを使用して患者の実際のビュー上に解剖学的に位置合わせされるように、部分的に透明な透視画像を撮影し、透視画像をオーバーレイする能力を含むことができる。別のビューは、画像データセットを透視画像と合成し、光学コードを使用して患者の身体と位置合わせすることを可能にすることができる。更に、画像データセットからの投影は、ARシステム又はARヘッドセットを介した医療専門家の変化する身体の実際のビューに合わせて移動又は再構築することができる。更に別のビューは、透視画像と、患者(例えば、医療専門家がX線ビーム自体と同じ視点にある場合に医療専門家が見るであろうもの)と位置合わせされて重ねられた透視画像に平行な画像データセット(例えば、2D矩形スライス)の投影との組み合わせビューを表示するARシステムで提供され得る。この構成では、投影は、透視デバイスが移動するにつれて移動又は再構築することができる。 As previously mentioned, multiple useful views can be provided to the medical professional using the fluoroscopy device and AR system. One view can include the ability to take a partially transparent fluoroscopic image and overlay the fluoroscopic image such that the fluoroscopic image is anatomically aligned on the actual view of the patient using an optical code. Another view can allow the image dataset to be composited with the fluoroscopic image and aligned with the patient's body using an optical code. Furthermore, the projections from the image dataset can be moved or reconstructed to match the medical professional's changing actual view of the body through the AR system or AR headset. Yet another view can be provided with an AR system that displays a combined view of the fluoroscopic image and a projection of the image dataset (e.g., a 2D rectangular slice) parallel to the fluoroscopic image overlaid in alignment with the patient (e.g., what the medical professional would see if he or she were in the same perspective as the x-ray beam itself). In this configuration, the projections can be moved or reconstructed as the fluoroscopy device moves.

光学コードを有する医療用具618はまた、前述したように、画像データセット及び画像投影656に関して参照することができる。これにより、医療専門家は、画像データセット又は画像投影656及び透視画像654を同時に参照して医療用具618を見ることができる。透視画像654は、医療専門家又はユーザが所望する任意のレベルの透明度に設定されてもよい。 The medical tool 618 having an optical code may also be referenced with respect to the image data set and image projection 656 as previously described. This allows a medical professional to view the medical tool 618 with simultaneous reference to the image data set or image projection 656 and the fluoroscopic image 654. The fluoroscopic image 654 may be set to any level of transparency desired by the medical professional or user.

図7は、医療専門家604が異なる視点から透視画像660を取得することを可能にするために、人又は患者の身体606aに対して透視デバイス654の位置が変化し得ることを示している。人の身体に対する透視デバイスの位置及び向きの変化は、ARヘッドセット608又はARシステムに関連付けられたカメラによって取り込まれた1つ又は複数の光学コード652、658を使用して検出及び定量化することができる。透視デバイス660の位置及び向きの変化により、画像投影656及び透視画像654の位置及び向きを変更することができる。例えば、画像投影656の位置及び/又は向きは、ARヘッドセットによって見られるように、患者606aの身体と比較して、1つ又は複数の光学コード652、658を使用して透視デバイス660の位置及び向きの検出された変化に基づいて移動され得る。画像データセットからの画像投影656は、透視デバイス660の修正された位置及び向きを使用して再構築されてもよく、又は新しい投影が作成されてもよい。 7 illustrates that the position of the fluoroscopy device 654 may change relative to the person's or patient's body 606a to allow the medical professional 604 to acquire fluoroscopy images 660 from different perspectives. Changes in the position and orientation of the fluoroscopy device relative to the person's body may be detected and quantified using one or more optical codes 652, 658 captured by a camera associated with the AR headset 608 or AR system. Changes in the position and orientation of the fluoroscopy device 660 may alter the position and orientation of the image projection 656 and the fluoroscopy image 654. For example, the position and/or orientation of the image projection 656 may be moved based on a detected change in the position and orientation of the fluoroscopy device 660 relative to the patient's 606a's body as seen by the AR headset using one or more optical codes 652, 658. The image projection 656 from the image dataset may be reconstructed using the revised position and orientation of the fluoroscopy device 660, or a new projection may be created.

例えば、透視デバイス660は、一軸で45度回転してもよい。その結果、画像投影656をその新しい向きに再作成することができ、透視画像654及び画像投影656の向きをARヘッドセットを通して見たときに人606aの身体に対して適切な向きに位置合わせすることを可能にするために、ARディスプレイで見たときに回転した向きで透視画像654を表示することができる。透視画像654は、身体上の光学コード、画像可視マーカによって定義されるように、及び/又は透視デバイス660の修正された位置及び/又は向きによって定義されるように、人の身体に対して3D空間で修正された向きを有することができる。したがって、X線ビームの位置及び向きが変化すると、画像投影656及び透視画像654の位置及び向きが変化する。 For example, the fluoroscopy device 660 may be rotated 45 degrees in one axis. As a result, the image projection 656 may be recreated in its new orientation, and the fluoroscopy image 654 may be displayed in a rotated orientation when viewed on the AR display to allow the orientation of the fluoroscopy image 654 and image projection 656 to be aligned in the proper orientation relative to the body of the person 606a when viewed through the AR headset. The fluoroscopy image 654 may have a modified orientation in 3D space relative to the person's body as defined by an optical code, image visible markers on the body, and/or as defined by a modified position and/or orientation of the fluoroscopy device 660. Thus, as the position and orientation of the x-ray beam changes, the position and orientation of the image projection 656 and the fluoroscopy image 654 change.

患者に対する透視デバイス660の位置及び向きを決定することにより、ARシステムは、画像投影656が透視検出器から得られた透視画像654と平行になるように画像投影を再構築することも可能になる。更に、透視画像654は、身体から透視画像654が取り込まれている位置(例えば、X線ビームを使用して、)に基づいて、人606aの身体に対して位置決めすることができる。したがって、透視画像654、画像投影656、及び患者の身体606aは、医療専門家が画像投影656を透視画像654へのオーバーレイとして使用して人又は患者の解剖学的構造を見ることができるように位置合わせされてもよい。画像投影656及び透視画像654の位置決め及び向きは、(医療専門家の視点とは対照的に)X線ビームが通過している人の身体の一部分に基づいてAR(拡張現実)ビューを表すことができる。 Determining the position and orientation of the fluoroscopy device 660 relative to the patient also allows the AR system to reconstruct the image projection 656 so that it is parallel to the fluoroscopic image 654 obtained from the fluoroscopy detector. Additionally, the fluoroscopic image 654 can be positioned relative to the body of the person 606a based on the location from the body where the fluoroscopic image 654 is being captured (e.g., using an x-ray beam). Thus, the fluoroscopic image 654, image projection 656, and the patient's body 606a may be aligned such that a medical professional can use the image projection 656 as an overlay on the fluoroscopic image 654 to view the person's or patient's anatomy. The positioning and orientation of the image projection 656 and the fluoroscopic image 654 can represent an AR (augmented reality) view based on the portion of the person's body through which the x-ray beam is passing (as opposed to the medical professional's point of view).

ARシステムは、透視デバイス654の位置及び向きに一致する任意の角度からの投影を提供するように3D画像データセットを再構成することができる。例えば、透視デバイス660が側方ビューを取り込むように配置されている場合、画像データセットの側方投影を側方透視画像ビューと共に提供することができる。人の身体の現実世界のビュー、画像データセットからの画像投影、及び透視画像を組み合わせて位置合わせすることにより、医療専門家は、患者の体内の解剖学的組織をよりよく見てナビゲートすることができる。3D(3次元)画像データセットは、より良好な軟組織コントラスト(例えば、臓器及び血管は、内部の解剖学的組織に見ることができる)及び透視画像が提供し得ない3D基準環境を提供する。 The AR system can reconstruct the 3D image dataset to provide projections from any angle consistent with the position and orientation of the fluoroscopy device 654. For example, if the fluoroscopy device 660 is positioned to capture a lateral view, a lateral projection of the image dataset can be provided along with a lateral fluoroscopy image view. By combining and registering the real-world view of the person's body, the image projections from the image dataset, and the fluoroscopy image, medical professionals can better see and navigate the anatomy within the patient's body. The 3D (three-dimensional) image dataset provides better soft tissue contrast (e.g., organs and blood vessels can be seen in the internal anatomy) and a 3D reference environment that fluoroscopy images cannot provide.

一構成では、透視画像654を取り込みながら、人606aの身体に対して透視デバイス660をズームすることができる。その結果、画像投影656に対する調整は、画像投影656が透視画像654のズームに一致することを可能にするために、透視画像654に取り込まれた画像可視マーカ(すなわち、放射線不透過性マーカ830)のサイズの変化に基づいて実行することができる。例えば、透視画像654がズームインされたときに既知のサイズの画像可視マーカが取り込まれる(例えば、所定のサイズ又は長さのリードマーカ)場合、画像投影がズームインされる量は、透視画像内の画像可視マーカのサイズの視覚的増加(又はズームアウトの場合の減少)によって決定され得る。あるいは、ズーム値は、透視デバイス660によって電子的に報告されてもよく、又はズーム値は、透視画像654内又はそれと共に提供されてもよく、画像投影654は、透視デバイスによって電子的に報告されるように、透視ズームに一致するように修正されてもよい。 In one configuration, the fluoroscopy device 660 may be zoomed relative to the body of the person 606a while the fluoroscopy image 654 is being captured. As a result, adjustments to the image projection 656 may be made based on changes in size of the image visible markers (i.e., radiopaque markers 830) captured in the fluoroscopy image 654 to allow the image projection 656 to match the zoom of the fluoroscopy image 654. For example, if an image visible marker of known size is captured when the fluoroscopy image 654 is zoomed in (e.g., a lead marker of a predetermined size or length), the amount that the image projection is zoomed in may be determined by a visual increase (or decrease in the case of a zoom out) in the size of the image visible marker in the fluoroscopy image. Alternatively, the zoom value may be electronically reported by the fluoroscopy device 660, or the zoom value may be provided in or with the fluoroscopy image 654, and the image projection 654 may be modified to match the fluoroscopy zoom, as electronically reported by the fluoroscopy device.

更に、拡大が透視デバイスに適用され得るので、直接測定することが困難であり得る拡大効果の変動があり得る。例えば、X線検出器と対象との距離が変化すると、倍率変動が発生する可能性がある。したがって、放射線不透過性マーカをズーム調整に使用することができる。したがって、放射線不透過性マーカ(例えば、L字形状)が拡大表示で識別され、放射線不透過性マーカが既知の物理的サイズの2倍である場合、画像データセットは、放射線不透過性マーカの2倍のサイズに一致するようにスケーリングすることができる。画像データセットがズームアウト又はズームインされると、画像データセットは、人の身体の実際のビューとうまく整列する可能性が低い。その結果、ズームされた画像データセット及び透視画像は、ARヘッドセットとは別個のARディスプレイ662に位置合わせされて表示されるか、又は人の身体に直接オーバーレイされないARヘッドセット視野の一部分(例えば、ARヘッドセットの視野の中心の側から)に表示され得る。 Furthermore, because magnification may be applied to a fluoroscopy device, there may be variations in the magnification effect that may be difficult to measure directly. For example, magnification variations may occur as the distance between the x-ray detector and the object changes. Thus, radiopaque markers may be used for zoom adjustments. Thus, if a radiopaque marker (e.g., L-shaped) is identified in the magnified display and the radiopaque marker is twice the known physical size, the image dataset may be scaled to match twice the size of the radiopaque marker. When the image dataset is zoomed out or in, it is unlikely that the image dataset will align well with the actual view of the person's body. As a result, the zoomed image dataset and the fluoroscopy image may be displayed in registration on an AR display 662 separate from the AR headset, or in a portion of the AR headset field of view that is not directly overlaid on the person's body (e.g., from the side of the center of the AR headset field of view).

X線源又はX線検出器からの患者の解剖学的組織の距離に起因する拡大効果を減少させるために、丸い放射線不透過性球体を患者のアイソセンタに配置することができる。透視デバイスに倍率を用いる場合、X線ビーム源からの身体部分の距離に応じて倍率を変えることができる。例えば、X線ビーム源により近い身体部分の倍率は、より大きくてもよい。これらの倍率の差を補正するために、使用される放射線不透過性マーカは、既知のサイズ(例えば、1cm)の金属球であってもよい。金属球を関心のある身体部分(例えば、画像のアイソセンタ)の近くに配置し、次いで、画像データセットのズームを金属球に一致するように設定することができる。したがって、金属球が透視画像内でより小さく又はより大きく見える場合、そのサイズに基づいて画像データセットをズームすることができる。金属球もまた、あらゆる角度から同じように見える。この外観の一貫性により、金属球は、画像データセットに適用される透視画像のズームを検出するための効果的なマーカになることが可能になる。 To reduce magnification effects due to the distance of the patient's anatomy from the x-ray source or x-ray detector, a round radiopaque sphere can be placed at the isocenter of the patient. If magnification is used in the fluoroscopy device, the magnification can vary depending on the distance of the body part from the x-ray beam source. For example, the magnification of body parts closer to the x-ray beam source may be greater. To correct for these magnification differences, the radiopaque marker used can be a metal sphere of known size (e.g., 1 cm). The metal sphere can be placed near the body part of interest (e.g., the isocenter of the image) and then the zoom of the image data set can be set to match the metal sphere. Thus, if the metal sphere appears smaller or larger in the fluoroscopic image, the image data set can be zoomed based on its size. The metal sphere also appears the same from all angles. This consistency of appearance allows the metal sphere to be an effective marker for detecting fluoroscopic image zoom applied to the image data set.

ARディスプレイ662の使用はまた、医療専門家によって直接見られる患者の実際のビューの位置及び向きによりよく一致するように仮想患者を表示するために、ARディスプレイに位置合わせされて表示されるように透視画像及び画像投影のビューを変更する能力を提供することができる。透視デバイスによって取り込まれた透視画像の向きに関係なく、位置合わせされた透視画像及び画像投影の表示は、医師を支援し、及び/又は患者の位置及び/又は向きの実際のビューに一致するようにARディスプレイ内で配向することができる。例えば、透視画像は、実際に見られている患者の身体と比較して、何らかの他の方法で水平、垂直、又は異方向に反転されてもよい。困難な視野方向は、透視デバイス660の取り込み方向に起因し得る。したがって、位置合わせされた透視画像654及び画像投影656を有する画像は、医療専門家が見るために反転又は再配向(例えば、水平方向に反転され、特定の角度だけ反転され、不揃いの向きを反転させるように移動される)することができ、医療処置をより実行しやすくするか、又は医療専門家が実際のビューで見ているものとより密接に一致させることができる。画像の向きを変更するこの能力は、患者に対して処置を実行するときのより直感的な対話を可能にする。例えば、すべてが後方にある場合、透視画像ガイダンスで医療処置を実行することは非常に困難であり得る。 The use of the AR display 662 may also provide the ability to change the view of the fluoroscopic images and image projections to be displayed aligned on the AR display in order to display the virtual patient to better match the position and orientation of the actual view of the patient as viewed directly by the medical professional. Regardless of the orientation of the fluoroscopic images captured by the fluoroscopic device, the display of the aligned fluoroscopic images and image projections may be oriented in the AR display to assist the physician and/or match the actual view of the patient's position and/or orientation. For example, the fluoroscopic images may be flipped horizontally, vertically, or anisotropically in some other way compared to the patient's body as viewed in reality. The difficult viewing direction may be due to the capture direction of the fluoroscopic device 660. Thus, the images with the aligned fluoroscopic images 654 and image projections 656 may be flipped or reoriented (e.g., flipped horizontally, flipped by a certain angle, moved to reverse the misaligned orientation) for viewing by the medical professional to make the medical procedure easier to perform or more closely match what the medical professional sees in the actual view. This ability to change the image orientation allows for more intuitive interaction when performing a procedure on the patient. For example, performing a medical procedure with fluoroscopic image guidance can be very difficult when everything is posterior.

グラフィックインジケータ、仮想ツール、又は仮想標的システムを画像データセット又は画像投影に使用して、ARディスプレイを使用して見たときの人の身体及び画像データセットに対する透視可視なオブジェクト(例えば、針又はカテーテル)の位置及び向きを案内することもできる。同様に、医療処置中に透視可能なオブジェクトを誘導するのを助けるために、グラフィックインジケータを透視画像654上に配置することができる。あるいは、グラフィックインジケータは、透視処置で使用される任意の医療用具618を案内するために使用されてもよい。 Graphic indicators, virtual tools, or virtual target systems may also be used in the image data set or image projection to guide the location and orientation of a fluoroscopically visible object (e.g., a needle or catheter) relative to the person's body and image data set when viewed using the AR display. Similarly, graphic indicators may be placed on the fluoroscopic image 654 to help guide a fluoroscopic object during a medical procedure. Alternatively, the graphic indicators may be used to guide any medical tools 618 used in the fluoroscopic procedure.

図8Aは、人806の身体の断面図、位置合わせされた画像データセット820からの画像投影804、位置合わせされた透視画像802、及び透視デバイス814の組み合わせの側面図を示し、医療専門家が人の身体806内の可視アイテム810を透視法で案内することを可能にすることができる。透視可能なオブジェクト810(例えば、針)は、画像データセット820及び/又は人の身体と位置合わせされた画像投影804に対して、透視画像802内で医療専門家によって観察及び誘導され得る。画像投影804は、ARヘッドセット又はARディスプレイにおいて、透視画像802上に重ねられて見える場合がある。あるいは、画像投影804は、画像投影804の上にオーバーレイされた透視画像802を有するように見えてもよく、又は画像投影804は、位置合わせされた画像データセット820内にあるように見えてもよい。先に論じたように、画像データセット又は画像投影上にグラフィックインジケータ、仮想ツール、又は仮想標的システムを設けて、人806の身体及び画像データセット820に対する透視可視なオブジェクト810の位置及び向きを案内することができる。 8A shows a side view of a cross-sectional view of a body of a person 806, a combination of image projections 804 from a registered image data set 820, a registered fluoroscopic image 802, and a fluoroscopy device 814, which may enable a medical professional to fluoroscopically guide a visible item 810 within the body of the person 806. A see-through object 810 (e.g., a needle) may be observed and guided by a medical professional within the fluoroscopic image 802 relative to the image data set 820 and/or the image projection 804 registered with the body of the person. The image projection 804 may appear superimposed on the fluoroscopic image 802 in an AR headset or AR display. Alternatively, the image projection 804 may appear to have the fluoroscopic image 802 overlaid on top of the image projection 804, or the image projection 804 may appear to be within the registered image data set 820. As discussed above, graphic indicators, virtual tools, or virtual target systems may be provided on the image dataset or image projection to guide the position and orientation of the see-through object 810 relative to the body of the person 806 and the image dataset 820.

画像データセットと位置合わせされた透視画像802の透明度は、医療専門家が見たいと望む人806の画像投影804又は現実世界の身体の量に応じて変更することができる。透視可視なオブジェクト810又は医療用具はまた、透視可視なオブジェクト810を画像投影804に対して参照するために使用される透視可能なオブジェクト810上の1つ又は複数の光学コードを有することができる。更に、人の身体に対する医療用具の位置及び画像投影804又は画像データセット820は、医療用具上の光学コード及び人808の身体上の1つ又は複数の光学コードを使用して決定することができ、ARディスプレイを通して見たときに医療用具が画像データ及び透視画像に参照されることを可能にする。 The transparency of the fluoroscopic image 802 registered with the image dataset can be changed depending on how much of the image projection 804 or real-world body of the person 806 the medical professional wishes to see. The fluoroscopically visible object 810 or medical tool can also have one or more optical codes on the fluoroscopically visible object 810 that are used to reference the fluoroscopically visible object 810 to the image projection 804. Furthermore, the position of the medical tool relative to the person's body and the image projection 804 or image dataset 820 can be determined using the optical code on the medical tool and one or more optical codes on the body of the person 808, allowing the medical tool to be referenced to the image data and the fluoroscopic image when viewed through the AR display.

画像データセット820からの画像投影804は、コンピュータ断層撮影(CT)画像又は磁気共鳴画像(MRI)を使用して取り込まれていてもよい。次いで、画像投影804をライブ透視画像802上に重ねることができる。透視画像802はライブ画像であるが、透視画像は、MRI(磁気共鳴画像)又はCT(コンピュータ断層撮影)画像の3D品質又は軟組織コントラスト分解能を有さない。透視画像802が(例えば、AprilTag)1つ又は複数の光学コードを有する患者の身体を参照し、以前に取得された3D画像データセットの投影804が患者の身体上の画像可視タグを参照した場合、医療専門家は、ARヘッドセット又はARディスプレイを使用して患者806の体内で先端が移動するときに針の仮想端を見ることができる。これは、仮想画像、透視画像、及び患者の実際のビューの貴重な態様を組み合わせる。針、カテーテル先端又は同様の放射線不透過性オブジェクトは、透視下で見ることができるが、医療専門家は、透視画像内の特定の軟組織を見ることができない。したがって、患者の実際のビュー、画像データセット、透視画像、透視デバイス上の光学タグ、画像可視タグ、医療用具、及び医療用具上の光学タグの組み合わせは、医療専門家が画像データセット及び/又は透視画像を参照して医療用具を見ることを可能にすることができる。 The image projections 804 from the image dataset 820 may have been captured using computed tomography (CT) images or magnetic resonance imaging (MRI). The image projections 804 can then be overlaid on the live fluoroscopic image 802. Although the fluoroscopic image 802 is a live image, the fluoroscopic image does not have the 3D quality or soft tissue contrast resolution of an MRI (magnetic resonance imaging) or CT (computed tomography) image. If the fluoroscopic image 802 references the patient's body with one or more optical codes (e.g., AprilTag) and the projections 804 of the previously acquired 3D image dataset reference image visible tags on the patient's body, the medical professional can see the virtual end of the needle as the tip moves within the patient's 806 body using an AR headset or AR display. This combines valuable aspects of virtual images, fluoroscopic images, and the actual view of the patient. Although the needle, catheter tip, or similar radiopaque object can be seen under fluoroscopy, the medical professional cannot see certain soft tissues in the fluoroscopic image. Thus, the combination of the actual view of the patient, the image dataset, the fluoroscopic image, the optical tag on the fluoroscopic device, the image visible tag, the medical tool, and the optical tag on the medical tool can enable a medical professional to view the medical tool with reference to the image dataset and/or the fluoroscopic image.

別の構成では、図8Bに示すように、医療専門家によって医療処置が行われている間に、超音波プローブ又は超音波トランスデューサ862を使用して患者850の身体の一部分の超音波画像860を取得することができる。超音波トランスデューサ862は、移動可能であってもよいし、人の身体に対して移動可能であってもよい。超音波画像860又はソノグラムは、身体組織から跳ね返るか又は反響する音波によって生成される2D、3D又は4D(例えば、時系列を含む)超音波画像であってもよい。エコーは、超音波画像又はソノグラムを作成するためにコンピュータによって処理される。 In another configuration, as shown in FIG. 8B, an ultrasound probe or transducer 862 may be used to obtain an ultrasound image 860 of a portion of a patient's 850 body while a medical procedure is being performed by a medical professional. The ultrasound transducer 862 may be movable or moveable relative to the person's body. The ultrasound image 860 or sonogram may be a 2D, 3D, or 4D (e.g., including a time series) ultrasound image produced by sound waves bouncing or echoing off body tissue. The echoes are processed by a computer to create the ultrasound image or sonogram.

これらの超音波画像860は、医療処置の間に得るために比較的高速かつ安価であってもよいが、超音波画像の解像度、精度、及び局所化は、CTスキャン、MRI、及び他の撮像モダリティなどの他のタイプの撮像ほど高度でなくてもよい。この技術は、超音波画像860を他の画像モダリティと組み合わせて、医療専門家が医療処置を実行するのを支援する能力を提供する。 These ultrasound images 860 may be relatively fast and inexpensive to obtain during a medical procedure, but the resolution, accuracy, and localization of the ultrasound images may not be as advanced as other types of imaging, such as CT scans, MRIs, and other imaging modalities. This technology provides the ability to combine ultrasound images 860 with other imaging modalities to assist medical professionals in performing medical procedures.

したがって、1つ又は複数の光学コード864は、超音波プローブ又は超音波トランスデューサ862(例えば、外側ハウジング上)に配置又は取り付けられてもよい。超音波トランスデューサ862上の光学コードは、ARヘッドセット内のセンサによって検出することができる。結果として、超音波トランスデューサ862の位置及び向きを検出することができ、超音波トランスデューサ862の位置及び向きに基づいて超音波ビーム及び超音波画像の位置及び向きを決定することができる。更に、患者又は人の身体上の1つ又は複数の光学コード852を検出して、患者850の位置及び向きを決定することができる。患者850及び超音波画像860の位置及び向きを知ることにより、超音波画像860を位置合わせし、ARヘッドセットを使用して患者の正しい位置に投影することが可能になる。ARヘッドセット内の患者に投影された超音波画像860は、部分的に透明(例えば、医療専門家によって設定された透明度値を使用する)であってもよく、又は超音波画像は不透明であってもよい。 Thus, one or more optical codes 864 may be disposed or attached to the ultrasound probe or ultrasound transducer 862 (e.g., on the outer housing). The optical code on the ultrasound transducer 862 may be detected by a sensor in the AR headset. As a result, the position and orientation of the ultrasound transducer 862 may be detected, and the position and orientation of the ultrasound beam and the ultrasound image may be determined based on the position and orientation of the ultrasound transducer 862. Furthermore, one or more optical codes 852 on the patient or person's body may be detected to determine the position and orientation of the patient 850. Knowing the position and orientation of the patient 850 and the ultrasound image 860 allows the ultrasound image 860 to be aligned and projected to the correct position on the patient using the AR headset. The ultrasound image 860 projected on the patient in the AR headset may be partially transparent (e.g., using a transparency value set by a medical professional) or the ultrasound image may be opaque.

超音波画像860又はソノグラムはまた、超音波画像860と比較して、より正確で、より明確で、より高い解像度で、より大きく、より良好な組織コントラスト情報を有することができる画像データセット866(例えば、MRI)と組み合わせることができる。前述したように、光学コード864は、画像可視マーカ856に取り付けられてもよい。この画像可視マーカ856は、(詳細に前述したように)患者から以前に取得された画像データセット866を患者の身体と位置合わせすることを可能にすることができる。したがって、医療専門家は、高解像度画像データセット866と組み合わされた超音波画像860を、ARヘッドセット又はARシステムを介して患者の身体の正しい位置に位置合わせされ投影されるようにして見ることができる。例えば、医療専門家が超音波装置を使用して患者の肝臓に対して医療処置を実行している場合、患者の肝臓の限られた部分は、超音波画像を使用していつでも見ることができるが、肝臓全体は、超音波画像と共に取得された画像データセットを使用して見ることができる。超音波画像及び画像データセットは、ARヘッドセットによって見られている3D空間内で共局在化することができる。 The ultrasound image 860 or sonogram can also be combined with an image dataset 866 (e.g., MRI), which can be more accurate, clearer, higher resolution, larger, and have better tissue contrast information compared to the ultrasound image 860. As previously described, the optical code 864 may be attached to an image visible marker 856. This image visible marker 856 can allow for the image dataset 866 previously acquired from the patient to be aligned with the patient's body (as previously described in detail). Thus, the medical professional can view the ultrasound image 860 combined with the high-resolution image dataset 866 as aligned and projected to the correct location on the patient's body via an AR headset or AR system. For example, if the medical professional is performing a medical procedure on the patient's liver using an ultrasound device, a limited portion of the patient's liver can be viewed at any one time using the ultrasound image, but the entire liver can be viewed using the image dataset acquired together with the ultrasound image. The ultrasound image and the image dataset can be co-localized in the 3D space viewed by the AR headset.

典型的には、超音波画像860は、患者に対して基準点に固定されない。上述のように光学コードを使用することにより、ARヘッドセットによって見られている3D空間内に基準点が提供される。更に、基準点(すなわち、光学コード)を使用して、超音波画像860を1つ又は複数の画像データセット866と位置合わせすることができる。 Typically, the ultrasound image 860 is not fixed to a reference point relative to the patient. Using the optical code as described above provides a reference point in the 3D space seen by the AR headset. Additionally, the reference point (i.e., the optical code) can be used to align the ultrasound image 860 with one or more image data sets 866.

超音波トランスデューサは、電子的に誘導されるファンビーム又は線形ビームを使用することができる。超音波ビームが機械的又は電子的に移動又は誘導される場合、この誘導は、超音波画像の位置を決定するときに考慮に入れることができる。 Ultrasound transducers can use electronically guided fan beams or linear beams. If the ultrasound beam is moved or guided mechanically or electronically, this guidance can be taken into account when determining the position of the ultrasound image.

医療専門家が乳房生検などの医療処置を行おうとする場合、医療専門家は超音波機器を使用することがあるが、超音波画像内の実際の病変を見ることは困難であり得る。しかしながら、病変は、CT、MRI、PET、原子力、又は超音波画像と組み合わせて又は共局在して表示される他の画像データセットで見ることができる。したがって、超音波画像は、処置中に取り込まれた画像(例えば、リアルタイムで)を提供するために使用され得るが、以前に取り込まれた詳細な解剖学的組織は、より高い空間解像度又はコントラスト解像度の画像データセットを使用して同時に参照され得る。 When a medical professional is attempting to perform a medical procedure such as a breast biopsy, the medical professional may use ultrasound equipment, but it may be difficult to see the actual lesion in the ultrasound image. However, the lesion may be visible in a CT, MRI, PET, nuclear, or other image dataset that is displayed in combination or co-localization with the ultrasound image. Thus, ultrasound images may be used to provide images captured during the procedure (e.g., in real time), while previously captured detailed anatomy may be simultaneously referenced using an image dataset of higher spatial or contrast resolution.

トランスデューサは、身体の表面を通過してもよく、又は身体の開口部に挿入されてもよい。これにより、超音波画像及び画像データセットの融合又は合成ビューは、患者の身体の多くの様々な合成ビューを提供することができる。 The transducer may pass through the surface of the body or may be inserted into an orifice in the body, so that fusion or synthetic views of the ultrasound images and image data sets can provide many different synthetic views of the patient's body.

図8Bに記載されるように、リアルタイム画像と患者の身体及び画像データセットとの位置合わせは、リアルタイム画像の位置及び向きが撮像デバイスのトランスデューサ、エミッタ又は検出器から取得され得る任意のタイプのリアルタイム医療画像に適用され得る。超音波画像の代わりに使用できるそのようなリアルタイム撮像の追加の例は、CT透視画像である。 As described in FIG. 8B, the registration of the real-time image with the patient's body and image dataset may be applied to any type of real-time medical imaging where the position and orientation of the real-time image may be obtained from a transducer, emitter or detector of an imaging device. An additional example of such real-time imaging that may be used instead of an ultrasound image is a CT fluoroscopic image.

図9aは、医療処置中に、画像データセット及び患者の身体に関して医療用具を共局在化するために拡張現実ヘッドセットを使用する例示的な方法のフローチャートである。これら及び他の実施形態では、方法900は、1つ又は複数の非一時的コンピュータ可読媒体に格納された1つ又は複数のコンピュータ可読命令に基づいて、1つ又は複数のプロセッサによって実行されてもよい。 FIG. 9a is a flow chart of an exemplary method of using an augmented reality headset to co-localize a medical tool with respect to an image dataset and a patient's body during a medical procedure. In these and other embodiments, the method 900 may be executed by one or more processors based on one or more computer-readable instructions stored on one or more non-transitory computer-readable media.

方法は、ブロック902のように、ARヘッドセットの光学センサを使用して、人又は患者の身体の一部分及び医療用具の視覚画像データを取り込むことができる。例えば、光学コードを有する可視患者は、医療専門家によって使用されるARヘッドセットのカメラによって登録又は検出される。ブロック904のように、人の身体及び医療用具に関連する1つ又は複数の光学コードを視覚画像データ内で識別することができる。前述したように、人の身体上の光学コードは、画像可視マーカに対して固定位置に配置されてもよい。 The method may capture visual image data of a portion of a person's or patient's body and a medical implement using an optical sensor in an AR headset, as in block 902. For example, a visible patient having an optical code may be registered or detected by a camera in an AR headset used by a medical professional. One or more optical codes associated with the person's body and the medical implement may be identified in the visual image data, as in block 904. As previously discussed, the optical code on the person's body may be located in a fixed position relative to the image visible markers.

ブロック906のように、画像データセットは、人の身体上の1つ又は複数の光学コードと、画像データセット内の画像可視マーカの表現を参照したときの光学コードに対する画像可視マーカの固定位置とを使用して、人の身体と位置合わせされ得る。更に、ブロック908のように、医療用具が人の身体及び画像データセットに対して参照されることを可能にするために、人の身体に対する医療用具の位置及び/又は向きは、医療用具及び人の身体上の1つ又は複数の光学コードを使用して決定することができる。これらの複数の画像態様の位置合わせ及び合成は、ARヘッドセットを通して見ることができる。一例では、放射線画像の画像データセットは、ユーザ又は医療専門家のニーズに応じて異なるレベルの不透明度で提示することができる。また、この不透明度は随時調整されてもよい。 As per block 906, the image dataset may be aligned with the person's body using one or more optical codes on the person's body and fixed positions of the image visible markers relative to the optical codes when referenced to a representation of the image visible markers in the image dataset. Further, as per block 908, the position and/or orientation of the medical implement relative to the person's body may be determined using the medical implement and one or more optical codes on the person's body to enable the medical implement to be referenced to the person's body and the image dataset. The alignment and composition of these multiple image aspects may be viewed through an AR headset. In one example, the image dataset of the radiology image may be presented with different levels of opacity depending on the needs of the user or medical professional. This opacity may also be adjusted from time to time.

一構成では、本方法は、ARヘッドセットを使用して患者の身体に対するオブジェクトの位置決め及び向きを案内するために、視覚的インジケータ、仮想誘導システム、仮想ツール、仮想強調表示、又は画像データセット上の注釈を提供することを含むことができる。例えば、仮想ツール又は視覚的インジケータは、(例えば、体内の器官又は塊を強調表示するために)グラフィック強調表示、3D配色、3D手術路又は仮想処置トラック、標的解剖学的組織のグラフィック強調表示、病変のグラフィック強調表示、回避すべき重要な構造のグラフィック強調表示、又は解剖学的構造内又はその周りの3D視覚コード及びグラフィック構造(例えば、線、平面、円柱、体積、境界、又は3D形状)のうちの1つ又は複数を含むことができる。本方法は、開始基準点として光学コードを使用して医療用具の輪郭又は3D輪郭をマッピングすることを更に含むことができる。更に、医療用具の位置及び向きは既知であるため、患者の身体に部分的に挿入された医療用具(例えば、器具又はインプラント)は、依然としてシステムによって監視されて、画像データセット、最終的には人の身体に対する正しい配置及び位置決めを保証することができる。 In one configuration, the method can include providing visual indicators, virtual guidance systems, virtual tools, virtual highlights, or annotations on the image dataset to guide the positioning and orientation of the object relative to the patient's body using an AR headset. For example, the virtual tools or visual indicators can include one or more of: graphic highlighting (e.g., to highlight organs or masses within the body), 3D color schemes, 3D surgical paths or virtual treatment tracks, graphic highlighting of the target anatomical tissue, graphic highlighting of lesions, graphic highlighting of important structures to avoid, or 3D visual codes and graphic structures (e.g., lines, planes, cylinders, volumes, boundaries, or 3D shapes) in or around the anatomical structures. The method can further include mapping the contour or 3D contour of the medical tool using the optical code as a starting reference point. Additionally, because the position and orientation of the medical tool is known, a medical tool (e.g., an instrument or implant) that is partially inserted into the patient's body can still be monitored by the system to ensure correct placement and positioning relative to the image dataset and ultimately the person's body.

本方法は、利用又は検出された医療用具が医療処置で使用されるように割り当てられているかどうかを判定するためにデータベースに問い合わせることを含むことができる。一例では、ARシステムは、どの患者が特定の医療処置を受けているかを示す医療処置記録を格納することができる。これらの記録は、個々の処置に関連する特定の医療用具(例えば、医療器具、インプラントなど)のリストを含むことができる。医療用具が光学コードを使用して一意に識別される場合、その光学コードはシステムに送信され、医療用具の所定のリスト(それぞれが別個の光学コードに関連付けられ得る)と照合され得る。したがって、識別されたオブジェクトが現在の医療処置に関連付けられていると判定された場合、医療用具が医療処置に関連付けられていることを表すグラフィックインジケータを表示することができる。例えば、可視緑色インジケータ(例えば、チェックマーク又は緑色医療用具強調表示)は、処置の一致を示すことができる。別の例では、処置に関連付けられていると識別された医療用具は、常に強調表示されてもよい(例えば、ARディスプレイ内で緑色インジケータによって囲まれている)。一方、医療用具が現在の処置に関連付けられていないと判定された場合、否定的な視覚的指示も表示され得る。例えば、点滅する赤色「X」又は赤色ハイライト輪郭は、負のインジケータであってもよい。 The method may include querying a database to determine whether the utilized or detected medical implement is assigned for use in the medical procedure. In one example, the AR system may store medical procedure records indicating which patients are undergoing a particular medical procedure. These records may include a list of specific medical implements (e.g., medical instruments, implants, etc.) associated with each procedure. If the medical implement is uniquely identified using an optical code, the optical code may be transmitted to the system and matched against a predefined list of medical implements (each of which may be associated with a separate optical code). Thus, if it is determined that the identified object is associated with the current medical procedure, a graphical indicator may be displayed that represents the medical implement being associated with the medical procedure. For example, a visible green indicator (e.g., a check mark or a green medical implement highlight) may indicate a match of the procedure. In another example, a medical implement identified as associated with the procedure may always be highlighted (e.g., surrounded by a green indicator in the AR display). On the other hand, if it is determined that the medical implement is not associated with the current procedure, a negative visual indication may also be displayed. For example, a flashing red "X" or a red highlight outline may be a negative indicator.

本方法は、拡張現実ディスプレイに、医療用具に関連する医療情報を表示することを含むことができる。医療用具に関連する情報は、医療処置における医療用具の使用を記述する指示情報を含むことができる。 The method can include displaying, on the augmented reality display, medical information related to the medical implement. The information related to the medical implement can include instructional information describing use of the medical implement in a medical procedure.

患者に対して処置を実行するときに医師及び他の医療専門家が直面する1つの問題は、正しい医療用具が正しい患者の解剖学的組織で使用されていることを確実にすることである。誤った人、誤った付属物、誤った位置、誤ったインプラントが操作されているか、又は誤ったインプラント、誤った器具サイズ、又は誤った医療器具が利用されている場合、悪い医学的結果が結果として生じ得る。本技術は、医療用具に取り付けられた光学コードを利用することによって、改善された医療結果を提供することができる。 One problem faced by physicians and other medical professionals when performing procedures on patients is ensuring that the correct medical tool is used on the correct patient anatomy. If the wrong person, wrong appendage, wrong location, wrong implant is operated on, or the wrong implant, wrong tool size, or wrong medical tool is utilized, poor medical outcomes can result. The present technology can provide improved medical outcomes by utilizing an optical code attached to the medical tool.

更なる構成では、本技術は、医療処置のシミュレーションに使用することができる。患者の身体又は患者の解剖学的組織は、シミュレーション構造を使用してシミュレートすることができる。シミュレーション構造は、軟質材料(組織、動脈などを表すプラスチック及びゴム)又は他のシミュレーション材料で覆われたプラスチック又は死体の骨であってもよい。シミュレートされた解剖学的組織は、光学コード及び画像可視コードを含むことができる。次いで、将来処置が実行される患者の画像データセットを、シミュレートされた解剖学的組織と位置合わせすることができる。 In a further configuration, the technique can be used to simulate medical procedures. A patient's body or patient anatomy can be simulated using a simulated structure. The simulated structure can be plastic or cadaveric bone covered with soft materials (plastics and rubber representing tissue, arteries, etc.) or other simulated materials. The simulated anatomy can include optical codes and image visibility codes. An image dataset of a patient on which a future procedure will be performed can then be aligned with the simulated anatomy.

処置で使用される実際の医療用具はまた、シミュレーションに含まれてもよく、ARヘッドセットの視野内にあってもよい。同様に、医療用具の限られた部分(例えば、トロカールのハンドルのみ)を使用することができ、シミュレートされた患者内の仮想ツールを見ることができる。リアルタイムで取り込まれた透視、超音波、又は他の医療画像を使用する追加のオーバーレイも使用することができる。したがって、医療専門家は、計画されている実際の処置で発生し得る課題、問題、又は他の問題をよりよく理解するために、前述と同じ機能をシミュレーションとして実行することができる。このシミュレーションは、訓練目的にも使用することができる。 The actual medical tools used in the procedure may also be included in the simulation and may be within the field of view of the AR headset. Similarly, a limited portion of the medical tool may be used (e.g., only the handle of a trocar) and the virtual tool may be viewed within the simulated patient. Additional overlays using fluoroscopy, ultrasound, or other medical images captured in real time may also be used. Thus, the medical professional may perform the same functions as described above as a simulation to better understand challenges, issues, or other problems that may arise in the actual procedure being planned. This simulation may also be used for training purposes.

同様に、医療訓練者又は超音波撮影者は、(上述したように)訓練目的のためにリアルタイムで撮影されている実際の超音波画像と共に、以前に撮影された画像データセット(例えば、MRI又はCT画像)を組み合わせることができる。超音波画像の空間及びコントラストの解像度が低いため、超音波画像に表示されるものを明確に見ることは困難な場合がある。これにより、医療技術者は、より良好な空間解像度及びコントラスト解像度(例えば、MRI、CTなど)を有する画像を使用することによって、超音波観察下でどのような器官、骨、血管及び他の組織が見えるかについて訓練されることが可能になる。 Similarly, a medical trainer or sonographer can combine previously captured image data sets (e.g., MRI or CT images) with actual ultrasound images being captured in real time for training purposes (as described above). Due to the poor spatial and contrast resolution of ultrasound images, it can be difficult to clearly see what is displayed in the ultrasound image. This allows medical technicians to be trained on what organs, bones, blood vessels, and other tissues appear under ultrasound by using images with better spatial and contrast resolution (e.g., MRI, CT, etc.).

図9bは、光学コードを使用して医療処置を検証するための方法を示す。方法は、ブロック920のように、ARヘッドセットの光学センサを使用して、患者の身体の一部分及び医療用具の視覚画像データを検出する動作を含むことができる。 FIG. 9b illustrates a method for verifying a medical procedure using an optical code. The method may include, as in block 920, detecting visual image data of a portion of a patient's body and a medical tool using an optical sensor in an AR headset.

ブロック922のように、患者の身体及び医療用具に視認可能に表示された1つ又は複数の光学コードを識別することができる。患者の身体上の1つ又は複数の光学コードは、(前述のように)画像可視マーカに対して固定位置にある。ブロック924のように、患者の身体上の1つ又は複数の光学コードを参照して画像可視マーカの既知の固定位置を使用して、画像データセットを患者の身体と位置合わせしてもよい。 As per block 922, one or more optical codes visibly displayed on the patient's body and the medical implement may be identified. The one or more optical codes on the patient's body are in fixed positions relative to the image visible markers (as described above). As per block 924, the image data set may be aligned with the patient's body using the known fixed positions of the image visible markers with reference to the one or more optical codes on the patient's body.

ブロック926のように、光学コード及び画像可視マーカは、画像データセットの表面と位置合わせする患者の身体の表面の正しい位置合わせに基づいて、正しい患者が医療処置中であることを確認するために使用されてもよい。患者の身体の表面及び画像データセットの表面は、多角形メッシュ、スプライン、又は表面の別の数学的モデルを使用して作成することができる。表面(例えば、メッシュ)が類似又は一致する場合、正しい患者が認識される。これは、すべての個々の身体が固有であるため、身体の「指紋」の輪郭タイプと類推することができる。更に、医療処置における人又は患者の識別情報は、1つ又は複数の光学コードを使用して確認することもできる。この検証の追加の機能又は態様は、ブロック928のように、1つ又は複数の光学コードを使用して、身体の正しい部分及び正しい医療用具が医療処置で使用されていることを確認することである。 As in block 926, the optical code and image visible markers may be used to verify that the correct patient is in the medical procedure based on the correct registration of the surface of the patient's body that aligns with the surface of the image data set. The surface of the patient's body and the surface of the image data set may be created using a polygonal mesh, spline, or another mathematical model of the surface. If the surfaces (e.g., mesh) are similar or match, the correct patient is recognized. This can be analogized to a contour type of "fingerprint" of the body, since every individual body is unique. Additionally, the identity of the person or patient in the medical procedure may also be verified using one or more optical codes. An additional function or aspect of this verification is to verify that the correct part of the body and the correct medical tool are being used in the medical procedure using one or more optical codes, as in block 928.

更なる構成では、画像データを位置合わせする間に使用されるのと同じ光学コードを使用して、画像データセットを自動的に取得し、ARヘッドセットによって取得された画像データが、時間がかかり、面倒で、不正確な画像データの手動検索なしに、ARヘッドセットを通して見ている患者と一致することを保証することができる。 In a further configuration, the same optical code used during registration of the image data can be used to automatically acquire the image dataset, ensuring that the image data acquired by the AR headset matches the patient viewing through the AR headset without time-consuming, tedious, and inaccurate manual searching of the image data.

図10は、ARヘッドセットを通して見たときに、光学コードを使用して医療用具を画像データセット及び患者の身体に参照するために使用することができる例示的なシステムを示す。システム1000は、カメラデバイス1002、拡張現実システム1020、ディスプレイデバイス1030、及び複数のデータベースを含むことができる。システム1000はまた、共に通信可能に結合することができる、1つ又は複数のプロセッサ、メモリ、ファイルシステム、通信ユニット、オペレーティングシステム、及びユーザインタフェースを含むことができる。いくつかの実施形態では、システム1000は、例えば、デスクトップコンピュータ、サーバコンピュータ、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、組み込みコンピュータ、ARヘッドセット、VRヘッドセットなどであってもよい。 FIG. 10 illustrates an exemplary system that can be used to reference a medical implement to an image dataset and a patient's body using an optical code when viewed through an AR headset. The system 1000 can include a camera device 1002, an augmented reality system 1020, a display device 1030, and multiple databases. The system 1000 can also include one or more processors, memories, file systems, communication units, operating systems, and user interfaces that can be communicatively coupled together. In some embodiments, the system 1000 can be, for example, a desktop computer, a server computer, a laptop computer, a smartphone, a tablet computer, an embedded computer, an AR headset, a VR headset, etc.

カメラデバイス1002は、可視データを取り込むように構成することができる。一例では、カメラデバイス1002は、医療処置中に可視データを取り込むために使用され得る。カメラデバイス1002によって取り込まれた可視データは、人の身体(又は身体の一部分)及び1つ又は複数の医療用具(例えば、医療器具、インプラントなど)の画像を含むことができる。カメラデバイス1002は、取り込まれた光学データを拡張現実システム1020に送信することができる。システムはまた、表面センサ、光学センサ、赤外線センサ、Lidarセンサ、又はARシステムによって検出された実際のビュー又は実際のビューのマッピングを検出及び支援するための他のセンサを含むことができる。任意のオブジェクト又は表面を、手術室、患者、部屋、物理的形状、医療用具、又は任意の他の物理的な周囲又はオブジェクトについて検出することができる。 The camera device 1002 can be configured to capture visual data. In one example, the camera device 1002 can be used to capture visual data during a medical procedure. The visual data captured by the camera device 1002 can include images of a person's body (or a portion of the body) and one or more medical implements (e.g., medical instruments, implants, etc.). The camera device 1002 can transmit the captured optical data to the augmented reality system 1020. The system can also include surface sensors, optical sensors, infrared sensors, Lidar sensors, or other sensors to detect and assist in the mapping of the actual view or actual view detected by the AR system. Any object or surface can be detected for an operating room, a patient, a room, a physical shape, a medical implement, or any other physical surroundings or objects.

拡張現実システム1020は、画像処理エンジン1022、基準位置合わせモジュール1024、画像生成モジュール1026、及び拡張表示バッファ1028を含むことができる。例えば、画像処理エンジン1022は、カメラデバイス1002から取り込まれた可視画像データを受信し、可視画像データを分析して、可視画像データ内の1つ又は複数の光学コード、オブジェクト、又は人を識別する。複数の異なる技術を使用して、限定はしないが、特徴抽出、セグメント化、及び/又はオブジェクト検出を含む可視画像データ内の医療用具を識別することができる。 The augmented reality system 1020 may include an image processing engine 1022, a fiducial alignment module 1024, an image generation module 1026, and an augmented display buffer 1028. For example, the image processing engine 1022 may receive the captured visible image data from the camera device 1002 and analyze the visible image data to identify one or more optical codes, objects, or people within the visible image data. A number of different techniques may be used to identify medical tools within the visible image data, including, but not limited to, feature extraction, segmentation, and/or object detection.

画像処理エンジン1022はまた、画像内の患者及び可視画像データ内の医療用具の両方の身体に貼り付けられ得る光学コードを識別する。画像処理エンジン1022が光学コード(例えば、AprilTag、バーコード、QRコードなど)を識別すると、画像処理ユニット1022は光学コードデータベース1046にアクセスして、光学コードに関連する情報を取り出す。いくつかの例では、光学コードは、特定の患者、特定の処置、又は特定のオブジェクトに関連付けられる。光学コードは、医療用具、身体又は透視デバイスの位置及び向きをより正確に識別するために使用することができる。 The image processing engine 1022 also identifies optical codes that may be affixed to the body of both the patient in the image and the medical implement in the visible image data. Once the image processing engine 1022 identifies an optical code (e.g., an AprilTag, a barcode, a QR code, etc.), the image processing unit 1022 accesses the optical code database 1046 to retrieve information related to the optical code. In some examples, the optical code is associated with a particular patient, a particular procedure, or a particular object. The optical code can be used to more precisely identify the location and orientation of the medical implement, body, or fluoroscopy device.

いくつかの実施形態では、基準及び位置合わせモジュール1024は、画像処理エンジン1022と係合して、任意の識別された医療用具、人の身体、及び互いに対する画像データセットを参照する。更に、基準及び位置合わせモジュール1024は、医療用具データベース1044内の光学コード情報を使用して、医療用具のサイズ及び形状を適切に識別することができる。医療用具及び患者の身体の位置及び向きが互いに対して決定されると、基準位置合わせコントローラ1026は、放射線画像データ1042内の任意の関連する放射線画像を患者の両方の身体と位置合わせすることができる。いくつかの例では、放射線画像は、患者記録データベース1040内の患者記録に基づいて放射線画像データベース1042から受信される。 In some embodiments, the fiducials and registration module 1024 engages the image processing engine 1022 to reference the image data set relative to any identified medical implements, the person's body, and each other. Additionally, the fiducials and registration module 1024 can use optical code information in the medical implement database 1044 to properly identify the size and shape of the medical implement. Once the position and orientation of the medical implement and the patient's body are determined relative to each other, the fiducial registration controller 1026 can register any associated radiological images in the radiological image data 1042 with both of the patient's bodies. In some examples, the radiological images are received from the radiological image database 1042 based on the patient records in the patient record database 1040.

画像生成モジュール1026は、患者の身体又は医療用具の上部に積層されたディスプレイデバイス1030に表示するために、グラフィックデータ、仮想ツール、3D手術路、腫瘤若しくは器官の3D配色若しくは陰影付け、又は腫瘤、器官若しくは標的の強調表示を生成することができる。いくつかの例では、この情報は拡張表示バッファ1028にロードすることができる。次いで、この情報は、ユーザに表示するためにディスプレイデバイス1030に送信されてもよい。 The image generation module 1026 can generate graphical data, virtual tools, 3D surgical paths, 3D coloring or shading of masses or organs, or highlighting of masses, organs or targets for display on a display device 1030 layered on top of the patient's body or medical tool. In some examples, this information can be loaded into an expanded display buffer 1028. This information may then be transmitted to the display device 1030 for display to the user.

一例では、患者データベース1040は、複数の患者レコードを含む。各患者記録は、患者に対して実行される1つ又は複数の医療処置を含むことができる。患者記録はまた、医療処置のためのメモ、指示又は計画を含むことができる。患者レコードはまた、放射線画像データベース1042内の1つ又は複数の放射線画像に関連付けることができる。いくつかの例では、放射線画像は、画像可視マーカに対する光学コードの固定位置を使用して、基準及び位置合わせモジュール1026が画像データセットを患者の身体と適切に位置合わせすることを可能にする画像可視マーカの表現を含む。いくつかの例では、医療用具データ1044は、医療器具、インプラント、及び他のオブジェクトを含む医療用具を記述する情報を含む。 In one example, the patient database 1040 includes multiple patient records. Each patient record can include one or more medical procedures performed on the patient. The patient records can also include notes, instructions, or plans for the medical procedures. The patient records can also be associated with one or more radiological images in the radiological image database 1042. In some examples, the radiological images include representations of image visible markers that allow the fiducials and registration module 1026 to properly register the image dataset with the patient's body using a fixed position of the optical code relative to the image visible markers. In some examples, the medical implement data 1044 includes information describing medical implements, including medical instruments, implants, and other objects.

いくつかの実施形態では、拡張現実システムは、サーバ上に配置されてもよく、ARヘッドセット又はディスプレイデバイス1030に関連して機能することができる任意のコンピュータシステムであってもよい。いくつかの実施形態では、サーバは、画像データをARヘッドセットに伝達するために、又はARヘッドセットからデータを受信するために、コンピュータネットワークを介してARヘッドセットと通信するように構成され得る。 In some embodiments, the augmented reality system may be located on a server, which may be any computer system capable of functioning in conjunction with the AR headset or the display device 1030. In some embodiments, the server may be configured to communicate with the AR headset over a computer network to communicate image data to the AR headset or to receive data from the AR headset.

図11は、本技術のモジュールが実行され得るコンピューティングデバイス1110を図示する。本技術の高レベルの例を実行することができるコンピューティングデバイス1110が示されている。コンピューティングデバイス1110は、メモリデバイス1112と通信する1つ又は複数のプロセッサ1112を含み得る。コンピューティングデバイスは、コンピューティングデバイス内の構成要素のためのローカル通信インタフェース1118を含み得る。例えば、ローカル通信インタフェースは、ローカルデータバス及び/又は所望に応じて任意の関連するアドレス若しくは制御バスであってもよい。 FIG. 11 illustrates a computing device 1110 on which modules of the present technology may be executed. A computing device 1110 on which a high level example of the present technology may be executed is shown. The computing device 1110 may include one or more processors 1112 in communication with a memory device 1112. The computing device may include a local communication interface 1118 for components within the computing device. For example, the local communication interface may be a local data bus and/or any associated address or control bus as desired.

メモリデバイス1112は、プロセッサ(複数可)1112によって実行可能なモジュール1124、及びモジュール1124のためのデータを含み得る。モジュール1124は、先に記述された機能を実行し得る。データストア1122もまた、プロセッサ(複数可)1112によって実行可能であるオペレーティングシステムと共に、モジュール1124及び他のアプリケーションに関連するデータを記憶するためにメモリデバイス1112内に位置付けられてもよい。 The memory device 1112 may include modules 1124 executable by the processor(s) 1112 and data for the modules 1124. The modules 1124 may perform the functions described above. A data store 1122 may also be located within the memory device 1112 for storing data related to the modules 1124 and other applications along with an operating system executable by the processor(s) 1112.

他のアプリケーションもまた、メモリデバイス1112に記憶され、プロセッサ(複数可)1112によって実行可能であってもよい。本説明において考察される構成要素又はモジュールは、ハイブリッドの方法を使用してコンパイル、解釈又は実行される高水準プログラミング言語を使用してソフトウェアの形で実装され得る。 Other applications may also be stored in memory device 1112 and executable by processor(s) 1112. The components or modules discussed in this description may be implemented in software using a high-level programming language that is compiled, interpreted, or executed using a hybrid approach.

コンピューティング装置はまた、コンピューティング装置によって使用可能であるI/O(入力/出力)装置1114へのアクセスを有し得る。I/Oデバイスの一例は、コンピューティングデバイスからの出力を表示できるディスプレイ画面である。所望に応じて、他の既知なI/Oデバイスが、コンピューティングデバイスと共に使用され得る。ネットワーキング装置1116及び類似の通信装置が、コンピューティングデバイスに含まれてもよい。ネットワーキング装置1116は、インターネット、LAN、WAN、又は他のコンピューティングネットワークに接続する有線又は無線ネットワーキング装置であってよい。 A computing device may also have access to I/O (input/output) devices 1114 that are usable by the computing device. One example of an I/O device is a display screen that can display output from the computing device. Other known I/O devices may be used with the computing device as desired. Networking devices 1116 and similar communication devices may also be included with the computing device. Networking devices 1116 may be wired or wireless networking devices that connect to the Internet, a LAN, a WAN, or other computing networks.

メモリデバイス1112に記憶されているとして示されている構成要素又はモジュールは、プロセッサ(複数可)1112によって実行されてもよい。「実行可能」という用語は、プロセッサ1112によって実行され得る形式のプログラムファイルを意味し得る。例えば、高水準言語のプログラムは、メモリデバイス1112のランダムアクセス部分にロードされプロセッサ1112によって実行され得るフォーマットで機械コードにコンパイルされ得、又はソースコードは、別の実行可能プログラムによってロードされ、プロセッサによって実行されるべきメモリのランダムアクセス部分に命令を生成するように解釈され得る。実行可能プログラムは、メモリデバイス1112の任意の部分又は構成要素に記憶され得る。例えば、メモリデバイス1112は、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、フラッシュメモリ、ソリッドステートドライブ、メモリカード、ハードドライブ、光ディスク、フロッピーディスク、磁気テープ、又は任意の他のメモリ構成要素であり得る。 The components or modules shown as being stored in the memory device 1112 may be executed by the processor(s) 1112. The term "executable" may refer to a program file in a format that can be executed by the processor 1112. For example, a program in a high-level language may be compiled into machine code in a format that can be loaded into a random access portion of the memory device 1112 and executed by the processor 1112, or source code may be loaded by another executable program and interpreted to generate instructions in a random access portion of the memory to be executed by the processor. The executable program may be stored in any portion or component of the memory device 1112. For example, the memory device 1112 may be a random access memory (RAM), a read-only memory (ROM), a flash memory, a solid state drive, a memory card, a hard drive, an optical disk, a floppy disk, a magnetic tape, or any other memory component.

プロセッサ1112は、複数のプロセッサを表してもよく、メモリ1112は、処理回路と並列に動作する複数のメモリユニットを表してもよい。これは、システム内の処理及びデータのために並列処理チャネルを提供し得る。ローカルインタフェース1118は、複数のプロセッサのいずれかと複数のメモリとの間の通信を容易にするためのネットワークとして使用されてもよい。ローカルインタフェース1118は、負荷分散、大量データ転送、及び類似のシステムなどの通信を連携するために設計された追加のシステムを使用してもよい。 Processor 1112 may represent multiple processors, and memory 1112 may represent multiple memory units operating in parallel with the processing circuitry. This may provide parallel processing channels for processing and data within the system. Local interface 1118 may be used as a network to facilitate communication between any of the multiple processors and the multiple memories. Local interface 1118 may use additional systems designed to coordinate communications, such as load balancing, bulk data transfer, and similar systems.

本明細書に記載されている機能ユニットのいくつかは、それらの実施の独立性をより特に強調するために、モジュールとしてラベル付けされている。例えば、モジュールは、カスタムVLSI回路又はゲートアレイ、論理チップなどの既製の半導体、トランジスタ、又は他のディスクリート部品を含むハードウェア回路として実装されてもよい。モジュールはまた、フィールドプログラマブルゲートアレイ、プログラマブルアレイロジック、プログラマブルロジック装置等のようなプログラマブルハードウェア装置に実装されてもよい。 Some of the functional units described herein have been labeled as modules to more particularly emphasize their implementation independence. For example, a module may be implemented as a hardware circuit comprising custom VLSI circuits or gate arrays, off-the-shelf semiconductors such as logic chips, transistors, or other discrete components. A module may also be implemented in a programmable hardware device such as a field programmable gate array, programmable array logic, programmable logic device, or the like.

モジュールはまた、様々な種類のプロセッサによる実行のためのソフトウェアに実装されてもよい。実行可能コードの識別されたモジュールは、例えば、オブジェクト、手順、又は機能として編成され得るコンピュータ命令の1つ以上のブロックを含んでもよい。それにもかかわらず、識別されたモジュールの実行ファイルは、物理的に一緒に位置する必要はなく、モジュールを構成し、論理的に一緒に結合されたときにモジュールについて述べられた目的を達成する異なる場所に記憶された異種の命令を含んでもよい。 Modules may also be implemented in software for execution by various types of processors. An identified module of executable code may include one or more blocks of computer instructions that may be organized as, for example, an object, a procedure, or a function. Nevertheless, the executable files of an identified module need not be physically located together, but may include heterogeneous instructions stored in different locations that constitute a module and that, when logically combined together, accomplish the purpose stated for the module.

実際、実行可能コードのモジュールは、単一の命令、又は多くの命令であってもよく、異なるプログラムの間で、及びいくつかのメモリデバイスにまたがって、いくつかの異なるコードセグメントにわたって分散することさえあってもよい。同様に、動作データは、本明細書ではモジュール内で識別され及び例示され得、任意の適切な形式で具現化され、任意の適切なタイプのデータ構造内に編成されてもよい。動作データは、単一のデータセットとして収集されてもよく、又は異なる記憶装置にわたることを含めて異なる場所にわたって分散されてもよい。モジュールは、所望の機能を行うように動作可能なエージェントを含めて、受動的であっても又は能動的であってもよい。 In fact, a module of executable code may be a single instruction, or many instructions, and may even be distributed across several different code segments, among different programs, and across several memory devices. Similarly, operational data may be identified and illustrated herein in modules, and may be embodied in any suitable form and organized within any suitable type of data structure. Operational data may be collected as a single data set or may be distributed across different locations, including across different storage devices. Modules may be passive or active, including agents operable to perform a desired function.

本明細書に記載の技術は、コンピュータ可読命令、データ構造、プログラムモジュール、又はその他のデータなどの情報を記憶するための任意の技術で実装された揮発性及び不揮発性、取り外し可能及び非取り外し可能媒体を含むコンピュータ可読記憶媒体に記憶されてもよい。コンピュータ可読記憶媒体としては、RAM、ROM、EEPROM、フラッシュメモリ若しくは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)若しくは他の光学記憶デバイス、磁気カセット、磁気テープ、磁気ディスク記憶デバイス若しくは他の磁気記憶デバイス、又は所望の情報及び記載された技術を記憶するために使用され得る任意の他のコンピュータ記憶媒体が挙げられるが、これらに限定されない。 The techniques described herein may be stored on computer-readable storage media, including volatile and non-volatile, removable and non-removable media implemented in any technology for storing information, such as computer-readable instructions, data structures, program modules, or other data. Computer-readable storage media include, but are not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disks (DVDs) or other optical storage devices, magnetic cassettes, magnetic tapes, magnetic disk storage devices or other magnetic storage devices, or any other computer storage medium that may be used to store the desired information and the techniques described.

本明細書に記載の装置はまた、装置が他の装置と通信することを可能にする通信接続又はネットワーキング装置及びネットワーキング接続を含むことができる。通信接続は、通信媒体の一例である。通信媒体は、典型的には、コンピュータ可読命令、データ構造、プログラムモジュール、及び搬送波又は他の移送機構などの変調データ信号内の他のデータを具現化し、任意の情報配信媒体を含む。「変調データ信号」は、信号内の情報を符号化するような様態で設定又は変更されたその特性のうちの1つ又は複数を有する信号を意味する。限定ではなく例として、通信媒体には、有線ネットワーク又は直接配線接続などの有線媒体、及び音響、無線周波数、赤外線などの無線媒体並びに他の無線媒体が含まれる。本明細書で使用されるコンピュータ可読媒体という用語は、通信媒体を含む。 The devices described herein may also include communications connections or networking devices and networking connections that enable the devices to communicate with other devices. A communications connection is an example of a communication medium. Communication media typically embodies computer-readable instructions, data structures, program modules, and other data in a modulated data signal, such as a carrier wave or other transport mechanism, and includes any information delivery media. A "modulated data signal" means a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal. By way of example, and not limitation, communication media include wired media, such as a wired network or direct-wired connection, and wireless media, such as acoustic, radio frequency, infrared, and other wireless media. As used herein, the term computer-readable media includes communication media.

図面に図示された例を参照し、本明細書では同じことを説明するために特定言語を使用した。それでもなお、それにより本技術の範囲の限定が意図されない、と理解されるであろう。本明細書に示されている特徴の変更及び更なる修正、並びに本開示を所有する当業者が想到するであろう、本明細書に示されている例の更なる適用は、説明の範囲内であると考えられるべきである。 With reference to the examples illustrated in the drawings, specific language has been used herein to describe the same. It will nevertheless be understood that no limitation of the scope of the technology is intended thereby. Changes and further modifications of the features shown herein, as well as further applications of the examples shown herein that may occur to those skilled in the art having this disclosure in hand, should be considered within the scope of the description.

更に、説明された特徴、構造、又は特性は、1つ以上の実施例において、任意の好適な様態で組み合されてもよい。先行する説明において、説明される技術の実施例の完全な理解を提供するために、種々の構成の実施例等の多数の具体的な詳細を提供した。しかし、当業者は、本技術が、具体的な詳細のうち1つ又は複数を伴わずに、又は他の方法、構成要素、装置等を伴って実践され得ることを認識するであろう。その他の場合、本技術の態様を不明瞭にすることを回避するために、周知の構造又は動作は、詳細には図示又は説明されていない。 Furthermore, the described features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. In the preceding description, numerous specific details, such as embodiments of various configurations, have been provided to provide a thorough understanding of embodiments of the described technology. However, one of ordinary skill in the art will recognize that the technology can be practiced without one or more of the specific details, or with other methods, components, devices, etc. In other cases, well-known structures or operations have not been shown or described in detail to avoid obscuring aspects of the technology.

主題は、構造的特徴及び/又は動作に特有の言語で説明されてきたが、添付の特許請求の範囲で定義される主題は、必ずしも上記の特定の特徴及び動作に限定されないことを理解されたい。むしろ、上記の特定の特徴及び作用は、特許請求の範囲を実施する例示的な形態として開示されている。記載された技術の精神及び範囲から逸脱することなく、多数の改変及び代替の構成が考案され得る。 Although the subject matter has been described in language specific to structural features and/or operations, it is to be understood that the subject matter defined in the appended claims is not necessarily limited to the specific features and operations described above. Rather, the specific features and operations described above are disclosed as exemplary forms of implementing the claims. Numerous modifications and alternative configurations may be devised without departing from the spirit and scope of the described technology.

Claims (29)

画像データセットと1つ又は複数の光学コードを有する医療用具とを共局在化するために、拡張現実(AR)ヘッドセットを使用するための方法であって、
前記ARヘッドセットの光学センサを使用して、人の身体の一部分及び前記医療用具の視覚画像データを検出することと、
前記人の前記身体及び前記医療用具に関連付けられた1つ又は複数の光学コードを識別することであって、前記人の身体上の光学コードが、前記人の前記身体上に設けられた画像可視マーカに対して固定位置に位置する、ことと、
前記ARヘッドセットを通して見るときの前記人の前記身体上の1つ又は複数の光学コードを使用し、前記画像データセット内の前記画像可視マーカの表現を参照するときの前記光学コードに対する前記画像可視マーカの前記固定位置を使用して、前記画像データセットを前記人の前記身体と位置合わせすることと、
前記ARヘッドセットを介して見たときに、前記医療用具が前記画像データセット及び前記人の前記身体に参照されることを可能にするために、前記医療用具及び前記人の前記身体上の1つ又は複数の光学コードを使用して、前記人の前記身体に対する前記医療用具の位置を決定することと、
を含む、方法。
1. A method for using an augmented reality (AR) headset to co-localize an image dataset and a medical tool having one or more optical codes, the method comprising:
detecting visual image data of a portion of a human body and the medical tool using an optical sensor of the AR headset;
identifying one or more optical codes associated with the body of the person and the medical implement, the optical codes on the body of the person being located in a fixed position relative to an image visible marker provided on the body of the person ;
aligning the image dataset with the body of the person using one or more optical codes on the body of the person when viewed through the AR headset and using the fixed positions of the image visible markers relative to the optical codes when referencing a representation of the image visible markers in the image dataset;
determining a position of the medical tool relative to the body of the person using one or more optical codes on the medical tool and the body of the person to enable the medical tool to be referenced to the image dataset and the body of the person when viewed through the AR headset;
A method comprising:
前記ARヘッドセットを使用して患者の前記身体に対する前記医療用具の位置決め及び向きを案内するために、視覚的インジケータ、仮想ツール、仮想誘導システム、仮想強調表示、仮想処置トラック、標的とされた解剖学的組織のグラフィック強調表示、病変のグラフィック強調表示、回避すべき重要な構造のグラフィック強調表示、又は前記画像データセット上の注釈を提供することを更に含む、請求項1に記載の方法。 The method of claim 1, further comprising providing visual indicators, virtual tools, virtual guidance systems, virtual highlighting, virtual treatment tracks, graphic highlighting of targeted anatomical tissues, graphic highlighting of lesions, graphic highlighting of critical structures to avoid, or annotations on the image dataset to guide positioning and orientation of the medical tool relative to the patient's body using the AR headset. 前記人の前記身体の前記一部分と関連付けられた前記光学コードを使用して患者の情報を取得することと、
正しい患者及び正しい身体部分が医療処置を受けていることを確認するために、前記ARヘッドセットを介して前記患者の情報を表示することと、
を更に含む、請求項1に記載の方法。
acquiring patient information using the optical code associated with the portion of the body of the person;
displaying the patient's information via the AR headset to verify that the correct patient and the correct body part are receiving the medical procedure;
The method of claim 1 further comprising:
前記医療用具が医療処置で使用されるように割り当てられているかどうかを判定するためにデータベースに問い合わせることと、
前記医療用具が前記医療処置に関連付けられているかどうかを表すグラフィックインジケータを医療専門家に表示することと、
を更に含む、請求項1に記載の方法。
querying a database to determine if the medical device is allocated for use in a medical procedure;
displaying a graphical indicator to a medical professional representing whether the medical implement is associated with the medical procedure; and
The method of claim 1 further comprising:
可視器具と仮想器具との位置合わせを可能にするために、グラフィック仮想器具を表示することを更に含む、請求項1に記載の方法。 The method of claim 1, further comprising displaying a graphical virtual instrument to enable alignment of the visible instrument with the virtual instrument. 医療処置における前記医療用具の使用を記述する指示情報を含む、前記医療用具に関連付けられた医療情報を取得することを更に含む、請求項1に記載の方法。 The method of claim 1, further comprising obtaining medical information associated with the medical device, the medical device including instructional information describing use of the medical device in a medical procedure. 前記医療用具が、医療器具、トロカール、カテーテル、針、整形外科用ハードウェア、又は外科用インプラントである、請求項1に記載の方法。 The method of claim 1, wherein the medical device is a medical instrument, a trocar, a catheter, a needle, orthopedic hardware, or a surgical implant. 1つ又は複数の光学コードを開始基準点として使用して前記医療用具の輪郭をマッピングすることを更に含む、請求項1に記載の方法。 The method of claim 1, further comprising mapping the contour of the medical device using one or more optical codes as a starting reference point. 前記人の前記身体上の1つ又は複数の光学コードを使用して、前記人の前記身体について前記画像データセットを自動的に取得することを更に含む、請求項1に記載の方法。 The method of claim 1, further comprising automatically acquiring the image data set for the body of the person using one or more optical codes on the body of the person. 拡張現実(AR)ディスプレイを使用して、透視画像を、人の身体及び画像データセットからの画像投影に対して位置合わせする方法であって、
前記ARディスプレイの光学センサを使用して、人の前記身体の一部分の視覚画像データと、前記人の前記身体に対して移動可能な透視デバイスとを検出することと、
前記人の前記身体上及び前記透視デバイス上の1つ又は複数の光学コードを識別することであって、前記人の前記身体上の1つ又は複数の光学コードは、前記人の前記身体上に設けられた画像可視マーカに対して固定位置を有する、ことと、
前記ARディスプレイを通して見たときに、前記人の前記身体上の前記1つ又は複数の光学コードに対する前記画像可視マーカの前記固定位置を使用して、前記人の前記身体の画像データセットを位置合わせすることと、
前記透視デバイス上の前記1つ又は複数の光学コードを使用して、前記人の前記身体に対する前記透視デバイスの位置及び向きを決定することと、
前記透視デバイスの前記位置及び向きに部分的に基づいて、前記画像データセットの画像投影を生成することと、
前記ARディスプレイを通して前記画像投影を表示することと、
前記ARディスプレイを使用して、前記画像可視マーカ又は前記透視デバイスの前記位置及び向きに基づいて、前記人の前記身体と位置合わせされた前記透視デバイスからの透視画像と、前記画像投影とを表示することと、
を含む、方法。
1. A method for registering a perspective image to a human body and an image projection from an image dataset using an augmented reality (AR) display, comprising:
detecting visual image data of a portion of the body of the person using an optical sensor of the AR display and a see-through device movable relative to the body of the person;
identifying one or more optical codes on the body of the person and on the imaging device, the one or more optical codes on the body of the person having fixed positions relative to image visible markers provided on the body of the person ;
registering an image dataset of the body of the person using the fixed positions of the image visible markers relative to the one or more optical codes on the body of the person when viewed through the AR display;
determining a position and orientation of the fluoroscopy device relative to the body of the person using the one or more optical codes on the fluoroscopy device;
generating an image projection of the image data set based in part on the position and orientation of the fluoroscopy device;
Displaying the image projection through the AR display; and
using the AR display to display a perspective image from the perspective device aligned with the body of the person based on the position and orientation of the image visible markers or the perspective device, and the image projection;
A method comprising:
前記人の前記身体に対する透視デバイスの前記位置及び向きの変化を検出することと、
前記透視デバイスの位置及び向きの変化によって定義されるように、前記画像投影及び透視画像位置及び向きを修正することと、
を更に含む、請求項10に記載の方法。
detecting changes in the position and orientation of a fluoroscopy device relative to the body of the person;
modifying the image projection and fluoroscopic image position and orientation as defined by changes in position and orientation of the fluoroscopy device;
The method of claim 10 further comprising:
前記ARディスプレイによって見られるように、前記画像投影の位置を調整することが、患者の前記身体の位置及び向きと比較して、前記透視デバイス上の前記1つ又は複数の光学コードを使用して検出される前記透視デバイスの位置及び向きの変化に基づく、請求項10に記載の方法。 11. The method of claim 10, wherein adjusting the position of the image projection as viewed by the AR display is based on changes in the position and orientation of the fluoroscopy device compared to the position and orientation of the patient's body as detected using the one or more optical codes on the fluoroscopy device. 前記人の前記身体に対してズームされた前記透視デバイスからズーム値を受信することと、
前記透視デバイスのズーム値によって定義されるように前記画像データセットを調整することと、
を更に含む、請求項10に記載の方法。
receiving a zoom value from the fluoroscopy device zoomed in on the body of the person;
adjusting the image data set as defined by a zoom value of the fluoroscopy device;
The method of claim 10 further comprising:
前記画像データセットを調整することは、前記画像データセットが前記透視画像のズームと一致することを可能にするために、前記透視画像に取り込まれた前記画像可視マーカのサイズを使用することに基づいて実行される、請求項13に記載の方法。 The method of claim 13, wherein adjusting the image dataset is performed based on using a size of the image visible markers captured in the fluoroscopic image to enable the image dataset to match a zoom of the fluoroscopic image. 前記透視画像内の透視可能なオブジェクトが、前記人の前記身体と位置合わせされた前記画像データセットに関して医療専門家によって視認及び誘導され得る、請求項10に記載の方法。 The method of claim 10, wherein a see-through object in the fluoroscopic image can be viewed and navigated by a medical professional with respect to the image data set aligned with the body of the person. 前記ARディスプレイを使用して見たときに、前記人の前記身体及び前記画像データセットに対する透視可能なオブジェクトの前記位置及び向きをガイドするために、前記画像データセット上にグラフィックインジケータ、仮想ツール、又は仮想標的システムを提供することを更に含む、請求項10に記載の方法。 11. The method of claim 10, further comprising providing a graphical indicator, virtual tool, or virtual target system on the image dataset to guide the position and orientation of a see-through object relative to the body of the person and the image dataset when viewed using the AR display. 前記透視デバイスの向きを決定することが、前記人の前記身体に対して前記透視デバイスの位置及び向きを決定することを更に含む、請求項10に記載の方法。 The method of claim 10, wherein determining the orientation of the fluoroscopy device further comprises determining a position and orientation of the fluoroscopy device relative to the body of the person. 前記透視デバイスの向き及び位置の変化に対応して、前記ARディスプレイで見たときに、前記画像データセットの前記画像投影を再構築し、前記透視画像を移動させることを更に含む、請求項10に記載の方法。 The method of claim 10, further comprising reconstructing the image projections of the image dataset and moving the perspective images when viewed on the AR display in response to changes in orientation and position of the perspective device. 前記画像データセットと位置合わせされた前記透視画像の透明度が修正されてもよい、請求項10に記載の方法。 The method of claim 10, wherein the transparency of the fluoroscopic image registered with the image dataset may be corrected. 医療用具上に視認可能に表示された1つ又は複数の追加の光学コードを識別することと、
前記ARディスプレイを通して見たときに、前記医療用具が前記画像データを参照することを可能にするために、前記医療用具上の1つ又は複数の追加の光学コードと、前記人の前記身体上の1つ又は複数の光学コードとを使用して、前記人の前記身体及び前記画像投影に対する前記医療用具の位置を決定することと、を更に含む、請求項10に記載の方法。
identifying one or more additional optical codes visibly displayed on the medical device;
11. The method of claim 10, further comprising: determining a position of the medical tool relative to the body of the person and the image projection using one or more additional optical codes on the medical tool and one or more optical codes on the body of the person to enable the medical tool to see the image data when viewed through the AR display.
1つ又は複数の光学コードを有する透視デバイスの位置及び向きを使用することによって、1つ又は複数の光学コードを有する人の身体に対して透視画像を位置合わせするための拡張現実(AR)ディスプレイを使用するための方法であって、
前記ARディスプレイの光学センサを使用して、前記人の前記身体上の及び前記人の前記身体に対して移動可能な前記透視デバイス上の前記1つ又は複数の光学コードを識別することと、
前記透視デバイス上の前記1つ又は複数の光学コードを使用して、前記透視デバイスの前記身体に対する前記透視デバイスの前記位置及び向きを決定することと、
前記ARディスプレイを使用して、前記人の前記身体上の前記光学コードと、前記透視デバイスの前記位置及び向きとを参照することによって、前記人の前記身体と位置合わせされた前記透視デバイスからの透視画像を表示することとを含む、方法。
1. A method for using an augmented reality (AR) display to align a fluoroscopic image with a human body having one or more optical codes by using a position and orientation of a fluoroscopic device having one or more optical codes, the method comprising:
identifying the one or more optical codes on the body of the person and on the vision device movable relative to the body of the person using an optical sensor of the AR display;
determining the position and orientation of the fluoroscopy device relative to the body using the one or more optical codes on the fluoroscopy device;
and using the AR display to display a fluoroscopic image from the fluoroscopic device aligned with the body of the person by referencing the optical code on the body of the person and the position and orientation of the fluoroscopic device.
前記人の前記身体上に設けられた画像可視マーカに対して固定位置を有する前記人の前記身体上の1つ又は複数の光学コードを識別することと、
前記ARディスプレイを通して見たときに、前記人の前記身体上の前記1つ又は複数の光学コードに対する前記画像可視マーカの前記固定位置を使用して、前記人の前記身体の画像データセットを位置合わせすることと、
前記画像データセットを、前記ARディスプレイを介して、前記人の前記身体と、前記透視画像と位置合わせされて表示することと、
を更に含む、請求項21に記載の方法。
identifying one or more optical codes on the body of the person having fixed positions relative to image visible markers provided on the body of the person ;
registering an image dataset of the body of the person using the fixed positions of the image visible markers relative to the one or more optical codes on the body of the person when viewed through the AR display;
displaying the image dataset via the AR display in registration with the body of the person and with the perspective image;
22. The method of claim 21 further comprising:
前記透視デバイスの前記位置及び向きに基づいて、前記画像データセットの画像投影を生成することと、
前記透視画像と共に、前記人の前記身体と位置合わせされて、前記ARディスプレイを介して、前記画像投影を表示することと、
を更に含む、請求項22に記載の方法。
generating an image projection of the image data set based on the position and orientation of the fluoroscopy device;
displaying the image projection via the AR display in registration with the body of the person along with the perspective image;
23. The method of claim 22, further comprising:
前記画像投影が、前記透視デバイスの変化した位置と一致するように、前記透視デバイスの移動に基づいて再構築され得る、請求項22に記載の方法。 23. The method of claim 22, wherein the image projections can be reconstructed based on movement of the fluoroscopy device to correspond with the changed position of the fluoroscopy device. ARヘッドセットを使用している観察者の前記位置及び向きに基づいて、前記画像データセットの画像投影を生成することを更に含む、請求項21に記載の方法。 22. The method of claim 21, further comprising generating an image projection of the image dataset based on the position and orientation of an observer using an AR headset. 拡張現実(AR)ディスプレイを使用して、超音波画像を、人の身体に対して位置合わせする方法であって、
前記ARディスプレイの光学センサを使用して、人の前記身体の一部分及び超音波トランスデューサの視覚画像データを検出することと、
前記人の前記身体上及び前記超音波トランスデューサ上の1つ又は複数の光学コードを識別することと、
前記超音波トランスデューサ上の前記1つ又は複数の光学コードを使用して、前記人の前記身体に対する前記超音波トランスデューサの位置及び向きを決定することと、
前記ARディスプレイを使用して、前記人の前記身体上の前記光学コードと、前記超音波トランスデューサの前記位置及び向きとを参照することによって、前記人の前記身体と位置合わせされた前記超音波トランスデューサからの超音波画像を表示することとを含む、方法。
1. A method of aligning an ultrasound image with respect to a human body using an augmented reality (AR) display, comprising:
detecting visual image data of a portion of the body of a person and an ultrasound transducer using an optical sensor of the AR display;
identifying one or more optical codes on the body of the person and on the ultrasound transducer;
determining a position and orientation of the ultrasound transducer relative to the body of the person using the one or more optical codes on the ultrasound transducer;
and using the AR display to display an ultrasound image from the ultrasound transducer aligned with the body of the person by referencing the optical code on the body of the person and the position and orientation of the ultrasound transducer.
光学コードを使用して医療処置を検証する方法であって、
ARヘッドセットの光学センサを使用して、患者の身体の一部分及び医療用具の視覚画像データを検出することと、
前記患者の前記身体上及び前記医療用具上に視認可能に表示された1つ又は複数の光学コードを識別することであって、前記患者の前記身体上の1つ又は複数の光学コードは、前記患者の前記身体上に設けられた画像可視マーカに対して固定位置にある、ことと、
前記患者の前記身体上の前記1つ又は複数の光学コードを参照して前記画像可視マーカの既知の固定位置を使用して、画像データセットを前記患者の前記身体と位置合わせすることと、
前記画像データセットの表面と位置合わせする前記患者の前記身体の表面の正しい位置合わせに基づいて、正しい患者が前記医療処置中であることを確認することと、
前記1つ又は複数の光学コードを使用して、前記身体の正しい部分及び正しい医療用具が前記医療処置内にあることを確認することと、
を含む、方法。
1. A method for verifying a medical procedure using an optical code, comprising:
Detecting visual image data of a patient's body part and a medical tool using an optical sensor of the AR headset;
identifying one or more optical codes visibly displayed on the patient's body and on the medical implement, the one or more optical codes on the patient's body being in a fixed position relative to an image visible marker provided on the patient's body ;
registering an image dataset with the patient's body using known fixed positions of the image visible markers with reference to the one or more optical codes on the patient's body;
verifying that the correct patient is undergoing the medical procedure based on a correct registration of a surface of the body of the patient with a surface of the image data set;
using the one or more optical codes to verify that the correct part of the body and the correct medical implement are in the medical procedure;
A method comprising:
前記1つ又は複数の光学コードを使用して、前記ARヘッドセットにおける表示のために患者データを取得することを更に含む、請求項27に記載の方法。 28. The method of claim 27, further comprising acquiring patient data for display in the AR headset using the one or more optical codes. 前記ARヘッドセットを使用して、前記患者の前記身体及び前記画像データセットに対する前記医療用具の位置及び向きを案内するために、前記画像データセットに注釈を提供することを更に含む、請求項27に記載の方法。 28. The method of claim 27, further comprising using the AR headset to provide annotations to the image dataset to guide the position and orientation of the medical tool relative to the patient's body and the image dataset.
JP2021526746A 2018-11-17 2019-11-15 Using Optical Code in Augmented Reality Displays Active JP7519354B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/194,333 US11287874B2 (en) 2018-11-17 2018-11-17 Using optical codes with augmented reality displays
US16/194,333 2018-11-17
PCT/US2019/061864 WO2020102761A1 (en) 2018-11-17 2019-11-15 Using optical codes with augmented reality displays

Publications (2)

Publication Number Publication Date
JP2022507622A JP2022507622A (en) 2022-01-18
JP7519354B2 true JP7519354B2 (en) 2024-07-19

Family

ID=70727564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526746A Active JP7519354B2 (en) 2018-11-17 2019-11-15 Using Optical Code in Augmented Reality Displays

Country Status (5)

Country Link
US (3) US11287874B2 (en)
EP (2) EP4461254A2 (en)
JP (1) JP7519354B2 (en)
KR (1) KR20210104715A (en)
WO (1) WO2020102761A1 (en)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955481B1 (en) 2010-01-27 2013-06-14 Tornier Sa DEVICE AND METHOD FOR GLENOIDAL CHARACTERIZATION OF PROSTHETIC OR RESURFACING OMOPLATE
AU2014333516B2 (en) 2013-10-10 2019-07-18 Stryker European Operations Limited Methods, systems and devices for pre-operatively planned shoulder surgery guides and implants
US11227509B2 (en) * 2014-12-29 2022-01-18 Help Me See Inc. Surgical simulator systems and methods
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10010379B1 (en) * 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US9892564B1 (en) 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
CN112566578B (en) 2018-06-19 2024-09-20 豪迈帝凯奥斯泰纳克公司 Mixed reality assisted teaching using virtual models or virtual representations for orthopedic surgery
US11950823B2 (en) 2018-09-07 2024-04-09 Cilag Gmbh International Regional location tracking of components of a modular energy system
US12035956B2 (en) 2018-09-07 2024-07-16 Cilag Gmbh International Instrument tracking arrangement based on real time clock information
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11532132B2 (en) * 2019-03-08 2022-12-20 Mubayiwa Cornelious MUSARA Adaptive interactive medical training program with virtual patients
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
WO2021058087A1 (en) * 2019-09-24 2021-04-01 Brainlab Ag Method and system for projecting an incision marker onto a patient
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
DE102020126029A1 (en) * 2020-10-05 2022-04-07 B. Braun New Ventures GmbH Surgical assistance system and display method
DE102020134898A1 (en) 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Target for determining a three-dimensional pose of an object
US12016633B2 (en) * 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
US12028507B2 (en) 2021-03-11 2024-07-02 Quintar, Inc. Augmented reality system with remote presentation including 3D graphics extending beyond frame
US12003806B2 (en) 2021-03-11 2024-06-04 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
US11657578B2 (en) * 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US12040749B2 (en) 2021-03-30 2024-07-16 Cilag Gmbh International Modular energy system with dual amplifiers and techniques for updating parameters thereof
US12004824B2 (en) 2021-03-30 2024-06-11 Cilag Gmbh International Architecture for modular energy system
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US20220331054A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Adaptation and adjustability or overlaid instrument information for surgical systems
CN113313760A (en) * 2021-06-29 2021-08-27 同济大学 Corrosion detection method, device and system for array type metal connecting piece
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US20230169696A1 (en) * 2021-11-27 2023-06-01 Novarad Corporation Transfer of Alignment Accuracy Between Visible Markers Used with Augmented Reality Displays
US11948265B2 (en) * 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting
CN114177544B (en) * 2022-01-17 2023-08-11 中国科学院合肥物质科学研究院 CT and optical co-positioning auxiliary device for radiotherapy planning
US20230240790A1 (en) * 2022-02-03 2023-08-03 Medtronic Navigation, Inc. Systems, methods, and devices for providing an augmented display
WO2023192395A1 (en) * 2022-03-29 2023-10-05 Project Moray, Inc. Registration of medical robot and/or image data for robotic catheters and other uses
US12079460B2 (en) 2022-06-28 2024-09-03 Cilag Gmbh International Profiles for modular energy system
WO2024025850A1 (en) * 2022-07-26 2024-02-01 Becton, Dickinson And Company System and method for vascular access management
US20240046555A1 (en) * 2022-08-08 2024-02-08 Gustav Lo Arcuate Imaging for Altered Reality Visualization
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention
US20240144497A1 (en) * 2022-11-01 2024-05-02 Novarad Corporation 3D Spatial Mapping in a 3D Coordinate System of an AR Headset Using 2D Images
KR102673626B1 (en) * 2022-12-20 2024-06-12 주식회사 심시스글로벌 System and method for support remote medical service
WO2024154647A1 (en) * 2023-01-18 2024-07-25 学校法人久留米大学 Learning method and learning system
WO2024214057A1 (en) * 2023-04-13 2024-10-17 Medtronic Navigation, Inc. System and method for illustrating a pose of an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146758A (en) 2016-02-17 2017-08-24 株式会社菊池製作所 Overlapping image display system
WO2018063528A1 (en) 2016-08-16 2018-04-05 Insight Medical Systems, Inc. Systems for sensory augmentation in medical procedures
US20180247128A1 (en) 2017-02-28 2018-08-30 Digital Surgery Limited Surgical tracking and procedural map analysis tool

Family Cites Families (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8496474B2 (en) 1997-06-20 2013-07-30 Align Technology, Inc. Computer automated development of an orthodontic treatment plan and appliance
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6919867B2 (en) 2001-03-29 2005-07-19 Siemens Corporate Research, Inc. Method and apparatus for augmented reality visualization
US20030100830A1 (en) 2001-11-27 2003-05-29 Sheng-Ping Zhong Implantable or insertable medical devices visible under magnetic resonance imaging
US7369101B2 (en) 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
US7467119B2 (en) 2003-07-21 2008-12-16 Aureon Laboratories, Inc. Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition
CN1957373A (en) 2004-03-12 2007-05-02 布拉科成像S.P.A.公司 Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
US9681925B2 (en) 2004-04-21 2017-06-20 Siemens Medical Solutions Usa, Inc. Method for augmented reality instrument placement using an image based navigation system
US7394946B2 (en) 2004-05-18 2008-07-01 Agfa Healthcare Method for automatically mapping of geometric objects in digital medical images
EP1861158A2 (en) 2005-01-18 2007-12-05 Koninklijke Philips Electronics N.V. System for controlling traversal of an ingested capsule
US20070066881A1 (en) 2005-09-13 2007-03-22 Edwards Jerome R Apparatus and method for image guided accuracy verification
JP4665710B2 (en) 2005-10-21 2011-04-06 株式会社デンソーウェーブ Information code carrier
US7546950B2 (en) 2006-03-28 2009-06-16 Seiko Epson Corporation Method and apparatus for locating and decoding a two-dimensional machine-readable symbol
BRPI0709421A2 (en) 2006-03-30 2011-07-12 Activiews Ltd hand tool position measurement system, method for guiding the distl end of a tool and bandage
WO2008076079A1 (en) 2006-12-19 2008-06-26 Bracco Imaging S.P.A. Methods and apparatuses for cursor control in image guided surgery
AU2008209331B2 (en) * 2007-01-22 2013-12-19 Avent, Inc. Positioning tool for positioning an instrument at a treatment site
WO2008090676A1 (en) 2007-01-25 2008-07-31 Konica Minolta Medical & Graphic, Inc. Medical image system, electronic medical record terminal, and program
US8798339B2 (en) * 2007-05-10 2014-08-05 Koninklijke Philips N.V. Targeting method, targeting device, computer readable medium and program element
US7886978B2 (en) 2007-09-20 2011-02-15 Microsoft Corporation Techniques for decoding images of barcodes
US7853558B2 (en) 2007-11-09 2010-12-14 Vibrant Media, Inc. Intelligent augmentation of media content
JP2011525283A (en) 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド Gesture reference control system for vehicle interface
WO2010110560A2 (en) 2009-03-24 2010-09-30 주식회사 래보 Surgical robot system using augmented reality, and method for controlling same
US20110105895A1 (en) 2009-10-01 2011-05-05 Giora Kornblau Guided surgery
EP2642371A1 (en) 2010-01-14 2013-09-25 BrainLAB AG Controlling a surgical navigation system
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
DE112012000752A5 (en) 2011-02-11 2013-11-21 Olaf Christiansen Endoscopic image processing system with means which generate geometric survey information in the detection area of an optical digital camera
US8401343B2 (en) 2011-03-27 2013-03-19 Edwin Braun System and method for defining an augmented reality character in computer generated virtual reality using coded stickers
JP6021353B2 (en) 2011-08-04 2016-11-09 オリンパス株式会社 Surgery support device
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
US20130197354A1 (en) * 2012-01-30 2013-08-01 Siemens Aktiengesellschaft Minimally invasive treatment of mitral regurgitation
WO2013173810A2 (en) 2012-05-17 2013-11-21 Schwartz Alan N Localization of the parathyroid
JP2015528713A (en) 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド Surgical robot platform
US9594877B2 (en) * 2012-08-31 2017-03-14 Nuvectra Corporation Virtual reality representation of medical devices
US9817440B2 (en) 2012-09-11 2017-11-14 L.I.F.E. Corporation S.A. Garments having stretchable and conductive ink
US8945328B2 (en) 2012-09-11 2015-02-03 L.I.F.E. Corporation S.A. Methods of making garments having stretchable and conductive ink
US9323057B2 (en) 2012-12-07 2016-04-26 Blackberry Limited Mobile device, system and method for controlling a heads-up display
JP2014131552A (en) 2013-01-07 2014-07-17 Akira Takebayashi Medical support device
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
KR20140112207A (en) 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
US10070929B2 (en) 2013-06-11 2018-09-11 Atsushi Tanji Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus
US9572516B1 (en) 2013-08-06 2017-02-21 Babak Sheikh Application and method for producing images of moving joints
US10433911B2 (en) 2013-09-18 2019-10-08 iMIRGE Medical INC. Optical targeting and visualization of trajectories
EP2870941A1 (en) 2013-11-08 2015-05-13 Orthotaxy Method for planning a surgical intervention
JP6264014B2 (en) 2013-12-17 2018-01-24 セイコーエプソン株式会社 Head-mounted display device
US10231704B2 (en) 2013-12-20 2019-03-19 Raghu Raghavan Method for acquiring ultrasonic data
EP3110331B1 (en) 2014-02-26 2018-10-10 Brainlab AG Tracking soft tissue in medical images
JP6445784B2 (en) 2014-05-16 2018-12-26 キヤノン株式会社 Image diagnosis support apparatus, processing method thereof, and program
EP3146729B1 (en) 2014-05-21 2024-10-16 Millennium Three Technologies Inc. System comprising a helmet, a multi-camera array and an ad hoc arrangement of fiducial marker patterns and their automatic detection in images
US20210186355A1 (en) 2014-11-30 2021-06-24 Elbit Systems Ltd. Model registration system and method
US20160180441A1 (en) 2014-12-22 2016-06-23 Amazon Technologies, Inc. Item preview image generation
US9830488B2 (en) 2014-12-30 2017-11-28 Hand Held Products, Inc. Real-time adjustable window feature for barcode scanning and process of scanning barcode with adjustable window feature
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10004610B2 (en) 2015-02-04 2018-06-26 DePuy Synthes Products, Inc. Non-invasive methods for modifying tissue to facilitate treatment
CN107847289A (en) 2015-03-01 2018-03-27 阿里斯医疗诊断公司 The morphology operation of reality enhancing
TWI553508B (en) 2015-03-03 2016-10-11 緯創資通股份有限公司 Apparatus and method for object sensing
WO2016162789A2 (en) 2015-04-07 2016-10-13 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US9436993B1 (en) * 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
GB2569114B (en) 2015-05-08 2020-12-16 Synaptive Medical Barbados Inc Magnetic resonance visible labels and markers for encoding information
US10431008B2 (en) 2015-10-29 2019-10-01 Koninklijke Philips N.V. Remote assistance workstation, method and system with a user interface for remote assistance with spatial placement tasks via augmented reality glasses
US10328283B2 (en) 2015-12-01 2019-06-25 Brainlab Ag Method and apparatus for determining or predicting the position of a target
EP3389544A4 (en) * 2015-12-14 2019-08-28 Nuvasive, Inc. 3d visualization during surgery with reduced radiation exposure
US20170178540A1 (en) 2015-12-22 2017-06-22 Truinject Medical Corp. Injection training with modeled behavior
CN105769232B (en) 2016-02-22 2018-01-12 上海联影医疗科技有限公司 The X-ray tube filament pre-heating method of CT equipment and pre- heater circuit
EP3426179B1 (en) 2016-03-12 2023-03-22 Philipp K. Lang Devices for surgery
JP6780948B2 (en) 2016-03-28 2020-11-04 キヤノンメディカルシステムズ株式会社 X-ray CT device
US20170296292A1 (en) * 2016-04-16 2017-10-19 Eitezaz MAHMOOD Systems and Methods for Surgical Imaging
IL245339A (en) 2016-04-21 2017-10-31 Rani Ben Yishai Method and system for registration verification
US9589348B1 (en) 2016-05-31 2017-03-07 Oculus Vr, Llc Camera calibration system
CA3022448A1 (en) 2016-08-05 2018-02-08 Brainlab Ag Automatic image registration of scans for image-guided surgery
US11071596B2 (en) 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US10687901B2 (en) 2016-08-17 2020-06-23 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
US20180092698A1 (en) 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use
US10888228B2 (en) 2016-11-10 2021-01-12 SK Commercial Construction, Inc. Method and system for correlating anatomy using an electronic mobile device transparent display screen
CA3049662A1 (en) * 2017-01-16 2018-07-19 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
US11551380B2 (en) * 2017-01-17 2023-01-10 Koninklijke Philips N.V. Augmented reality interventional system providing contextual overlays
IL250432A0 (en) 2017-02-02 2017-06-29 Elbit Systems Ltd Magnified high resolution imaging and tracking for medical use
WO2018148379A1 (en) 2017-02-08 2018-08-16 Duke University Augmented reality-based navigation for use in surgical and non-surgical procedures
US10478149B2 (en) 2017-02-21 2019-11-19 Siemens Healthcare Gmbh Method of automatically positioning an X-ray source of an X-ray system and an X-ray system
US10010379B1 (en) * 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US10871934B2 (en) 2017-05-04 2020-12-22 Microsoft Technology Licensing, Llc Virtual content displayed with shared anchor
US20180373327A1 (en) 2017-06-26 2018-12-27 Hand Held Products, Inc. System and method for selective scanning on a binocular augmented reality device
EP3646535A4 (en) 2017-06-28 2021-03-10 Commscope Technologies LLC Systems and methods for managed connectivity wall outlets using low energy wireless communication
US20200405395A1 (en) 2017-07-03 2020-12-31 Spine Align, Llc Intraoperative alignment assessment system and method
US11540767B2 (en) 2017-07-03 2023-01-03 Globus Medical Inc. Intraoperative alignment assessment system and method
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
ES2945711T3 (en) 2017-08-15 2023-07-06 Holo Surgical Inc Surgical navigation system to provide an augmented reality image during the operation
US11432879B2 (en) 2017-08-18 2022-09-06 Siemens Healthcare Gmbh Method and apparatus for wide area multi-body 6D pose tracking system
US20190075456A1 (en) 2017-09-07 2019-03-07 Bae Systems Information And Electronic Systems Integration Inc. Secure wireless pairing of master slave devices withqr codes
WO2019051464A1 (en) 2017-09-11 2019-03-14 Lang Philipp K Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
JP7020490B2 (en) 2017-09-20 2022-02-16 日本電気株式会社 Information processing equipment, control methods, and programs
US10504250B2 (en) 2018-01-27 2019-12-10 Uih America, Inc. Systems and methods for correcting mismatch induced by respiratory motion in positron emission tomography image reconstruction
GB201804383D0 (en) 2018-03-19 2018-05-02 Microsoft Technology Licensing Llc Multi-endpoint mixed reality meetings
US20190310819A1 (en) 2018-04-10 2019-10-10 Carto Technologies, LLC Augmented reality image display systems and methods
US10809958B2 (en) 2018-04-16 2020-10-20 Microsoft Technology Licensing, Llc Setting up multiple displays via user input
US11145123B1 (en) 2018-04-27 2021-10-12 Splunk Inc. Generating extended reality overlays in an industrial environment
TWI678181B (en) 2018-04-30 2019-12-01 長庚大學 Surgical guidance system
EP3790491B1 (en) 2018-05-10 2024-08-07 Memorial Sloan Kettering Cancer Center Systems for augmented reality surgical and clinical visualization
US10825563B2 (en) 2018-05-14 2020-11-03 Novarad Corporation Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
WO2019238209A1 (en) 2018-06-11 2019-12-19 Brainlab Ag Gesture control of medical displays
CN112566578B (en) 2018-06-19 2024-09-20 豪迈帝凯奥斯泰纳克公司 Mixed reality assisted teaching using virtual models or virtual representations for orthopedic surgery
US10803761B2 (en) 2018-08-13 2020-10-13 University Of Central Florida Research Foundation, Inc. Multisensory wound simulation
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US20200186786A1 (en) 2018-12-06 2020-06-11 Novarad Corporation Calibration for Augmented Reality
US20220039868A1 (en) 2018-12-12 2022-02-10 Howmedica Osteonics Corp. Orthopedic surgical planning based on soft tissue and bone density modeling
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
CN113473940A (en) 2019-03-13 2021-10-01 史密夫和内修有限公司 Augmented reality assisted surgical tool alignment
US11638613B2 (en) 2019-05-29 2023-05-02 Stephen B. Murphy Systems and methods for augmented reality based surgical navigation
US10929670B1 (en) 2019-10-21 2021-02-23 The Boeing Company Marker-to-model location pairing and registration for augmented reality applications
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US11172996B1 (en) 2021-01-13 2021-11-16 MediVis, Inc. Instrument-based registration and alignment for augmented reality environments
US11786206B2 (en) 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146758A (en) 2016-02-17 2017-08-24 株式会社菊池製作所 Overlapping image display system
WO2018063528A1 (en) 2016-08-16 2018-04-05 Insight Medical Systems, Inc. Systems for sensory augmentation in medical procedures
US20180247128A1 (en) 2017-02-28 2018-08-30 Digital Surgery Limited Surgical tracking and procedural map analysis tool

Also Published As

Publication number Publication date
WO2020102761A1 (en) 2020-05-22
US20200159313A1 (en) 2020-05-21
US20240248530A1 (en) 2024-07-25
US20220291741A1 (en) 2022-09-15
JP2022507622A (en) 2022-01-18
US11989338B2 (en) 2024-05-21
KR20210104715A (en) 2021-08-25
EP3880110A4 (en) 2023-01-11
EP3880110A1 (en) 2021-09-22
EP4461254A2 (en) 2024-11-13
US11287874B2 (en) 2022-03-29

Similar Documents

Publication Publication Date Title
JP7519354B2 (en) Using Optical Code in Augmented Reality Displays
CN109419524B (en) Control of medical imaging system
JP6400793B2 (en) Generating image display
US11989341B2 (en) Alignment of medical images in augmented reality displays
US12016633B2 (en) Alignment of medical images in augmented reality displays
EP2951779B1 (en) Three-dimensional image segmentation based on a two-dimensional image information
WO2019221908A1 (en) Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
US11948265B2 (en) Image data set alignment for an AR headset using anatomic structures and data fitting
EP1787594A2 (en) System and method for improved ablation of tumors
JP6548110B2 (en) Medical observation support system and 3D model of organ
WO2023097067A1 (en) Transfer of alignment accuracy between visible markers used with augmented reality displays
US11941765B2 (en) Representation apparatus for displaying a graphical representation of an augmented reality
US20240144497A1 (en) 3D Spatial Mapping in a 3D Coordinate System of an AR Headset Using 2D Images
CN117677358A (en) Augmented reality system and method for stereoscopic projection and cross-referencing of intra-operative field X-ray fluoroscopy and C-arm computed tomography imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240708

R150 Certificate of patent or registration of utility model

Ref document number: 7519354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150